Refine
Year of publication
Document Type
- Doctoral Thesis (593) (remove)
Has Fulltext
- yes (593)
Is part of the Bibliography
- no (593) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (593) (remove)
In this work we study the non-equilibrium dynamics of a quark-gluon plasma, as created in heavy-ion collisions. We investigate how big of a role plasma instabilities can play in the isotropization and equilibration of a quark-gluon plasma. In particular, we determine, among other things, how much collisions between the particles can reduce the growth rate of unstable modes. This is done both in a model calculation using the hard-loop approximation, as well as in a real-time lattice simulation combining both classical Yang-Mills-fields as well as inter-particle collisions. The new extended version of the simulation is also used to investigate jet transport in isotropic media, leading to a cutoff-independent result for the transport coefficient $hat{q}$. The precise determination of such transport coefficients is essential, since they can provide important information about the medium created in heavy-ion collisions. In anisotropic media, the effect of instabilities on jet transport is studied, leading to a possible explanation for the experimental observation that high-energy jets traversing the plasma perpendicular to the beam axis experience much stronger broadening in rapidity than in azimuth. The investigation of collective modes in the hard-loop limit is extended to fermionic modes, which are shown to be all stable. Finally, we study the possibility of using high energy photon production as a tool to experimentally determine the anisotropy of the created system. Knowledge of the degree of local momentum-space anisotropy reached in a heavy-ion collision is essential for the study of instabilities and their role for isotropization and thermalization, because their growth rate depends strongly on the anisotropy.
ALICE (A Large Ion Collider Experiment), is the dedicated heavy-ion experiment at the Large Hadron Collider (LHC) at CERN. It is optimised to reconstruct and identify the particles created in a lead-lead collision with a centre of mass energy of 5.5TeV. The main tracking detector is a large-volume time-projection chamber (TPC). With an active volume of about 88m^3 and a total readout area of 32.5m^2 it is the most challenging TPC ever build. A central electrode divides the 5m long detector into two drift regions. Each readout side is subdivided into 18 inner and 18 outer multi-wire proportional read-out chambers. The readout area is subdivide into 557568 pads, where each pad is read out by and electronics chanin. A complex calibration is needed in order to reach the design position-resolution of the reconstructed particle tracks of about 200um. One part of the calibration lies in understanding the electronic-response. The work at hand presents results of the pedestal and noise behaviour of the front-end electronics (FEE), measurements of the pulse-shaping properties of the FEE using results obtained with a calibration pulser and measurements performed with the laser-calibration system. The data concerned were taken during two phases of the TPC commissioning. First measurements were performed in the clean room where the TPC was built. After the TPC was moved underground and built into the experiment, a second round of commissioning took place. Noise measurements in the clean room revealed a very large fraction of pads with noise values larger than the design specifications. The unexpected high noise values could be explained by the 'ground bounce' effect. Two modifications helped to reduce this effect: A desynchronisation in the the start of the readout of groups of channels and a modification in the grounding scheme of the FEE. Further noise measurements were carried out after the TPC has been moved to the experimental area underground. Here even a larger fraction of channels showed too large noise values. This could be traced back to a common mode current injected by the electronics power supplies. To study the shaping properties of the FEE a calibration pulser was used. To generate signals in the FEE a pulse is injected to the cathode wires of the read-out chambers. Due to manufacturing tolerances slight channel-by-channel variations of the shaping properties are expected. This effects the determination of the arrival time as well as the measured integral signal of the induced charge and has to be corrected. The measured arrival time variations follow a Gaussian distribution with a width (sigma) of 6.2ns. This corresponds to an error of the cluster position of about 170um. The charge variations are on the level of 2.8%. In order to reach the intrinsic resolution on the measurement of the specific energy loss of the particles (6%) those variations have to be taken into account. The photons of the laser-calibration system are energetic enough to emit photo electrons off metallic surfaces. Most interesting for the detector calibration are photo electrons from the central electrode. The laser light is intense enough to get a signal in all readout channels of the TPC. Since the central electrode is a smooth surface, differences in the arrival time between sectors reveal mechanical displacements of the readout sectors and can be used to correct for this effect. In addition the measurements can be used to determine the electron drift velocity in the TPC gas. The drift velocity measurements have shown a vertical as well as a radial gradient. The first can be explained by the temperature gradient, which naturally builds up in the 5m high detector. The second gradient is most probably caused by a relative conical deformation of the readout plane and the central electrode.
A new era in experimental nuclear physics has begun with the start-up of the Large Hadron Collider at CERN and its dedicated heavy-ion detector system ALICE. Measuring the highest energy density ever produced in nucleus-nucleus collisions, the detector has been designed to study the properties of the created hot and dense medium, assumed to be a Quark-Gluon Plasma.
Comprised of 18 high granularity sub-detectors, ALICE delivers data from a few million electronic channels of proton-proton and heavy-ion collisions.
The produced data volume can reach up to 26 GByte/s for central Pb–Pb
collisions at design luminosity of L = 1027 cm−2 s−1 , challenging not only the data storage, but also the physics analysis. A High-Level Trigger (HLT) has been built and commissioned to reduce that amount of data to a storable value prior to archiving with the means of data filtering and compression without the loss of physics information. Implemented as a large high performance compute cluster, the HLT is able to perform a full reconstruction of all events at the time of data-taking, which allows to trigger, based on the information of a complete event. Rare physics probes, with high transverse momentum, can be identified and selected to enhance the overall physics reach of the experiment.
The commissioning of the HLT is at the center of this thesis. Being deeply embedded in the ALICE data path and, therefore, interfacing all other ALICE subsystems, this commissioning imposed not only a major challenge, but also a massive coordination effort, which was completed with the first proton-proton collisions reconstructed by the HLT. Furthermore, this thesis is completed with the study and implementation of on-line high transverse momentum triggers.
Different approaches are possible when it comes to modeling the brain. Given its biological nature, models can be constructed out of the chemical and biological building blocks known to be at play in the brain, formulating a given mechanism in terms of the basic interactions underlying it. On the other hand, the functions of the brain can be described in a more general or macroscopic way, in terms of desirable goals. This goals may include reducing metabolic costs, being stable or robust, or being efficient in computational terms. Synaptic plasticity, that is, the study of how the connections between neurons evolve in time, is no exception to this. In the following work we formulate (and study the properties of) synaptic plasticity models, employing two complementary approaches: a top-down approach, deriving a learning rule from a guiding principle for rate-encoding neurons, and a bottom-up approach, where a simple yet biophysical rule for time-dependent plasticity is constructed.
We begin this thesis with a general overview, in Chapter 1, of the properties of neurons and their connections, clarifying notations and the jargon of the field. These will be our building blocks and will also determine the constrains we need to respect when formulating our models. We will discuss the present challenges of computational neuroscience, as well as the role of physicists in this line of research.
In Chapters 2 and 3, we develop and study a local online Hebbian self-limiting synaptic plasticity rule, employing the mentioned top-down approach. Firstly, in Chapter 2 we formulate the stationarity principle of statistical learning, in terms of the Fisher information of the output probability distribution with respect to the synaptic weights. To ensure that the learning rules are formulated in terms of information locally available to a synapse, we employ the local synapse extension to the one dimensional Fisher information. Once the objective function has been defined, we derive an online synaptic plasticity rule via stochastic gradient descent.
In order to test the computational capabilities of a neuron evolving according to this rule (combined with a preexisting intrinsic plasticity rule), we perform a series of numerical experiments, training the neuron with different input distributions.
We observe that, for input distributions closely resembling a multivariate normal distribution, the neuron robustly selects the first principal component of the distribution, showing otherwise a strong preference for directions of large negative excess kurtosis.
In Chapter 3 we study the robustness of the learning rule derived in Chapter 2 with respect to variations in the neural model’s transfer function. In particular, we find an equivalent cubic form of the rule which, given its functional simplicity, permits to analytically compute the attractors (stationary solutions) of the learning procedure, as a function of the statistical moments of the input distribution. In this way, we manage to explain the numerical findings of Chapter 2 analytically, and formulate a prediction: if the neuron is selective to non-Gaussian input directions, it should be suitable for applications to independent component analysis. We close this section by showing how indeed, a neuron operating under these rules can learn the independent components in the non-linear bars problem.
A simple biophysical model for time-dependent plasticity (STDP) is developed in Chapter 4. The model is formulated in terms of two decaying traces present in the synapse, namely the fraction of activated NMDA receptors and the calcium concentration, which serve as clocks, measuring the time of pre- and postsynaptic spikes. While constructed in terms of the key biological elements thought to be involved in the process, we have kept the functional dependencies of the variables as simple as possible to allow for analytic tractability. Despite its simplicity, the model is able to reproduce several experimental results, including the typical pairwise STDP curve and triplet results, in both hippocampal culture and layer 2/3 cortical neurons. Thanks to the model’s functional simplicity, we are able to compute these results analytically, establishing a direct and transparent connection between the model’s internal parameters and the qualitative features of the results.
Finally, in order to make a connection to synaptic plasticity for rate encoding neural models, we train the synapse with Poisson uncorrelated pre- and postsynaptic spike trains and compute the expected synaptic weight change as a function of the frequencies of these spike trains. Interestingly, a Hebbian (in the rate encoding sense of the word) BCM-like behavior is recovered in this setup for hippocampal neurons, while dominating depression seems unavoidable for parameter configurations reproducing experimentally observed triplet nonlinearities in layer 2/3 cortical neurons. Potentiation can however be recovered in these neurons when correlations between pre- and postsynaptic spikes are present. We end this chapter by discussing the relation to existing experimental results, leaving open questions and predictions for future experiments.
A set of summary cards of the models employed, together with listings of the relevant variables and parameters, are presented at the end of the thesis, for easier access and permanent reference for the reader.
Zahlreiche physikalische Prozesse, wie Bremsstrahlung, Synchrotronstrahlung oder Radiative Rekombination verursachen die Emission linear hochpolarisierter Röntgenstrahlung. Dennoch wird technisch nutzbare hochpolarisierte Röntgenstrahlung derzeit fast ausschließlich von einigen wenigen hochspezialisierten Synchrotronlichtquellen oder Freie Elektronen Lasern zur Verfügung gestellt. In der vorliegenden Arbeit wurde der Radiative Einfang in die K-Schale von nacktem Xenon verwendet, um erstmals eine Quelle einstellbarer, monoenergetischer sowie hochpolarisierter Röntgenstrahlung (97%) in einer Speicherringumgebung zu realisieren. Zum Nachweis der Polarisation der Strahlung wurde erstmals auch ein neuartiger orts-, zeit- und energieauflösender Si(Li) Streifendetektor als Röntgenpolarimeter eingesetzt, mit dem die Beschränkungen traditioneller Compton - Polarimeter umgangen werden können. Der gemessene Grad hoher linearer Polarisation, der mit den Vorhersagen durch die Theorie übereinstimmt, ist durchaus bemerkenswert, da die hochpolarisierte Röntgensstrahlung in einem Stoßprozess zwischen einem unpolarisierten Ionenstrahl und einem unpolarisierten Gasjet zustande kam. Dies bedeutet, dass der Radiative Elektroneneinfang ein ideales Werkzeug darstellt, um hochpolarisierte, energetisch frei wählbare Röntgenstrahlung in einer Speicherringumgebung zu erzeugen. Die Entwicklung der neuen 2D Detektortechnologie eröffnet auch Möglichkeiten zur experimentellen Untersuchung der Details atomphysikalischer Vorgänge. So konnte im Rahmen dieser Arbeit durch die Kombination des verwendeten Detektors und der Beschleunigereinrichtung der GSI erstmals experimentell die lineare Polarisation der Strahlung des Radiativen Elektroneneinfangs in die energetisch partiell aufgelösten L-Unterschalen von nacktem Uran bestimmt werden. Zudem wurden neue und präzisere Werte für die Polarisation der Einfangstrahlung in die K-Schalen von nacktem und wasserstoffähnlichem Uran gemessen. Die theoretischen Vorhersagen zeigten eine starke Sensitivität von Messungen linearer Polarisation der bei dem Radiativen Elektroneneinfang emittierten Strahlung auf den Einfluss der insbesondere bei Schwerionen - Atom - Stößen zu berücksichtigenden höheren Ordnungen der Multipolentwicklung. Während die Effekte bei der Messung von Winkelverteilungen des Radiativen Elektroneneinfangs gerade bei den kleineren Winkeln im Bezug auf die Ionenstrahlachse im Laborsystem vergleichsweise gering ausfallen, ist hier ein sehr ausgeprägter Effekt der Depolarisation zu beobachten. Hier liegt der wesentliche Unterschied zwischen den in dieser Arbeit vorgestellten Messungen der linearen Polarisation der Strahlung des Radiativen Einfangs in Xenon sowie in Uran. Das Auftreten der starken Depolarisation veranschaulicht die starke Abhängigkeit der Polarisationscharakteristik des REC-Prozesses von der Kernladungszahl des Projektils. Abschließend sei der Schritt zu der erstmals für diese Arbeit verwendeten Messtechnik mit einem hochaufgelösten Streifendetektor hervorgehoben. Im Gegensatz zu früheren Polarisationsmessungen mit grob dimensionierten Pixeldetektoren waren zu der Gewinnung der hier vorgestellten Messungen praktisch keinerlei zusätzliche Annahmen oder Simulationen zu der Interpretation der gewonnenen Winkelverteilungen notwendig. So konnte mit dem System bereits während des Experimentes eine erste Abschätzung der linearen Polarisation der beobachteten Strahlung durchgeführt werden. Diese Tatsache wird es in naher Zukunft ermöglichen, das für die niederenergetische Röntgenstrahlung weitgehend neue ”Fenster” polarimetrischer Messungen für weitere atomphysikalische Prozesse zu öffnen.
Nanomaterials, i.e., materials that are manufactured at a very small spatial scale, can possess unique physical and chemical properties and exhibit novel characteristics as compared to the same material without nanoscale features. The reduction of size down to the nanometer scale leads to the abundance of potential applications in different fields of technology. For instance, tailoring the physicochemical properties of nanomaterials for modification of their interaction with a biological environment has been reflected in a number of biomedical applications.
Strategies to choose the size and the composition of nanoscale systems are often hindered by a limited understanding of interactions that are difficult to study experimentally. However, this goal can be achieved by means of advanced computer simulations. This thesis explores, from a theoretical and a computational viewpoints, stability, electronic and thermo-mechanical properties of nanoscale systems and materials which are related to biomedical applications.
We examine the ability of existing classical interatomic potentials to reproduce stability and thermo-mechanical properties of metal systems, assuming that these potentials have been fitted to describe ground-state properties of the perfect bulk materials.
It is found that existing classical interatomic potentials poorly describe highly-excited vibrational states when the system is far from the potential energy minimum. On the other hand, construction of a reliable computational model is essential for further development of nanomaterials for applications. A new interatomic potential that is able to correctly reproduce both the melting temperature and the ground-state properties of different metals, such as gold, platinum, titanium, and magnesium, by means of classical molecular dynamics simulations is proposed in this work. The suggested modification of a many-body potential has a general nature and can be utilized for similar numerical exploration of thermo-mechanical properties of a broad range of molecular and solid state systems experiencing phase transitions.
The applicability of the classical interatomic potentials to the description of nanoscale systems, consisting of several tens-hundreds of atoms, is also explored in this study. This issue is important, for instance, in the case of nanostructured materials, where grains or nanocrystals have a typical size of about a few nanometers. We validate classical potentials through the comparison with density-functional theory calculations of small
atomic clusters made of titanium and nickel. By this analysis, we demonstrate that the classical potentials fitted to describe ground-state properties of a bulk material can describe the energetics of nanoscale systems with a reasonable accuracy.
In this work, we also analyze electronic properties of nanometer-size nanoparticles made of gold, platinum, silver, and gadolinium; nanoparticles composed of these materials are of current interest for radiation therapy applications. We focus on the production of low-energy electrons, having the kinetic energy from a few electronvolts to several tens of electronvolts. It is currently established that the low-energy secondary electrons of such energies play an important role in the nanoscale mechanisms of biological damage resulting from ionizing radiation. We provide a methodology for analyzing the dynamic response of nanoparticles of the experimentally relevant sizes, namely of about several nanometers, exposed to ionizing radiation. Because of a large number of constituent atoms (about 1000 −10000 atoms) and consequently high computational costs, the electronic properties of such systems can hardly be described by means of ab initio methods based on a quantum-mechanical treatment of electrons, and this analysis should rely on model approaches. By comparing the response of smaller systems (of about 1 nm size) calculated within the ab initio- and the model framework, we validate this methodology and make predictions for the electron production in larger systems.
We have revealed that a significant increase in the number of the low-energy electrons emitted from nanometer-size noble metal nanoparticles arises from collective electron excitations formed in the systems. It is demonstrated that the dominating mechanisms of electron yield enhancement are related to the formation of plasmons excited in a whole system and of atomic giant resonances formed due to excitation of valence d electrons in individual atoms of a nanoparticle. Being embedded in a biological medium, the noble metal nanoparticles thus represent an important source of low-energy electrons, able to produce a significant irrepairable damage in biological systems.
A general methodology for studying electronic properties of nanosystems is used to make quantitative predictions for electron production by non-metal nanoparticles. The analysis illustrates that due to a prominent collective response to an external electric field, carbon nanoparticles embedded in a biological medium also enhance the production of low-energy electrons. The number of low-energy electrons emitted from carbon nanoparticles is demonstrated to be several times higher as compared to the case of liquid water.
The equation of state (EoS) of matter at extremely high temperatures and densities is currently not fully understood, and remains a major challenge in the field of nuclear physics. Neutron stars harbor such extreme conditions and therefore serve as celestial laboratories for constraining the dense matter EoS. In this thesis, we present a novel algorithm that utilizes the idea of Bayesian analysis and the computational efficiency of neural networks to reconstruct the dense matter equation of state from mass-radius observations of neutron stars. We show that the results are compatible with those from earlier works based on conventional methods, and are in agreement with the limits on tidal deformabilities obtained from the gravitational wave event, GW170817. We also observe that the resulting squared speed of sound from the reconstructed EoS features a peak, indicating a likely convergence to the conformal limit at asymptotic densities, as expected from quantum chromodynamics. The novel algorithm can also be applied across various fields faced with computational challenges in solving inverse problems. We further examine the efficiency of deep learning methods for analyzing gravitational waves from compact binary coalescences in this thesis. In particular, we develop a deep learning classifier to segregate simulated gravitational wave data into three classes: signals from binary black hole mergers, signals from binary neutron star mergers, or white noise without any signals. A second deep learning algorithm allows for the regression of chirp mass and combined tidal deformability from simulated binary neutron star mergers. An accurate estimation of these parameters is crucial to constrain the underlying EoS. Lastly, we explore the effects of finite temperatures on the binary neutron star merger remnant from GW170817. Isentropic EoSs are used to infer the frequencies of the rigidly rotating remnant and are noted to be significantly lower compared to previous estimates from zero temperature EoSs. Overall, this thesis presents novel deep learning methods to constrain the neutron star EoS, which will prove useful in future, as more observational data is expected in the upcoming years.
Construction and commissioning of a setup to study ageing phenomena in high rate gas detectors
(2014)
In high-rate heavy-ion experiments, gaseous detectors encounter big challenges in terms of degradation of their performance due to a phenomenon dubbed ageing. In this thesis, a setup for high precision ageing studies has been constructed and commissioned at the GSI detector laboratory. The main objective is the study of ageing phenomena evoked by materials used to build gaseous detectors for the Compressed Baryonic Matter (CBM) experiment at the future Facility for Antiproton and Ion Research (FAIR).
The precision of the measurement, e.g., of the gain of a gaseous detector, is a key element in ageing studies: it allows to perform the measurement at realistic rates in an acceptable time span. It is well known the accelerating ageing employing high intensity sources might produce misleading results. The primary objective is to build an apparatus which allows very accurate measurements and is thus sensitive to minute degradations in detector performance. The construction and commissioning of the
setup has been carried out in two steps. During the first step of this work, a simpler setup which already existed in the detector laboratory of GSI had been utilised to define all conditions related to ageing studies. The outcome of these studies defined the properties and characteristics that must be met to build and operate a new, sophisticated and precise setup. The already existing setup consisted of two identical Multi Wire Proportional Chambers (MWPCs), a gas mixing station, an 55Fe source, an x-ray generator, an outgassing box and stainless steel tubing. In a first step, the gain and electric field configuration of the MWPCs were simulated by a combination of a gas simulation (Magboltz) and electric field simulation program (Garfield). The performance and operating conditions of the chambers have been thoroughly characterised before utilising them in first preparatory ageing test. The main diagnostic parameter in ageing studies is the detector gain, thus it is mandatory for precise ageing studies to minimise the systematic and statistical variation of the pressure and temperature corrected gain. To achieve the required accuracy, several improvements of the chamber design and the gas system have been implemented. In addition, the temperature measurement has been optimised. During the preparatory tests, several ageing studies have been carried out. The ageing effect of seven materials and gases have been carried out during these tests: RTV-3145, Ar/CO2 gas, Durostone flushed with Ar/Isobutane gas, Vetronit G11, Vetronit G11 contaminated with Micro 3000 and Gerband 705. The results of these studies went into the design of the new sophisticated ageing setup. For example some tests revealed that there was, even after cleaning, a certain level of contamination with "ageing agents" in the existing setup, which made it imperative to ensure a very high level cleanness of all components during the construction of the setup. The curing period of some testing samples like glues or the gas flow rate were found to be very important factors that must be taken into account to obtain comparable results. Very important changes in the chamber design have been made, i.e., the aluminium-Kapton cathodes used in MWPCs have been replaced with multi-wire planes and the fibreglass housing of the chamber has been changed to metal. The second step started with building the new setup which was designed based on the findings from the first step. The new ageing setup consists of three MWPCs, two moving platforms, an 55Fe source, a copper-anode x-ray generator, two outgassing boxes, both flexible and rigid stainless steel tubes. Before fabrication of the chambers, simulations of their electric field and the gain have been done using Magboltz and Garfield programs. After that, the chambers were installed and tested. A 0.3% peak-to-peak residual variation of the corrected gain has been achieved. Finally, the complete setup has been operated with full functionality in no-ageing conditions during one week. This test revealed very stable gain in all three chambers. After that two materials (Gerban 705 and RTV-3145) have been inserted in the two outgassing boxes and tested. They revealed an ageing rate of about 0.3%/mC/cm and 3%/mC/cm respectively. The final test proves the stability and accuracy of the ageing measurements carried out with the ageing setup at the detector laboratory at GSI which is ready to conduct the envisaged systematic ageing studies.
In der Experimentierhalle der Physik am Campus Riedberg der Goethe – Universität wird gegenwärtig die Beschleunigeranlage FRANZ aufgebaut. FRANZ steht für Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum. Die Anlage bietet vielfältige Experimentiermöglichkeiten in der Untersuchung intensiver, gepulster Protonenstrahlen. Ein Forschungsschwerpunkt an den sekundären Neutronenstrahlen sind Messungen zur nuklearen
Astrophysik. Die Neutronen werden durch einen 2 MeV Protonenstrahl mittels der Reaktion 7Li (p, n) 7Be erzeugt. Die geplanten Experimente erfordern sowohl eine hier weltweit erstmals realisierte Pulsrepetitionsrate von bis zu 250 kHz bei Pulsströmen im 100 mA – Bereich als auch eine extreme Pulskompression auf eine Nanosekunde bei dann auftretenden Pulsströmen im Ampere – Bereich. Daneben ist auch ein Dauerstrich – Strahlbetrieb im mA – Strombereich möglich. Auch viele einzelne Beschleunigerkomponenten wie die Ionenquelle, der Chopper zur Pulsformung, die hochfrequent gekoppelte RFQ-IH-Kombination, der Rebuncher in Form einer CH – Struktur und der Bunchkompressor sind Neuentwicklungen. Mittlere Strahlleistungen von bis zu 24 kW treten im Niederenergiestrahltransportbereich auf, da die Ionenquelle grundsätzlich im Dauerstrich zu betreiben ist, auch bei Hochstrom mit hohen Pulsrepetitionsraten. Der Personen- und Geräteschutz spielt damit auch eine wesentliche Rolle bei der Auslegung des Kontrollsystems für FRANZ. Der Aufbau von FRANZ und seine wesentlichen Komponenten werden in Kapitel 2 erläutert. Die vielen unterschiedlichen Komponenten wie Hochspannungsbereich, Magneten, Hochfrequenzbauteile und Kavitäten, Vakuumbauteile, Strahldiagnose und Detektoren machen plausibel, dass auch das Kontrollsystem für eine solche Anlage speziell ausgelegt werden muss. In Kapitel 4 werden zum Vergleich die Konzepte zur Steuerung und Regelung aktueller, großer Beschleunigerprojekte aufgezeigt, nämlich für die „European Spallation Source ESS“ und für die „Facility for Antiproton and Ion Research FAIR“. In der vorliegenden Arbeit wurde die Ionenquelle als komplexe Beschleunigerkomponente ausgewählt, um Entwicklungen zur Steuerung und Regelung durchzuführen und zu testen. Zum Anfahren und Betreiben der Ionenquelle wurde ein Flussdiagramm (Abb. 5.15) entwickelt und realisiert. Im Detail wurden Untersuchungen zur Abhängigkeit der Heizkathodenparameter von der Betriebsdauer gemacht. Daraus konnte ein Algorithmus zur Vorhersage eines rechtzeitigen Filamentaustausches abgeleitet werden. Weiterhin konnte die Nachregelung des Kathodenheizstromes automatisiert werden, um damit die Bogenentladungsspannung innerhalb eines Intervalls von ± 0.5 V zu stabilisieren. Das Anfahren des Filamentstroms wurde ebenfalls automatisiert. Dazu wird die Vakuumdruckänderung in Abhängigkeit der Filamentstromerhöhung gemessen, ausgewertet und daraus der nächste erlaubte Stromerhöhungsschritt abgeleitet. Auf diese Weise wird der Betriebszustand schneller und kontrollierter erreicht als bei manuellem Hochfahren. Das Ziel eines unbemannten Ionenquellenbetriebs ist damit näher gerückt. In einem ersten Test zur Komponentensteuerung und zur Datenaufnahme wurde ein Ionenstrahl extrahiert und durch den ersten Fokussierungsmagneten – einen Solenoiden – transportiert. Es wurde der Erregungsstrom des Solenoiden sowie die Strahlenergie automatisch durchgefahren, die Daten abgespeichert und daraus ein Kontourplot zum gemessenen Strahlstrom hinter der Fokussierlinse erstellt (Abb. 5). Die vorliegende Arbeit beschäftigt sich nur mit den „langsamen“ Steuerungs- und Regelungsprozessen, während die schnellen Prozesse im Hochfrequenzregelungssystem unabhängig geregelt werden. Neben der Überwachung des Betriebszustandes aller Komponenten werden auch alle für den Service und die Personensicherheit benötigten Daten weggeschrieben. Das System basiert auf MNDACS (Mesh Networked Data Acquisition and Control System) und ist in JAVA geschrieben. MNDACS besteht aus einem Kernel, welcher die Komponententreiber-Software sowie den Netzwerkserver und das graphische Netzwerkinterface (GUI) betreibt. Weterhin gehört dazu das Driver Abstraction Layer (DAL), welches den Zugang zu weiteren Computern oder zu lokalen Treibern ermöglicht. CORBA stellt die Middleware für Netzwerkkommunikation dar. Dadurch wird Kommunikation mit externer Software geregelt, weiterhin wird die Umlegung von Kommunikation im Fall von Leitungsunterbrechungen oder einem lokalen Computerabsturz festgelegt. Es gibt bei FRANZ zwei Kontrollebenen: Über Ethernet läuft die „High Level Control“ und die Datenverarbeitung. Über die „Low Level Control“ läuft das Interlock – und Sicherheitssystem. Die Netzwerkverbindungen laufen über 1 Gb Ethernet Links, womit ein schneller Austausch auch bei lokalen Netzwerkstörungen noch möglich ist. Um bei Stromausfällen das Computersystem am Laufen zu halten, wurde im Rahmen dieser Arbeit ein „Uninterruptable Power Supply“ UPS beschafft und erfolgreich am Hochspannungsterminal getestet.
The subject of this thesis aimed at a better understanding of the spectacular X-ray burst. The most likely astrophysical site is a very dense neutron star, which accretes H/He-rich matter from a close companion. While falling towards the neutron star, the matter is heated up and a thermonuclear runaway is ignited. The exact description of this process is dominated by the properties of a few proton-rich radioactive isotopes, which have a low interaction probability, hence a high abundance.
The topic of this thesis was therefore an investigation of the short-lived, proton-rich isotopes 31Cl and 32Ar. The Coulomb dissociation method is the modern technique of choice. Excitations with energies up to 20 MeV can be induced by the Lorentz contracted Coulomb field of a lead target. At the GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt, Germany, a Ar beam was accelerated to an energy of 825 AMeV and fragmented in a beryllium target. The fragment separator was used to select the desired isotopes with a remaining energy of 650 AMeV. They were subsequently directed onto a 208 Pb target in the ALAND/LAND setup. The measurement was performed in inverse kinematics. All reaction products were detected and inclusive and exclusive measurements of the respective Coulomb dissociation cross sections were possible.
During the analysis of the experiment, it was possible to extract the energy-differential excitation spectrum of 31Cl, and to constrain astrophysically important parameters for the time-reversed 30S(p,γ)31Cl reaction. A single resonance at 0.443(37) MeV dominates the stellar reaction rate, which was also deduced and compared to previous calculations.
The integrated Coulomb dissociation cross section of this resonance was determined to 15(6) mb. The astrophysically important one- and two-proton emission channels were analyzed for 32Ar and energy-differential excitation spectra could be derived. The integrated Coulomb dissociation cross section for two proton emission were determined with two different techniques. The inclusive measurement yields a cross section of 214(29stat)(20sys) mb, whereas the exclusive reconstruction results in a cross section of 226(14stat)(23sys) mb. Both results are in very good agreement. The Coulomb dissociation cross section for the one-proton emission channel is extracted solely from the exclusive measurement and is 54(8stat)(6sys) mb.
Furthermore, the development of the Low Energy Neutron detector Array (LENA) for the upcoming R3B setup is described. The detector will be utilized in charge-exchange reactions to detect the low-energy recoil neutrons from (p,n)-type reactions. These reaction studies are of particular importance in the astrophysical context and can be used to constrain half lifes under stellar conditions. In the frame of this work, prototypes of the detector were built and successfully commissioned in several international laboratories.
The analysis was supported by detailed simulations of the detection characteristics.
Within the present work, photodissociation reactions on 100Mo, 93Mo and 92Mo isotopes were studied by means of the Coulomb dissociation method at the LAND setup at GSI. Experimental data on these isotopes are important to explain the problem of the underproduction of the lighter p-nuclei - 92; 94Mo - within the models of the p-process nucleosynthesis. The reaction rates used in the nucleosynthesis calculations are usually obtained within the framework of the statistical model. In order to verify the model predictions and reduce the uncertainties, experimental measurements of the reaction cross sections are required. In particular, the data on (γ,n) reactions are of interest, since these reactions were shown to dominate the p-process flow in the molybdenum mass region.
As a result of the analysis of the present experiment, integrated Coulomb excitation cross sections of the 100Mo(γ,n), 100Mo(γ,2n), 93Mo(γ,n) and 92Mo(γ,n) reactions were determined. The measurement of the 93Mo isotope is particularly important, since this nucleus is unstable, and the corresponding cross section has not been measured before.
It should be emphasized that Coulomb dissociation is a unique tool to study photoninduced reactions on unstable nuclei, which is especially relevant in the context of nucleosynthesis network calculations. However, because of to the complexity of the data analysis procedure and a number of model assumptions that are required in order to extract the Coulomb excitation cross section from the data, one of the main aspects of this thesis was to verify the method by comparing the results with the previously published data obtained with real photon beams. Integrated cross sections of the 100Mo(γ,n) and 100Mo(γ,2n) reactions were directly compared to the data by Beil et al., obtained at Saclay with photons from positron annihilation, while an indirect comparison could be performed with a recent photoactivation measurement by Erhard and co-workers. A reasonable agreement was observed for the 1n channel: a scaling factor of 0.8 ± 0.1 between our result and Beil et al. data is consistent with the scaling factor of 0.89±0.09 reported by Erhard et al. between their data and Beil et al. data. Both results are in agreement with the scaling factor of 0.85 ± 0.03 recommended by Berman et al. for the data measured at Saclay on nuclei in the respective mass region. A somewhat lower factor of 0.61 ± 0.09 between the present data and Beil et al. data was obtained for the 2n channel. The discrepancy might be explained by both the substantial efficiency correction that has to be applied to the LAND data in the two-neutron case, as well as by an insufficiently accurate assumption that the Saclay neutron detector efficiency is energy- and multiplicity- independent.
A second important topic of the present thesis is the investigation of the efficiency of the CsI gamma detector. The calorimetric information that it delivers is essential to reconstruct the energy-differential cross section from the present measurement. The data taken with the gamma calibration sources shortly after the experiment were used for the investigation. In addition, a test experiment in refined conditions was conducted within the framework of this thesis. Numerous GEANT3 simulations of the detector were performed in order to understand various aspects of its performance. As a result, the efficiency of the detector was determined to be approximately a factor of 2 lower than the efficiency expected from the simulation. This result is consistent with several independent investigations, which were performed using different methods. At the same time, a remarkable agreement between the simulated and experimental data was achieved under assumption that the inefficiency of the detector is explained by the loss of data from a number of crystals, which are randomly chosen in each event according to their averaged performance ratio (the ”on-off” effect). The reasons for the observed malfunction are yet not fully clear. Regardless of the exact reason, in the present conditions a deconvolution of the measured data from the CsI response is not possible. Consequently, within the framework of this thesis, the results are presented in terms of integrated cross sections. A search for alternative methods of data interpretation, allowing to extract energy-differential information out of the available data, in currently ongoing.
In the more recent experiments at the LAND setup, where the Crystal Ball gamma detector was used as a calorimeter, the reconstruction of the energy-differential cross section with a reasonable resolution was already shown to be feasible. It means that, even considering the uncertainties of the present experiment of the order of 10%, the uncertainties of the statistical model predictions, which are on average estimated to be within a factor of 1.5-2, can already be constrained.
The analysis of the present experiment is still in progress. As a next step, Coulomb excitation cross section for 94Mo will be obtained. The 94Mo(γ,n) reaction cannot be studied by photoactivation, since the life time of the daughter nucleus is too long (4000 y). At the same time, this reaction plays a key role in the p-process nucleosynthesis.
The future of the LAND setup - the R3B setup1 at FAIR2 - will take advantage of a three orders of magnitude higher intensity of the radioactive beams [85], as well as of a completely new detector system. High-resolution measurements of the energy-differential cross sections will be possible for exotic nuclei, which were never accessible in the laboratory before. Such measurements will open great opportunities for nuclear astrophysics, allowing to obtain high-quality experimental data even for regions of the nuclear chart where the statistical model calculations are not applicable.
The planned Facility for Antiproton and Ion Research (FAIR) at GSI has to cope with a wide range of beam intensities in its high-energy beam transport systems and in the storage rings. To meet the requirements of a non-intercepting intensity measurement down to nA range, it is planned to install a number of Cryogenic Current Comparator (CCC) units at different locations in the FAIR beamlines. In this work, the first CCC system for intensity measurement of heavy ion beams, which was developed at GSI, was re-commissioned and upgraded to be used as a 'GSI - CCC prototype' for extensive optimization and development of an improved CCC for FAIR. After installation of a new SQUID sensor and related electronics, as well as implementation of improved data acquisition components, successful beam current measurements were performed at a SIS18 extraction line. The measured intensity values were compared with those of a Secondary Electron Monitor (SEM). Furthermore, the spill-structure of a slowly extracted beam was measured and analyzed, investigating its improvement due to bunching during the slow-extraction process. Due to the extreme sensitivity of the superconducting sensor, the determined intensity values as well as the adjustment of the system for optimal performance are strongly influenced by the numerous noise sources of the accelerators environment. For this reason, detailed studies of different effects caused by noise have been carried out, which are presented together with proposals to reduce them. Similarly, studies were performed to increase the dynamic range and overcome slew rate limitations, the results of which are illustrated and discussed as well. By combining the various optimizations and characterizations of the GSI CCC prototype with the experiences made during beam operation, criteria for a more efficient CCC System could be worked out, which are presented in this work. The details of this new design are worked out with respect to the corresponding boundary conditions at FAIR. Larger beam tube diameters, higher radiation resistivity and UHV requirements are of particular importance for the cryostat. At the same time these parameters affect the CCC superconducting magnetic shielding, which again has significant influence on the current resolution of the system. In order to investigate the influence of the geometry of the superconducting magnetic shield on different magnetic field components and to optimize the attenuation, FEM simulations have been performed. Based on the results of these calculations, modifications of the shield geometry for optimum damping behavior are proposed and discussed in the thesis.
Crystal growth and characterization of cerium- and ytterbium-based quantum critical materials
(2018)
In der Festkörperphysik werden heutzutage Themen wie Supraleitung, Magnetismus und Quantenkritikalität sowohl von experimenteller als auch von theoretischer Seite stark untersucht. Quantenkritikalität und Quantenphasenübergänge können in Systemen erforscht werden, für welche ein Kontroll Parameter existiert, durch den z.B. eine magnetische Ordnung soweit unterdrückt wird, bis der Phasenübergang bei Null Kelvin, bei einem quantenkritischen Punkt (QCP), stattfindet. Vorzugsweise wird quantenkritisches Verhalten an Einkristallen untersucht, da diese in sehr reiner Qualität gezüchtet werden können und da deren gemessenen physikalischen Eigenschaften ausschließlich intrinsisch sind und nicht durch Verunreinigungseffekte überlagert werden. Der Schwerpunkt dieser Arbeit lag auf der Züchtung von Einkristallen und der Charakterisierung von Materialien, die quantenkritische Phänomene aufweisen. Als Ausgangsstoffe dienten dabei Elemente höchstmöglicher Reinheit. Es wurden die Serie YbNi4(P1-xAsx)2 mit einem ferromagnetischen QCP bei x=0,1, die Verbindung YbRh2Si2 mit einem feldinduzierten QCP bei Bcrit = 60mT und die Serie Ce(Ru1-xFex)PO mit einem QCP bei x = 0,86 untersucht. Für alle Verbindungen wurde das Züchtungsverfahren entwickelt, dann wurden Einkristalle gezüchtet und charakterisiert. Die Züchtung wurde zum einen mittels der Bridgman-Methode, zum anderen mit der Czochralski Methode durchgeführt. Neben struktureller und chemischer Charakterisierung der Einkristalle mittels Röntgen-Pulverdiffraktometrie, Laue-Methode und Energie-dispersiver Röntgen-Spektroskopie, wurden auch deren spezifische Wärme, elektrischer Widerstand und Magnetisierung im Temperaturbereich 1,8 – 300 K untersucht. Im weiteren Verlauf wurden die Kristalle in verschiedenen Kooperationen untersucht und bis in den Tieftemperatur- Bereich (20 mK), bei YbRh2Si2 bis in den Submillikelvin-Bereich, charakterisiert. Ausserdem wurden im Rahmen dieser Dissertation Einkristalle weiterer antiferromagnetischer Verbindungen SmRh2Si2, GdRh2Si2, GdIr2Si2, HoRh2Si2 und HoIr2Si2 gezüchtet. Bei diesen Verbindungen stand die Untersuchung elektronischer Oberflächenzustände mittels winkelaufgelöster Photoemissionsspektroskopie im Vordergrund.
Ziel der vorliegenden Arbeit war die Untersuchung der elektrochemischen und spektroskopischen Eigenschaften der bc1-Komplexe aus dem Bodenbakterium Paracoccus denitrificans und der Hefe Saccharomyces cerevisiae im sichtbaren und infraroten Spektralbereich. Das redoxaktive Protein ist Bestandteil der Atmungskette und trägt entscheidend zum Aufbau eines Protonengradienten bei, der zur Bildung des universellen Energieträgers ATP genutzt wird. Der bakterielle P. denitrificans-Komplex besteht aus den drei katalytischen Untereinheiten Cytochrom b, Cytochrom c1 und Rieske-Protein. Der mitochondriale Hefe-bc1-Komplex besitzt neben diesen drei noch acht weitere Untereinheiten, die anscheinend für die Stabilität des Enzyms bedeutsam sind. Um Konformationsänderungen des Proteins infolge von Elektronen- und daran gekoppelten Protonentransferreaktionen zu dokumentieren, wurde der Komplex elektrochemisch in definierte Redoxzustände versetzt. Aus den in diesen Zuständen aufgenommenen Absorptionsspektren berechnen sich Differenzspektren, deren Banden auf die Redoxreaktion zurückzuführende Veränderungen im Protein widerspiegeln. Durch Vergleiche mit Modellspektren isolierter Proteinbestandteile, Spektren ähnlicher Proteine und Informationen aus Kristallstrukturen konnten Beiträge der verschiedenen Kofaktoren, des Proteinrückgrates und einzelner Aminosäuren zu diesen Banden zugeordnet werden. Die elektrochemisch induzierten FTIR-Differenzspektren des P. denitrificans-bc1-Komplexes zeigten vor allem Beiträge der im Komplex gebundenen Chinone, die durch den Vergleich mit Differenzspektren isolierter Chinone identifiziert werden konnten. Ein wichtiges Ergebnis war die Abschätzung der Chinonkonzentration im Protein anhand einer charakteristische Bande bei 1262 cm-1 resultierend aus Schwingungen der Chinon-Methoxygruppen. Das Ergebnis von durchschnittlich 3 Molekülen Chinon pro Protein-Monomer unterstützt das zur Zeit für die Qo-Bindestelle diskutierte double-occupancy-Modell. Interessanterweise konnte die Protonierung einer Glu/Asp-Aminosäureseitenkette in Abhängigkeit vom Chinongehalt beobachtet und daraus abgeleitet Signale eines an der Qo-Bindestelle gebundenen Chinons differenziert werden. Die Beiträge der Cytochrom b und c-Untereinheiten relativ zum Gesamtspektrum des P. denitrificans-bc1-Komplexes wurden mittels Differenzspektren der einzelnen Kofaktoren unterschieden. Anhand ihrer Mittelpunktpotentiale, die zuvor durch Potentialtitrationen im sichtbaren Spektralbereich bestimmt wurden (Häm bL: Em7=-292 mV vs. Ag/AgCl, Häm bH: -144 mV, Häm c1: 89 mV), konnten die Differenzsignale des jeweiligen Kofaktors und seiner durch die Redoxreaktion beeinflußten Umgebung durch Wahl geeigneter Potentialschritte separiert werden. Die Zuordnungen der Signale des Cytochrom c1 und des Rieske-Proteins, die spektroskopisch nicht getrennt werden können, wurden durch Messungen an wasserlöslichen Fragmenten dieser Untereinheiten abgesichert. In allen Spektren konnten typische Beiträge des Proteingrundgerüstes, Schwingungen der Häme und ihrer Substituenten sowie einzelner Aminosäuren vorläufig zugeordnet werden. Die Bindung von Inhibitoren führte zu deutlichen Veränderungen im FTIR-Differenzspektrum. Der Qi-Inhibitor Antimycin A zeigt eigene Differenzsignale im Bereich oberhalb 1734 cm-1, an denen die Bindung des Inhibitors im Protein nachvollzogen werden konnte. Sie führte zur Abnahme der Signalintensität einer Bande, die die Beeinflussung eines protonierten Hämpropionates oder Arginin-bzw. Asparaginseitenketten vermuten lassen. Die Bindung des Qo-Inhibitors Stigmatellin, der selbst redoxaktiv ist, äußerte sich in Veränderungen im Amid I-Bereich des Differenzspektrums. Die Deprotonierung einer Glu/Asp-Seitenkette infolge der Stigmatellinbindung wurde diskutiert. Die FTIR-Differenzspektren des S. cervisiae-bc1-Komplexes gleichen denen des bakteriellen Komplexes in Bezug auf die Bandenpositionen weitestgehend. Die Signalintensitäten sowie die Größenverhältnisse der Banden zueinander unterscheiden sich jedoch. Dies wird durch den geringeren Chinongehalt des Hefeproteins nach der Präparation bedingt. Der Einfluß fünf verschiedener Inhibitoren der Qi- und Qo-Bindestelle auf die Differenzspektren wurde untersucht. Dabei standen von zwei Substanzen isotopenmarkierte Varianten zur Verfügung, die tieferen Einblick in die genaue Wechselwirkung bei der Inhibitorbindung bringen sollte. Die Bindung der Inhibitoren führte zu Veränderungen in den Spektren. Sie wurden vor dem Hintergrund der Kristallstruktur betrachtet, die aufgrund ihrer Auflösung keine exakten Aussagen über den Protonierungszustand einzelner Proteinbestandteile liefern kann. Der Schwerpunkt der Studien lag auf den Vergleich der Qo- Inhibitoren Stigmatellin und HHDBT. Die Bindung von Stigmatellin führte wie im P. denitrificans-Komplex zur Deprotonierung einer Glu/Asp-Seitenkette. Die Inhibierung mit HHDBT resultierte in der Protonierung vermutlich der gleichen Glu/Asp-Seitenkette. Die Auswirkungen des unterschiedlichen Protonierungszustandes der Aminosäure in Anwesenheit dieser beiden Inhibitoren wurde im Kontext eines vermuteten Chinoloxidations-Mechanismus beleuchtet.
Die Theorie der Quantenelektrodynamik (QED) starker Felder sagt vorher, dass sich unter dem Einfluss sehr starker elektromagnetischer Felder der Vakuumzustand verändert. Überschreitet das äußere (im einfachsten Fall elektrostatische) Feld eine gewisse kritische Stärke, dann kommt es zur spontanen Erzeugung von Elektron-Positron-Paaren und im Gefolge zur Ausbildung eines geladenen Vakuums. Charakteristisch dafür sind gebundene Elektronenzustände mit einer Bindungsenergie von mehr als der doppelten Ruhenergie. Dieser Effekt wurde bisher meist für sphärisch symmetrische Systeme untersucht, insbesondere für das Coulombpotential eines schweren Kerns. In der vorliegenden Arbeit wird erkundet, wie sich das überkritische Phänomen beim Übergang von sphärischer zu zylindrischer Geometrie verhält. Dazu werden die Lösungen der Dirac-Gleichung für Elektronen im elektrostatischen Potential eines langen dünnen geladenen Zylinders ("geladener String") berechnen und darauf aufbauend das überkritische Phänomen untersucht. Da das logarithmische Potential eines unendlich langen Strings unbegrenzt anwächst, sollten alle Elektronzustände überkritisch sein (Möglichkeit des Tunnelns durch den Teilchen-Antiteilchen-Gap). Die Zentralladung sollte sich dann mit einer entgegengesetzt geladenen Hülle aus Vakuumelektronen umgeben und damit neutralisieren. Um diese Phänomene quantitativ zu beschreiben untersuchen wir die Lösungen der Poisson-Gleichung und der der Dirac-Gleichung in Zylindersymmetrie. Zunächst wird eine Reihenentwicklung für das elektrostatische Potential in der Mittelebene eines homogen geladenen Zylinders von endlicher Länge und endlichem Radius hergeleitet. Anschließend benutzen wir den Tetraden- (Vierbein-) Formalismus zur Separation der Dirac-Gleichung in Zylinderkoordinaten. Die resultierende entkoppelte radiale Dirac-Gleichung wird in eine Schrödinger-artige Form transformiert. Die gebundenen Zustände werden mit der Methode der uniformen Approximation, einer Variante der WKB-Näherung, berechnet und ihre Abhängigkeit von den Parametern Stringlänge, Stringradius und Potentialstärke wird studiert. Die Näherungsmethode wird auch benutzt, um den überkritischen Fall zu untersuchen, bei dem sich die gebundenen Zustände in Resonanzen im Antiteilchen-Kontinuum verwandeln. Der zugehörige Tunnelprozess wird studiert und die Resonanz-Lebensdauer abgeschätzt. Schließlich wird das Problem der Vakuumladung und Selbstabschirmung angegangen. Die Vakuumladung wird durch Aufsummation der Ladungsdichten aller überkritischen (quasi-)gebundenen Zustände berechnet. Die Vakuumladung tritt als Quellterm in der Poisson-Gleichung für das elektrostatische Potential auf, welches wiederum die Wellenfunktionen bestimmt. Auf die volle selbstkonsistente Lösung dieses Problems wird verzichtet. Wir zeigen jedoch dass die Vakuumladung wie erwartet gross genug ist, um eine Totalabschirmung des geladenen Strings zu bewirken.
Das hemmende Umfeld von Ganglienzellen in der Netzhaut des Auges Der Bereich auf der Netzhaut, aus dem Ganglienzellen Lichtsignale erhalten, wird rezeptives Feld genannt. Er umfaßt einen erregenden, zentralen Teil, das rezeptive Feldzentrum, und einen hemmenden, peripheren Teil, das Umfeld. Die antagonistische Organisation (erregendes Zentrum/hemmendes Umfeld) des rezeptiven Feldes verbessert die Signalverarbeitung, indem Kontraste verstärkt werden. Ziel der vorliegenden Arbeit war es, die Mechanismen der Umfeldhemmung an der isolierten, intakten Kaninchennetzhaut zu untersuchen. Das rezeptive Feldzentrum wird durch den erregenden Kontakt zwischen Photorezeptor Þ Bipolarzelle Þ Ganglienzelle erzeugt. Visuelle Stimulation des rezeptiven Feldzentrums erhöht die Entladungsrate (Anzahl der Aktionspotentiale pro Zeiteinheit) der Ganglienzelle. Die Erhöhung der Entladungsrate wird durch die Freisetzung des erregenden Transmitters Glutamat aus präsynaptischen Bipolarzellen bewirkt. Eine Belichtung des Umfeldes hat den entgegengesetzten Effekt: die Entladungsrate der Ganglienzelle wird verringert. Die Umfeldantwort der Ganglienzelle wird durch die laterale Hemmung in der OPL (äußere Synpsenschicht) und der IPL (innere Synapsenschicht) erzeugt. In der OPL wird die Signalübertragung von GABAergen Horizontalzellen moduliert, indem sie Photorezeptoren und/oder Bipolarzellen hemmen. In der IPL modulieren Amakrinzellen, die entweder GABAerg oder glyzinerg sein können, die Signalübertragung, indem sie Bipolarzellen und/oder Ganglienzellen hemmen. Die Entladungsrate von retinalen Ganglienzellen wird bei Belichtung des Umfeldes somit auf zwei Arten verringert: entweder werden präsynaptische Zellen (Photorezeptoren, Bipolarzellen) gehemmt oder die Ganglienzelle wird direkt durch Amakrinzellen gehemmt. Im ersten Fall schütten Bipolarzellen weniger Glutamat aus (indirekte laterale Hemmung), im zweiten Fall wird durch hemmende Neurotransmitter (GABA oder Glyzin) ein Einstrom von Chloridionen in die Dendriten der Ganglienzellen hervorgerufen (direkte laterale Hemmung). Es ist bisher noch unklar, zu welchem Anteil direkte und indirekte laterale Hemmung an der Umfeldantwort beteiligt sind. Weiterhin ist nicht bekannt, welche Neurotransmitterrezeptoren bei der Erzeugung des hemmenden Umfeldes eine Rolle spielen. Um dies zu untersuchen, wurden in der vorliegenden Arbeit lichtinduzierte, synaptische Ströme von retinalen Ganglienzellen an der isolierten, intakten Kaninchenetzhaut gemessen. Dabei wurde die Netzhaut von vorher eingeschläferten Kaninchen freipräpariert und anschließend in einer mit Sauerstoff angereicherten Extrazellulärlösung aufbewahrt. An diesem isolierten, intakten NetzhautPräparat (in vitro Retina) konnten bis zu acht Stunden Lichtantworten gemessen werden. Die lichtinduzierten Ströme wurden in der Ganzzellkonfiguration der PatchClampTechnik in der Spannungsklemme gemessen. Die Meßkammer mit der flach ausgebreiteten Netzhaut befand sich auf einem Mikroskoptisch. Das Mikroskop war mit einer InfrarotDifferentialinterferenzOptik (NomarskiOptik) ausgestattet und die Mikroelektroden konnten unter Sichtkontrolle mit Hilfe eines Mikromanipulators an die Zellkörper herangefahren werden. Kreisförmige und ringförmige Lichtmuster mit verschiedenen Durchmessern, wurden auf einem Computerbildschirm erzeugt und durch den Mikrsokopkondenser auf den Boden der Meßkammer projiziert. Erregende Ströme retinaler Ganglienzellen konnten isoliert werden, indem das Membranpotential der Zelle auf das Umkehrpotential für Chloridionen eingestellt wurde. Die erregenden Ströme wurden durch Belichtung des Umfeldes stark verringert. Dies wird durch die verminderte Freisetzung von Glutamat durch Bipolarzellen verursacht und ist ein Hinweise auf eine indirekte, laterale Hemmung der Ganglienzelle. Durch die Zugabe des GABARezeptorblockers Picrotoxinin in die Nährlösung (Badapplikation) konnte die Umfeldhemmung der meisten Ganglienzellen nahezu vollständig aufgehoben werden. Dieses Ergebnis zeigt, daß präsynaptische GABA A und GABA C Rezeptoren eine wichtige Rolle bei der Umfeldhemmung spielen. Direkte hemmende Chloridionenströme konnten isoliert werden, indem das Membranpotential der Zelle auf das Umkehrpotential für erregende Ströme eingestellt wurde. Durch Beleuchtung des Umfeldes wurden Chloridionenströme in Ganglienzellen ausgelöst. Dies ist ein Hinweis auf eine direkte, laterale Hemmung der Ganglienzelle durch Amakrinzellen, die zusätzlich zur indirekten Hemmung erfolgt. Bei Anwendung der Stromklemme der PatchClampTechnik konnte nachgewiesen werden, daß Chloridionenströme die Entladungsrate der Zelle beeinflussen. Durch die Badapplikation von Picrotoxinin und durch die Überströmung mit dem GABA A Rezeptorhemmer Bicucullin wurden die Chloridionenströme deutlich verringert. Durch den Glyzinrezeptorblocker Strychnin konnten die hemmenden Ströme nur bei wenigen Zellen verringert werden. Dies ist ein Hinweis auf eine direkte Hemmung der Ganglienzelle über GABA A Rezeptoren. In den meisten Ganglienzellen konnten direkte und indirekte Hemmung durch die Badapplikation von Tetrodotoxin verringert werden. Tetrodotoxin hemmt das Entstehen von Aktionspotentialen und das Ergebnis zeigt, daß 'widefield Amakrinzellen, die über Aktionspotentiale kommunizieren zur Umfeldhemmung beitragen. Bisherige Modelle gingen davon aus, daß Interaktionen zwischen Horizontalzellen, Photorezeptoren und Bipolarzellen in der OPL die Hauptursache für die Umfeldhemmung sind. Die vorliegende Arbeit hat gezeigt, daß Interaktionen zwischen Amakrinzellen, Bipolarzellen und Ganglienzellen wesentlich zur Umfeldhemmung beitragen. In der Netzhaut gibt es zwischen 12 und 15 Ganglienzelltypen, die auf unterschiedliche Mustermerkmale wie z. B. Farbe, Kontrast oder Bewegung reagieren. Alle bisher untersuchten Ganglienzelltypen verringern bei einer Reizung des Umfeldes ihre Entladungsrate. Ist bei allen Ganglienzelltypen der Beitrag von Horizontal und Amakrinzellen zur Umfeldhemmung sowie der Anteil von direkter und indirekter lateralen Hemmung gleich? Oder gibt es für jeden Ganglienzelltyp aufgrund seiner physiologischen und morphologischen Ausprägung verschiedene Mechanismen der lateralen Hemmung? Diese Fragen könnten durch die Entwicklung von Pharmaka, welche selektiv Horizontalzellen bzw. Amakrinzellen hemmen, untersucht werden. Die Anwendung dieser Substanzen könnte den Beitrag dieser Zellen zur Umfeldhemmung eines bestimmten Ganglienzelltyps nachweisen. Gleichzeitig könnte die indirekte Hemmung von retinalen Ganglienzellen durch intrazelluläre Applikation von Chloridionenkanalblockern viel genauer als bisher gemessen werden, da auf diese Weise erregende synaptische Ströme besser isoliert werden können. Durch die Kombination dieser beiden Methoden könnte für jeden Ganglienzelltyp der Netzhaut die zellulären und synaptischen Mechanismen der Umfeldhemmung detailliert beschrieben werden.
Kernpunkt dieser Arbeit ist die Untersuchung der Eigenschaften des Vakuums und des Grundzustandes von Kernmaterie anhand eines effektiven Modells. Das Lineare Sigma-Modell mit globaler chiraler U(2)R ×U(2)L-Symmetrie wurde mit (Axial-)Vektormesonen sowie dem chiralen Partner des Nukleons, der mit der Resonanz N(1535) identifiziert wird, erweitert. Die Einführung des chiralen Partners in der Spiegel-Zuordnung ermöglicht die Untersuchung zweier verschiedener Erzeugungsprozesse der Baryonenmasse: durch spontane Symmetriebrechung sowie durch einen chiral invarianten Massenterm, parametrisiert durch m0. Die Parameter des Modells werden durch experimentelle Werte der Zerfallsbreiten von N∗ → Nπ und a1 → πγ und der axialen Kopplungskonstante des Nukleons gN A , sowie durch Lattice-Berechnungen von gN∗ A fixiert. Im Rahmen dieses Modells ergibt sich für den Massenparameter m0 ∼ 500 MeV, was darauf hin deutet, dass ein beträchtlicher Anteil der Baryonenmasse nicht durch das chirale Kondensat erzeugt wird. Das Modell wird anhand des Zerfalls N∗ → Nη sowie s-Wellen-πN-Streulängen a(±) 0 validiert und zeigt gute Übereinstimmung mit dem Experiment. In Kernmaterie wird m0 durch Kondensate anderer skalarer Felder ausgedrückt, z. B. dem Tetraquark-Kondensat. Der Einfluß dieses Kondensates auf dichte Materie wird untersucht. Die Nukleonenmassen hängen stark von den Kondensaten ab und verschwinden, so wie auch die Kondensate selbst, wenn die chirale Symmetrie wieder hergestellt ist.
The study of systems whose properties are governed by electronic correlations is a corner stone of modern solid-state physics. Often, such systems feature unique and distinct properties like Mott metal-insulator transitions, rich phase diagrams, and high sensitivity to subtle changes in the applied conditions. Whereas the standard approach to electronic structure calculations, density functional theory (DFT), is able to address the complexity of real-world materials but is known to have serious limitations in the description of correlations, the dynamical mean-field theory (DMFT) has become an established method for the treatment of correlated fermions, first on the level of minimal models and later in combination with DFT, termed LDA+DMFT.
This thesis presents theoretical calculations on different materials exhibiting correlated physics, where we aim at covering a range in terms of systems --from rather weakly correlated to strongy correlated-- as well as in terms of methods, from DFT calculations to combined LDA+DMFT calculations. We begin with a study on a selection of iron pnictides, a recently discovered family of high-temperature superconductors with varying degree of correlation strength, and show that their magnetic and optical properties can be assessed to some degree within DFT, despite the correlated nature of these systems. Next, extending our analysis to the inclusion of correlations in the framework of LDA+DMFT, we discuss the electronic structure of the iron pnictide LiFeAs which we find to be well described by Fermi liquid theory with regard to many of its properties, yet we see distinct changes in its Fermi surface upon inclusion of correlations. We continue the study of low-energy properties and specifically Fermi surfaces on two more iron pnictides, LaFePO and LiFeP, and predict a topology change of their Fermi surfaces due to the effect of correlations, with possible implications for their superconducting properties. In our last study, we close the circle by presenting LDA+DMFT calculations on an organic molecular crystal on the verge of a Mott metal-insulator transition; there, we find the spectral and optical properties to display signatures of strong electronic correlations beyond Fermi liquid theory.
In this thesis we study strongly correlated electron systems within the Density Functional Theory (DFT) in combination with the Dynamical Mean-Field Theory (DMFT).
First, we give an introduction into the theoretical methods and then apply them to study realistic materials. We present results on the hole-doped 122-family of the iron-based superconductors and the transition-metal oxide SrVO3. Our investigations show that a proper treatment of strong electronic correlations is necessary to describe the experimental observations.
Für die vorliegende Arbeit wurden zur Analyse des Auger-Zerfalls kleiner Moleküle nach Photoionisation die aus der Zerfallsreaktion resultierenden Impuls- und Energiespektren von Photo- und Auger-Elektronen in Koinzidenz mit denen der ionischen Fragmente aufgenommen. Dies ermöglichte eine getrennte Betrachtung der während des Ionisationsschrittes und des Zerfallsschrittes dieses Prozesses besetzten Molekülzustände. Um weitere Einsicht in die Dynamik des Zerfalls zu erhalten, wurden vorhandene theoretische Modelle, welche insbesondere die Interaktion der durch die Reaktion produzierten geladenen Teilchen (Post Collision Interaction) einbeziehen, an die gemessenen Energiespektren angepasst. Dies ermöglichte die separate Betrachtung der im Ionisationsschritt besetzten Molekülzustände. So konnten die Emissionswinkelverteilungen der Photoelektronen im molekülfesten Koordinatensystem für jeden besetzten Anfangszustand einzeln betrachtet werden. Die Trennung der Endzustände des Zerfalls erfolgte über die Analyse des Spektrums der Ionen-Aufbruchsenergie (Kinetic Energy Release) und den Vergleich mit berechneten Potentialkurven der beitragenden Endzustände.
Durch die nach den Anfangszuständen separierte Betrachtung des Auger-Zerfalls wurde es auch möglich, die Auswirkungen dieser Zustände auf die Zerfallsdynamik zu analysieren. Dafür lieferte die Anpassung der Modellprofile die Lebensdauer des jeweiligen 1s-Lochzustandes in dem entsprechenden Zerfallskanal. Diese jeweiligen Lebensdauern eines jeden Zustandes wurden abhängig von verschiedenen Parametern mit einer Genauigkeit im Attosekunden-Bereich aus den Energiespektren der Photoelektronen ermittelt.
Der Einfluss von turbulenten Strömungen auf die Photodissoziation von CO in interstellaren Wolken
(2001)
Seit 1988 ist bekannt, dass die Photodissoziation von COMolekülen durch Linienabsorption von UVPhotonen stattfindet. Wie jede Linienabsorption ist damit auch die Photodissoziation von CO abhängig von Geschwindigkeitsfeldern innerhalb des absorbierenden Mediums. DopplerVerschiebung kann die Absorption in einen Frequenzbereich verschieben, in dem sich die lokale Intensität von der Intensität in der Linienmitte wesentlich unterscheidet. Jede Untersuchung, die sich mit der Bildung und Vernichtung von COMolekülen am Rand interstellarer Wolken beschäftigt, muss diese turbulenten Geschwindigkeitsfelder berücksichtigen. Da die Existenz von turbulenten Strömungen in interstellaren Molekülwolken unbestritten ist, wird in Untersuchungen üblicherweise der Dopplerparameter der Gaußschen Profilfunktion um eine Turbulenzgeschwindigkeit erweitert. Diese mikroturbulente Näherung ist die simpelste Möglichkeit zur Berücksichtigung von Turbulenz. In vorangegangenen Arbeiten (Albrecht, M.A., Kegel, W.H. (1987)), (Kegel, W.H., Piehler, G., Albrecht, M.A. (1993)), (Piehler, G., Kegel, W.H. (1995)) ist gezeigt worden, dass die Berücksichtigung eines turbulenten Geschwindigkeitsfeldes mit endlicher Korrelationslänge (Mesoturbulenz) jedoch wesentlich dazu beitragen kann, realistischere Linienprofile zu erhalten. Während in den letzten Jahren einiger Aufwand betrieben wurde, die Berechnung der chemischen und thermischen Struktur einer Molekülwolke zu verfeinern, ist der Modellierung des zugrundegelegten Strahlungstransports weniger Aufmerksamkeit gewidmet worden. Die Ergebnisse unserer Rechnungen zeigen, dass die Berück sichtigung eines mesoturbulenten Strahlungstransports den Verlauf der COHäufigkeit entlang des Sehstrahls wesentlich beeinflussen kann. Zusammengefasst haben wir folgende Ergebnisse erhalten: - Rechnungen mit einem EinzellinienModell zeigen den großen Einfluss von Korrelationslänge und Turbulenzgeschwindigkeit auf den Verlauf der Photodissoziationsrate und damit auch auf die resultierende COHäufigkeit. - Bei Mesoturbulenz werden die absorptionsrelevanten Linien schneller optisch dick als bei reiner Mikroturbulenz. Dadurch kann sich eine stabile Zone großer CODichte in Tiefen bilden, von denen bisher angenommen wurde, sie würden eine zu große UVIntensität aufweisen. - Rechnungen, die das volle UVSpektrum berücksichtigen, zeigen eine geringere Sensitivität der COHäufigkeit gegenüber Variationen der Turbulenzparameter als solche mit nur einer Linie. Trotzdem haben Korrelationslänge und Turbulenzgeschwindigkeit starken Einfluss auf die Tiefe, ab der eine stabile COHäufigkeit erreicht wird. - Im Vergleich zu Rechnungen mit einer parametrisierten Photodissoziationswahrscheinlichkeit fällt im mesoturbulenten Fall z CO wesentlich schneller ab. Das bedeutet, dass in größeren Tiefen der Wolke die Werte für z CO um einige Größenordnungen voneinander abweichen können. Für Größe und Isotopenverhältnis des Wolkenmodells kann das zu einer signifikanten Überschätzung der wahren Werte führen. - Das zugrundegelegte Modell der chemischen Reaktionen weist eine hohe Stabilität gegenüber Veränderungen der Turbulenzparameter auf. Auch wenn die COHäufigkeit davon relativ stark betroffen ist, wirken sich diese Veränderungen nur sehr langsam auf die chemische Gesamtstruktur der Wolke aus. - Die Anwendung unserer Ergebnisse auf Beobachtungen von NGC 2024 zeigen, dass sich die Werte, die man für Dichte und Größe der Region aus den Modellen ermittelt, stark von dem zugrundegelegten Strahlungstransportmodell abhängen. Folgerungen, die aufgrund einer zu einfachen Modellierung gemacht werden, sind somit mit einiger Vorsicht zu betrachten. Es zeigt sich, dass der numerische Aufwand, stochastische Strahlungstransportmodelle zu rechnen, durchaus gerechtfertigt ist. Möchte man die Bildung von CO Molekülen am Rand einer interstellaren Molekülwolke genauer verstehen, muss eine endliche Korrelationslänge berücksichtigt werden. Es macht wenig Sinn, immer detailliertere chemische Modelle zu entwickeln und die wichtigen Effekte mesoturbulenten Strahlungstransports zu vernachlässigen.
In dieser Arbeit wurde versucht, das Phänomen des Metamagnetismus, wie es in den elektronisch hochkorrelierten Systemen auftritt und im Besonderen in CeRu2Si2, eingehender zu untersuchen. Hauptanliegen war die Rolle der Elektron-Gitter-Wechselwirkung zu analysieren. Hierzu wurde eine Messzelle konstruiert, die es ermöglichen sollte das Volumen während der Magnetfeldläufe durch das Ausüben von "passivem" uniaxialen Druck konstant zu halten. Die Experimente konnten an verschiedenen CeRu2Si2-Proben durchgeführt werden, mit stark unterschiedlichen Länge-zu-Breite-Verhältnissen. Die Messergebnisse an den zur Verfügung stehenden Chargen, den Lejay-Proben und der Onuki-Probe, sind in sich nicht schlüssig, führten doch die Magnetostriktions- und die Suszeptibilitätsmessungen unter Druck an den Lejay-Proben vermittels einer Beschreibung über die Skalierungsthese zu unterschiedlichen -Parametern. So ist über die Magnetostriktion ein Wert von =280Mbar-1 gewonnen worden und über die Suszeptibilität unter Druck resultierte letzten Endes unter Grundlage einer Kompressibilität von =0.64Mbar-1 ein Wert von =160Mbar-1. Die Onuki-Probe zeigte unterdessen eine stärkere Feldverschiebung unter Druck in den Suszeptibilitäts- sowie den realisierten Ultraschallmessungen einer longitudinalen Mode, die entlang der [110]-Richtung propagierte. Beide Messmethoden wiesen zwar ein eindeutiges Verhalten unter Druck auf, doch ist auch hier ebenfalls eine Abweichung des -Parameters gegenüber den aus der Literatur bekannten Werten von171-200Mbar-1, als auch gegenüber den ,,Lejay-Werten" festgestellt worden. So zeigte die Onuki-Probe im Rahmen einer Auswertung mit einer Kompressibilität von =0.64Mbar-1 kein schlüssiges Verhalten bei einer Zusammenschau der Suszeptibilitätsmessungen unter Druck sowie der Transformation der Magnetostriktions- auf die Magnetisierungsdaten, basierend auf Messungen der Lejay-Proben. Der erhaltene - Parameter von 250Mbar-1 steht hierbei dem Wert von 280Mbar-1 gegenüber. Diese Differenz entspricht einer Feldverschiebung von 0.7T. Kalkuliert man aus der Striktionsmessung entlang der [110]-Richtung die relative Volumenänderung, findet sich hingegen ein - Parameter von 170Mbar-1, der sich seinerseits wieder mit den Resultaten von Mignot deckt. Festzuhalten ist jedoch, dass für beide Proben ein erhöhter Grüneisenparameter aus den Experimenten mit ,,passivem Druck" gefunden wurde. Kann man das über die unterschiedlichen -Parameter deduzierte Verhalten beider Proben unter Druck noch auf eine eventuelle Probenqualität zurückführen, so bleibt immer noch die Tatsache kritisch, dass die experimentell bestimmten -Werte hier größer als die in der Literatur veröffentlichten und nicht alleine aus einem abweichenden Kompressibilitätswert zu erklären sind. Trotzdem ist ein wichtiges Ergebnis erzielt worden. An der Probe mit dem für uniaxialen Druck günstigen geometrischen Abmessungen wurde die Zwangsbedingung des konstanten Volumens verifiziert. Dies geschah durch ein von G.Bruls neu entwickeltes Dilatationsmessverfahren auf Ultraschallbasis. Es wurde durch eine Unterdrückung des Gitterfreiheitsgrades gezeigt, dass der Metamagnetismus intrinsischer Natur ist, wie es theoretische Überlegungen mit Hilfe des Skalierungsansatzes prognostizierten. Das kritische Feld ist jedoch im Gegensatz zum frei expandierenden System zu höheren Feldern verschoben und der Metamagnetismus wesentlich schwächer ausgebildet. Wodurch sich in der Diskussion um die Rolle des Gitters bei der Prägnanz des metamagnetischen Überganges deutlich dessen Relevanz abzeichnet. Ist aus der Skalierungsthese eine Beschreibung der physikalischen Vorgänge mit einem Parameter hinreichend, so bedingte, wie zuvor erwähnt, eine Adaption der Skalierungsthese auf die durchgeführten ,,passiven Druckexperimente" die Einführung eines gegenüber dem thermischen Grüneisenparameter erhöhten, renormalisierten Grüneisenparameters. Diese eventuelle druckbedingte Renormierung kann aber auch ursächlich als Erhöhung des magnetischen Grüneisenparameters gewertet werden, die als Indiz eines im Magnetfeld anwachsenden Sommerfeld-Wilson-Verhältnisses gedeuted wird. Abschließend wurde ein theoretisches Modell vorgestellt, das den metamagnetischen Übergang auf das Feldverhalten der hybridisierten Quasiteilchenbänder mit erhöhter Zustandsdichte zurückführt. Das Maximum in der Suszeptibilität ist dabei die Folge eines levelcrossings des spinup-Bandes mit der Fermikante, das von einem Abwandern der itineranten Elektronen in das obere spinup-Band begleitet wird. Als wichtig für die naturgemäße Beschreibung des Metamagnetismus in CeRu2Si2 hat sich hierbei die Berücksichtigung der Anisotropie der Hybridisierungswechselwirkung, sowie die durch das Kristallfeld bedingte korrekte Grundzustandswellenfunktion erwiesen. Mit diesem Modell gelingt auch eine Reproduktion des phänomenologisch gefundenen Skalierungsverhaltens mit dem die Magnetostriktionsdaten auf die Magnetisierungsdaten transformiert werden.
Für das Helmholtzzentrum für Schwerionenforschung (GSI), in Darmstadt, wurde ein neuer RFQ zur Beschleunigung schwerer Ionen für den Hochladungsinjektor (HLI) entwickelt. Dieser RFQ hat den bereits vorhandenen ersetzt und soll, für die Anpassung des HLI an die neue 28 GHz-ECR-Ionenquelle, den Duty-cycle von 25 % auf 100 % erhöhen, um superschwere Ionen zu erzeugen und die Experimente mit schweren Ionen zu versorgen. Der RFQ hat die Aufgabe schwere, hochgeladene Ionen von 4 keV/u auf 300 keV/u zu beschleunigen. Wichtige Eigenschaften sind ein hoher Strahlstrom, eine hohe Strahl-Transmission, eine kleine Strahlemittanz und eine geringe transversale Emittanzzunahme. Die Erhöhung der Injektionsenergie von 2,5 keV/u auf 4 keV/u ermöglicht eine Verkleinerung des Konvergenzwinkels. Der Aufbau des 4-Rod-RFQs für den HLI ist Thema der vorliegenden Arbeit. Die Auslegung des HLI-RFQs bezieht sich auf ein festgelegtes max. Masse zu Ladungsverhältnis von A/q = 6, bei einer Betriebsfrequenz von 108,408 MHz. Die Ionen sollen bei einem Strahlstrom von 5 mA von 4 keV/u auf 300 keV/u beschleunigt werden. Durch die spezielle teilchendynamische Auslegung konnte die Länge des Tanks von vorher 3 m auf jetzt 2 m verkürzt werden. Dies begünstigt den CW-Betrieb der Struktur. Durch den CW-Betrieb hat man eine hohe Leistungsaufnahme, dies erfordert eine besondere teilchendynamische und hochfrequenztechnische Auslegung der RFQ-Struktur und eine effiziente Kühlung. Zur Simulation der Hochfrequenzeigenschaften wurde ein Modell des RFQ mit dem Programm Microwave Studio (MWS) erstellt. Die Simulationen ergaben einen nur 2 m langen RFQ mit sehr hoher Transmission > 95%. Nach den entsprechenden Simulationsrechnungen bezüglich der Teilchendynamik und der Hochfrequenzeigenschaften wurde der RFQ aufgebaut. Der zeitaufwändige Aufbau lässt sich in drei Abschnitte einteilen. Die Elektroden wurden präzise ausgemessen. Danach wurden Stützen, Elektroden und Tuningplatten an der Bodenplatte montiert und in den Tank eingesetzt. Im Tank wurden die Elektroden justiert, die zuerst außerhalb vermessen wurden. Die korrekte Position der Elektroden zur Referenzfläche wurde berechnet und mit Hilfe eines Faro-Gage im Tank eingemessen. Die maximale Abweichung der Elektrodenposition konnte auf 0,03 mm reduziert werden. Nach der mechanischen Einrichtung folgte die HF-Anpassung des Resonators. Durch das Erhöhen der Tuningplattenpositionen zwischen den Stützen konnte die Resonanzfrequenz von 90,8 MHz auf 108,4 MHz erhöht werden. Als nächstes wurde die Spannungsverteilung im Tank gemessen und mit Hilfe der Tuningplatten konnte sie so eingestellt werden, dass die maximale Abweichung zur mittleren Elektrodenspannung bei nur ± 2% liegt. Zur weiteren Hochfrequenzabstimmung wurde die Wirkung zweier Tauchkolben mit einem Durchmesser von 75 mm untersucht. Die Tauchkolben ermöglichen eine Anpassung der Frequenz im Bereich von 1,4 MHz. Sie sollen die möglichen Frequenzverschiebungen durch beispielsweise thermische Effekte, auf Grund des HF-Betriebs, regulieren. Für die Hochfrequenzabstimmung wurde eine Ankoppelschleife gefertigt und angepasst. Die Güte des Resonators betrug Q0 = 3100, bei einem RP-Wert RP = 100 kΩm, d.h. die zur Versorgung stehende HF-Leistung (50 kW im CW-Betrieb) reicht aus. An der GSI wurde nach dem Transport eine Kontrolle der Elektroden vorgenommen, danach wurde der RFQ erst einzeln, danach als komplette HLI Einheit getestet. Dazu wurden verschiedene Pulsmessungen und Emittanzmessungen mit Argon 7+ und Argon 8+ durchgeführt. Bei der ersten Strahlinbetriebnahme wurden die Transmission, die Ionenenergie und die Emittanz mit verschiedenen Ionen gemessen. Die ersten Tests des HLI-RFQ waren sehr vielversprechend. In den Tests war zu sehen, dass die vorgenommenen Arbeiten, wie Justage und HF-Abstimmung der Resonanzstruktur, erfolgreich waren. Danach wurde der Strahlbetrieb mit Calcium, bei einer Leistung von 50 kW, durchgeführt. Die gemessene Transmission bei einer Spannung von 43 kV lag bei 70 %. Im Mai 2010 gab es eine 14Stickstoff2+ -Strahlzeit mit einer gepulsten Leistung von N = 90 kW. Danach wurde Anpassungstests mit verschiedenen Schwerionen durchgeführt. Im November 2010 wurden neue Tuningplatten mit einer besseren Stützenkontaktierung sowie einer besseren Kühlung eingebaut. Die Elektroden wurden nach diesen Maßnahmen auf ± 0,04 mm einjustiert. Die Flatness liegt bei ± 2,1 %, die Güte beträgt Q0 = 3300. Der RFQ wurde in die Beamline eingebaut und geht im Januar 2011 in Betrieb.
Der STAR Level-3 Trigger
(2002)
Schwerionen-Collider-Experimente, wie das STAR-Experiment am RHIC (BNL) oder das geplante ALICE-Experiment am LHC (CERN) untersuchen Schwerionenkollisionen bei Schwerpunktsenergien von Wurzel aus SNN = 200 GeV (RHIC), bzw. Wurzel aus sNN = 5, 5 TeV (ALICE). In diesen Kollisionen werden mehrere tausend geladene Teilchen produziert, die in STAR und ALICE in großvolumigen TPCs gemessen werden. Das Datenvolumen erreicht dabei bis zu 10 MB (STAR) und 60 MB (ALICE) pro Ereignis. Aufgrund der hohen Luminosität der Collider könnten die Experimente zentrale Schwerionenkollisionen mit einer Rate bis zu 100 Hz bzw. 200 Hz (ALICE) untersuchen. Die dabei entstehenden Datenraten im Bereich mehrerer GB/s sind mit heutiger Technologie jedoch nicht mehr einfach zu speichern. Deshalb kann nur ein Bruchteil der zur Verfügung stehenden Ereignisse aufgezeichnet werden. Aufgrund der exponentiellen Entwicklung der CPU-Leistung wird es jedoch möglich, die Rekonstruktion von Ereignissen während der Datennahme in Echtzeit durchzuführen. Basierend auf den rekonstruierten Spuren in den Detektoren kann die Entscheidung getroffen werden, ob ein Ereignis gespeichert werden soll. Dies bedeutet, dass die begrenzte Speicherbandbreite gezielt mit Ereignissen, die eine interessierende physikalische Observable beinhalten, angereichert werden kann. Ein solches System zur Ereignisselektion wird als Level-3-Trigger oder allgemeiner als High Level Trigger bezeichnet. Am STAR-Experiment wurde erstmals in einem Schwerionenexperiment solch ein Level-3-Triggersystem aufgebaut. Es besteht aus 432 i960-CPUs, auf speziell gefertigten Receiver Boards für die paralelle Clusterrekonstruktion in der STARTPC. 52 Standard-Computer mit ALPHA- bzw. Pentium-CPUs rekonstruieren die Spuren geladener Teilchen und tre.en eine Triggerentscheidung. Dieses System ermöglicht die Echtzeit-Rekonstruktion zentraler Au-plus-Au-Kollisionen mit anschliessender Analyse durch einen Trigger-Algorithmus mit einer Rate von 40-50 Hz. Die Qualität, die mit dieser schnellen Analyse erreicht wird, kann mit der Qualität der STAR-Offline-Rekonstruktion verglichen werden. Der Level-3-Clusterfinder erreicht in Bezug auf Ortsauflösung und Rekonstruktionseffizienz dieselbe Qualität wie der Offline-Clusterfinder. Der Level-3-Trackfinder erreicht bei Rekonstruktionseffizienz und Impulsauflösung 10-20% schlechtere Werte als der Offline- Trackfinder. Die Anwendung eines Level-3-Triggers besteht in der Messung von seltenen Observablen ("rare Probes"), die ohne eine Anreicherung nicht, oder nur schwer, meßbar wären. In den Jahren 2000 und 2001 wurden erste Triggeranwendungen für das STARLevel- 3-System erprobt. In ultraperipheren Au-plus-Au-Kollisionen wurden po-Kandidaten schon im Jahr 2000 selektiert. Während der Strahlzeit des Jahres 2001 wurde das Level-3-System erstmals zum Triggern in zentralen Au-plus-Au-Kollisionen eingesetzt. Die Triggeralgorithmen beinhalteten einen Õ-Trigger, einen 3He-Trigger und einen Algorithmus zur Anreicherung von Spuren hohen Impulses in der Akzeptanz des RICH-Detektors. Das STAR Level-3-System ist in der Lage zehnmal mehr Ereignisse zu analysieren, als gespeichert werden können. Aufgrund der begrenzten Luminosität des RHIC-Beschleunigers, konnten die Level-3 Trigger erst zum Ende der Strahlzeit eingesetzt werden. Den genannten Algorithmen standen zusätzlich zu den 3 · 10 hoch 6 gespeicherten zentralen Ereignissen, 6 · 10 hoch 5 zentrale Ereignisse zur Analyse zur Verfügung. Mit diesem begrenzten Anreicherungsfaktor von 20% blieb das System hinter seinen Möglichkeiten zurück. Es konnte jedoch gezeigt werden, dass das STAR Level-3-System in der erwarteten Qualität und Stabilität funktioniert.
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
Zur effizienten Beschleunigung von Ionen wird meist nach deren Erzeugung in einer Ionenquelle ein Radio Frequenz Quadrupol verwendet. Die vorliegende Dissertation befasst sich mit Entwicklung, Bau und Messung des Prototyps eines neuartigen Leiter-RFQs, der bei 325 MHz betrieben wird. Der Leiter-RFQ verfügt über ein neuartiges mechanisches Design und versucht die Vorteile der beiden vorrangig im Betrieb befindlichen RFQ Typen, des 4-Rod und 4-Vane RFQs, zu verbinden. Die physikalischen Parameter sind der Spezifikation des RFQs für den geplanten Protonenlinac (p-Linac) am FAIR-Projekt an der GSI Darmstadt entnommen. Darüber hinaus wird der aktuelle Planungs- und Simulationsstand eines modulierten Prototyps mit der vollen Länge von ca. 3,5 m zur Durchführung von Strahltests dargestellt.
Design and optimization of the lattice of the superconducting synchrotron SIS300 for slow extraction
(2011)
The superconducting synchrotron SIS300 is planned to be built at the new Facility for Antiproton and Ion Research (FAIR), at GSI-Darmstadt [1]. SIS300 will be a versatile machine, which by means of a low-energy stretcher-mode or a high-energy ramped-mode will provide slowly extracted heavy ion beams towards the experimental areas. To reach the required maximum field of 4.5 T, cos(θ) magnets are necessary. Thus, SIS300 will become the first superconducting synchrotron worldwide with cos(θ) magnets providing resonant slow extraction.
Since SIS300 will be installed in the same tunnel as the SIS100 synchrotron, the dipole layout of SIS300 cannot be freely chosen. Thus, a standard lattice cannot be applied. A redesign of the SIS300 lattice accepting compromises concerning the positions and phase advances between the optical elements has been proposed. Using the analytical model of the slow extraction, firstly proposed by Kobayashi, and the analytical description of the resonance driving modes, a multiobjective optimization algorithm has been developed for the optimization of the lattice under the given boundary conditions. The final goal of the lattice optimization is a higher efficiency of the slow extraction. The results are evaluated by means of tracking simulations performed with the code Elegant.
The field quality in superconducting cos(θ) magnets is determined by the positions of the superconducting cable and the static and time-dependent effects of the current in the cable. Furthermore, the fast ramp rates of 1 T/s in the dipoles, which are fifty times faster than in any other superconducting cos(θ) magnet, together with the fact that the aperture is smaller than in conventional accelerator magnets, makes it extremely difficult to obtain a high-quality magnetic field. The unavoidable field errors affect the beam dynamics and worsen the slow extraction efficiency. Therefore, the field errors in the SIS300 dipoles have been estimated, and their effects have been taken into account in the optimization algorithm. As a result a compensation scheme has been proposed, in which time-dependent gradients in the sextupoles counteract the decay of the sextupole field errors in the dipole magnets during the slow extraction. For the limits where the compensation was no longer possible, tolerances to the magnet field errors have been determined.
Im Rahmen des FAIR Projektes wurde ein neuartiger Prototyp eines nicht strahlzerstörenden Bunch Struktur Monitors (BSM) am GSI UNILAC entwickelt. Ziel ist es, ein zuverlässiges Diagnosegerät zu entwickeln, welches die longitudinale Struktur der Ionenbunche innerhalb des LINACs untersuchen kann. Notwendig ist hierbei eine effektive Zeitauflösung deutlich unter 100 ps, bei möglichst wenigen Makropuls Mittelungen. Nach der erfolgreichen Inbetriebnahme soll der BSM Prototyp dazu dienen, die Umsetzbarkeit eines weiteren nichtinvasiven Geräts für den geplanten Proton-LINAC bei FAIR mit einer notwendigen Zeitauflösung von 10 ps zu beurteilen.
Die numerische Simulation von Materialien, welche dem Hochstrom-Ionenstrahl ausgesetzt sind, zeigten einen sehr hohen thermischen Stress. Daher wurde der Ansatz eines nicht strahlzerstörenden Diagnosegerätes verfolgt. Das Design beruht auf der Erzeugung von Sekundärelektronen durch Strahl-Restgas Kollisionen im Strahlrohr. Durch das Anlegen eines homogenen Hochspannungspotentials von bis zu -31 kV, wird ein Elektronenstrahl erzeugt, welcher die zeitliche Struktur des Ionenbunches trägt. Die zeitliche Information des Elektronenstrahles wird beim Durchfliegen eines HF-Ablenkers, welcher resonant an die 36 MHz des Beschleunigers gekoppelt ist, in eine räumliche Intensitätsverteilung umgewandelt. Anschließend wird die Elektronenverteilung auf einem bildgebenden MCP-Phosphor-Detektor durch eine CCD-Kamera detektiert und in die Bunch Struktur überführt.
Intensive Untersuchungen der BSM Eigenschaften ergaben eine höchste Auflösung von 37 ±6.3 ps bei gleichzeitig akzeptabler Intensität auf dem MCP-Detektor. Unter anderem wurden auch stabile Einzelschussmessungen durchgeführt, welche für die Profilmessung nur einen einzelnen Makropuls benötigten, statt über typischerweise 8-32 Pulse zu mitteln.
Durch die systematische Manipulation der Bunchlänge durch einen Rebuncher sind nicht gaußförmige Profile von 280 ps bis 650 ps detektiert worden, welche als Studie für eine Emittanzbestimmung genutzt worden sind. In Abhängigkeit des Analyseverfahrens sind Werte von εGauss = 1.42 ±0.14 keV/u ns bis εSD = 3.03 ±0.33 keV/u ns für die Emittanz bestimmt worden.
Des Weiteren ist ein Finite-Elemente Modell erstellt worden, um die Zeitstruktur der Sekundärelektronen innerhalb des elektronenoptischen Systems zu bestimmen. Für das Setup mit der höchsten Auflösung von 37 ps ergab sich eine zusätzliche Zeitverbreiterung von 5.6 ps, welche nur geringfügig die experimentell bestimmte Auflösung verschlechtert.
Der nicht strahlzerstörende BSM liefert eine ausreichend hohe zeitliche Auflösung für detailreiche Untersuchung der longitudinalen Bunchstruktur, ohne negative Einflüsse auf den Ionenstrahl auszuüben. Fortgeschrittene Messungen, wie longitudinale Emittanzbestimmung und Makropulsanalysen, sind möglich und werden dazu beitragen, die LINAC Strukturen besser zu verstehen und weiter zu optimieren.
Obwohl bei der Umsetzung des Arbeitsprinzips für den geplanten Proton-LINAC die veränderten Strahlparameter berücksichtigt werden müssen, zeigen die Ergebnisse, wie die Zeitstrukturuntersuchung und die erreichte Phasenauflösung von 0.5° bei 36 MHz, dass zeitliche Auflösungen bei Aufrechterhaltung der Phasenauflösung von bis zu 10 ps für einen neuen BSM Prototypen möglich sind.
The PhD addresses the feasibility of reconstructing open charm mesons with the Compressed Baryonic Matter experiment, which will be installed at the FAIR accelerator complex at Darmstadt/Germany. The measurements will be carried out by means of a dedicated Micro Vertex Detector (MVD), which will be equipped with CMOS Monolithic Active Pixel Sensors (MAPS). The feasibility of reconstructing the particles with a proposed detector setup was studied.
To obtain conclusive results, the properties of a MAPS prototype were measured in a beam test at the CERN-SPS accelerator. Based on the results achieved, a dedicated simulation software for the sensors was developed and implemented into the software framework of CBM (CBMRoot). Simulations on the reconstruction of D0-mesons were carried out. It is concluded that the reconstruction of those particles is possible.
The PhD introduces the physics motivation of doing open charm measurements, represents the results of the measurements of MAPS and introduces the innovative simulation model for those sensors as much as the concept and results of simulations of the D0 reconstruction.
Der Radiofrequenzquadrupol (RFQ) wird typischerweise als erstes beschleunigendes Element in Beschleunigeranlagen eingesetzt. Das elektrische Quadrupolfeld ermöglicht die gleichzeitige Fokussierung und Beschleunigung des Ionenstrahls. Zudem ist der RFQ in der Lage den Gleichstromstrahl von der Ionenquelle zu Teilchenpaketen (Bunche) zu formen, die von den nachfolgenden Driftröhrenbeschleunigern benötigt werden. Ziel der vorliegenden Arbeit war die Untersuchung zur Realisierbarkeit eines 325 MHz 4-rod RFQ Beschleunigers. Die Frequenz von 325 MHz stellt eine ungewöhnlich hohe Betriebsfrequenz für die 4-rod Struktur dar und wird z.B. für den Protonenlinac des FAIR Projektes benötigt. Ein Problem hierbei war, dass durch die bauartbedingten unsymmetrischen Elektrodenaufhängung und der hohen Frequenz ein, das Quadrupolfeld überlagerndes, Dipolfeld erzeugt wird. Dieses störende Feld kann z.B. zu einem Versatz der Strahlachse führen. Hierzu wurde die 4-rod Struktur in Simulationen grundlegend auf Einflüsse von verschiedenen Parametern auf die Resonanzfrequenz und das Dipolfeld untersucht. Es wurden Lösungsstrategien erarbeitet das Diopolfeld zu kompensieren und auf einen Prototypen angewendet. Zudem wurde das Verhalten höherer Schwingungsmoden dieser Struktur simuliert. In diesem Rahmen wurden auch Simulationen zu Randfeldern zwischen den 4-rod Elektroden und der Tankwand untersucht, um nachteilige Effekte für die Strahlqualität auszuschließen. Basierend auf den Simulationsergebnissen wurde ein Prototyp angefertigt. Dieser Prototyp wurde zur Demonstration der Betriebseigenschaften mit Leistungen bis 40 kW getestet. Hierbei wurde die Elektrodenspannung mittels Gammaspektroskopie bestimmt und daraus die Shuntimpedanz berechnet. Diese Werte wurden mit anderen Methoden der Shuntimpedanzbes- timmung verglichen. Außerdem wurden alternative RFQ Resonatorkonzepte ebenfalls auf ihre Realisierbarkeit für den Protonenlinac untersucht. Die Einflüsse verschiedener Parameter auf die Betriebsfrequenz, die Möglichkeiten des Frequenztunings und der Einstellung der longitudinalen Spannungsverteilung gefertigter Modelle wurden in einer Diskussion gegenübergestellt.
Die vorliegende Arbeit befasste sich mit der Entwicklung und der Aufbau einer neuartigen Fingerdriftröhren-Struktur als Teil des neuen Vorbeschleunigers COSY-SCL am Kernforschungszentrum in Jülich. In dieser Arbeit wird die Entwicklung der Spiralresonatoren beschrieben, die als Nachbeschleuniger direkt hinter den RFQs zum Einsatz kommen sollen. Als mögliche Option zur Verbesserung der Strahlqualität wurden Fingerdriftröhren vorgeschlagen. Mit Hilfe dieser Struktur ist es möglich, mit geringer zusätzlicher Leistung eine Fokussierung des Ionenstrahls in der beschleunigenden Struktur zu erreichen. Dies war bisher nur bei niedrigen Energien mit der RFQ-Struktur möglich. Bei höheren Energien ist man stets auf magnetische Quadrupollinsen angewiesen. Dies führt jedoch gerade in einem Geschwindigkeitsbereich bis ca. 10 % der Lichtgeschwindigkeit zu Problemen, da die zur Verfügung stehenden Abmessungen zu gering sind. Nachdem zunächst das COSY-SCL Projekt vorgestellt wurde und die grundlegende Theorie für RFQ und Driftröhrenbeschleuniger behandelt wurde, wurden in Kapitel 5 Rechnungen zur Strahldynamik mit dem Programm RFQSIM vorgestellt. Aufgrund der hohen benötigten Gesamtspannung fiel die Entscheidung, einen Vierspaltresonator mit einer geerdeten Mitteldriftröhre aufzubauen. Durch diese Veränderung wurde es möglich, die Feldstärken in den einzelnen Spalten gleichmäßiger zu verteilen und niedriger zu halten, und die benötigte Verlustleistung zu minimieren. Die Teilchendynamik in einem Beschleunigungsspalt mit Fingerelektroden wurde mit einem neuen Transportmodul in RFQSIM untersucht, das den Transport geladener Teilchen durch beliebige dreidimensionale Elektrodenkonfiguration ermöglicht. Mit Hilfe der Fingerdriftröhren ist es möglich, die transversale Ausdehnung des Strahls am Ausgang des Nachbeschleunigers zu verringern und die Anpassung an einen folgenden Beschleuniger zu vereinfachen, ohne das große Einbußen bezüglich der Effektivität der Beschleunigung in Kauf genommen werden müssen. Um die HF Eigenschaften der beiden Beschleunigerstrukturen zu vergleichen, wurden sie mit dem MWS Programm numerisch berechnet. Um genauere Aussagen über die Eigenschaften des elektrischen Feldes zu machen, wurde eine Multipolanalyse der Felder durchgeführt. Damit lässt sich eine Aussage über die Stärke der Fokussierung und mögliche Feldfehler machen. Dabei zeigte sich, dass die auftretenden Feldfehler vernachlässigbar klein sind und sogar störende Effekte unterdrückt werden. Abschließend wurde der Aufbau des Resonators und den daran durchgeführten Messungen auf Meßsenderniveau behandelt. Resultat dieser Untersuchungen ist eine Struktur, die sehr gut und effektiv als Nachbeschleuniger hinter dem RFQ für COSY-SCL eingesetzt werden kann. Durch den Einsatz der Fingerdriftröhren kann mit einer einzelnen Struktur sowohl die Aufgabe der Beschleunigung als auch der Fokussierung bei mittleren Teilchenenergien bewältigt werden. Der neue fokussierende Spiralresonator entspricht in seinen Eigenschaften einer RFQ-Struktur für höhere Teilchengeschwindigkeiten. Die Ergebnisse dieser Arbeit zeigen, wie attraktiv eine solche Lösung mit Fingerdriftröhren ist. Deshalb ist geplant, in einem nächsten Schritt Strahltests durchzuführen, da die beschriebene Driftröhrenstruktur mit ihren Eigenschaften sehr gut für die Beschleunigung von Ionen in dem Geschwindigkeitsbereich zwischen RFQ- und IH Struktur geeignet ist und ein Einsatz z.B. in dem FLAIR Projekt möglich wäre.
Resistive Plate Chambers (RPCs) are gaseous parallel plate avalanche detectors that implement electrodes made from a material with a high volume resistivity between 10 high 7 and 10 high 12 omega cm. Large area RPCs with 2mm single gaps operated in avalanche mode provide above 98% efficiency and a time resolution of around 1 ns up to a flux of several kHz/cm high 2. These Trigger RPCs will, as an example, equip the muon detector system of the ATLAS experiment at CERN on an area of 3650 m high 2 and with 355.000 independent read out channels. Timing RPCs with a gas gap of 0.2 to 0.3mm are widely used in multi gap configurations and provide 99% efficiency and time resolution down to 50 ps. While their performance is comparable to existing scintillator-based Time-Of-Flight (TOF) technology, Timing RPCs feature a significantly, up to an order of magnitude, lower price per channel. They will for example equip the 176 m high 2 TOF barrel of the ALICE experiment at CERN with 160.000 independent read out cells. RPCs were originally operated in streamer mode providing large signals which simplifies readout electronics and gap uniformity requirements. However, high rate applications and detector aging issues made the operation in avalanche mode popular. This was also facilitated by the development of new highly quenching C2F4H2-based gas mixtures with small contents of SF6. While the physics of streamers is difficult to study, the avalanche mode opened the possibility for a detailed simulation of the detector physics processes in RPCs. Even though RPCs were introduced in the early eighties and have been (will be) used in experiments, there are still disagreements about the explanation of several aspects of the RPC performance. The high efficiency of single gap RPCs would require a large ionization density of the used gases, which according to some authors contradicts measurements. Even in the case of a large ionization density the gas gain has to be extremely large, in order to arrive at the observed RPC efficiency. This raises other questions: A very strong space charge effect is required to explain the observed small avalanche charges around 1 pC. Doubts have been raised whether an avalanche can progress under such extreme conditions without developing into a streamer. To overcome these difficulties, other processes, like the emission of an electron from the cathode, were suggested. Moreover, the shape of measured charge spectra of single gap RPCs differs largely from what is expected from the statistics of the primary ionization and the avalanche multiplication. In this thesis we discuss the detector physics processes of RPCs, from the primary ionization and the avalanche statistics to the signal induction and the read out electronics. We present Monte-Carlo simulation procedures that implement the described processes. While the fundament of the described model and some results were already published elsewhere [1], the subject of this thesis is the implementation of the space charge effect. We present analytic formulas for the electrostatic potential of a point charge in the gas gap of an RPC. These formulas were developed in collaboration with the University of Graz [2] and were published in [3, 4]. The simulation model presented in [1] is completed by the dynamic calculation of the space charge field using these formulas. Since the gas parameters like drift velocity and the Townsend and attachment coefficients depend on the electric field, they are calculated dynamically as well. The functional dependence of these parameters on the field is obtained with the simulation programs MAGBOLTZ and IMONTE. For the primary ionization parameters, we use the values that are predicted by the program HEED. While the described procedure only simulates the longitudinal avalanche development towards the anode of the RPC, we also present more dimensional models that allow a careful study of the transverse repulsive and attractive forces of the space charge fields, and of the consequences for the avalanche propagation. We shall show that the efficiencies of single gap Timing RPCs is indeed explained by the high primary ionization density (about 9.5 /cm as predicted by HEED) and a large effective Townsend coefficient (around 113 /mm as predicted by IMONTE). We show that the space charge field reaches the same magnitude as the applied electric field in avalanches at large gas gain. This strong space charge effect effectively suppresses large values for the avalanche charges. The shape of the simulated charge spectra is very similar to the measurements. Also the simulated average charges are close to the experimental results. RPCs are operated in a strong space charge regime over a large range of applied voltage, contrary to wire chambers. We apply only standard detector physics simulations to RPCs. The performance of Timing and Trigger RPCs is well reproduced by our simulations. The results concerning the space charge effect were presented and discussed at the 'RPC 2001' workshop [5] and on the '2002 NSS/MIC' conference [6].
Determination of the structure of complex I of Yarrowia lipolytica by single particle analysis
(2004)
Komplex I enthält ein Flavinmononukleotid sowie mindestens acht Eisen- Schwefel Zentren als redoxaktive Cofaktoren. Da ein wesentlicher Teil des mitochondrialen Genoms für Untereinheiten von Komplex I codiert, betrifft eine Vielzahl von mitochondrialen Erkrankungen diesen Enzymkomplex.
Komplex I wurde bisher aus Mitochondrien, Chloroplasten und Bakterien isoliert. Die Minimalform von Komplex I wird in Bakterien gefunden, wo er aus 14 (bzw 13 im Falle einer Genfusion) Untereinheiten besteht und eine Masse von etwa 550 kDa aufweist. Generell werden sieben hydrophile und sieben hydrophobe Untereinheiten mit über 50 vorhergesagten Transmembranhelices gefunden. Im Komplex I aus Eukaryoten wurde eine grössere Anzahl zusätzlicher, akzessorischer Untereinheiten nachgewiesen. Hier werden die sieben hydrophoben Untereinheiten vom mitochondrialen Genom codiert, während alle anderen Untereinheiten kerncodiert sind und in das Mitochondrium importiert werden müssen.
Die obligat aerobe Hefe Yarrowia lipolytica wurde als Modellsystem zur Untersuchung von eukaryotischem Komplex I etabliert. Die bisher am besten untersuchte Hefe Saccharomyces cerevisiae enthält keinen Komplex I. Hier wird die Oxidation von NADH durch eine andere Klasse von sogenannten alternativen NADH Dehydrogenasen durchgeführt. Auch Y. lipolytica enthält ein solches alternatives Enzym, das allerdings mit seiner Substratbindungsstelle zur Aussenseite der inneren Mitochondrienmembran orientiert ist. Durch molekularbiologische Manipulation konnte eine interne Version dieses Enzymes exprimiert werden, wodurch es möglich ist, letale Defekte in Komplex I Deletionsmutanten zu kompensieren. Mittlerweile wurden alle Voraussetzungen geschaffen, um kerncodierte Untereinheiten von Komplex I aus Y. lipolytica gezielt genetisch zu verändern. Die Proteinreinigung wird durch die Verwendung einer auf einem His-tag basierenden Affinitätsreinigung erheblich erleichtert...
The PANDA experiment at FAIR will perform world class physics studies using high-intensity cooled antiproton beams with momenta between 1.5 and 15 GeV/c. A rich physics program requires very good particle identification (PID). Charged hadron PID for the barrel section of the target spectrometer has to cover the angular range of 22-140° and separate pions from kaons for momenta up to 3.5 GeV/c with a separation power of at least 3 standard deviations. The system that will provide it has to be thin and operate in a strong magnetic field. A ring imaging Cherenkov detector using the DIRC principle meets those requirements. The design of the PANDA Barrel DIRC is based on the successful BABAR DIRC counter with several important changes to improve the performance and optimize the costs. The design options are being studied in detailed Monte Carlo simulation, and implemented in increasingly complex system prototypes and tested in particle beams. Before building the full system prototypes the radiator bars and lenses are measured on the test benches. The performance of the DIRC prototype was quantified in terms of the single photon Cherenkov angle resolution and the photon yield. Results for two full system prototypes will be presented. The prototype in 2011 aimed at investigating the full size expansion volume. It was found that the resolution for this configuration is at the level of in good agreement with ray tracing simulation results. A more complex prototype, tested in 2012, provided the first experience with a compact fused silica prism expansion volume, a wide radiator plate, and several advanced lens options for the focusing system. The performance of the baseline configuration of the prototype with a standard lens and an air gap met the requirements for the PANDA PID for most of the polar angle range but failed at polar angles around 90° due to photon loss at the air gap. Measurements with a prototype high-refractive index compound lens without an air gap at a polar angle of 128° beam angle showed a good resolution of σΘC = 11.8 ± 0.7 mrad and a high photon yield of Nph = 26.1 ± 0.4. Even at polar angles close to 90° the photon yield with this lens exceeded 15 detected photons per particle, meeting the PANDA Barrel DIRC PID requirements for the entire phase space and demonstrating that the compact focusing DIRC is a very promising option for PANDA.
This dissertation presents the development of a new radio frequency quadrupole (RFQ) structure of the 4-rod type with an operating frequency of 108 MHz for the acceleration of heavy ions with mass-to-charge ratios of up to 8.5 at high duty cycles up to CW operation ("continuous wave") at the High Charge Injector (HLI) of the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt.
The need to develop a completely new RFQ for the HLI arises from the fact that with the previously designed and built 4-rod RFQ structure, which was commissioned at the HLI in 2010 as part of the planned HLI upgrade program, the desired operating modes in both pulsed and CW operation could not be achieved even after several years of operating experience and considerable efforts to eliminate or at least mitigate the severe operational instabilities. Mechanical vibrations of the electrodes, which result in strong modulated power reflection, as well as the high thermal sensitivity proved to be particularly problematic.
In addition to the RF design of the new RFQ by simulations performed with the CST Microwave Studio software, the focus of the investigations fell on the mechanical analysis of vibrations on the electrode rods caused by RF operation, for which the ANSYS Workbench software was used. Due to the high thermal load of the RFQ structure of more than 30 kW/m in CW operation, an accurate analysis of the thermal effects on electrode deformation as well as resulting frequency detuning of the resonator is also required, which was investigated by simulations within the capabilities of CST Mphysics Studio.
Based on the results of the design studies carried out by simulations and the thereby achieved design optimizations, a 4-rod RFQ prototype with 6 stems was finally manufactured, on which most of the properties expected from the simulations could be validated by measurements of the RF characteristics as well as of the vibration behavior.
Finally, based on the results of the pre-tests and considering a newly developed beam dynamics concept, a completely revised RF design for a new full-length HLI-RFQ was derived from the prototype design.
Die extrem hohen Interaktionsraten, die mit dem CBM Experiment verfügbar sein werden, erlauben die Messung von einigen der herausfordensten Observablen im Feld der Schwerionenphysik. Im besonderen die Messung von Dileptonen im mittleren Massenbereich ist nahezu unmöglich für eine Vielzahl anderer Experimente, da die extrem kleinen Wirkungsquerschnitte der Produktionskanäle das Auftreten eines messbaren Ereignisses so selten machen, so dass es nicht möglich ist eine ausreichende Anzahl dieser Ereignisse zu messen. Hinzu kommt, dass speziell im Energiebereich des CBM Experiments bisher absolut keine Messdaten verfügbar sind, obwohl es zahlreiche Hinweise von theoretischer Seite und von Messungen bei größeren Kollisionsenergien darauf gibt, dass wir im Energiebereich des CBM Experiments bedeutende Entdeckungen machen k¨onnten. Eine solche Messung dieser Observable könnte einen direkten Zugang zu Informationen bezüglich eines potentiellen Phasenubergangs von hadronischer Materie (bzw. im Hadronengas) in den Zustand eines Quark-Gluonen Plasmas liefern. Zusätzlich bieten Dileptonen noch die Möglichkeit Indikatoren für eine Wiederherstellung der chiralen Symmetrie zu messen...
The development of the designs of the superconducting CH cavities of the HELIAC project from CH0 [27] to CH1 and CH2 [1] has undergone permanent improvements and adaptations based on the learned experiences of each previous cavity. For example, the design of CH1 and CH2 focused on mechanical stabilization and optimization of performance by minimizing peak electric and magnetic fields. As a result, the changes made there were already able to increase stability and performance compared to CH0 by simplifying the design in different ways. The process of designing both cavities was time reasonable, since they are identical in construction and thus only one design had to be developed. However, for both the development and manufacturing of an entire accelerator of individual CH cavities, this type of design would become too time consuming and costly. In order to reduce this time-consuming design process and accelerate the fabrication of superconducting CH cavities, and also reduce costs, a modular cavity design for mass production of superconducting CH cavities was developed as presented in this thesis. In the following section, the conclusions gained in this work and the results already presented will be summarized once again.
So in the first chapters of this thesis the theoretical foundations were laid, which are necessary for the description of superconducting cavities and for their development process, like a theoretical description of superconductivity itself (see chapter 2), the physical basics of RF-acceleration and of the CH cavity (see chapter 3), but also the effects that limit the superconducting cavities in terms of acceleration (see chapter 4) or the properties and laws from structural mechanics needed in later measurements and simulation (see chapter 5). Based on the theoretical foundations given in these sections, all measurements, evaluations and simulations made in the following sections were made.
Cancer has become one of the most fatal diseases. The Heidelberg Heavy Ion Cancer Therapy (HICAT) has the potential to become an important and efficient treatment method because of its excellent “Bragg peak” characteristics and on-line irradiation control by the PET diagnostics. The dedicated Heidelberg Heavy Ion Cancer Therapy Project includes two ECR ion sources, a RF linear injector, a synchrotron and three treatment rooms. It will deliver 4*10 high 10 protons, or 1*10 high 10 He, or 1*10 high 9 Carbons, or 5*10 high 8 Oxygens per synchrotron cycle with the beam energy 50-430AMeV for the treatments. The RF linear injector consists of a 400AkeV RFQ and of a very compact 7AMeV IH-DTL accelerator operated at 216.816MHz. The development of the IH-DTL within the HICAT project is a great challenge with respect to the present state of the DTL art because of the following reasons: • The highest operating frequency (216.816MHz) of all IH-DTL cavities; • Extremely large cavity length to diameter ratio of about 11; • IH-DTL with three internal triplets; • The highest effective voltage gain per meter (5.5MV/m); • Very short MEBT design for the beam matching. The following achievements have been reached during the development of the IH-DTL injector for HICAT : The KONUS beam dynamics design with LORASR code fulfills the beam requirement of the HICAT synchrotron at the injection point. The simulations for the IH-DTL injector have been performed not only with a homogeneous input beam, but also with the actual particle distribution from the exit of the HICAT RFQ accelerator as delivered by the PARMTEQ code. The output longitudinal normalized emittance for 95% of all particles is 2.00AkeVns, the emittance growth is less than 24%, while the X-X’ and Y-Y’ normalized emittance are 0.77mmmrad and 0.62mmmrad, respectively. The emittance growth in X-X’ is less than 18%, and the emittance growth in Y-Y’ is less than 5%. Based on the transverse envelopes of the transported particles, the redesign of the buncher drift tubes at the RFQ high energy end has been made to get a higher transit time factor for this novel RFQ internal buncher. An optimized effective buncher gap voltage of 45.4KV has been calculated to deliver a minimized longitudinal beam emittance, while the influence of the effective buncher voltage on the transverse emittance can be neglected. Six different tuning concepts were investigated in detail while tuning the 1:2 scaled HICAT IH model cavity. ‘Volume Tuning’ by a variation of the cavity cross sectional area can compensate the unbalanced capacitance distribution in case of an extreme beta-lambda-variation along an IH cavity. ‘Additional Capacitance Plates’ or copper sheets clamped on drift tube stems are a fast way for checking the tuning sensitivity, but they will be replaced by massive copper blocks mounted on the drift tube girders finally. ‘Lens Coupling’ is an important tuning to stabilize the operation mode and to increase or decrease the coupling between neighboring sections. ‘Tube Tuning’ is the fine tuning concept and also the standard tuning method to reach the needed field distributions as well as the gap voltage distributions. ‘Undercut Tuning’ is a very sensitive tuning for the end sections and with respect to the voltage distribution balance along the structure. The different types of ‘plungers’ in the 3rd and 4th sections have different effects on the resonance frequency and on the field distribution. The different triplet stems and the geometry of the cavity end have been also investigated to reach the design field and voltage distributions. Finally, the needed uniform field distribution along the IH-DTL cavity and the corresponding effective voltage distribution were realized, the remaining maximum gap voltage difference was less than 5% for the model cavity. The several important higher order modes were also measured. The RF tuning of the IH-DTL model cavity delivers the final geometry parameters of the IH-DTL power cavity. A rectangular cavity cross section was adopted for the first time for this IH-DTL cavity. This eases the realization of the volume tuning concept in the 1st and 2nd sections. Lens coupling determines the final distance between the triplet and the girder. The triplets are mounted on the lower cavity half shell. The Microwave Studio simulations have been carried out not only for the HICAT model cavity, but also for the final geometry of the IH-DTL power cavity. The field distribution for the operation mode H110 fits to the model cavity measurement as well as the Higher Order Modes. The simulations prove the IH-DTL geometrical design. On the other hand, the precision of one simulation with 2.3 million mesh points for full cross section area and the CPU time more than 15hours on a DELL PC with Intel Pentium 4 of 2.4GHz and 2.096GRAM were exploited to their limit when calculating the real parameters for the two final machining iterations during production. The shunt impedance of the IH-DTL power cavity is estimated by comparison with the existing tanks to about 195.8MOmega/m, which fits to the simulation result of 200.3MOmega/m with reducing the conductivity to the 5.0*10 high 7 Omega-1m-1. The effective shunt impedance is 153 MOmega/m. The needed RF power is 755kW. The expected quality factor of the IH-DTL cavity is about 15600. The IH-DTL power cavity tuning measurements before cavity copper plating have been performed. The results are within the specifications. There is no doubt that the needed accuracy of the voltage distribution will be reached with the foreseen fine tuning concepts in the last steps.
The Facility for Antiproton and Ion Research (FAIR) at GSI Darmstadt will provide unprecedented intensities of protons and heavy ions up to uranium at energies of up to 29 GeV for protons and 2.7 GeV/u for Uranium 28+. To achieve high intensities in the synchrotron accelerators, high beam currents have to be provided by the injector linear accelerators. High current heavy ion beams are provided by the Universal Linear Accelerator (UNILAC), which in its current state will not be able to provide the required FAIR beam currents. This thesis deals with the development of upgrades for the UNILAC to ensure its high current capability. The first improvement is a matching section (MEBT) for the interface between the RFQ and the IH-DTL of the existing high current injector HSI at the UNILAC. With this new MEBT section, particle losses are eliminated and the overall beam quality is improved. As a second improvement, a complete replacement of the existing Alvarez-DTL is presented. A combination of efficient IH-type cavities and KONUS beam dynamics results in a reduction of the linac length from about 60 m (Alvarez) to just 23 m (new IH-DTL) while providing the same energy and fulfilling FAIR requirements of a high beam current and beam quality. This thesis contains a detailed beam dynamics design of the new linac including some fundamental investigations of the KONUS beam dynamics concept. A cross-check of the beam dynamics design was performed with two independent multi-particle simulation codes. Detailed error studies were conducted to investigate the influence of manufacturing, alignment and operating errors on the beam dynamics performance. Additionally, all five linac cavities were designed, optimized, and their RF parameters including power requirements calculated to provide a comprehensive linac design.
Im Rahmen dieser Arbeit wurde ein verbessertes Buncher-System für Hochfrequenzbeschleuniger mit niedrigem und mittlerem Ionenstrom entwickelt. Die entwickelte Methodik hat ermöglicht, ein effektives, vereinfachtes Buncher-System für die Injektion in HF-Beschleuniger wie RFQs, Zyklotrons, DTLs usw. zu entwerfen, welches kleine Ausgangsemittanzen und beträchtliche Strahltransmissionen erzielt. Um einen mono-energetischen und kontinuierlichen Strahl aus einer Ionenquelle für den Einschuss in eine Hochfrequenz-Beschleunigerstruktur anzupassen, wird eine Energiemodulation benötigt, die im weiteren Verlauf (Driftstrecke) zur Längsfokussierung des Strahls führt. Durch eine Sägezahnwellenform wird die ideale Energiemodulation aufgrund der linearen Abhängigkeit zwischen der Energie der Teilchen und ihren relativen Phasen erreicht. Dies ist jedoch technologisch nicht möglich, da Teilchenbeschleuniger Spannungsniveaus im Bereich kV bis 100 kV benötigen. Dagegen ist für eine solche Zielsetzung eine räumliche Trennung der sinusförmigen Anregung mit der Grundfrequenz und höheren Harmonischen möglich.
Daher wurde in dieser Arbeit ein verbesserter harmonischer Buncher, der sogenannte „Double Drift Harmonic Buncher - DDHB“ entwickelt, welcher zahlreiche Vorteile hat. Eine geringe longitudinale Emittanz sowie finanzielle Aspekte sprechen für diesen Lösungsansatz. Die Hauptelemente eines DDHB Systems sind zwei Kavitäten, die durch eine Driftlänge L1 getrennt sind, wobei der erste Resonator mit der Grundfrequenz bei -90° synchroner Phase und angelegter Spannung V1 und der zweite Resonator bei der zweiten harmonischen Frequenz mit +90 synchroner Phase und angelegter Spannung V2 betrieben werden. Schließlich ist eine zweite Drift L2 am Ende des Arrays für eine longitudinale Strahlfokussierung am Hauptbeschleunigereingang erforderlich. Somit erfüllt ein solcher Aufbau das angestrebte Ziel einer hohen Einfangseffizienz und einer kleinen longitudinalen Emittanz durch Anpassen der vier Designparameter V1, L1, V2 und L2.
Das Verständnis der Fokussierung, ausgehend von einem Gleichstromstrahl, einschließlich der Raumladungskräfte, ist einer der wesentlichen Bestandteile der Strahlphysik. Viele kommerzielle Codes bieten Simulationsmöglichkeiten in diesem Anwendungsbereich. Ihre Ansätze bleiben jedoch dem Anwender meist verborgen, oder es fehlen wichtige Details zur genauen Abbildung des vorliegenden Konzepts. Daher bestand eine Hauptaufgabe dieser Arbeit darin, einen speziellen Multi-Particle-Tracking-Beam-Dynamics-Code (BCDC) zu entwickeln, bei dem der Raumladungseffekt während des Bunch-Vorgangs, ausgehend von einem DC-Strahl berechnet wird. Der BCDC - Code enthält elementare Routinen wie Drift und Beschleunigungsspalt oder magnetische Linse für die transversale Strahlfokussierung und Raumladungsberechnungen unter Berücksichtigung der Auswirkungen der nächsten Nachbar-Bunche (NNB). Der Raumladungsalgorithmus in BCDC basiert auf einer direkten Coulomb- Gitter-Gitter-Wechselwirkung und Berechnungen des elektrischen Feldes durch Lokalisierung der Ladungsdichte auf einem kartesischen Gitter. Um Genauigkeit zu erreichen, werden die Feldberechnungen in Längsrichtung symmetrisch um das zentrale Bucket (βλ-Größe) erweitert, so dass das Simulationsfeld dreimal so groß ist. Die zentrale Teilchenverteilung wird dann nach jedem Schritt in die benachbarten Buckets kopiert. Anschließend werden die resultierenden Felder im Hauptgitterfeld neu berechnet, indem die elektrischen Felder im Hauptgitterfeld mit denen aus den benachbarten Regionen überlagert werden. Ohne diese Methode würde z. B. ein kontinuierlicher Strahl, welcher jedoch in der Simulation nur innerhalb einer Zelle der Länge βλ definiert ist, zu einer resultierenden Raumladungsfeldkomponente Ez an beiden Rändern der Zelle führen. Ein solches unphysikalisches Ergebnis konnte durch die Anwendung der NNB-Technik bereits weitgehend eliminiert werden. Zusätzlich zum NNB-Feature verfügt das BCDC über eine weitere Besonderheit nämlich die sogenannte Raumladungskompensation (SCC). Aufgrund der Ionisierung des Restgases kommt es entlang des Niederenergiestrahltransports zu einer teilweisen Raumladungskompensation, und zwar am und hinter dem Bunchersystem mit unterschiedlichen Prozentsätzen. Eines der Hauptziele des DDHB-Konzepts besteht darin, es für Hochstromstrahlanwendungen zu entwickeln. Dabei ermöglicht die teilweise Raumladungskompensation, dass das Design in der Praxis höhere Stromniveaus erreicht. Dadurch ist das BCDC-Programm ein leistungsstarkes Werkzeug für Simulationen in künftigen, stromstarken Projekten. Proof-of-Principle-Designs wurden in dieser Arbeit entwickelt.
This Dissertation deals with the development of FAIR-relevant X-ray diagnostics based on the interaction of lasers and particle beams with matter. The associated experimental methods are supposed to be employed in the HIHEX-experiments in the HHT-cave of the GSI Helmholtz Center for Heavy-Ion Research GmbH (GSI) in Phase-0 and in the APPA-cave at the Facility for Antiproton and Ion Research in Darmstadt, Germany.
Diagnostic of high aerial density targets that will be used in FAIR experiments demands intense and highly penetrating X-ray sources. Laser generated well-directe relativistic electron beams that interact with high Z materials is an excellent tool for generation of short-pulse high luminous sources of MeV-gammas.
In pilot experiments carried out at the PHELIX laser system, GSI Darmstadt, relativistic electrons were produced in a long scale plasma of near critical electron density (NCD) by the mechanism of the direct laser acceleration (DLA). Low density polymer foam layers preionised by a well-defined nanosecond laser pulse were used as NCD targets. The analysis of the measured electron spectra showed up to 10- fold increase of the electron "temperature" from T_Hot = 1–2 MeV, measured for the case of the interaction of 1–2 ×10^19 Wcm^(−2) ps-laser pulse with a planar foil, up to 14 MeV for the case when the relativistic laser pulse propagates through the by a ns-pulse preionised foam layer. In this case, up to 80–90 MeV electron energy was registered. An increase of the electron energy was accompanied by a strong increase of the number of relativistic electrons and well-defined directionality of the relativistic electron beam measured to be (12 ±1)° (FWHM). This directionality increases the gamma flux on target by far compared to the soft X-ray sources.
Additionally to laser based active diagnostics, passive techniques involving inherent X-ray fluorescence radiation of projectile and target emitted during heavy-ion target interaction can be used to measure the ion beam distribution on shot. This information is of great importance, since the target size is chosen to be smaller than the beam focus in order to ensure homogeneous heating of the HIHEX-target by the ion beam. High amounts of parasitic radiation and activation of experimental equipment is expected for experiments at the APPA-cave. For this reason, all electronic devices must be placed at a safe distance to the target chamber. In order to transport the signal over a large distance, the X-ray image of the target irradiated by heavy-ions has to be converted into an optical one.
For these purposes, the X-ray Conversion to Optical radiation and Transport (XCOT)-system was developed in the frame of a BMBF-project and commissioned in two beamtimes at the UNILAC, GSI during this work.
In experiments, we observed intense radiation of target atoms (K-shell transitions in Cu at 8–8.3 keV and L-shell transition in Ta) ionised in collisions with heavy ions as well as Doppler-shifted L-shell transitions of Au-projectiles passing through targets. This radiation can be used for monochromatic (dispersive elements like bent crystals) or polychromatic (pinhole) 2D X-ray mapping of the ion beam intensity distribution in the interaction region during the beam-target interaction. We measured the efficiency of the X-ray photon production depending on the target thickness and the number of ions passing through the target. The spatial resolution of the XCOT-system based on the multi-pinhole camera was measured to be (91±17) μm for the image magnification factor M = 2. It was considerably improved by application of a toroidally bent quartz crystal and reached 30 μm at M = 6. This resolution is optimal to image the distribution of a 1mm in diameter ion beam. As next step, the XCOT-system will be tested during the SIS18 beam-time at the HHT-experimental area.
The work presented in this thesis addresses a key issue of the CBM experiment at FAIR, which aims to study charm production in heavy ion collisions at energies ranging from 10 to 40 AGeV . For the first time in this kinematical range, open charm mesons will be used as a probe of the nuclear fireball. Despite of their short decay length, which is typically in the order of few 100 µm in the laboratory frame, those mesons will be identified by reconstructing their decay vertex.
Development of prototype components for the Silicon Tracking System of the CBM experiment at FAIR
(2013)
The CBM experiment at future accelerator facility FAIR will investigate the properties of nuclear matter under extreme conditions. The experimental programm is different from the heavy-ion experiments at RHIC (BNL) and LHC (CERN) that create nuclear matter at high temperatures. In contrast, the study of the QCD phase diagram in the region of the highest net baryon densities and moderate temperatures that is weakly explored will be performed with high precision. For this, collisions of different heavy-ion beams at the energies of 10–45GeV/nucleon with nuclear target will be measured.
The physics programme of the CBM experiment includes measurement of both rare probes and bulk observables that originate from various phases of a nucleus-nucleus collision. In particular, decay of particles with charm quarks can be registered by reconstructing the decay vertex detached from the primary interaction point by several hundreds of micrometers (e.g., decay length c Tau = 123 µm for D0 meson). For this, precise tracking and full event reconstruction with up to 600 charged particle tracks per event within acceptance are required. Other rare probes require operation at interaction rate of up to 10MHz. The detector system that performs tracking has to provide high position resolution on the order of 10 µm, operate at high rates and have radiation tolerant design with low material budget.
The Silicon Tracking System (STS) is being designed for charged-particle tracking in a magnetic field. The system consists of eight tracking station located in the aperture of a dipole magnet with 1T field. For tracks with momentum above 1GeV, momentum resolution of such a system is expected to be about 1%. In order to fulfill this task, thorough optimization of the detector design is required. In particular, minimal material budget has to be achieved.
Production of a detector module requires research and development activities with respect to the module components and their integration. A detector module is a basic functional unit that includes a sensor, an analogue microcable and frontend electronics mounted on a support structure. The objective of the thesis is to perform quality assurance tests of the prototype module components in order to validate the concept of the detector module and to demonstrate its operation using radioactive sources and particle beams.
Double-sided silicon microstrip detectors have been chosen as sensor technology for the STS because of the combination of a good spatial resolution, two-dimensional coordinate measurement achieved within low material budget (0.3%X0), high readout speed and sufficient radiation tolerance. Several generations of double-sided silicon microstrip sensors have been manufactured in order to explore the radiation hard design features and the concept of a large-area sensor compatible with ladder-type structure of the detector module. In particular, sensors with double metal layer on both sides and active area of 62×62mm2 have been produced. Electrical characterization of the sensors has been performed in order to establish the overall operability as well as to extract the device parameters. Current-voltage, capacitance-voltage characteristics and interstrip parameters have been measured.
Readout of the sensors has been done using self-triggering front-end electronics. A front-end board has been developed based on the n-XYTER readout chip with data driven architecture and capable of operating at 32MHz readout rate. The front-end board included an external analog-to-digital converter (ADC). Calibration of the ADC has been performed using both 241Am X-ray source and external pulse generator. Threshold calibration and investigation of temperature dependence of chip parameters has been carried out.
Low-mass support structures have been developed using carbon fibre that has the rigidity to hold the detector modules and introduce minimal Coulomb scattering of the particle tracks. Analogue microcables have been produced with aluminium traces on a polyimide substrate, thus combining good electrical connection with low material budget. Microcable structure includes several layers optimized for low trace capacitance and thus low-noise performance.
A demonstrator tracking telescope has been constructed and operated in several beam tests including 2.5GeV proton beam at COSY synchrotron (Jülich). Three tracking stations have been complemented with several beam hodoscopes. Analysis of the beam data has yielded information on analogue and timing response, beam profile. Tracking and alignment information has been obtained. Beam stability has been evaluated using specially developed monitoring tools.
As a result of conducted studies, performance of the module components have been evaluated and requirements to the detector module have been formulated. Practical suggestions have been made with respect to the structure of the detector module, whereas precise definition of the final detector module design was outside of the scope of this thesis.
A basic introduction to RFQs has been given in the first part of this thesis. The principle and the main ideas of the RFQ have been described and a small summary of different resonator concepts has been given. Two different strategies of designing RFQs have been introduced. The analytic description of the electric fields inside the quadrupole channel has been derived and the limitation of these approaches were shown. The main work of this thesis was the implementation and analysis of a Multigrid Poisson solver to describe the potential and electric field of RFQs which are needed to simulate the particle dynamics accurately. The main two ingredients of a Multigrid Poisson solver are the ability of a Gauß-Seidel iteration method to smooth the error of an approximation within a few iteration steps and the coarse grid principle. The smoothing corresponds to a damping of the high frequency components of the error. After the smoothing, the error term can well be approximated on a coarser grid in which the low frequency components of the error on the fine grid are converted to high frequency errors on the coarse grid which can be damped further with the same Gauß-Seidel method. After implementation, the multigrid Poisson solver was analyzed using two different type of test problems: with and without a charge density. After illustrating the results of the multigrid Poisson solver, a comparison to the field of the old multipole expansion method was made. The multipole expansion method is an accurate representation of the field within the minimum aperture, as limited by cylindrical symmetry. Within these limitations the multigrid Poisson solver and the multipole expansion method agree well. Beyond the limitation the two method give different fields. It was shown that particles leave the region in which the multipole expansion method gives correct fields and that the transmission is affected therefrom as well as the single particle dynamic. The multigridPoisson solver also gives a more realistic description of the field in the beginning of the RFQ, because it takes the tank wall into account, and this effect is shown as well. Closing the analysis of the external field, the transmission and fraction of accelerated particles of the set of 12 RFQs for the two different methods were shown. For RFQs with small apertures and big modulations the two different method give different values for the transmission due to the limitation of the multipole expansion method. The internal space charge fields without images was analyzed at the level of single particle dynamic and compared to the well known SCHEFF routine from LANL, showing major differences for the analyzed particle. For comparing influences on the transmissions of the set of 12 RFQs a third space charge routine (PICNIC) was considered as well. The basic shape of the transmission curve was the same independent of space charge routines, but the absolute values differ a little from routine to routine, with SCHEFF about 2% lower than the other routines. The multigrid Poisson solver and PICNIC agree quite well (less than 1%), but PICNIC has an extremely long running time. The major advantage of the multigrid Poisson solver in calculating space charge effects compared to the other two routines used here is that the Poisson solver can take the effect of image charges on the electrodes into account by just changing the boundaries to have the shape of the vanes whereas all other settings remain unchanged. It was demonstrated that the effect of image charges on the vanes on the space charge field is very big in the region close to the electrodes. Particles in that region will see a stronger transversely defocusing force than without images. The result is that the transmission decreases by as much as 10% which is considerably more than determined by other (inexact) routines before. This is an important result, because knowing about the big effect of image charges on the electrodes it allows it to taken into account while designing the RFQ to increase the performance of the machine. It is also an important factor in resolving the traditional difference observed between the transmission of actual RFQs and the transmission predicted by earlier simulations. In the last chapter of this thesis some experimental work on the MAFF (Munich Accelerator for Fission Fragments) IH-RFQ is described. The machine was assembled in Frankfurt and a beam test stand was built. The shunt impedance of the structure was measured using different techniques, the output energy of the structure were measured and finally its transmission was determined and compared to the beam dynamics simulations of the RFQ. Unfortunately, the transmission measurements were done without exact knowledge of the beam’s emittance. So the comparison to the simulation is somewhat rough, but with a reasonable guess of the emittance a good comparison between the measurement and simulation was obtained.
The laser-driven acceleration of protons from thin foils irradiated by hollow high-intensity laser beams in the regime of target normal sheath acceleration is reported for the first time. The use of hollow beams aims at reducing the initial emission solid angle of the TNSA source, due to a flattening of the electron sheath at the target rear side. The experiments were conducted at the PHELIX laser facility at the GSI Helmholtzzentrum für Schwerionenforschung GmbH with laser intensities in the range from 10^18 to 10^20 W/cm^2. We observed an average reduction of the half opening angle by (3.07±0.42)° or (13.2±2)% when the targets have a thickness between 12 to 14 μm. In addition, the highest proton energies were achieved with the hollow laser beam in comparison to the typical Gaussian focal spot.
Heterodyne array receivers are employed in radio astronomy to reduce the observing time needed for mapping extended sources. One of the main factors limiting the amount of pixels in terahertz receivers is the difficulty of generating a sufficient amount of local oscillator power. Another challenge is efficient diplexing and coupling of local oscillator and signal power to the detectors. These problems are attacked in this dissertation by proposing the application of two vacuum electronic terahertz amplifier types for the amplification of the LO-signal and by introducing a new method for finding the defects in a quasioptical diplexer.
A traveling wave tube (TWT) design based on a square helix slow wave structure (SWS) at 825 GHz is introduced. It exhibits a simulated small-signal gain of 18.3 dB and a 3-dB bandwidth of 69 GHz. In order to generate LO-power at even higher frequencies, the operation of an 850-GHz square helix TWT as a frequency doubler has been studied. A simulated conversion efficiency of 7% to 1700 GHz, comparable with the state-of-art solid-state doublers, has been achieved for an input power of 25 mW.
The other amplifier type discussed in this work is a 1-THz cascade backward wave amplifier based on a double corrugated waveguide SWS. Specifically, three input/output coupler types between a rectangular waveguide and the SWS are presented. The structures have been realized with microfabrication, and the results of loss measurements at 1 THz will be shown.
Diplexing of the LO- and signal beams is often performed with a Martin-Puplett interferometer. Misalignment and deformation of the quasioptical components causes the polarization state of the output signal to be incorrect, which leads to coupling losses. A ray-tracing program has been developed for studying the influence of such defects. The measurement results of the diplexer of a multi-pixel terahertz receiver operated at the APEX telescope have been analyzed with the program, and the results are presented. The program allows the quasioptical configuration of the diplexer to be corrected in order to obtain higher receiver sensitivity.
The Compressed Baryonic Matter (CBM) Experiment will investigate heavy ion collisions and reactions at interaction rates of 100 kHz in a targeted energy range of up to 11 AGeV for systems such as gold-gold or lead-lead. It will be one of the major scientific experiments of the Facility for Antiproton and Ion Research in Europe (FAIR) currently under construction at the site of the GSI Helmholtzzentrum für Schwerionenforschung (GSI) in Darmstadt, Germany. CBM is going to be a fixed target experiment consisting of a superconducting magnet, multiple detectors of various types, and high-performance computing for online event reconstruction and selection. The detector closest to the interaction point of the experiment will be the Micro Vertex Detector (MVD). Consisting of four planar stations equipped with custom CMOS pixel sensors, it will allow to reconstruct the primary vertex with high precision and will help to reconstruct secondary vertices and identify particles originating from conversion in the detector material.
Due to the high interaction rates foreseen for CBM, understanding and minimizing systematic errors due to the detectors’ operating conditions will become all the more important to obtain significant measurement results, as statistical errors in the measurements of many observables are diminishing due to the enormous amount of data available.
Furthermore, the MVD will be the first detector based on CMOS pixel sensors used in a large physics experiment, that will be operated in vacuum. As a result, many aspects of the mechanical and electrical integration of the detector require careful testing and validation.
This thesis addresses both those challenges specifically for the Micro Vertex Detector with the development of a control system for the operation and validation of the MVD prototype “PRESTO” in vacuum. The prototype was selected as device under test as the final MVD is not yet built.
The developed control system helps a) to operate the prototype safely and keep it at the desired working point and b) to record important time-series data of the state of the detector prototype. Those two aspects allow the control system (which might later serve as a ‘blueprint’ for the final detector) to minimize the mentioned systematic errors as much as possible and to contribute to the understanding of remaining systematic errors using correlations with the time-series data. The controlled operation of the prototype in vacuum allowed to validate the integration concepts from a wide range of mechanical and electrical aspects in an endurance test for more than a year with 24/7 operation.
The prototype for this study itself was named “PRESTO” (standing for ‘PREcursor of the Second sTatiOn of the CBM-MVD’). It represents one quadrant of an MVD detector plane, equipped with a total of 15 MIMOSA-26 sensors on the front and back side of a carrier plate. Within this thesis, major parts of the prototype itself were designed. Custom ultra-thin flat flexible cables for data and power were designed and validated. Furthermore, the CNC-machined Aluminium heatsink to mount and cool the prototype design was refined to increase thermal performance. A custom vacuum feedthrough for a total of 21 flat ribbon cables was designed and fabricated. The read-out chain for MIMOSIS-26 was extended to cover a total of 8 sensors with a single and newer TRB-3 FPGA board and was set-up with the prototype. Vacuum equipment including chambers, hoses, pumps, valves and gauges were integrated to form a large vacuum testing system. A cooling circuit for the prototype was assembled comprising an external chiller, hoses, vacuum feedthroughs, as well as temperature, flow and pressure sensors.
The control system was developed to serve the needs of the prototype, while taking the requirements of the final MVD already into account. The main design goals of the control system are:
• compatibility with the other detectors and the overall CBM experiment,
• access to real-time measurements of all necessary parameters (‘process values’),
• reliable, fail-safe operation of the detector,
• recording of all time-series data (‘archiving’),
• cost efficiency and acceptance within the physics community,
• good usability for the users (‘operators’),
• long-term maintainability.
The recorded time-series data of the process variables (i.e. sensor readings) allow a post-measurement analysis of variations in the detector performance. The longterm archiving of all relevant system parameters is therefore of outstanding importance, which is why the software intended for this purpose – called “archiver” – was given special attention in this thesis.
For this reason in particular, it is necessary to implement a comprehensive control system that allows the detector to be operated safely under these conditions and cooled effectively. Before the start of this doctoral thesis, vigilant and extensively trained operators were always necessary for this. The control system that has been developed makes it possible that, after basic training, the detector can also be operated by a less specialised shift supervisor during measurement campaigns.
...
The Compressed Baryonic Matter (CBM) is one of the core experiments at the future Facility for Anti-proton and Ion Research (FAIR), Darmstadt, Germany. Its goal is to investigate nuclear matter characteristics at high net-baryon densities and moderate temperatures. The Silicon Tracking System (STS) is a central detector system of CBM.
It is placed inside a 1Tm magnet and operated at a temperature of about −10 °C to keep radiation-induced bulk current in the 300μm double-sided microstrip silicon sensors low. The design of the STS aims to minimize the material budget in the detector acceptance (2.5° < θ < 25°). In order to do so, the readout electronics is placed outside the active area, and the analog signals are transported via ultra-thin micro-cables. The STS comprises eight tracking stations with 876 modules. Each module is assembled on a carbon fiber ladder, which is subsequently mounted in the C-shaped aluminum frame.
The scope of the thesis focused on developing a modular control system framework that can be implemented for different sizes of experimental setups. The developed framework was used for setups that required a remote operation, like the irradiation of the powering modules for the front-end electronics (FEE), but also in laboratory-based setups where the automation and archiving were needed (thermal cycling of the STS electronics).
The low voltage powering modules will be placed in the vicinity of the experiment, therefore they will experience a total dose of up to 40mGy over the 10 years of STS lifetime.
To estimate the effects of the radiation on the low-voltage module performance, a dedicated irradiation campaign took place. It aimed at estimating the rate of radiation induced soft errors, that lead to the switch off of the FEE.
Regular power cycles of multiple front-end boards (FEBs) pose a risk to the experiment operation. Firstly, such behavior could negatively influence the physics performance but also have deteriorating effects on the hardware. It was further assessed what are the limitations of the FEBs with respect to the thermal cycling and the mechanical stress. The results served as an indication of possible failure modes of the FEB at the end of STS lifetime. Failure modes after repeated cycles and potential reasons were determined (e.g., Coefficient of Thermal Expansion (CTE) difference between the materials).
Due to the conditions inside the STS efficient temperature and humidity monitoring and control are required to avoid icing or water condensation on the electronics or silicon sensors. The most important properties of a suitable sensor candidate are resilience to the magnetic field, ionizing radiation tolerance, and fairly small size.
A general strategy for ambient parameters monitoring inside the STS was developed, and potential sensor candidates were chosen. To characterize the chosen relative humidity sensors the developed control framework was introduced. A sampling system with a ceramic sensor and Fiber Optic Sensors (FOS) were identified as reliable solutions for the distributed sensing system. Additionally, the industrial capacitive sensors will be used as a reference during the commissioning.
Two different designs of FOS were tested: a hygrometer and 5 sensors multiplexed in an array. The FOS hygrometer turned out to be a more reliable solution. One of the possible reasons for a worse performance is a relatively low distance between the subsequent sensors (15 cm) and a thicker coating. The results obtained from the time response study pointed out that the thinner coating of about 15μm should be a good compromise between the humidity sensitivity and the time response.
The implementation of the containerized-based control system framework for the mSTS is described in detail. The deployed EPICS-based framework proved to be a reliable solution and ensured the safety of the detector for almost 1.5 years. Moreover, the data related to the performance of the detector modules were analyzed and significant progress in the quality of modules was noted. Obtained data was also used to estimate the total fluence, which was based on the leakage current changes.
The developed framework provided a unique opportunity to automate and control different experimental setups which provided crucial data for the STS. Furthermore, the work underlines the importance of such a system and outlines the next steps toward the realization of a reliable Detector Control System for STS.
The upcoming CBM Experiment at FAIR aims at exploring the region of highest net baryonic densities reproducible in energetic heavy ion collisions. Due to the very high beam intensities expected at FAIR, unprecedented data regarding rare observables such as charm quarks and hyperons will be accessible. Open charm mesons are particularly interesting, since they support the reconstruction of the total charm cross-section in order to search for exotic phenomena, e.g. a phase transition towards the quark-gluon plasma which is predicted by several theoretical models. Open charm studies will be performed via secondary vertex reconstruction with a suitable Micro-Vertex Detector (MVD). The CBM-MVD is currently in the development and prototyping phase with primary design goals concentrating on spatial resolution, radiation hardness, material budget, and readout performance. CMOS Monolithic Active Pixel Sensors (MAPS) provide an excellent spatial resolution for the MVD in the order of few um in combination with a low material budget (50 um thickness) and high radiation hardness. The active volume of the devices is formed from the epitaxial layer of standard CMOS wafers. This allows for integration of pixels together with analogue and digital data processing circuits on one single chip. This option was explored with the MIMOSA-26 prototype, which integrates functionalities like pedestal correction, correlated double sampling, discrimination and data sparsification based on zero suppression combined with a small and dense pixel matrix. The pixel array composed of 576 lines of 1152 pixels is read out in a column-parallel rolling shutter mode. One discriminator per column and the digital data processing circuits are located on the same chip in a 3 mm wide area beneath the pixel matrix allowing for binary hit encoding. This area also contains the circuits for pedestal correction and the configuration memory, which is programmed via JTAG. The preprocessed digital data is read out via two 80 Mbit/s LVDS links per sensor, which stream their data continuously based on a low-level protocol.
Within the scope of this thesis, a readout concept of the CBM-MVD is proposed and studied based on the current MIMOSA sensor generation. The backbone of the system is formed by the Readout Controller boards (ROCs) featuring FPGA microchips and optical links. Several ROC prototypes are considered using the synergy with the HADES Experiment. Finally, the TRB3 board is selected as a possible candidate for the initial FAIR experiments. Furthermore, a highly scalable, hardware independent FPGA firmware is implemented in order to steer and read out multiple MIMOSA-26 sensors. The reconfigurable firmware is also designed with the support for future MIMOSA sensor generations. The free-streaming sensor data is deserialized and error-checked, prior to its transmission over a suitable network interface. In order to demonstrate the validity of the concept, a readout network similar to the HADES Data Acquisition (DAQ) system is developed. The ROC is tested on the HADES TRB2 boards and data is acquired using suitable MAPS add-on boards and the TrbNet protocol.
In the context of the CBM-MVD prototype project, a readout network with 12 MIMOSA-26 sensors has been prepared for an in-beam test at the CERN SPS facility. A comprehensive control system is designed comprising customized software tools. The subsequent in-beam test is used to validate the design choices. As a result, the system could be operated synchronously and dead-time free for several days. The readout network behavior in a realistic operating environment has been carefully studied with the outcome the the TrbNet based approach handles the MVD prototype setup without any difficulties. A procedure to keep the sensors synchronous even in case of a data overflow has been pioneered as well. After the beam test, improvements and conceptual changes to the readout systems are being addressed which allow an integration into the global CBM DAQ system.
Development of the timing system for the Bunch-to-Bucket transfer between the FAIR accelerators
(2017)
The FAIR project is aiming at providing high-energy beams of ions of all elements from hydrogen to uranium, antiprotons and rare isotopes with high intensities. The existing accelerator facility of GSI and the future FAIR facility employ a variety of circular accelerators like heavy ion synchrotrons (SIS18 and SIS100) and storage rings (ESR, CRYRING, CR and HESR) for the preparation of secondary beams and experiments. Bunches are required to be transferred into rf buckets among GSI and FAIR ring accelerators for different purposes. Without the proper transfer, the beam will be subject to various beam quality deterioration and even to beam losses. Hence, the proper bunch-to-bucket (B2B) transfer between two rings is of great importance for FAIR and is the topic, which has been investigated in this thesis.
These circular accelerators of GSI and FAIR have different ratios in their circumference. For example, the circumference ratio between SIS100 and SIS18 is an integer and between SIS18 and ESR is close to an integer and between CR and HESR is far away from an integer. The ring accelerators are connected via a complicated system of beam transfer lines, targets for the secondary particle production and the high energy separators mentioned above. For FAIR, not only the primary beams are required to be transferred from one ring to another, but also the secondary beams, e.g. the antiproton or rare isotope beams produced by the antiproton (pbar) target, the fragment separator (FRS) or the superconducting fragment separator (Super-FRS). An important topic for this system of accelerators is the proper transfer of beam between the different circular accelerators. Bunches of one ring must be transferred into buckets of another ring within an upper bound time constraint (e.g. 10 ms for most FAIR use cases) and with an acceptable B2B injection center mismatch +-1 degree for most FAIR use cases). Hence, a flexible FAIR B2B transfer system is required to realize the different complex B2B transfers between the FAIR rings in the future. In the focus of the system development and of this thesis is the transfer from SIS18 to SIS100, which can be tested at GSI on the transfer from SIS18 to ESR and from ESR to CRYRING. The system is based on the existing technical basis at GSI, the low-level radio frequency (LLRF) system and the FAIR control system. It coordinates with the Machine Protection System (MPS), which protects SIS100 and subsequent accelerators and experiments from damage caused by high intensity primary beams in case of malfunctioning. Besides, it indicates the beam status and the actual beam injection time for the beam instrumentation and diagnostics.
The conceptual realization of the FAIR B2B transfer system was introduced in this thesis for the first time. It achieves the most FAIR B2B transfers with a tolerable B2B injection center mismatch (e.g. +-1 degree) and within an upper bound time (e.g. 10 ms). It supports two synchronization methods, the phase shift and frequency beating methods. It is flexible to support the beam transfer between two rings with different ratios in their circumference and several B2B transfers running at the same time, e.g. the B2B transfer from SIS18 to SIS100 and at the same time the B2B transfer from ESR to CRYRING. It is capable to transfer beam of different ion species from one machine cycle to another and to transfer beams between two rings via the FRS, the pbar target and the Super-FRS. It allows various complex bucket filling pattern. In addition, it coordinates with the MPS system, which protects the SIS100 and subsequent accelerators or experiments from beam induced damage.
A list of criteria for the preservation of beam qualities during the rf frequency modulation of the phase shift method was analyzed. As an example the beam reaction on three different rf frequency modulation examples were analyzed for SIS18 beams. According to the beam dynamic analysis, there is a maximum value for the rf frequency modulation. The first derivative of the rf frequency modulation must be continuous and small enough and the second derivative must be small enough.
In addition to the analysis from the viewpoint of beam dynamics, two test setups were built. The first test setup was used to characterize the FAIR timing network – white rabbit network for the B2B transfer. In the second test setup, the firmware of the FAIR B2B transfer system was evaluated, which was running on the soft CPU, LatticeMico32, of the Scalable Control Unit - the FAIR standard Front End Controller. Besides, the boundary conditions of the different trigger scenarios of the SIS18 extraction and SIS100 injection kicker magnets were investigated. Finally, the application of the FAIR B2B transfer system for all FAIR use cases was demonstrated.
The dissertation plays a significant important role for the realization of the FAIR B2B transfer system and the further practical application of the system to all FAIR use cases.
The study of the electromagnetic structure of hadrons plays an important role in understanding the nature of matter. In particular the emission of lepton pairs out of the hot and dense collision zone in heavy-ion reactions is a promising probe to investigate in-medium properties of hadrons and in general the properties of matter under such extreme conditions. The first experimental observation of an enhanced di-electron yield in the invariant-mass region 0:3 - 0:7 GeV/c2 in p+Be collisions at 4:9 GeV/u beam energy [2] was announced by the DLS collaboration [1]. Recent results of the HADES collaboration show a moderate enhancement above n Dalitz decay contributions for 12C+12C at 1 and 2 GeV/u [3, 4] confirming the DLS results. There are several theoretical explanations of this observation, most of them focusing on possible in-medium modifications of the properties of vector mesons. At low beam energies the question whether the observed excess is related to any in-medium effects remains open because of uncertainties in the description of elementary di-electron sources. In this work the di-electron production in p+p and d+p reactions at a kinetic beam energy of 1:25 GeV/u measured by the HADES spectrometer is discussed. At Ekin = 1:25 GeV/u, i.e. below the n meson production threshold in proton-proton reactions, the delta Dalitz decay is expected to be the most abundant source above the pi 0 Dalitz decay region. The observed large difference in di-electron production in p+p and d+p collisions suggests that di-electron production in the d+p system is dominated by the n+p interaction. In order to separate delta Dalitz decays and np bremsstrahlung the di-electron yield observed in p+p and n+p reactions, both measured at the same beam energy, has been compared. The main interest here is the investigation of iso-spin effects in baryonic resonance excitations and the off-shell production of vector mesons [5]. We indeed observe a large difference in di-electron production in p+p and n+p reactions. Results of these studies will be compared to recent calculations. We will also present our experimentally defined cocktail for heavy-ion data. At much higher beam energies experimental results of the CERES [6] and NA60 [7] collaborations also show an enhancement in the invariant mass region 0:3 - 0:7 GeV/c2, in principle similar to the situation in DLS. A strong excess of lepton pairs observed by recent high energy heavy-ion dilepton experiments hint to a strong influence of baryons, however no data exist at highly compressed baryonic matter, achievable in heavy-ion collisions from 8 - 45 GeV/u beam energy. These conditions would allow to study the expected restoration of chiral symmetry by measuring in-medium modifications of hadronic properties, an experimental program which is foreseen by the future CBM experiment at FAIR. The experimental challenge is to suppress the large physical background on the one hand and to provide a clean identification of electrons on the other hand. In this work, strategies to reduce the combinatorial background in electron pair measurements with the CBM detector are discussed. The main goal is to study the feasibility of effectively reducing combinatorial background with the currently foreseen experimental setup, which does not provide electron identification in front of the magnetic field.
Der langsame Neutroneneinfang-Prozess (s-Prozess) ist für die Erzeugung von rund der Hälfte der Elemente zwischen Eisen und Blei verantwortlich. Sein Reaktionspfad enthält entlang des Stabilitätstals einige Verzweigungspunkte an instabilen Isotopen, deren Neutroneneinfangquerschnitte die Produktion schwererer Elemente und deren Isotopen-Verhältnisse beeinflussen. Kennt man ihre Zerfalls- und Neutroneneinfangraten unter den angenommenen stellaren Bedingungen ist es möglich, Rückschlüsse auf die physikalischen Umstände während des s-Prozesses zu ziehen. Einer dieser Verzweigungspunkte ist 63-Ni. Die experimentelle Bestimmung des differentiellen Wirkungsquerschnittes für den Neutroneneinfang an diesem Isotop ist das primäre Ergebnis der vorliegenden Arbeit. Der 63-Ni(n,gamma)- Wirkungsquerschnitt hat Einfluss auf die Häufigkeiten von 64-Ni, die Kupfer- und die Zink-Isotope. Die Sensitivität der Produktion dieser Nuklide in s-Prozess-Szenarien wurde ebenfalls im Rahmen dieser Arbeit anhand von Simulationen des entsprechenden Nukleosynthesenetzwerkes untersucht. Zudem wurde die Datenlage für s-Prozess-Modelle mit einer Flugzeit-Messung des 63-Cu(n,gamma)-Wirkungsquerschnitts erweitert.
Die beiden Experimente zur Querschnittsbestimmung von 63-Ni und 63-Cu fanden am Los Alamos Neutron Science Center in New Mexico, USA statt. Eine aus angereichertem 62-Ni hergestellte 63-Ni-Probe wurde im Rahmen einer Flugzeit-Messung gepulst mit Neutronen bestrahlt. Der Nachweis der prompten Gammastrahlung aufgrund von Neutroneneinfängen erfolgte mit dem 4π-BaF_2-Detektor DANCE. Die kalorimetrische Messung macht den Q-Wert der Reaktion für jedes Einfangereignis zugänglich und erlaubt die Unterscheidung von Ereignissen verschiedener Isotope. Es konnte gezeigt werden, dass diese Methode die Bestimmung von Querschnitten selbst mit Proben ermöglicht, die nur zu einem Bruchteil aus dem zu untersuchenden Isotop bestehen. Der 63-Ni(n,gamma)-Wirkungsquerschnitt wurde für den Energiebereich von 40 eV bis 500 keV mit einer maximalen Unsicherheit von 15% bestimmt. Es zeigte sich, dass theoretische Abschätzungen den Querschnitt bislang um etwa einen Faktor 2 unterschätzten. In demselben Energiebereich konnte der 63-Cu(n,gamma)-Wirkungsquerschnitt mit einer maximalen Unsicherheit von 8% vermessen werden.
Das Strahldynamikdesign für den MYRRHA-Injektor wurde im Hinblick auf eine hohe Zuverlässigkeit und Verfügbarkeit, sowie eine verbesserte Strahlausgangsemittanz, neu entwickelt und erfüllt nun die Anforderungen des Kernreaktors.
In der statistischen Fehleranalyse zeigt sich die Strahldynamik der CH-Sektion als äußerst robust und liefert selbst unter pessimistischen Fehlerannahmen eine Transmission von über 99,9 %.
Das neue Injektorkonzept bietet wesentliche Vorteile gegenüber dem in „MAX Referenzdesign 2012“ vorgestellten Injektordesign und wird als neues „MAX Referenzdesign 2014“ für den MYRRHA-Injektor verwendet. Die guten strahldynamischen Eigenschaften des neuen Injektordesigns konnten in Vergleichsrechnungen mit TraceWin am IN2P3@CNRS1 (Institut National de Physique Nucléaire et de Physique des Particules @ Centre National de la Recherche Scientifique, Orsay, Frankreich) bestätigt werden.
Neben der Strahldynamik wurde das HF-Design für die benötigten Beschleunigerkavitäten entwickelt und ebenfalls für eine hohe Zuverlässigkeit und Verfügbarkeit optimiert. Das HF-Design der CH-Strukturen ist für eine größtmögliche Ausfallsicherheit auf den Betrieb mit niedrigen elektrischen Feldgradienten, weit unterhalb der technischen Leistungsgrenzen und Möglichkeiten der jeweiligen Kavität, ausgelegt.
Im Rahmen dieser Arbeit wurde die katalytische Wirkung von massenselektierten Edelmetallclustern in photographischen Entwicklern an möglichst praxisnahen photographischen Modellsystemen untersucht, um die bei der Belichtung und der anschließenden Entwicklung von photographischen Filmmaterialien ablaufenden Prozesse besser verstehen zu können. Hierzu wurden präformierte und anschließend massenspektrometrisch größenselektierte Edelmetallclusterionen sanft auf photographische Emulsionskörner aufgebracht und anschließend untersucht, wie die deponierten Clusterionen die chemische Reduktion dieser gelatinefreien Silberhalogenid-Mikrokristalle im Entwickler beeinflussen. Apparatives Kernstück ist eine in den letzten drei Jahren in der Arbeitsgruppe von Prof. L. Wöste an der Freien Universität in Berlin entwickelte Anlage mit der es möglich ist, Edelmetallcluster definierter Größe in so ausreichender Menge durch Sputtern zu erzeugen, daß auch nach kurzen Depositionszeiten genügend viele Cluster auf Oberflächen deponiert werden können. Hohe Teilchenströme von Silbercluster-Kationen wurden über einen weiten Größenbereich (Ag1 + -Ag34+) erzeugt. Der Silbercluster mit der geringsten Intensität im Spektrum, das besonders interessante Ag4 +, wurde mit einem Clusterstrom von 800 pA bei guter Massenauflösung erzeugt. Für Silbercluster-Anionen erzielt man annähernd die gleichen Teichenströme wie für die entsprechenden -Kationen. Durch Sputtern von Gold-Silber-Mischtargets ließen sich AunAgm+-Clusterionen bis zu einer Masse von 2200 amu erzeugen. Um die Forderung nach einem langsamen Aufbringen der Cluster auf die Oberfläche („soft landing“) zu erfüllen, wurden die Cluster mit Hilfe von zwei mit Stoßgas gefüllten Quadrupolen abgebremst. Durch die so verwirklichte sanfte Deposition der Cluster ist es erstmals gelungen, die photographische Wirkung der auf primitive Emulsionskörner deponierten Cluster in definierter, reproduzierbarer und daher aussagekräftiger Weise zu untersuchen. Das war möglich, weil die Depositionsenergien der Cluster (< 1 eV) unterhalb der Bindungsenergien der hier deponierten Edelmetallcluster liegen und somit eine Verfälschung der Resultate durch Fragmentation der Clusterionen ausgeschlossen werden konnte. Es konnte nachgewiesen werden, daß erst ab Depositionsenergien von ³ 5 eV eine vermehrte Fragmentation der Cluster zu erwarten ist. Ob ein Silbercluster an einem Emulsionskorn dessen bevorzugte Entwickelbarkeit einleitet, hängt nicht nur von der Größe des Aggregates und seiner Ladung ab, sondern auch vom Redoxpotential des photographischen Entwicklers. Positiv geladene Silbercluster aus mindestens vier Atomen (Agn+, n³4) katalysieren den Entwicklungsprozeß der Emulsionskörner bei Redoxpotentialen, die negativer als -310 mV (Ag/AgCl-Referenzelektrode) sind. Aber auch Ag3+-Cluster führen noch zu einer Entwickelbarkeit, wenn das Redoxpotential unterhalb -350 mV liegt. Im Gegensatz zu Ag3+-Clustern können Ag3--Cluster, ebenso wie Ag4+-Cluster, die Entwicklung bereits bei einem Redoxpotential von -310 mV katalysieren. Kleinere Silberaggregate, ob positiv oder negativ geladen, führen nicht zu einer bevorzugten Entwickelbarkeit der mit ihnen belegten Silberhalogenidkörner. Ein Einfluß der Kornmorphologie (Kuben, Oktaeder, T-grains) auf die kritische Clustergröße konnte nicht nachgewiesen werden. Erstmals war es auch möglich, Gold-Silber-Mischclusterionen auf ihre photographische Wirkung hin zu untersuchen. Dabei zeigte sich, daß die katalytische Wirkung von Gold-Silber-Mischclusterionen auf die Entwickelbarkeit der sie enthaltenden Emulsionskörner allein durch den Silberanteil der Cluster bestimmt wird. Mischcluster Ag1Aum+ (m³2) und Ag2Aum+ (m³1) katalysieren die Entwicklung nicht, unabhängig vom Redoxpotential. Dagegen leiten Ag3Aum + (m³2), entsprechend den Agn+-Clustern (n³4) bei Redoxpotentialen negativer als -310 mV die Entwicklung ein. Mischcluster mit höherem Silberanteil (AgnAum+; n³4, m³1) ändern ihre katalytische Wirkung gegenüber reinen Silberclustern entsprechender Größe nicht. Erstmals konnte auch der Begriff „Goldlatensifikation“ präzisiert werden. Die hier gefundnen Ergebnisse zeigen eindeutig, daß von einer solchen nur dann gesprochen werden kann, wenn sich die Goldatome an das Trimer anlagern. Dagegen kann die alleinige Substitution von Silber durch Gold sowohl als empfindlichkeitssteigernder Mechanismus bei der Goldlatensifikation als auch bei der Goldreifung ausgeschlossen werden. Reine Goldcluster-Kationen bis zum Au7 + zeigen keine katalytische Wirkung.
Gegenstand dieser Arbeit war die Untersuchung der optischen und elektronischen Eigenschaften von metallorganischen Materialien, die mit dem Verfahren der Elektronenstrahlinduzierten Deposition hergestellt wurden. Da es sich bei diesen noch relativ unerforschten Endprodukten um Materialmengen von wenigen Nanogramm Gewicht und geometrische Abmessungen im Sub-µm-Bereich handelt, wurden hierzu neue Verfahren der Herstellung, Strukturierung und Charakterisierung entwickelt. Sowohl die optischen als auch die elektronischen Eigenschaften dieser Deponate besitzen einen gemeinsamen physikalischen Nenner in ihrer inneren Morphologie: ein nanokristallines dielektrisches Verbundmaterial, das aus metallischen Kristalliten und organischen Polymeren gebildet wird. Im Hinblick auf die Durchführung der Untersuchungen war das Augenmerk auf zwei potentielle industrielle Anwendungen gerichtet: den Photonischen Kristallen und den Einzelelektronen-Phänomenen bei Raumtemperatur. Mit Hilfe von Beugungsexperimenten im Fernfeld wird ein Verfahren gezeigt, das eine der periodischen Struktur von Photonischen Kristallen angepaßte Charakterisierung von Materialstrukturen mit optischer Bandlücke ermöglicht. Das mathematische Grundgerüst bildet dabei eine rigorose Streutheorie, die als Lösung der Helmholtz-Gleichung an dielektrischen Zylindern mit wenigen hundert nm Durchmesser den Experimenten zugrunde gelegt wird und sowohl für die praktische Dimensionierung des Versuchsaufbaus als auch für die theoretische Auswertung der Meßdaten, z.B. für die Brechungsindexbestimmung, dient. Die Herstellung und Kontrolle der Eigenschaften von Einzelelektronen-Tunnelelementen (SETs, Single Electron Tunneling Devices), welche bei hohen Temperaturen mit einer abzählbar kleinen Anzahl von Elektronen noch arbeiten, dürfte wohl eine der größten Herausforderungen in der heutigen Festkörperelektronik sein. Obwohl die Idee dazu, auf Basis der "Orthodoxen Theorie", bis auf die 80er Jahre des vergangenen Jahrhunderts zurückgeht, konnten nennenswerte Ergebnisse nur unter "Laborbedingungen" mit entsprechend hohem experimentellem Aufwand erzielt werden. In der vorliegenden Arbeit wird ein neuer Weg gegangen, um die beiden wesentlichen Bedingungen der orthodoxen Theorie, nämlich die Kleinheit der Kapazitäten und hohe Tunnelwiderstände, durch das ungeordnete nanokristalline Netzwerk der metallorganischen Deponate zu erfüllen. Die Motivation hierzu liegt in der hochohmigen organischen Matrix der Deponate, die mit darin eingebetteten elektrisch isolierten Nanokristalliten (die mit Durchmessern zwischen 1 nm und 2.5 nm ausgezeichnete Quantenpunkte bilden) eine ideale Umgebung für den Betrieb von Einzelelektronen-Tunnelelementen bereitstellen. Ein stabiles Verhalten unter hohen Temperaturen und eine ausgeprägte Resistenz gegen quantenmechanische Fluktuationen (z. B. dem Co-Tunneln oder Hintergrundladungen) wird durch den Aufbau von nanokristallinen Netzwerken, die in der Arbeit als "Über-SET" bezeichnet werden, erreicht. Mit Hilfe der entwickelten speziellen Technik lassen sich Nanokristallite elektrisch bis zur quantenmechanischen Tunnelgrenze voneinander isolieren und als Quantenpunkte betreiben. Die dabei beobachtbaren Phänomene sind diskretisierte I/U-Kennlinien und das Blockade-Verhalten der Spannung bei Raumtemperatur, deren Entstehung in Monte-Carlo-Simulationen auf zwei physikalische Grundprinzipien zurückgeführt wird: der Ausbildung von Einfangzuständen (Traps) für Elektronen an Grenzstellen und dem Mechanismus des negativen differentiellen Widerstandes (NDR, Negative Differential Resistance). Beide Effekte fungieren in einer gegenseitigen Kombination zueinander durch Coulomb-Wechselwirkungen zu einem mikroskopischen Schalter für den gesamten Strom.
Aufgebautes Zwei-Farben Lasersystem: Das für diese Arbeit aufgebaute Zwei-Farben Lasersystem erfüllt im Hinblick auf Abstimmbarkeit wie auch auf die erreichbare Ausgangsleistung die für diese Arbeit gesetzten Ziele. Für weiterführende Experimente muss allerdings berücksichtigt werden, dass für eine Steigerung der Ausgangsleistung, wie auch eine weiterführende Stabilisierung weitere Untersuchungen nötig sind, bei denen aber das jetzige System als Grundlage dienen kann und die mit ihm gewonnenen Erkenntnisse berücksichtigt werden müssen. Auch die verwendete Nahfeld-Beleuchtung erfüllt vor allem mit der automatischen Steuerung verknüpft wertvolle Dienst bei der Charakterisierung der untersuchen LT-GaAs Photomischer. Dieses System ist allerdings nicht geeignet, als direkter Entwurf für das endgültige System des SOFIA- oder ALMA-Projektes anzusehen, was auch nie seine Aufgabe war. Numerische Simulation: Die in dieser Arbeit vorgestellte numerische Simulation des DC-Stromverhaltens stellt einen guten Ansatz dar, die Effekte, die durch eine inhomogene Beleuchtung der Photomischer bedingt durch die verwendete Glasfaser entstehen, quantitativ und qualitativ zu erfassen und sie mit realen Photomischern und den durchgeführten Messungen in Verbindung zu bringen. Durchgeführte Nahfeld-Messungen: Die in dieser Arbeit vorgestellten automatischen Nahfeld-Messungen über einen 1D- und 2D-Bereich ermöglichen mit Hilfe des aufgebauten Lasersystems die in dieser Arbeit untersuchten LT-GaAs Photomischer in ihrem Verhalten zu untersuchen, wie es auch möglich ist, ein vollständiges Kennlinien-Feld aufzunehmen.
The HADES (High Acceptance DiElectron Spectrometer) is an experimental
apparatus installed at the heavy-ion synchrotron SIS-18 at GSI, Darmstadt.
The main physics motivation of the HADES experiment is the measurement
of e+e− pairs in the invariant-mass range up to 1 GeV/c2 in heavy-ion collisions
as well as in pion and proton-induced reactions.
The HADES physics program is focused on in-medium properties of the light
vector mesons ρ(770), ω(783) and φ(1020), which decay with a small branching
ratio into dileptons. Dileptons are penetrating probes which allow to study
the in-medium properties of hadrons. However, in heavy-ion collisions, the
measurement of such lepton pairs is difficult because they are rare and have a
very large combinatorial background.
Recently, HADES has been upgraded with new detectors and new electronics
in order to handle higher intensity beams and reactions with heavy nuclei up
to Au.
HADES will continue for a few more years its rich physics program at its
current place at SIS-18 and then move to the upcoming international Facility
for Antiproton and Ion Research (FAIR) accelerator complex. In this context
the physics results presented in this work are important prerequisites for the investigation
of in-medium vector meson properties in p + A and A+A collisions.
This work consists of five chapters. The first chapter introduces the physics
motivation and a review of recent physics results. In the second chapter, the
HADES spectrometer is described and its sub-detectors are presented. Chapter
three deals with the issue of lepton identification and the reconstruction of
the dielectron spectra in p + p collisions is presented. Here, two reactions
are characterized: inclusive and exclusive dilepton production reactions. From
the spectra obtained, the corresponding cross sections are presented with the
respective statistical and systematical errors. A comparison with theoretical
models is included as well. Conclusions are given in chapter four.
The final part of this work is dedicated to the HADES upgrade, whose goal
is among others the achievement of a reliable and fast data acquisition of the
Multiwire Drift Chambers (MDCs). Chapter five presents my contribution to
this successful project during the three years of my stay at GSI.
Der Urknall vor ungefähr 13.8 Milliarden Jahren markiert die Entstehung des Universums. Die gesamte Energie und Materie war in einem Punkt konzentriert und expandiert seitdem kontinuierlich. Wenige Sekundenbruchteile nach dem Urknall war die Temperatur und Dichte dieser Materie extrem hoch und die erschaffenen Elementarteilchen, speziell Quarks und Gluonen, durchliefen einen Zustand den man als Quark-Gluon-Plasma (QGP) bezeichnet und innerhalb dessen die starke Wechselwirkung dominiert. Innerhalb dieses Plasmas können Quarks und Gluonen, welche sonst in Hadronen gebunden sind, sich frei bewegen. Die direkte Beobachtung des frühzeitlichen QGPs ist mit heutigen Mitteln nicht möglich. Allerdings ist es möglich die Dynamik und Kinematik innerhalb eines künstlich erzeugten QGPs zu erforschen und damit Rückschlüsse auf die Vorgänge während des Urknalls zu machen.
Um künstliche QGPs unter kontrollierten Bedingungen zu erzeugen, werden heutzutage ultrarelativistische Schwerionen zur Kollision gebracht. Der stärkste je gebaute Schwerionenbeschleuniger LHC befindet sich am Kernforschungzentrum CERN in der Nähe von Genf. Das ALICE Experiment, als eines der vier großen Experimente am LHC, wurde speziell gebaut um das QGP näher zu untersuchen. Vollständig ionisierte Bleikerne werden mit nahezu Lichtgeschwindigkeit in den Experimenten zur Kollision gebracht. Die deponierte Energie lässt die Temperatur der Quarks und Gluonen innerhalb der kollidierenden Nukleonen ansteigen bis eine kritische Temperatur überschritten wird und ein Phasenübergang in das QGP erfolgt. Im Laufe der Kollision kühlt das Medium ab und gelangt unter die kritische Temperatur. Nun werden aus den ehemals freien Quarks Hadronen gebildet. Diese Hadronen oder Zerfallsprodukte dieser Hadronen können daraufhin in die Detektoren des Experiments fliegen und werden dann dort gemessen.
Es gibt mehrere mögliche Observablen des QGP, die messbar mit dem ALICE Experiment sind. Die Observablen, die in dieser Arbeit detailliert untersucht werden, sind die invariante Masse und der Paartransversalimpuls eines Dielektrons. Ein Dielektron besteht aus einem Elektron und einem Positron, welche miteinander korreliert sind. Dielektronen sind ideale Sonden zur Vermessung des QGPs. Sie werden durch verschiedene Prozesse während allen Kollisionsphasen produziert, wie beispielsweise bei den initialen, harten Stößen der kollidierenden Nukleonen oder durch den elektromagnetischen Zerfall verschiedener Hadronen wie π0 und J/ψ. Zusätzlich strahlt das QGP Dielektronen abhängig von seiner Temperatur ab. Theoretisch erlaubt dies die direkte Temperaturmessung des QGPs. Ein weiterer Vorteil der Dielektronenmessung gegenüber der Messung von Hadronen liegt darin, dass Elektronen und Positronen keine Farbladungen tragen und somit auch nicht mit der dominierenden starken Wechselwirkung innerhalb des QGPs interagieren und somit unbeeinflusst Informationen über seine Dynamik liefern können.
In dieser vorliegenden Arbeit werden Dielektronenspektren als Funktion der invarianten Masse und des Paartransversalimpulses in Blei-Blei-Kollisionen mit einer Schwerpunktsenergie von √sNN = 5.02 TeV gemessen. Das erste Mal in Schwerionenkollisionen konnte an einem der großen LHC Experimente der minimale Transversalimpuls der gemessenen Elektronen und Positronen auf peT > 0.2 GeV/c minimiert werden. Dies gibt im Vergleich zu der publizierten Messung mit peT > 0.4 GeV/c die Möglichkeit auch sogenannte weiche Prozesse zu messen, erhöht aber auch den Komplexit ätsgrad der Messung durch massiv gesteigerten Untergrund. Zusätzlich ist die Messung zentralitäsabhängig durchgeführt. Zentralität ist ein Maß für den Abstand der beiden Bleikerne zum Zeitpunkt der Kollision. Je zentraler eine Kollision, desto größer ist die deponierte Energie und desto größer und heißer ist das erzeugte QGP und die daraus resultierenden Effekte.
Die gemessenen Dielektronenverteilungen werden mit dem erwarteten Beiträgen aus hadronischen Zerfällen verglichen. Die Messung ergibt, dass der Beitrag aus semileptonischen Zerfällen von Charmquarks gemessen im Vakuum, welcher mit der Anzahl der binären Nukleon-Nukleon-Kollisionen in Blei-Blei-Ereignissen hochskaliert ist, nicht das Dielektronenspektrum beschreibt. Eine Modifizierung des Beitrag gemäß des unabhängig gemessenen nuklearen Modifikationsfaktors für einzelne Elektronen aus Charm- und Beautyquarks verbessert die Beschreibung des Dielektronenspektrums. Zusätzlich wurde der Beitrag virtueller direkter Photonen abgeschätzt. Die gemessenen Werte sind vergleichbar mit vorangegangenen Messungen bei einer niedrigeren Schwerpunktsenergie. Ebenso ist es möglich in periphären Kollisionen einen Beitrag durch eine Quelle zu vermessen, die Dielektronen bei niedrigem Transversalimpuls pT,ee < 0.15 GeV/c aussendet.
Die Untersuchung der Eigenschaften von Hadronen und ihren Konstituenten (Quarks und Gluonen) in heißer und/oder dichter Kernmaterie ist eines der Hauptziele der Physik mit schweren Ionen. Der Zustand dichter und heißer Materie kann im Labor für kurze Zeit in der Reaktionszone von relativistischen Schwerionenkollisionen geschaffen werden. Einen Einblick über die Eigenschaften der starken Wechselwirkung und über die Massenerzeugung der Hadronen geben Dileptonen-Experimente, da Leptonen nicht von der starken Wechselwirkung beeinflusst werden. Unabhängig von der Strahlenergie zeigen die invarianten Massenspektren der Dileptonen in Schwerionenkollisionen im Vergleich zur Superposition der erwarteten hadronischen Zerfälle im Vakuum einen Überschuss im invarianten Massenbereich 0,2 - 0,6 GeV/c². Während dieser Überschuss bei CERN-SPS Energien in Zusammenhang mit der In-Medium-Modifikation der Spektralfunktion des Rho-Mesons gebracht wird, konnte die hohe Zahl der Dileptonen, die von der DLS Kollaboration in C + C und Ca + Ca bei 1 GeV/u beobachtet wurde, bis zum Erscheinen der HADES Daten nicht zufrieden stellend erklärt werden. Die Diskrepanz zwischen experimentellen Daten und Transportrechnungen erhielt den Namen "DLS Puzzle". In diesem Zusammenhang wurde eine kontroverse Diskussion über die Validität der Ergebnisse der DLS Kollaboration geführt. Das HADES Detektorsystem (High Acceptance Di-Electron Spectrometer), das sich am Schwerionensynchroton der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt befindet, ist zur Zeit das einzige Experiment, das Dielektronen bei Projektilenergien von 1 - 2 GeV/u misst. Es tritt somit die Nachfolge des DLS Experiments an. Jedoch ist HADES durch zahlreiche technische Verbesserungen, u.a. Massenauflösung und Akzeptanz, im Vergleich zum Spektrometer DLS ein Experiment der 2. Generation. Erste Ergebnisse der Messung 12C + 12C bei 2 GeV/u der HADES Kollaboration bestätigen den generellen Trend einer erhöhten Zählrate im Vergleich zu den erwarteten Beiträgen von hadronischen Zerfällen. Es stellt sich die Frage, wie sich diese Beobachtung zu kleineren Strahlenergien hin fortsetzt. Im Rahmen der vorliegenden Arbeit wird die mit dem HADES Detektorsystem durchgeführte Messung der Dielektronenproduktion in der Schwerionenkollision 12C + 12C bei einer Projektilenergie von 1 GeV/u ausgewertet. Wesentliche Zielsetzungen sind u. a. die Überprüfung der DLS Daten und die Bestimmung der Anregungsfunktion des Überschusses. In der Analyse wird demonstriert, dass Leptonen effizient nachgewiesen werden. Die dargestellte Paaranalyse zeigt, dass der kombinatorische Untergrund erfolgreich reduziert und die Menge der wahren Dielektronen weitgehend erhalten werden kann. Nach Abzug des kombinatorischen Untergrundes werden die effizienzkorrigierten und normierten invarianten Massen-, Transversalimpuls- und Rapiditätsverteilungen der Dielektronen untersucht. Die Ergebnisse werden mit hadronischen Cocktails verschiedener theoretischer Ansätze verglichen. Diese beinhalten die Beiträge kurz- und langlebiger Dileptonenquellen einer thermischen Quelle (PLUTO) sowie mikroskopische Transportrechnungen (HSD,IQMD). Im Massenbereich 0,2 - 0,6 GeV/c² wird der gemessene Überschuss relativ zu den Vorhersagen bestätigt. Zusammen mit den Ergebnissen der Messung 12C + 12C bei 2 GeV/u zeigt sich, dass der Überschuss mit abnehmender Strahlenergie relativ zunimmt. Eine detaillierte Analyse zeigt, dass der Überschuss in dem Massenintervall 0,15 - 0,5 GeV/c² als Funktion der Projektilenergie entsprechend der Zahl der produzierten neutralen Pionen und nicht wie die Zahl des Eta-Mesons skaliert. Der direkte Vergleich der HADES mit den DLS Ergebnissen zeigt, dass die Daten der vorliegenden Arbeit mit den für lange Zeit angezweifelten DLS Resultaten übereinstimmen. Die Frage nach dem physikalischen Ursprung des Überschusses rückt somit erneut in den Vordergrund. In diesem Zusammenhang ist das Studium der Dileptonenproduktion in elementaren Reaktionen p + p und d + p wichtig. Neuere Rechnungen mit einem One Boson Exchange (OBE) Modell deuten darauf hin, dass die Beiträge von p-p und hauptsächlich p-n zur Bremsstrahlung signifikant höher sind als bisher vermutet. Eine aktualisierte Transportrechnung (HSD), deren Parametrisierung der Bremsstrahlung durch dieses OBE Resultat inspiriert ist, scheint in der Lage zu sein, die Ergebnisse der Messungen 12C + 12C bei 1 GeV/u der HADES und DLS Kollaboration recht gut zu beschreiben. Die entsprechenden Vergleiche sind dargestellt und werden diskutiert. Aber auch die Transportrechnung IQMD erklärt die HADES Daten recht gut. Daher ist es offensichtlich, dass eine direkte Gegenüberstellung der OBE Modellrechnungen und der von der HADES Kollaboration gemessenen und derzeit analysierten Daten zur Dileptonenproduktion in p + p und d + p Reaktionen erforderlich ist. Nur so können sichere Schlüsse über den Ursprung der Dileptonen bei SIS Energien gezogen werden.
In dieser Arbeit konnten erstmals differentielle Ionisationswirkungsquerschnitte für Antimaterie-Materie-Stöße gemessen werden. Mit Hilfe der COLd Target Recoil Ion Momentum Spectroscopy (COLTRIMS) wurden die Stoßsysteme p± + He ® p± + He+1 + ebei einer Einschußenergie von etwa 1 MeV untersucht. Die experimentellen Ergebnisse für die Einfachionisation von Helium durch Antiprotonenstöße werden mit denen für Protonenstöße verglichen. Dies erlaubt den Stoßmechanismus in Abhängigkeit von der Richtung der störenden Kraft zu studieren. Als Ergebniss konnte die Post-Collision-Interaction (PCI) in der longitudinalen Richtung des Stoßes (Projektilrichtung) quantitativ bestimmt werden. Trotz der großen experimentellen Schwierigkeiten (hochenergetischer Antiprotonenstrahl, geringer Antiprotonenstrom, große Strahldivergenz und Strahlungsuntergrund durch Antiprotonenzerfall) konnten absolute die Wirkungsquerschnitte in Abhängigkeit vom Longitudinalimpuls gemessen werden. Innerhalb der experimentellen Fehler zeigen die Longitudinalimpulsverteilungen keine Abhängigkeit vom Projektilvorzeichen. Die folgende Tabelle faßt die mittleren Impulse des Elektrons und des Rückstoßions für Antiprotonen- und Protonenstöße zusammen Rückstoßion Elektron Antiproton 0.07±0.045 a.u. 0.087±0.039 a.u. Proton 0.075±0.025 a.u. 0.075±0.007 a.u. Die Tabelle zeigt, daß nach dem Stoß die Elektronen in beiden Stoßsystemen etwas nach vorne emittiert werden. Das steht im Widerspruch zu den theoretischen Vorhersagen, wonach erwartet wird, daß die Elektronen im Protonenstoß etwas nach „vorne“ und im Antiprotonenstoß etwas nach „hinten“ emittiert werden. Das Rückstoßion agiert in beiden Systemen als Beobachter. Dies widerspricht ebenfalls den Vorhersagen, wonach erwartet wird, daß das Rückstoßion im Protonenstoß etwas nach hinten und im Antiprotonenstoß etwas nach vorne emittiert wird. Die experimentellen Ergebnisse zeigen eine bessere Übereinstimmung mit den Continuum-Distorted-Wave (CDW) Rechnungen als mit den Classical- Trajectory-Monte-Carlo (CTMC) Rechnungen. Im Vergleich zur Stößen mit schnellen hochgeladenen Ionen zeigen die Daten dieser Arbeit, daß die Elektronen die Impulsverluste des Projektils kompensieren, während in hochgeladenen Ion-Atom-Stöße die Rückstoßionen den Impuls der Elektronen kompensieren.
Während den ersten Mikrosekunden nach dem Urknall glaubt man, dass unser Universum aus einer heißen, dichten und stark wechselwirkenden Materie bestanden haben soll, welche man das Quark-Gluonen-Plasma (QGP) nennt.
In diesem Medium sind die elementaren Bausteine der Materie, die Quarks und die Gluonen, nicht mehr in Hadronen gebunden, sondern können sich stattdessen wie quasi-freie Teilchen verhalten.
Für die ALICE Kollaboration an CERN's Large Hadron Collider (LHC) ist die Untersuchung dieses Mediums eines der Hauptziele. Um dieses Medium im Labor zu erzeugen, werden Protonen und Nukleonen auf nahezu Lichtgeschwindigkeit beschleunigt und anschließend zur Kollision gebracht. Dabei werden Schwerpunktsenergien von bis zu 13 TeV bei Proton-Proton (pp) Kollisionen und bis zu 5.02 TeV bei Blei-Blei (Pb--Pb) Kollisionen erreicht.
Bei solchen hochenergetischen Kollisionen werden die kritischen Werte der Energiedichte und Temperatur von jeweils ungefähr 1 GeV/c und undgefähr 155 MeV überschritten, welche mithilfe von "lattice QCD" bestimmt wurden. Sie bieten daher die perfekten Voraussetzungen für einen Phasenübergang von normaler Materie zu einem QGP.
Die Entwicklung eines solchen Mediums, beginnend bei der eigentlichen Kollision, gefolgt von der Ausbildung des Plasmas und der letztendlichen Hadronisierung, kann jedoch nicht direkt untersucht werden, da das Plasma eine extrem kurze Lebensdauer hat.
Die Studien die das QGP untersuchen möchten, müssen sich deshalb auf Teilchenmessungen und deren Veränderung aufgrund von Einflüssen durch das Medium beschränken.
Es ist noch nicht definitiv geklärt, ob sich ein QGP nur in Kollisionen schwerer Ionen bildet, oder ob dies auch in kleineren Kollisionssystemen wie Proton-Proton oder Proton-Blei der Fall ist.
Damit in dieser Thesis Einschränkungen bezüglich einer möglichen Erzeugung eines mini-GQP in kleinen Kollisionssystemen gemacht werden kann, wird der Fokus auf Messungen von neutralen Pionen und Eta Mesonen mit dem ALICE Detektor am CERN LHC gesetzt. Hierfür wird in einem Referenzsystem von Proton-Proton Kollisionen bei sqrt(s)=8 TeV und in einem Proton-Blei (p--Pb) System bei sqrt(sNN)=8.16 TeV, welches eine nukleare Modifikation erfährt, gemessen und die Ergebnisse verglichen.
Da in Proton-Proton Kollisionen die Bildung eines QGP, aufgrund zu geringer Energiedichte, nicht erwartet wird, dient eine Messung in diesem System als Messbasis, um Effekte der Kollision selbst von Effekten nach der Kollision zu separieren, welche die Teilchenproduktion beeinflussen.
Teilchen können zusätzlich zu dem QGP auch mit kalter Kernmaterie interagieren, was sich in asymmetrischen Proton-Blei Kollisionen testen lässt. In diesem Kollisionssystem wird größtenfalls ein vergleichsweise kleines QGP gebildet, wohingegen das Blei Ion selbst als kalte Kernmaterie agieren kann.
Zusätzlich zu den Mesonenmessungen wird in dieser Thesis auch die Erzeugung von direkten Photonen bei niedrigen Transversalimpulsen (pT) in multiplizitätsabhängigen p--Pb Kollisionen bei einer Schwerpunktsenergie von sNN=5.02 TeV gemessen, welche als direkte Probe, sowie als charakteristisches Signal des QGP gilt.
Die neutralen Pionen, welche in dieser Thesis gemessen werden, kann man als einen Überlagerungszustand der zwei leichtesten Quarksorten, dem "up" (u) und dem "down" (d) Quark, sowie deren entsprechenden Anti-Teilchen verstehen.
Das eta meson hingegen hat einen zusätzlichen Anteil des "strange" Quarks und eine resultierende höhere Masse.
Quarks sind Teil des Standardmodells der Teilchenphysik, welches die Elementarteilchen und die zwischen ihnen wirkenden Elementarkräfte, ausgeübt durch Bosonen, beschreibt.
Das Modell umfasst insgesamt sechs Quarks, welche sich durch ihre Masse und Ladung unterscheiden und als Grundbestandteil von gebundenen Zuständen, sogenannten Hadronen, fungieren.
Die "up" und "down" Quarks gelten hierbei als die leichtesten Quarks und kommen daher am häufigsten in der Natur vor. Das bekannteste Beipiel stellen hier die allgemein bekannten Protonen (uud) und Neutronen (udd) dar, welche die Grundkomponenten von Nukleonen sind.
Die restlichen Quarks tragen eine deutlich höhere Masse und haben daher eine große Tendenz, sich in leichtere Quarks umzuwandeln, wodurch ihre Lebensdauer sehr gering ist. Die "top" und "bottom" Quarks, welche die Schwersten sind, können daher nicht in gewöhnlicher Materie gefunden werden.
Sie können jedoch experimentell durch hoch energetische Teilchenkollisionen erzeugt werden und indirekt über ihre Zerfallsprodukte nachgewiesen werden.
Quarks tragen eine elektrische Ladung von entweder 1/3 oder 2/3, sowie eine Farbladung, wobei Letztere verantwortlich für ihre Bindung in Hadronen ist.
Hadronen bestehen entweder aus drei Quarks, dann werden sie Baryonen genannt, oder aus einem Quark-Antiquark Paar, welches Meson genannt wird.
Diese gebundenen Zustände erfüllen eine insgesamt neutrale Farbladung, sowie eine vollzählige elektrische Ladung.
Des Weiteren gibt es auch exotische Penta-Quark Zustände, welche aus vier Quarks und einem Antiquark bestehen und bereits experimentell nachgewiesen wurden.
Aufgrund der starken Wechselwirkung, welche durch Gluonen vermittelt wird, können Quarks nicht einzeln beobachtet werden.
...
Direct photon emission from heavy-ion collisions has been calculated and compared to available experimental data. Three different models have been combined to extract direct photons from different environments in a heavy-ion collision: Thermal photons from partonic and hadronic matter have been extracted from relativistic, non-viscous 3+1-dimensional hydrodynamic calculations. Thermal and non-thermal photons from hadronic interactions have been calculated from relativistic transport theory. The impact of different physics assumptions about the thermalized matter has been studied. In pure transport calculations, a viscous hadron gas is present. This is juxtaposed with ideal gases of hadrons with vacuum properties, hadrons which undergo a chiral and deconfinement phase transition and with a system that has a strong first-order phase transition to a deconfined ideal gas of quarks and gluons in the hybrid model calculations with the various Equations of State. The models used for the determination of photons from both hydrodynamic and transport calculations have been elucidated and their numerical properties tested. The origin of direct photons, itemised by emission stage, emission time, channel and baryon number density, has been investigated for various systems, as have the transverse momentum spectra and elliptic flow patterns of direct photons. The differences of photon emission rates from a thermalized transport box and the hadronic photon emission rates that are used in hydrodynamic calculations are found to be very similar, as are the spectra from calculations of heavy-ion collisions with transport model and hybrid model with hadronic Equation of State. Taking into account the full (vacuum) spectral function of the rho-meson decreases the direct photon emission by approximately 10% at low photon transverse momentum. The numerical investigations show that the parameter with the largest impact on the direct photon spectra is the time at which the hydrodynamic description is started. Its variation shows deviations of one to two orders of magnitude. In the regime that can be considered physical, however, the variation is less than a factor of 3. Other parameters change the direct photon yield by up to approximately 20%. In all systems that have been considered -- heavy-ion collisions at E_lab = 35 AGeV and 158 AGeV, (s_NN)**1/2 = 62.4 GeV, 130 GeV and 200 GeV -- thermal emission from a system with partonic degrees of freedom is greatly enhanced over that from hadronic systems, while the difference between the direct photon yields from a viscous and a non-viscous hadronic system (transport vs. hydrodynamics) is found to be very small. Predictions for direct photon emission in central U+U-collisions at 35 AGeV have been made. Since non-soft photon sources are very much suppressed at this energy, experimental results should very easily be able to distinguish between a medium that is entirely hadronic and a system that undergoes a phase transition from partonic to hadronic matter. In the case of lead-lead collisions at 158 AGeV, the situation is not so clear. In central collisions, the complete direct photon spectra including prompt photons seem to favour hadronic emission sources, while the partonic calculations only slightly overpredict the data. In peripheral collisions at the same energy, the hadronic contribution is more than one order of magnitude smaller than the prompt photon contribution, which fits the available experimental data. A similar picture presents itself at higher energies. At RHIC energies, however, the difference between transport calculations and hadronic hybrid model calculations is largest. Hybrid model calculations with partonic degrees of freedom can describe the experimental results in gold-gold collisions at 200 GeV. The elliptic flow component of direct photon emission is found to be consistently positive at small transverse momenta. This means that the initial photon emission from a non-flowing medium does not completely overshine the emission patterns from later stages. High-pt photons dominantly come from the beginning of a heavy-ion collision and therefore do not carry the directed information of an evolving medium.
Binary neutron star mergers represent unique observational phenomena because all four fundamental interactions play an important role at various stages of their evolution by leaving imprints in astronomical observables. This makes their accurate numerical modeling a challenging multiphysics problem that promises to increase our understanding of the high-energy astrophysics at play, thereby providing constraints for the underlying fundamental theories such as the gravitational interaction or the strong interaction of dense matter. For example, the first and so far only multi-messenger observation of the binary neutron star merger GW170817 resulted in numerous bounds on the parameters of isolated non-rotating neutron stars, e.g., their maximum mass or their distribution in radii, which can be directly used to constrain the equation of state of cold nuclear matter. While many of these results stem from the observation of the inspiral gravitational-wave signal, the postmerger phase of binary neutron star mergers encodes even more details about the extreme physics of hot and dense neutron star matter. In this Thesis we focus on the exploration of dissipative and shearing effects in binary neutron star mergers in order to identify novel approaches to constrain hot and dense neutron star matter.
The first effect is the well-motivated dissipation of energy due to the bulk viscosity which arises from violations of weak chemical equilibrium. We start by exploring the impact of bulk viscosity on black-hole accretion. This simplified problem gives us the opportunity to develop a test case for future codes taking into account the effects of dissipation in a fully general-relativistic setup and build intuition in the physics of relativistic dissipation. Next, we move on to isolated neutron stars and binary neutron star mergers by developing a robust implementation of bulk-viscous dissipation for numerical relativity simulations. We test our implementation by calculating the damping of eigenmodes of isolated neutron stars and the violent migration scenario. Finally, we present the first results on the impact of bulk viscosity on binary neutron star mergers. We identify a number of ways how bulk viscosity impacts the postmerger phase, out of which the suppression of gravitational-wave emission and dynamical mass ejection are the most notable ones.
In the last part of this Thesis we investigate how the shearing dynamics at the beginning of the merger affects the amplification of different initial magnetic-field topologies. We explore the hypothesis that magnetic fields which are located only in a small region near the stellar surface prior to merger lead to a weaker magnetic-field amplification. We show first evidence which confirms this hypothesis and discuss possible implications for constraining the physics of superconduction in cold neutron stars.
The aim of this thesis is to provide a complete and consistent derivation of second-order dissipative relativistic spin hydrodynamics from quantum field theory. We will proceed in two main steps. The first one is the formulation of spin kinetic theory from quantum field theory using the Wigner-function formalism and performing an expansion in powers of the Planck constant. The essential ingredient here is the nonlocal collision term. We will find that the nonlocality of the collision term arises at first order in the Planck constant and is responsible for the spin alignment with vorticity, as it allows for conversion between spin and orbital angular momentum.
In the second step, this kinetic theory is used as the starting point to derive hydrodynamics including spin degrees of freedom. The so-called canonical form of the conserved currents follows from Noether’s theorem.
Applying an HW pseudo-gauge transformation, we obtain a spin tensor and energy-momentum tensor with obvious physical interpretation. Promoting all components of the HW tensors to be dynamical, we derive
second-order dissipative spin hydrodynamics. The additional equations of motion for the dissipative currents are obtained from kinetic theory generalizing the method of moments to include spin degrees of freedom.
Das Spektrum der Einfachionisation von Helium unterhalb der Doppelionisationsschwelle bei 79 eV ist reich an komplexen Strukturen. Eine Vielzahl von Resonanzen tritt dort auf. Diese Resonanzen sind unmittelbar verbunden mit doppelt angeregten Zuständen von Helium. Unterhalb einer Photonenenergie von ca. 77 eV liegen diese Resonanzen geordnet vor, und sie können dort mit Hilfe weniger Quantenzahlen klassifiziert werden. Das trifft aber nicht auf den Bereich dicht unterhalb der Doppelionisationsschwelle zu, d.h. zwischen ca. 78,2 eV und 79 eV. Hier verlieren die bis dahin verwendeten Quantenzahlen ihre Gültigkeit. Dieses Gebiet ist sowohl theoretisch als auch experimentell nahezu unerforscht. Traditionelle experimentelle Methoden stoßen hier auf Hindernisse, die auch in den kommenden Jahren höchstwahrscheinlich nicht überwunden werden können. Das größte Problem hierbei sind die sehr geringen Reaktionsraten. Aus diesem Grund wurde im Rahmen dieser Arbeit ein neuer Weg gewählt, der diese Probleme weitgehend hinter sich läßt und Untersuchungen in dieser äußerst schwer zugänglichen Region ermöglicht. Die neue Technik weist gegenüber bisherigen Methoden eine um mehrere Größenordnungen gesteigerte Nachweiseffizienz auf, wodurch Messungen in diesem Energiebereich innerhalb eines vernünftigen Zeitrahmens praktisch erst ermöglicht werden. Erreicht wird dies durch ein Spektrometer, das zu allen Raumrichtungen hin sensitiv ist und die Impulse und Flugrichtungen der emittierten Elektronen individuell für jede einzelne Reaktion nachweisen kann. Die Elektronen werden zusammen mit dem jeweiligen He+-Ion in Koinzidenz nachgewiesen, wodurch eine sehr effiziente Unterdrückung von Untergrundereignissen realisiert wird. Die vorgestellte Meßmethode basiert auf der sogenannten Coltrims-Technik, die seit einigen Jahren im Bereich der Atom- und Molekülphysik äußerst erfolgreich eingesetzt wird. Ihre Anwendung auf niederenergetische Elektronen mit kinetischen Energien im Bereich zwischen 0 eV und 0,5 eV war bisher jedoch nur sehr eingeschränkt möglich und mit großen Unsicherheiten verbunden, da in diesem Fall die Einflüsse verschiedener Störquellen wie beispielsweise das Erdmagnetfeld berücksichtigt werden müssen. Diese Probleme konnten gelöst werden, so daß nun auch winkelaufgelöste Messungen an Elektronen mit weniger als 100 meV kinetischer Energie möglich sind. Die Apparatur wurde im Rahmen einer Messung am Berliner Synchrotron BESSY II erfolgreich eingesetzt. Untersucht wurden die partiellen Wirkungsquerschnitte sN(E) der verschiedenen Ausgangskanäle der Reaktion g(E) + He -> He** -> e- + He+(N), wobei E die Photonenenergie und N die Hauptquantenzahl des erzeugten Heliumions ist. Zusätzlich wurde zu jedem dieser Reaktionskanäle die Winkelverteilung bN(E) der emittierten Elektronen bestimmt. Ziel der Messung war es, zunächst einen Bereich des Energiespektrums abzudecken, für den theoretische Vorhersagen existieren. Im weiteren Verlauf der Messung wurde dieser Bereich ausgedehnt bis hin zur Doppelionisationsschwelle. Die Ergebnisse werden verschiedenen theoretischen Vorhersagen gegenübergestellt und diskutiert. Die aufgenommenen Daten umfassen auch Bereiche des Energiespektrums, für die noch keine theoretischen Ergebnisse vorliegen (78,3 eV<E<78,9 eV). Die hier beobachteten Verhaltensweisen insbesondere der Winkelverteilungen der emittierten Elektronen werden mit veröffentlichten Daten verglichen, die bei einer Photonenenergie von E=80,1 eV aufgenommen wurden, d.h. dicht oberhalb der Doppelionisationsschwelle. Die beobachteten Parallelen können innerhalb eines klassischen Modells interpretiert werden.
The theoretical and experimental investigation of exotic hadrons like tetraquarks is an important branch of modern elementary particle physics. In this thesis I investigate different four-quark systems using lattice QCD and search for evidence of stable tetraquark states or resonances.
Lattice QCD as a non-perturbative approach to QCD allows an accurate and reliable determination of the masses of strongly bound hadrons.
However, most tetraquarks appear as weakly bound states or resonances, which makes a theoretical investigation using lattice QCD difficult due to the finite spatial volume. A rigorous treatment of such systems is feasible using the so-called Lüscher method. This allows to calculate the scattering amplitude based on the finite-volume energy spectrum determined in a lattice QCD calculation. Similarly to the analysis of experimental data, this scattering amplitude can be used to determine the binding energies of bound states or the masses and decay widths of resonances in the infinite volume.
In my work I calculate the low-energy energy spectra of different four-quark systems and use - if necessary - the Lüscher method to determine the masses of potential tetraquark states.
I focus on systems consisting of two heavy antiquarks and two light quarks, where at least one of the heavy antiquarks is a bottom quark.
Even though such tetraquarks have not yet been experimentally detected, they are considered promising candidates for particles that are stable with respect to the strong interaction.
A decisive step for successfully calculating low-lying energy levels for such four-quark systems is a carefully chosen set of creation operators, which represent the physical states most accurately. In addition to operators that generate a local structure where all four quarks are located at the same space-time point, I also use so-called scattering operators that resemble two spatially separated mesons. These scattering operators turned out to be relevant for successfully determining the lowest energy levels and are therefore essential, especially if a Lüscher analysis is carried out.
In my work, I considered two different lattice setups to study the four-quark systems $\bar{b}\bar{b}ud$ with $I(J^P)=0(1^+) $, $\bar{b}\bar{b}us$ with $J^P=1^+ $ and $\bar{b}\bar{c}ud$ with $I(J^P)=0(0^+) $ and $I(J^P)=0(1^+) $ and to predict potential tetraquark states. In both setups, I considered scattering operators. While in the first setup I used them only as annihilation operators, in the second setup they were included both as creation and annihilation operators. Additionally, in the second lattice setup, I performed a simplified investigation of the $\bar{b}\bar{b}ud$ system with $I(J^P)=0(1^-) $, which is a potential candidate for a tetraquark resonance. The results of the investigation of the mentioned four-quark systems can be summarized as follows:
For the $ \bar{b}\bar{b}ud $ four-quark system with $ I(J^P)=0(1^+) $ I found a deeply bound ground state slightly more than $ 100\,\textrm{MeV} $ below the lowest meson-meson threshold. The existence of a corresponding $\bar{b}\bar{b}ud$ tetraquark in the infinite volume was confirmed using a Lüscher analysis and possible systematic errors due to the use of lattice QCD were taken into account.
Similar results were obtained for the $ \bar{b}\bar{b}us $ four-quark system with $ J^P=1^+ $. Again, I found a ground state well below the lowest meson-meson threshold, but slightly weaker bound than for the $ \bar{b}\bar{b}ud $ system. Effects due to the finite volume turned out to be negligible for this system, as already predicted for the $ \bar{b}\bar{b}ud $ system. \item For the $ \bar{b}\bar{c}ud $ four-quark systems with $ (J^P)=0(0^+) $ and $ (J^P)=0(1^+) $ I was able to rule out the existence of a deeply bound tetraquark states based on the energy spectrum in the finite volume. However, by means of a scattering analysis using the Lüscher method, I found evidence a broad resonance for both channels.
In the case of the $ \bar{b}\bar{b}ud $ four-quark system with $ I(J^P)=0(1^-) $, I could neither confirm the existence of a resonance, nor rule out its existence with certainty.
In particular, my investigations showed that the results of the two different lattice simulations are consistent. The theoretical prediction of the bound tetraquark states $\bar{b}\bar{b}ud$ and $\bar{b}\bar{b}us$ as well as the tetraquark resonances in the $\bar{b}\bar{c}ud$ system in this work represent an important contribution to the future experimental search for exotic hadrons and can support the discovery of previously unobserved particles.
Die vorliegende Dissertation untersucht die Nichtgleichgewichtsdynamik von relativistischen Schwerionenkollisionen ausgehend von der anfänglichen Produktion von Teilchen durch den Zerfall von Strings, der Bildung eines Quark-Gluon-Plasmas (QGP), dessen kinetische und chemische Äquilibrierung als Funktion der Zeit sowie seine Transporteigenschaften im Gleichgewicht bei endlicher Temperatur und endlichem chemischen Potential. Ein Verständnis der frühen Phase der Schwerionenkollisionen ist insbesondere von großen Interesse, da letztere eine Verbindung zwischen den ersten Nukleon-Nukleon Kollisionen und der Quark-Gluon-Plasma Phase herstellen, die zu einem späteren Zeitpunkt ein gewisses Maß an Thermalisierung zeigt. Allerdings können nur Nichtgleichgewichts-Theorien eine Verbindung zwischen dem anfänglichen QGP und seiner - zumindest partiellen - Thermalisierung herstellen. Um die Dynamik eines stark wechselwirkenden Mediums wie des Quark-Gluon-Plasmas zu beschreiben, reichen übliche Transportgleichungen (basierend auf der Boltzmann-Gleichung) nicht aus und es müssen komplexere Theorien, die auch für stark korrelierte Medien geeignet sind, angewendet werden. Hier kommen hydrodynamische Simulationen oder Transportrechnungen - basierend auf verallgemeinerten Transportgleichungen - zum Einsatz. Solche verallgemeinerte Transportgleichungen, wie die Kadanoff-Baym-Gleichungen, ergeben sich aus der quantenmechanischen Nichtgleichgewichts-Vielteilchentheorie, in der Green’s- Funktionen in Minkowski Raum-Zeit die interessierenden Größen sind, um die Dynamik des betrachteten Mediums zu beschreiben. Mit geeigneten Näherungen kann man so kinetische Transportgleichungen erhalten, die eine einheitliche Behandlung von stabilen und instabilen Teilchen auch außerhalb des Gleichgewichts ermöglichen. Diese Bestandteile bilden die Basis des Transportmodells Parton-Hadron-String Dynamics (PHSD), welches daher ein geeignetes ’Instrument’ ist um die verschiedenen Phasen einer Schwerionenkollision zu analysieren, egal ob die verschiedenen Formen der Materie im Gleichgewicht sind oder nicht.
In dieser Arbeit wird zunächst die Quantenchromodynamik (QCD) vorgestellt und erklärt, wie diese Theorie im Laufe der Jahre entwickelt wurde um ein wichtiger Bestandteil des Standardmodells der Teilchenphysik zu werden. Wir werden weiterhin die verbleibenden Herausforderungen in unserem Verständnis der QCD vorstellen, die sich primär auf das Phasendiagramm der stark wechselwirkenden Materie konzentrieren.
Im zweiten Kapitel untersuchen wir die Nichtgleichgewichts-Feldtheorie und die damit verbundenen Techniken - wie die Keldysh-Kontur - zur Beschreibung der Green’schen Funktionen als wesentlichen Freiheitsgrade. Wir leiten die Evolutionsgleichung für die Green’schen Funktionen her, d. h. die Kadanoff Baym-Gleichungen am Beispiel einer skalaren Feldtheorie.
Im nächsten Kapitel wird das Transportmodell Parton-Hadron-String Dynamics (PHSD), welches die Anwendung der verallgemeinerten Transportgleichungen zur Beschreibung relativistischer Schwerionenkollisionen darstellt, vorgestellt.
Wir beginnen im Kapitel 4 mit der Untersuchung der Nichtgleichgewichtseigenschaften des Quark-Gluon-Plasmas, welches bei relativistischen Schwerionenkollisionen erzeugt wird. Zu diesem Zweck vergleichen wir die Quark-Gluon-Plasmaentwicklung aus dem PHSD mit einem viskosen hydrodynamischen Modell, bei dem ein lokales kinetisches und chemisches Gleichgewicht angenommen wird.
Im Kapitel 5 konzentrieren wir uns auf das frühe Vorgleichgewichtsstadium ultra-relativistischer Schwerionenkollisionen und insbesondere auf die Freiheitsgrade der QGP-Phase in diesem Stadium. Wir untersuchen die Auswirkungen eines QGP, welches anfänglich entweder aus einem System aus massiven Gluonen (Szenario I) oder alternativ aus Quarks und Antiquarks (Szenario II) besteht. Das nächste Kapitel wird ebenfalls die Produktion von Teilchen im Frühstadium von Schwerionenkollisionen behandeln, jedoch bei niedrigeren Kollisionsenergien. Hier wird eine mikroskopische Beschreibung des K+/pi+-Verhältnisses im Vordergrund stehen, d. h. die Erklärung des Maximums in diesem Verhältnis bei etwa 30 A GeV ("Horn") in zentralen Au+Au (oder Pb+Pb) Kollisionen. Insbesonders werden wir die Modifikation des String-Fragmentierungsprozesses (über den Schwinger-Mechanismus) in einer Umgebung mit hoher hadronischer Dichte aufgrund der teilweisen Wiederherstellung der chiralen Symmetrie untersuchen.
In Kapitel 7 erweitern wir das Parton-Hadron-String Dynamics (PHSD)-Transportmodell im partonischen Sektor, indem wir explizit die totalen und differentiellen partonischen Streuungsquerschnitte als Funktion der Temperatur T und des baryochemischen Potentials μB berechnen auf der Basis der effektiven Propagatoren und Kopplungen des Dynamical QuasiParticle Models (DQPM), welches auch die generelle Zeitentwicklung der partonischen Freiheitsgrade beschreibt. Wir finden nur eine sehr bescheidene Änderung von n/s mit dem baryonchemischen Potential μB in Abhängigkeit von der skalierten Temperatur T/Tc(μB). Dies gilt auch für eine Vielzahl von hadronischen Observablen aus zentralen A+A Kollisionen im Energiebereich von 5 GeV < vsNN < 200 GeV bei der Implementierung der differentiellen Querschnitte in das PHSD-Modell. Da wir in Schwerionen-Observablen nur kleine Spuren einer μB-Abhängigkeit finden - obwohl die effektiven Partonenmassen und Kollisionsbreiten sowie deren Partonenquerschnitte eindeutig von μB abhängen - impliziert dies, dass man eine beträchtliche Partonendichte und ein großes Raum-Zeit-QGP-Volumen zur Untersuchung der Dynamik in der partonischen Phase benötigt. Diese Bedingungen sind nur bei hohen Kollisionsenergien erfüllt, bei denen μB jedoch eher niedrig ist. Wenn andererseits die Kollisionsenergie verringert und somit μB erhöht wird, wird die hadronische Phase dominant und dementsprechend wird es zunehmend schwieriger, Signale aus der Partonendynamik auf der Basis von "Bulk"-Observablen zu extrahieren.
In this thesis, various aspects on the theoretical description of ultracold bosonic atoms in optical lattices are investigated. After giving a brief introduction to the fundamental concepts of BECs, atomic physics, interatomic interactions and experimental procedures in chapter (1), we derive the Bose-Hubbard model from first principles in chapter (2). In this chapter, we also introduce and discuss a technique to efficiently determine Wannier states, which, in contrast to current techniques, can also be extended to inhomogeneous systems. This technique is later extended to higher dimensional, non-separable lattices in chapter (5). The many-body physics and phases of the Bose-Hubbard is shortly presented in chapter (3) in conjunction with Gutzwiller mean-field theory, and the recently devised projection operator approach. We then return to the derivation of an improved microscopic many-body Hamiltonian, which contains higher band contributions in the presence of interactions in chapter (4). We then move on to many-particle theory. To demonstrate the conceptual relations required in the following chapter, we derive Bogoliubov theory in chapter (5.3.4) in three different ways and discuss the connections. Furthermore, this derivation goes beyond the usual version discussed in most textbooks and papers, as it accounts for the fact, that the quasi-particle Hamiltonian is not diagonalizable in the condensate and the eigenvectors have to be completed by additional vectors to form a basis. This leads to a qualitatively different quasi-particle Hamiltonian and more intricate transformation relations as a result. In the following two chapters (7, 8), we derive an extended quasi-particle theory, which goes beyond Bogoliubov theory and is not restricted to weak interactions or a large condensate fraction. This quasi-particle theory naturally contains additional modes, such as the amplitude mode in the strongly interacting condensate. Bragg spectroscopy, a momentum-resolved spectroscopic technique, is introduced and used for the first experimental detection of the amplitude mode at finite quasi-momentum in chapter (9). The closely related lattice modulation spectroscopy is discussed in chapter (10). The results of a time-dependent simulation agree with experimental data, suggesting that also the amplitude mode, and not the sound mode, was probed in these experiments. In chapter (11) the dynamics of strongly interacting bosons far from equilibrium in inhomogeneous potentials is explored. We introduce a procedure that, in conjunction with the collapse and revival of the condensate, can be used to create exotic condensates, while particularly focusing on the case of a quadratic trapping potential. Finally, in chapter (12), we turn towards the physics of disordered systems derive and discuss in detail the stochastic mean-field theory for the disordered Bose-Hubbard model.
In der vorliegenden Arbeit wurden mikroskopische Studien zur Äquilibrierung von partonischer und hadronischer Materie im Rahmen einer Nichtgleichgewichts-Transporttheorie durchgeführt, die sowohl hadronische als partonische Freiheitsgrade enthält und den Übergang zwischen beiden Phasen dynamisch beschreibt. Des Weiteren wurden die thermischen Eigenschaften des Gleichgewichtszustandes der stark wechselwirkenden Materie untersucht, insbesondere Fluktuationen in der Teilchenzahl wie auch höhere Momente von Observablen und deren Verhältnisse. Besonderes Interesse galt dabei den Transportkoeffizienten wie Scher- und Volumenviskosität sowie der elektrischen Leitfähigkeit.
Die Methode der Nichtgleichgewichts-Green'schen Funktionen - initiiert von Schwinger sowie Kadanoff und Baym - wurde vorgestellt um hochenergetische Kern-Kern Kollisionen zu beschreiben. Weiterhin wurde der Schwinger-Keldysh Formalismus benutzt um im Sinne einer Zweiteilchen-irrediziblen Näherung (2PI) die Dynamik von 'resummierten' Propagatoren und Kopplungen in konsistenter Weise zu beschreiben. Des Weiterhin wurden generalisierte Transportgleichungen auf der Basis der Kadanoff-Baym Gleichungen (in Phasenraumdarstellung) abgeleitet und ein Testteilchenverfahren zur Lösung dieser Gleichungen vorgestellt. Damit wurde der formale Rahmen der Parton-Hadron-String Dynamik (PHSD) abgesteckt.
Das PHSD Transportmodell wurde sodann für die Lösung der expliziten Fragestellungen in dieser Arbeit verwendet. Die 'Eingangsgrößen' des Modells wurden in Kapitel 3 aufgeführt. Weiterhin wurde aufgezeigt, dass das Transportmodell alle Phasen einer relativistischen Schwerionenkollision konsistent beschreibt, d.h. angefangen von den primären harten Stoßprozessen und der Bildung von 'Strings' zur Formierung einer partonischen Phase, den Wechselwirkungen in dieser Phase sowie die
dynamische Beschreibung der Hadronisierung. Weiterhin enthält das Modell zudem die hadronischen Endzustandswechselwirkungen bis zum Ausfrieren der hadronischen Freiheitsgrade bei geringer Dichte. ...
Light scalar mesons can be understood as dynamically generated resonances. They arise as 'companion poles' in the propagators of quark-antiquark seed states when accounting for hadronic loop contributions to the self-energies of the latter. Such a mechanism may explain the overpopulation in the scalar sector - there exist more resonances with total spin J=0 than can be described within a quark model.
Along this line, we study an effective Lagrangian approach where the isovector state a_{0}(1450) couples via both non-derivative and derivative interactions to pseudoscalar mesons. It is demonstrated that the propagator has two poles: a companion pole corresponding to a_{0}(980) and a pole of the seed state a_{0}(1450). The positions of these poles are in quantitative agreement with experimental data. Besides that, we investigate similar models for the isodoublet state K_{0}^{*}(1430) by performing a fit to pion-kaon phase shift data in the I=1/2, J=0 channel. We show that, in order to fit the data accurately, a companion pole for the K_{0}^{*}(800), that is, the light kappa resonance, is required. A large-N_{c} study confirms that both resonances below 1 GeV are predominantly four-quark states, while the heavy states are quarkonia.
In this thesis we have studied the physics of different ultracold Bose-Fermi mixtures in optical lattices, as well as spin 1=2 fermions in a harmonic trap. To study these systems we generalized dynamical mean-field theory for a mixture of fermions and bosons, as well as for an inhomogeneous environment. Generalized dynamical mean-field theory (GDMFT) is a method that describes a mixture of fermions and bosons. This method consists of Gutzwiller mean-field for the bosons, and dynamical mean-field theory for the fermions, which are coupled on-site by the Bose-Fermi density-density interaction and possibly a Feshbach term which converts a pair of up and down fermions into a molecule, i.e. a boson. We derived the self-consistency equations and showed that this method is well-controlled in the limit of high lattice coordination number z. We develop real-space dynamical mean-field theory for studying systems in an inhomogeneous environment, e.g. in a harmonic trap. The crucial difference compared to standard DMFT is that we are taking into account that different sites are not equivalent to each other and thus take into account the inhomogeneity of the system. Different sites are coupled by the real-space Dyson equation. ...
The main subject of this thesis is the study of hadron and photon production in relativistic heavy-ion collisions by means of hydrodynamics+transport approaches. Two different kinds of such hybrid approaches are employed in this work, the SMASH-vHLLE-hybrid and a MUSIC+SMASH hybrid. While the former is capable of simulating heavy-ion collisions covering a wide range of collision energies down to √s = 4.3 GeV, reproducing the correct baryon stopping powers, the latter provides a framework to consistently model photon production in the hadronic stage of high-energy heavy-ion collisions.
The SMASH-vHLLE-hybrid is a novel state-of-the-art hybrid approach whose development constitutes a major contribution to this thesis. It couples the hadronic transport SMASH to the 3+1D viscous hydrodynamics approach vHLLE. Therein, SMASH is employed to provide the fluctuating 3D initial conditions and to model the late hadronic rescattering stage, and vHLLE for the fluid dynamical evolution of the hot and dense fireball. The initial conditions are provided on a hypersurface of constant proper time, and the macroscopic evolution of the fireball is carried out down to an energy density of ecrit = 0.5 GeV/fm3, where particlization occurs. Consistency at the interfaces is verified in view of global, on-average quantum number conservation and the SMASH-vHLLE-hybrid is validated by comparison to SMASH+CLVisc as well as UrQMD+vHLLE hybrid approaches. The establishment of the SMASH-vHLLE-hybrid to theoretically describe heavy-ion collisions at intermediate and high collision energies forms a basis for a range of extensions and future research projects. It is further made available to the heavy-ion community by virtue of being published on Github.
The SMASH-vHLLE-hybrid is applied to simulate Au+Au/Pb+Pb collisions between √s = 4.3 GeV and √s = 200.0 GeV. A good agreement with the experimentally measured rapidity and transverse mass spectra is obtained. In particular the baryon stopping dynamics are well reproduced at low, intermediate, and high collision energies. Excitation functions for the mid-rapidity yield and mean transverse momentum of pions, protons and kaons are demonstrated to agree well with their experimentally measured counterpart. These results further validate the approach and provide a solid baseline for potential future studies. The importance of annihilations and regenerations of protons and anti-protons is additionally investigated in Au+Au/Pb+Pb collisions between √s = 17.3 GeV and √s = 5.02 TeV with the SMASH-vHLLE-hybrid. It is found that, regarding the p + p ̄ ↔ 5 π reaction, 20-50% (depending on the rapidity range) of the (anti-)proton yield lost to annihila- tions in the hadronic rescattering stage is restored owing to the back reaction. The back reaction thus constitutes a non-negligible contribution to the final (anti-)proton yield and should not be neglected when modelling the late rescattering stage of heavy-ion collisions.
The MUSIC+SMASH hybrid is a hybrid approach ideally suited to model the production of photons in relativistic heavy-ion collisions. Therein, the macroscopic production of photons in the hadronic stage in MUSIC relies on the identical effective field theories as the photon cross sections implemented in SMASH for the microscopic production. The MUSIC+SMASH hybrid thus provides the first consistent framework to the end of hadronic photon production. It accounts for 2 → 2 scattering processes of the kind π + ρ → π + γ and pion bremsstrahlung processes π + π → π + π + γ. The MUSIC+SMASH hybrid is employed in an ideal 2D setup to systematically assess the importance of non-equliibrium dynamics in the hadronic rescattering stage on mid-rapidity transverse momentum spectra and elliptic flow of photons at RHIC/LHC energies. This is achieved by comparing the outcome of the MUSIC+SMASH hybrid, involving an out-of-equilibrium late rescattering stage, to macroscopically approximating late stage photon production by means of MUSIC, employed down to temperatures well below the switching temperature. It is found that non-equilibrium dynamics have only minor implications for photon transverse momentum spectra, but significantly enhance the photon elliptic flow. At RHIC energies, an enhancement of up to 70%, and at LHC of up to 65% is observed in the non-equilibrium afterburner as compared to its hydrodynamical counterpart. In combination with the large amount of photons produced above the particlization temperature, these differences are modest regarding the transverse momentum spectra, but a significant enhancement of the elliptic flow is observed at low transverse momenta. Below pT ≈ 1.4 GeV, the combined v2 is enhanced by up to 30% at RHIC, and up to 20% at the LHC within the non-equilibrium setup as compared to its approximation via hydrodynamics. Non-equilibrium dynamics in the hadronic rescattering stage are hence important, especially in view of momentum anisotropies at low transverse momenta. These findings thus contribute to the understanding of low-pT photons produced in heavy-ion collisions at RHIC/LHC energies and the MUSIC+SMASH hybrid employed for this study provides a baseline for additional studies regarding photon production in the future.
To summarize, the approaches and frameworks presented in this thesis provide a good baseline for further extensions and studies in order to improve the understanding of hadron and photon production in relativistic heavy-ion collisions across a wide range of collision energies. More broadly, such future studies of hadrons and photons may contribute to enhance the understandig of the properties of the fundamental building blocks of matter, of which everything that surrounds us is made of.
Fullerene, Nanoröhren und auch anderen hohlen Strukturen können Atome oder Moleküle in ihrem Inneren einschliessen. In solchen Systemen beeinflussen sich die einschliessenden und eingeschlossenen Strukturen gegenseitig, und es existiert eine Vielzahl unterschiedlicher Effekte: Änderungen der Energieeigenwerte, Änderungen der Elektronenstruktur sowie Ladungsaustausch zwischen den beiden Teilen des Systems. All diese Effekte beeinflussen die Absorbtionsspektren beider Systembestandteile. In dieser Arbeit liegt der Schwerpunkt auf einem dieser Effekte: Dem dynamischen Abschirmungseffekt. Den dynamischen Abschrimungseffekt findet man insbesondere bei solchen Systemen, bei denen die einschliessende Struktur viele delokalisierte Elektronen besitzt. Zu solchen Systemen gehören zum Beispiel endohedrale Komplexe sowie "Nano Peapods" (Nanoröhren mit eingeschlossenen Atomen oder Molekülen). Ursächlich für den dynamischen Abschirmungseffekt ist die Tatsache, dass die Elek- tronen des umschliessenden Käfigs die eingeschlossene Struktur gegen elektromagentische Wellen abschirmen. Mit anderen Worten: Dass das elektrische Feld sowohl innerhalb als auch ausserhalb der einschliessenden Struktur wird vom polarisierenden Feld der einschliessenden Struktur beein°usst. Klassisch betrachtet ist die Photoabsorbtionsrate eines Objektes proportional zu der Intensität eines elektrischen Feldes. Somit unterscheidet sich die Photoabsorbtionsrate (und auch der Wirkungsquerschnitt) der gleichen elektromagnetischen Welle einer Struktur innerhalb eines Einschlusses von der Photoabsorbtionsrate eines freien Atoms oder Moleküls. Der dynamische Abschirmungsfaktor dient als Beschreibung des Verhältnisses dieser beiden Wirkungsfaktoren. Darüber hinnaus können, da die Käfigstruktur viele delokalisierte Elektronen besitzt, Elektronen gemeinsam angeregt werden und somit Plasmons hervorrufen. Wenn sich die Frequenz der anregenden elektromagentischen Strahlung der Resonanzfrequenz dieser Plasmonen annähert, wird das polarisierende Feld besonders gross. Im Endeffekt beobachtet man nahe der Plasmon-Frequenz einen starken Anstieg des Wirkungsquerschnittes der eingeschlossenen Struktur. Der Schwerpunkt in dieser Arbeit liegt auf einer spezifischen Art von System: Endo- hedrale Komplexe. Diese Strukturen wurden mit einem klassichen Ansatz untersucht. Die Fullerene wurden, da sie viele delokalisierte Elektronen besitzen als dielektrische Schalen modelliert, mit der dielektrischen Funktion eines freien Elektronengases. Dabei ist der dynamische Abschrimfaktor durch Auswertung des gesamten elektrischen Feldes am Ort des Atoms im Vergleich zur Stärke des externen elektrischen Feldes definiert. Der dynamische Abschrimungsfaktor wurde für eine Vielzahl unterschiedlicher Situationen untersucht. Im einfachsten Fall, bei dem die Polarisierbarkeit des eingeschlossenen Atoms vernachlässigbar klein ist, ist der dynamische Abschirmfaktor unabhängig von der Position des Atoms innerhalb des Fullerens. Die Veranderung des elektrischen Feldes wird vollständig von der dynamischen Reaktion des Fullerens auf das externe Feld bestimmt. Da das Fulleren von endlicher Dicke ist (definiert duch die räumliche Ausdehnung der Elektronenwolke), besitzt es zwei Oberflächen. Die Wirkung der elektromagnetischen Welle induziert oszillierende Oberflächen-Ladungs-Dichten. Die Oberflächen-Ladungs-Dichten wechselwirken und erzeugen somit zwei Plasmon Eigenmoden: eine symmetrische Mode bei der beide Ladungsdichten in Phase oszillieren und eine antisymmetrische bei denen sie gegen-phasig oszillieren. Der dynamische Abschirmfaktor eines solchen eingeschlossenen Atoms zeigt zwei ausgeprägte Peaks, welche eine Manifestation dieser beiden Oberflächen-Plasmone sind. Die Wechselwirkung zwischen diesen Plasmon-Moden wurde untersucht. Darüber hinnaus wurde der Einfluss der Grösse des Käfigs untersucht; mit Fallbeispielen für C20, C60, C240 und C960 [2, 3]. Im Grenzfall eines unendlich dünnen Fulleren-Käfigs ist nur ein einelnes Oberflächen-Plasmon zu beachten. Als nächstes wurde der Einfluss des eingeschlossenen Atoms untersucht [3{5]. Wenn dessen Polarisierbarkeit gross ist, wird ein reziproker Einfluss des Dipol-Moments des Atoms auf das Fulleren messbar. Dies wurde zunächst unter der Annahme eines zentral angeodneten Atoms für die folgenden drei Fälle untersucht: Ar@C60, Xe@C60 and Mg@C60. Der dynamische Abschirmfaktor verÄanderte sich dabei nur wenig. Der stärkste Einfluss auf das Verhalten des Abschirmfaktors ensteht durch Unstetigkeiten in der Polarisierbarkeit des Atoms nahe dessen Ionisierungs-Schwelle. Die Wahl dieser drei Fallstudien ist durch die quantenmechanischen Berechnungen von [7-9] motiviert. Der Vergleich mit diesen Berechnungen zeigt hohe Übereintismmungen für Ar@C60 und Xe@C60. Allerdings fanden sich auch grosse Unterschiede für Mg@C60, vor allem bei niedriger Photonen-Energie. Das Fulleren besitzt zwei Arten von Valenzelektronen: Die ¼-Elektronen und die stärker gebundenen ¾-Elektronen. Dies führt zum Auftreten zweier Oberflächen-Plasmons in Fullerenen. Dabei ist allgemein bekannt, dass das Buckminster-Fulleren ein Plasmon nahe 8 eV, sowie ein deutlich größeres nahe 20 eV besitzt. Diese sind mit den ¼-Elektronen, respektive den ¾-Elektronen verknüpft (auch wenn ¼-Elektronen zusÄatzlich zu dem ¾-Plasmon beitragen). Aufgrund dieser Tatsache wäre es angemessener, die Valenzelektronen nicht als Ein-, sondern als Zwei-Komponenten-Elektronen-Gas zu behandeln. Um dies miteinzubeziehen, passten wir unser Modell dahingehend an, dass wir das Fulleren als zwei unabhängige kozentrische dielektrische Schalen simulieren. Die Valenzelektronen wurden so auf die zwei Schalen aufgeteilt, dass eine Schlale alle Elektronen enthielt, die Teil des ¼{Plasmons sind, und die andere alle Beteiligten am ¾{Plasmon [4, 5]. Der Vergleich dieses modifizierten Modelles mit den quanten{mechanischen Berechnungen zeigte eine deutlich verbesserte Übereintismmung der Ergebnisse. Alle Merkmale der Berechnungen, vor allem das deutliche Maximum nahe 10 eV bei Mg@C60, konnten reproduziert und damit erklärt werden. Bedingt durch die endliche Dicke der Fulleren-Schale spalten jeder der beiden Plasmonen in jeweils zwei Plasmon Eigenmoden auf. Daher zeigt der dynamische Abschirm-Faktor nun vier Haupt{Eigenschaften welche die vier Plasmon-Moden abbilden. Nichtsdestotrotz zeigen sich immer noch quantitative Unterschiede im Falle von Mg@C60. Fürr Ar@C60 und Xe@C60, bei welchen das ursprÄungliche Modell bereits gute Fits zeigte, werden diese Fits durch die Anpassungen im Modell sogar noch verbessert. Interessanterweise zeigen sich die größten Veränderungen des dynamischen Abschirm-Faktors bei niedrigen Photonen{Energien, also im Bereich des ¼-Plasmons. Betrachtet man den Querschnitt dieses Fulleren Modells, so zeigt der Querschnitt Eigenschaften die den vier Ober°Äachen{Plasmon{Moden des Fullerens zugeordnet werden. Vergleicht man dies mit anderen theoretischen Arbeiten [12] und einer Sammlung verschiedener experimenteller Messungen [10], so zeigt sich, dass alle SchlÄussel{Eigenschaften des Querschnittes in unserem Modell vorhanden sind. Abschlie¼end wurde die Abhängigkeit des dynamische Abschirm-Faktors von der Position des endohedralen Atoms innerhalb des Fullerens anhand zweier Fallstudien, Ar@C60 und Ar@C240 [3, 4], untersucht. Die Ergebnisse zeigen, dass der dynamische Abschirmfaktor relativ unempfindlich gegenüber Veränderung des Positions-Winkels des Atoms ist. Die radiale Position hingegen stellte sich als sehr wichtig heraus. Je mehr sich das Atom der Fulleren-Hülle nähert, desto grösser wird der dynamische Abschirmfaktor. Diese Studien zeigen, dass es notwendig ist, eine Art räumlichen Mittelwertes für den dynamische Abschirmfaktor zu bestimmen, um sichtbare Resultate zu erhalten. Im Rahmen dieser Arbeit wurde daher eine Methode für solch einen Mittelwert entwickelt [3, 4]. Neben der Untersuchung des dynamische Abschirm-Faktors wurde auch ein Vergleich mit experimentellen Messungen erarbeitet. Im Falle von Ce@C82 war die Photon{Energiespanne sehr hoch, weit über der Plasmon-Energie des Fullerens. Das Fulleren sollte daher für eine solche Bestrahlung durchlässig sein, und daher würde man keinen dynamischen Abschirmungs-Effekt finden können. Der Vergleich für Sc3N@C80 ist komplizierter. Da es sich dabei um ein rein klassisches Modell handelt, muss man achtgeben, es nicht mit dem vollständig freien Komplex zu vergleichen, sondern zusätzlich quanten{mechanische Effekte aus Confinements, wie zum Beispiel Elektronen{Transfers, miteinzubeziehen. Zudem ist das aktuelle Modell zu dynamischer Abschirmung nicht für Moleküle, sondern nur für einzelen Atomeentwickelt worden. Ein erster naiver Vergleich, in welchem der Endohedrale Komplex als Pseudo{Atom modelliert wurde, konnte die breite Struktur der experimentellen Ergebnisse nicht wiedergeben. Berechnungen des dynamischen Abschirmfaktors und des daraus resultierenden Querschnittes für ein einzelnes Scandium{Ion zeigte, dass auch räumliches Mitteln nicht ausreicht um die experi-mentellen Beobachtungen erklären zu können. Die Anwesenheit des Fullerens führt zur Öffnung eines neuen Kanals innerhalbdes Auger Prozesses [6, 11] und damit zur Verbreiterung der atomaren Spektrallinienweite. Berücksichtigt man diesen Effekt, so kann die ÄAhnlichkeit zu den experimentellen Ergebnissen deutlich erhöht werden. Allerdings ist es wichtig dabei auch die räumlichen Abhängigkeiten des Effekts, wie auch die der dynamischen Abschirmung, zu beachten. Erste vorläufige Ergebnisse deuten an, dass die beiden genannten Effekte, zumindest teilweise, dabei helfen können, die experimentell gefunden Ergebnisse zu erklären. Unser Modell zur Berechnung des dynamischen Abschirmfaktors liefert eine detaillierte Beschreibung und mögliche Erklärungen der diskutierten Phänomene, welche über die bisherige Arbeiten in der theoretischen Literatur hinausgehen. Die wichtigen Eigenschaften der experimentellen Arbeiten konnten mit dem Modell reproduziert werden, und mit der Verbreiterung der atomaren Spektrallinienweite und der dynamischen Abschirmung konnten wir zwei Effekte als mögliche bisher nicht berücksichtigete Erklärungen für einige dieser Eigenschaften herausarbeiten.
The chiral phase transition of Quantum Chromo Dynamics (QCD) is investigated with the help of the linear-sigma model and a numerical transport simulation. The scope are non-equilibrium and critical effects of the different type of orders of the transition. Additionally, a mathematical and numerical method is developed which allows to simulate a particle-wave duality and non-continuous interactions, even for classical systems.
Compact objects - black holes and neutron stars - are fascinating objects, not only for the astrophysicists, but for a wide range of researchers, including astronomers, theoretical physicists, particle and nuclear physicists, condensed matter physicists and arguably for the layman as well.
First theorized in the first part of the twentieth century, for a long time these objects have been considered just exotic ideas or mathematical curiosities. Pulsar were however detected in the late 1960s and readily identified as rotating, radiating neutron stars, while the first candidate black hole, Cygnus X-1, was observed in 1972. Since then the interest in these objects has steadily grown.
The reasons behind this interest are easily understood considering that compact object dwell at the intersection of many different areas of physics, and are ideal laboratories to explore the interplay between these areas.
Black holes, which are purely gravitational objects, are perfectly suited to study the nature of gravity, its manifestations such as gravitational waves, and the differences between various theories of gravity in the regime where they are expected to be most relevant, i.e. the strong field regime. However, just like any massive astrophysical object, black holes are interested by accretion phenomena, which are thought to be the power source of some very bright astrophysical emitters of electromagnetic signals, such as active galactic nuclei or X-ray binaries.
At the same time, black holes exist in a variety of different mass scales, from stellar mass to supermassive black holes billions of times heavier. The latter play a very important and yet not fully understood role in the formation and evolution of galaxies, as well as in shaping the large scale structure of the universe, making them relevant to cosmology as well.
Neutron stars share with black holes the characteristic of being gravitationally dominated systems; but because they are composed of baryon matter, they display a much richer behaviour. It has been realized early on that the matter in neutron star cores reaches extreme densities, exceeding the one in atomic nuclei. This means that neutron stars could provide invaluable information on the behaviour of matter in such extreme conditions (which are impossible to achieve in laboratory experiments), such as details of the nucleonic interaction, the properties of hyperons or of quark-gluon plasmas.
...
Dynamics of chaotic strings
(2011)
The main topic of this thesis is the investigation of dynamical properties of coupled Tchebycheff map networks. At every node of the network the dynamics is given by the iteration of a Tchebycheff map, which shows strongest possible chaotic behaviour. By applying a coupling between the various individual dynamics along the links of the network, a rich structure of complex dynamical patterns emerges. Accordingly, coupled chaotic map networks provide prototypical models for studying the interplay between local dynamics, network structure, and the emergent global dynamics. An exciting application of coupled Tchebycheff map lattices in quantum field theory has been proposed Beck in Spatio-temporal chaos and vacuum fluctuations of quantized fields' (2002). In this so-called chaotic string model, the coupled map lattice dynamics generates the noise needed for the Parisi-Wu approach of stochastic quantization. The remarkable obversation is that the respective dynamics seems to reproduce distinguished numerical values of coupling constants that coincide with those observed in the standard model of particle physic. The results of this thesis give insights into the chaotic string model and its network generalization from a dynamical point of view. This leads to a deeper understanding of the dynamics, which is essential for a critical discussion of possible physical embeddings. Apart from this specific application to particle physics, the investigated concepts like synchronization or a most random behaviour of the dynamics are of general interest for dynamical system theory and the science of complex networks. As a first approach, discrete symmetry transformations of the model are studied. These transformations are formulated in a general way in order to be also applicable to similar dynamics on bipartite network structures. An observable of main interest in the chaotic string model is the interaction energy. In Spatio-temporal chaos and vacuum fluctuations of quantized fields' (2002) it has been observed that certain chaotic string couplings, corresponding to a vanishing interaction energy, coincide with coupling constants of the standard model of elementary particle physics. Since the interaction energy is basically a spatial correlation measure, an interpretation of the respective dynamical states in terms of a most random behaviour is tempting. In order to distinguish certain states as most random', or evoke another dynamical principle, a deeper understanding of the dynamics essential. In the present thesis the dynamics is studied numerically via Lyapunov measures, spatial correlations, and ergodic properties. It is shown that the zeros of the interaction energy are distinguished only with respect to this specific observable, but not by a more general dynamical principle. The original chaotic string model is defined on a one-dimensional lattice (ring-network) as the underlying network topology. This thesis studies a modification of the model based on the introduction of tunable disorder. The effects of inhomogeneous coupling weights as well as small-world perturbations of the ring-network structure on the interaction energy are discussed. Synchronization properties of the chaotic string model and its network generalization are studied in later chapters of this thesis. The analysis is based on the master stability formalism, which relates the stability of the synchronized state to the spectral properties of the network. Apart from complete synchronization, where the dynamics at all nodes of the network coincide, also two-cluster synchronization on bipartite networks is studied. For both types of synchronization it is shown that depending on the type of coupling the synchronized dynamics can display chaotic as well as periodic or quasi-periodic behaviour. The semi-analytical calculations reveal that the respective synchronized states are often stable for a wide range of coupling values even for the ring-network, although the respective basins of attraction may inhabit only a small fraction of the phase space. To provide analytical results in closed form, for complete synchronization the stability of all fixed points and period-2 orbits of all chaotic string networks are determined analytically. The master stability formalism allows to treat the ring-network of the chaotic string model as a special case, but the results are valid for coupled Tchebycheff maps on arbitrary networks. For two-cluster synchronization on bipartite networks, selected fixed points and period-2 orbits are analyzed.
In dieser Arbeit wurden eine Reihe neuer organischer Ladungstransfer (CT)-Verbindungen in Form von Einkristallen und Dünnschichten synthetisiert und grundlegend charakterisiert.
Für die Synthese kamen verschiedene bekannte und bislang unbekannte Donor- und Akzeptormoleküle zum Einsatz. Während einige bekannte Materialien wie TTF und TCNQ kommerziell erworben werden konnten, bestand im Rahmen der Kollaboration mit dem MPI für Polymerforschung zudem Zugang zu mehreren neuen Molekülen wie TMP und HATCN, die besonders mit Blick auf die Möglichkeit zur Dünnschichtpräparation ausgewählt wurden. Auf dieser Grundlage konnten zum einen mittels verschiedener Varianten der Lösungszüchtung erfolgreich neue CT-Komplexe als Einkristalle gezüchtet werden. Dabei kamen mehrere unterschiedliche Lösungsmittel zur Anwendung, die z.T. auch die gezielte Synthese bestimmter Kristallphasen erlaubten. Zum zweiten gelang die Präparation eines Teils dieser Systeme als Dünnschicht über die Methode der Molekularstrahldeposition mit verschiedenen Isolatoren wie SiO2 als Substratmaterial. Hierbei wurde zum Teil zuvor gezüchtetes Material eingesetzt, zum Teil entstand die neue Verbindung erst über diesen Prozess.
Die Proben der neuen Verbindungen wurden zunächst mittels verschiedener Methoden morphologisch und kristallographisch untersucht. Die Kristallzüchtung lieferte in vielen Fällen eine gute Kristallqualität, die sowohl für die Strukturbestimmung als auch die späteren elektrischen Messungen ausreichend war. Die Kristallstruktur konnte für mehrere neue Systeme ermittelt werden und ergab in allen Fällen eine Anordnung mit gemischten Donor-Akzeptor-Stapeln. Für die präparierten Dünnschichten konnte bei einem Großteil der Verbindungen gemäß der Untersuchungen mittels Röntgendiffraktion die gleiche(n) kristalline(n) Struktur(en) wie in den Einkristallen festgestellt werden. Es ließen sich zwei wesentliche Beobachtungen machen: a) Die Morphologie der Schichten besitzt eine ausgeprägte Tendenz zu rauem Inselwachstum; b) In praktisch allen Fällen bilden sich innerhalb der Schicht mindestens zwei stabile CT-Phasen parallel. Beide Verhaltensweisen traten nahezu unabhängig von Substrat, dessen Temperatur, Ausgangszustand (Material vorreagiert oder nicht) und Depositionstemperatur auf.
Die elektronischen Transportmessungen bestanden primär aus temperaturabhängigen Messungen
der elektrischen Leitfähigkeit, während Feldeffektmessungen mit organischen Transistorstrukturen
lediglich den Charakter einer Grundsteinlegung für tiefergehende Untersuchungen mit optimierten Schichten hatten. Die Kryostat-Messungen bis hinunter zu rund 1,5 Kelvin zeigten bei keiner der Verbindungen ein klares Anzeichen für einen Phasenübergang. Die absoluten Werte der Leitfähigkeit bei Raumtemperatur passten qualitativ zu der typischen Erwartung an ein gemischt gestapeltes CT-System, nämlich ein halbleitendes oder isolierendes Verhalten, was durch das arrhenius-artige Temperaturverhalten auch bestätigt wurde.
Dielektrische Messungen mit Kondensatorstrukturen wurden für die neuen Systeme TMP-TCNQ
und ET-DTF in der Dünnschichtform vorgenommen. Im Vordergrund stand dabei die Suche nach neuen Verbindungen, die einen neutral-ionischen Phasenübergang zeigen, der sich im Idealfall durch eine starke, peakförmige Anomalie in der Temperaturabhängigkeit der Dielektrizitätskonstanten bemerkbar machen sollte. Während sich in TMP-TCNQ keinerlei Hinweise auf einen Übergang zeigten, lieferte ET-DTF einen Verlauf, der einen strukturellen
Übergang andeutet, dessen Identität aber noch ungeklärt ist.
Zur Ergänzung wurden mit Hilfe mehrerer Kooperationspartner weitere Untersuchungen zwecks
Charakterisierung der neuen CT-Systeme vorgenommen. Die Bestimmung des Ladungstransfergrades δ mittels IR-Absorption lieferte im Wesentlichen eine Bestätigung der Beobachtung, dass die inspizierten Verbindungen gemischt gestapelte Systeme halbleitender oder
isolierender Natur sind, da δ nur geringe Werte von max. ca. 0,2 zeigte, die für solche Systeme
typisch sind. In ähnlicher Weise bestätigten Bandstruktur-Rechnungen dieses Verhalten, da die Bänder allgemein nur eine eher geringe elektronische Bandbreite zeigten. Zudem ergab sich für die trikline Phase von ET-DTF und das System TMP-F4TCNQ eine deutliche Anisotropie hinsichtlich der Dispersion, da diese erheblich verstärkt entlang der zur Stapelachse des Systems korrespondierenden Richtung des k-Raumes auftritt, also (im Einklang mit den Leitfähigkeitsdaten) 1D-Charakter besitzt. Ein weiterer Beitrag zur Suche nach neuen NI-Verbindungen entstand durch Messung der charakteristischen CT-Absorption einiger Systeme im optischen bzw. IR-Spektrum. In Kombination mit den Werten für Ionisierungsenergie und Elektronenaffinität konnte eine Einordnung in das von Torrance et al. entwickelte, sog. V-Diagramm vorgenommen werden, mit dessen Hilfe sich aussichtsreiche Molekülkombinationen für ein neues NI-System eruieren ließen.
Ziel dieser Arbeit war, die Reaktion von biologischen Gewebeproben auf dünn- und dicht-ionisierende Strahlung zu evaluieren. Dafür wurden die Gewebeproben konventioneller Röntgenstrahlung sowie einem ausgedehnten 12C-Ionen Bragg-Peak ausgesetzt. Zur Bestrahlung der biologischen Proben mit 12C wurde mit dem GSI-eigenen Simulationsprogramm TRiP98 ein Tiefendosisprofil eines ausgedehnten Bragg-peaks erstellt. Ein weiteres Ziel dieser Arbeit war, dieses Tiefendosisprofil mit drei anderen Simulationsprogrammen (ATIMA, MCHIT, TRIM) zu reproduzieren und zu vergleichen.
ATIMA und TRIM sind allgemeine Programme für den Energieverlust von Ionen in Materie. Sie können das von TRiP98 berechnetet Tiefendosisprofil nur ungenügend reproduzieren, da sie aufgrund fehlender Fragmentierung ein linear ansteigendes Tiefendosisprofil berechnen. Das Monte Carlo-Programm MCHIT, welches speziell für die Wechselwirkung von Ionen mit Materie in medizinischer Anwendung entwickelt wurde, zeigt die beste Übereinstimmung mit der TRiP98-Referenzkurve. Bis auf eine leicht höhere Durchschnittsdosis um 0.1 Gy konnte das Tiefendosisprofil nahezu exakt reproduziert werden.
Die biologischen Proben bestanden aus Schnittkulturen gesunder Maus-Lebern und Explantatkulturen gesunder Maus-Pankreata, um Nebenwirkungen ionisierender Strahlen abzuschätzen. Zusätzlich wurde die Reaktion auf 12C-Bestrahlung in neoplastischem Lebergewebe transgener c-myc/TGF-α Mäuse mit induzierbarem Lebertumor bestimmt. Um eine mögliche Tageszeitabhängigkeit der Gewebereaktion auf die Bestrahlung zu untersuchen, wurden die Schnitt- und Explantatkulturen zu zwei unterschiedlichen Tageszeiten präpariert: zur Mitte des subjektiven Tages und zur Mitte der subjektiven Nacht.
Die Präparate wurden für mehrere Tage auf einer Membran an einer Grenzschicht von Flüssigkeit und Luft kultiviert. Leber- und Pankreaskulturen gesunder C3H wildtyp Mäuse wurden mit einer Dosis von 2 Gy, 5 Gy oder 10 Gy Röntgenstrahlen bestrahlt. Leber- und Pankreaskulturen transgener Mäuse wurden mit ausgedehnten C-Ionen Bragg Peaks gleicher Dosen bestrahlt. Als Kontrolle dienten unbestrahlte Proben. Alle Proben wurden 1 h bzw. 24 h nach der Bestrahlung fixiert und immunhistochemisch auf Marker für Proliferation (Ki67), Apoptose (Caspase3) und DNA- Doppelstrangbrüche (γH2AX) untersucht.
Während die Pankreas-Präparate im Hinblick auf die untersuchten Parameter leider keine auswertbaren Ergebnisse ergaben, zeigten die untersuchten Parameter im gesunden Lebergewebe deutliche Tag-Nacht Unterschiede: die Proliferationsrate war zur Mitte des subjektiven Tages signifikant höher als zur Mitte der subjektiven Nacht. Umgekehrt waren die Raten für DNA-Doppelstrangbrüche zur Mitte der subjektiven Nacht signifikant erhöht. Diese Tag-Nacht Unterschiede ließen sich in neoplastischem Lebergewebe nicht nachweisen. Unabhängig von der Art und Dosis, hatte die Bestrahlung im gesunden Lebergewebe keinen Einfluss auf die untersuchten Parameter. In neoplastischem Lebergewebe hingegen wird die Rate an DNA-Doppelstrangbrüchen durch eine Bestrahlung dosisabhängig erhöht.
Die Auswirkungen ionisierender Strahlen auf das circadiane Uhrwerk wurden in Gewebeproben transgener Per2luc-Mäuse überprüft. Per2luc-Mäuse exprimieren das Enzym Luziferase unter der Kontrolle des Promoters von Per2, einem wichtigen Bestandteil des circadianen Uhrwerks. Daher erlaubt die Analyse dieser Tiere, den circadianen Rhythmus des molekularen Uhrwerks in Leber und anderen Geweben durch Messung der Luziferase-Aktivität in Echtzeit aufzuzeichnen. Wie in Leber- und Nebennierenkulturen dieser Tiere gezeigt werden konnte, führten ioniserende Strahlen dosisabhängig zu einem Phasenvorsprung des circadianen Uhrwerks.
Die Ergebnisse erlauben die Schlussfolgerung, dass ionisierende Strahlen das circadiane Uhrwerk verstellen, Proliferation und Apoptose in gesundem Lebergewebe jedoch kaum beeinflussen.
Compact stars can be treated as the ultimate laboratories for testing theories of dense matter. They are not only extremely dense objects, but they are known to be associated with strong magnetic fields, fast rotation and, in certain cases, with very high temperatures. Here, we present several different approaches to model numerically the signatures and properties of these stars, namely:
•The effects of strong magnetic fields on hybrid stars by using a fully general relativistic approach. We solved the coupled Maxwell-Einstein equations in a self-consistent way, taking into consideration the anisotropy of the energy-momentum tensor due purely to the magnetic field, magnetic field effects on equation of state and the interaction between matter and the magnetic field (magnetization). We showed that the effects of the magnetization and the magnetic field on the equation of state for matter do not play an important role on global properties of neutron stars (only the pure magnetic _eld contribution does). In addition, the magnetic field breaks the spherical symmetry of stars, inducing major changes in the populated degrees of freedom inside these objects and, potentially, converting a hybrid star into a hadronic star over time.
•The effects of magnetic fields and rotation on the structure and composition of proto-neutron stars. We found that the magnetic field not only deforms these stars, but also significantly alters the number of trapped neutrinos in the stellar interior, together with the strangeness content and temperature in each evolution stage from a hot proto-neutron star to a cold neutron star.
•The influence of the quark-hadron phase transitions in neutron stars. In particular, previous calculations have shown that fast rotating neutron stars, when subjected to a quark-hadron phase transition in their interiors, could give rise to the backbending phenomenon characterized by a spin-up era. In this work, we obtained the interesting backbending phenomenon for fast spinning neutron stars. More importantly, we showed that a magnetic field, which is assumed to be axisymmetric and poloidal, can also be enhanced due to the phase transition from normal hadronic matter to quark matter on highly magnetized neutron stars. Therefore, in parallel to the spin-up era, classes of neutron stars endowed with strong magnetic fields may go through a `magnetic-up era' in their lives.
•Finally, we were also able to calculate super-heavy white dwarfs in the presence of strong magnetic fields. White dwarfs are the progenitors of supernova Type Ia explosions and they are widely used as candles to show that the Universe is expanding and accelerating. However, observations of ultraluminous supernovae have suggested that the progenitor of such an explosion should be a white dwarf with mass above the well-known Chandrasekhar limit ~ 1.4 M. In corroboration with other works, but by using a fully general relativistic framework, we obtained also strongly magnetized white dwarfs with masses M ~ 2:0 M.
In dieser Arbeit wird die Elektronenemission aus langsamen He 2 HeStößen, d.h. bei Stoßenergien unterhalb von 25 keV/u, experimentell untersucht. Dabei wird auf den Vergleich der Einfachionisation (He 2 He ! He 2 He e \Gamma ) mit der Transferionisation (He 2 He ! He He 2 e \Gamma ) besonderes Gewicht gelegt. Die hier verwendete Meßtechnik ist von verschiedenen Arbeitsgruppen in den letzten Jahren entwickelt worden und unter dem Schlagwort COLTRIMS (Cold Target Recoil Ion Momentum Spectroscopy) [1, 2, 3] in der Literatur zu finden. Bei COLTRIMS werden die bei einer Reaktion in einem kalten Gastarget gebildeten Ionen in einem schwachen elektrischen Feld abgesaugt. Durch den ortsaufgelösten Nachweis und die Messung der Flugzeit von der Targetzone bis zum Detektor kann die Anfangsbedingung der Bewegung im Feld, d.h. der Vektor des auf das Targetatom übertragenen Impulses, berechnet werden. Diese Methode kommt ohne Blenden aus, so daß im relevanten Teil des Phasenraumes 4ß Raumwinkel erreicht werden. Der Nachweis des Elektrons erfolgt nach demselben Prinzip, jedoch stößt man dabei an die Grenzen der Flugzeitauflösung. Deshalb wurden in allen früheren Experimenten zu ähnlichen Reaktionen [4, 5, 6, 7, 8, 9] nur zwei der drei Impulskomponenten des Elektrons bestimmt. Die Konzipierung eines Spektrometers, welches in der Lage ist, den relevanten Phasenraum lückenlos zu erfassen und dabei alle drei Impulskomponenten der Elektronen zu bestimmen, war der wesentliche Teil der apparativen Entwicklung. Das durchgeführte Experiment ist nicht nur kinematisch vollständig, sondern erlaubt durch Anwendung des Energieerhaltungssatzes auch die Bestimmung der Schale, in der das Elektron im Endzustand gebunden ist. Die beiden oben genannten Reaktionen können somit getrennt nach Ereignissen mit und ohne Anregung untersucht werden, d.h., es wurden gleichzeitig vier verschiedene Ionisationskanäle vermessen. Für den Ionisationsmechanismus bei Stößen mit einer Projektilgeschwindigkeit unterhalb der klassischen Bahngeschwindigkeit der Elektronen hat sich in den letzten Jahren der Begriff ''Sattelpunkt''Prozeß durchgesetzt [10]. Quantenmechanische Beschreibungen für Einelektronensysteme, wie das Stoßsystem p H, wurden u.a. mit der semiklassischen GekoppelteKanäleMethode [11] in einem speziellen Basissatz [12, 13] und der ''HiddenCrossings''Theorie [14, 15] gegeben. Beide Modelle beschreiben das System aus Projektil und Target als Quasimolekül. Si sind lediglich in der Lage, die groben Strukturen in den Spektren zu erklären. Das gewählte Stoßsystem He 2 He, welches zwei Elektronen besitzt, erlaubt die Untersuchung von Korrelationseffekten. Die Messungen haben ergeben, daß die Impulsverteilung des emittierten Elektrons stark davon abhängt, wo und in welchem Bindungszustand das zweite Elektron nachgewiesen wird. Die gleiche Kernladung von Projektil und Target bedingt, da alle Eigenzustände des gebildeten Quasimoleküls die Symmetrie des Hamiltonoperators gegenüber Raumspiegelung besitzen, und durch diese Spiegeloperation gehen die Endzustände der Transferionisation und der Einfachionisation ineinander über. Durch die gleichzeitige Messung der differentiellen Wirkungsquerschnitte der verschiedenen Reaktionskanäle und deren Vergleich erhält man Einblick in die zugrundeliegenden Prozesse.
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.
Efficient modeling and mitigation of quadrupole errors in synchrotrons and their beam transfer lines
(2023)
This thesis investigates the problem of estimating quadrupole errors on synchrotrons as well as how to minimize the influence of quadrupole errors for beam transfer lines (beamlines). It emphasizes the importance to treat possible error sources in all parts of an accelerator in order to provide constantly high beam quality to the experimental stations. While the presented methods have been investigated by using the example of the SIS18 synchrotron and the HEST beamlines at GSI Helmholtz Centre for Heavy Ion Research, they are equally relevant for the future synchrotrons and beamlines of the Facility for Antiproton and Ion Research in Europe (FAIR).
Part 1 discusses the problem of estimating quadrupole errors via orbit response measurements at synchrotrons. An emphasis is put on investigating the influence of the availability of steerer magnets and beam position monitors (BPMs) on the solvability of the inverse problem as well as on the propagation of measurement uncertainty for the estimation of quadrupole errors. The problem is approached via analytical considerations as well as via dedicated simulation studies. By developing an analytical expression for the Jacobian matrix, the theoretical boundaries for the solvability of the inverse problem are derived. Moreover, it is shown that the analytical expressions for the Jacobian matrix can be used during the fitting procedure to achieve a significant improvement in the computational efficiency by a factor $N_{steerers} \times N_{quadrupoles}$, where $N$ denotes the number of lattice elements of the respective type. The presented results are tested via dedicated measurements at the SIS18 synchrotron.
Part 2 discusses – complementary to part 1 – the influence of quadrupole errors in beam transfer lines with respect to the beam quality requirements given by the experimental stations. A preventive approach is presented which allows to minimize the influence of possible quadrupole errors on the degradation of beam quality. By identifying and selecting robust quadrupole configurations, a stable operation of the beamline can be enabled and the time needed by operators to readjust the beamline parameters can be reduced. The concept of beamline robustness is developed and is studied with the help of dedicated simulations. The simulation results are used to identify certain properties that distinguish robust from nonrobust quadrupole configurations. Also, various methods for improving the computational process of identifying robust quadrupole configurations are presented. The methods and results are tested via dedicated measurements at two different beamlines at GSI Helmholtz Centre for Heavy Ion Research and at Forschungszentrum Jülich.
Kompakte Sterne stellen neben weissen Zwergen und schwarzen Löchern eine der möglichen Endzustände der Evolution von Sonnen dar. Diese extrem dichten astrophysikalischen Objekte können als Restobjekte von massiven Sternen im Zentrum von Supernova-Explosionen entstehen. Allein in unserer Galaxie sind derzeit ca. 1500 solcher Objekte bekannt. Die Materie innerhalb der kompakten Sterne stellt neben der frühen Urknall-Phase, die dichteste, uns zugängliche Energieform im gesamten Universum dar; sie beschreibt den letzten stabilen Zustand bevor die Materie unaufhaltsam kollabiert und durch die Bildung eines Ereignishorizontes von der Aussenwelt abgetrennt wird. Die Eigenschaften der kompakten Sterne werden massgeblich durch zwei fundamentale Kräfte bestimmt: Die Quanten-Chromodynamik (QCD), die den Kräfteaustausch der elementaren Quarks durch farbgeladene Gluonen beschreibt, und die Allgemeine Relativitätstheorie, die die attraktive, gravitative Wechselwirkung der Sterne durch eine Verformung ihrer raumzeitlichen Struktur formuliert. In den ersten beiden Kapiteln der vorliegenden Arbeit wird zunächst die derzeitige Theorie der elementaren Wechselwirkungen mittels einer eichtheoretischen Formulierung beschrieben. Astrophysikalische Folgerungen der Allgemeinen Relativitätstheorie, wie die Raumzeitkrümmung innerhalb und ausserhalb kompakter Sterne und die Theorie schwarzer Löcher werden im Detail diskutiert und mittels dreidimensionaler Diagramme veranschaulicht. Im dritten Kapitel werden die numerisch erhaltenen Resultate der Eigenschaften der kompakten Sterne zusammengefasst und in folgende Gruppen untergliedert: Neutronensterne, Quarksterne, hybride Sterne und Zwillingssterne. Die mögliche Realisierung des Quark-Gluon-Plasmas im Inneren der kompakten Sterne wird diskutiert. Anhand von existierenden und zukünftig geplanten astrophysikalischen Beobachtungsmöglichkeiten (z.B. Gravitationswellendetektoren) wird die experimentelle Überprüfbarkeit der dargestellten Ergebnisse aufgezeigt.
Im Jahr 2000 wurde am Soreq Nuclear Research Center in Yavne bei Tel Aviv, Israel, der Neubau der Forschungsanlage SARAF (Soreq Applied Research Accelerator Facility) begonnen. Mit dem Bau der Anlage sollen neue Forschungsfelder erschlossen, sowie die vorhandenen Experimente erweitert werden, der Forschungsreaktor IRR1 und die vorhandenen Beschleunigeranlagen werden damit abgelöst. Kernstück der Anlage ist der Linearbeschleuniger aus EZR-Ionenquelle, LEBT, RFQ, MEBT und 46 supraleitenden HWRs, damit soll ein 5 mA Deuteronen CW-Strahl der Teilchenenergie 40 MeV erzeugt werden.
Die vorliegende Arbeit basiert auf einer Kombination von IR-Messungen und Spektrenberechnungen mittels Dichtefunktionaltheorie und konnte tiefere Einblicke in die von vielfältigen Überlagerungen geprägten Spektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans geben. Absorptionsmessungen zu allen 20 natürlich vorkommenden a-Aminosäuren wurden an wässrigen Lösungen im Spektralbereich von 1800 bis 500 cm-1 durchgeführt und stellten eine wichtige Grundlage zur Identifikation von Signalen der Aminosäuren im Proteinspektrum dar. Durch die Berechnung der molaren Absorptionskoeffizienten aus den Aminosäurespektren konnten Beiträge einzelner Aminosäuren zum Proteinspektrum besser eingeordnet bzw. abgeschätzt werden. Eine detaillierte Untersuchung für die wichtige Aminosäure Histidin, auch mittels zitierten Rechnungen an Modellsubstanzen, diente zur tendenziellen Zuordnung einige dieser Banden in zeitabhängig gemessenen Proteinspektren. Um eine qualitativ hochwertige Aufnahme der elektrochemisch induzierten Redox- Differenzspektren zu gewährleisten, wurde eine Potentiostaten-Ansteuerung konzipiert und programmiert. Die damit automatisiert durchgeführten Messungen ergaben reproduzierbare Differenzspektren für die Ubichinone mit und ohne Isoprenseitenkette (UQ2, UQ0) als auch für das Protein, den Cytochrom bc1-Komplex, bis 880 cm-1. Dies bedeutete eine Erweiterung des Spektralbereichs im Vergleich zu vorigen Arbeiten und damit die Möglichkeit, signifikante Moden der Ubichinole zu detektieren. Zur Untersuchung der komplexen IR-Spektren der Ubichinole wurden ab initio - und Dichtefunktionaltheorie-Rechnungen durchgeführt. Für diese biologisch essentiellen Moleküle waren bislang keine Struktur- oder Normalmodenberechnungen bekannt und wurden in der vorliegenden Studie erstmals erarbeitet. Bei der Analyse der möglichen Geometrien des UQ0H2-Moleküls mittels ab initio - Studien resultierte eine energetisch günstigste Struktur, bei der beide Methoxygruppen aus der Ringebene in verschiedene Raumhälften (vor und hinter dem Ring) wiesen. Dies ergab sich sowohl für Chinole mit als auch ohne Isoprenseitenkette (gezeigt mittels ab initio oder DFT). Diese Anordnung hat zur Folge, dass es als unwahrscheinlich eingestuft werden kann, dass die Ubichinole in übereinander gestapelter Form vorliegen. Die für die Chinole charakteristischen Hydroxygruppen (COH) orientierten sich beim Ubichinol ohne Seitenkette zu den jeweils benachbarten Methoxygruppen hin. Beim UQ2H2 zeigte die C1-OH Gruppe in Richtung der Isoprenseitenkette. Die Strukturen der oxidierten Ubichinone wiesen den aus der Literatur bekannten Mesomerie-Resonanz-Effekt an den Bindungen C4=O, C2=C3 und C-O der Methoxygruppe an C2 auf. Dieser Effekt wurde an diesen Gruppen auch für das Ubichinon mit Isoprenseitenkette gezeigt, zu dem bislang kaum Literaturdaten aus Rechnungen vorlagen. Für biologisch relevante Zwischenstufen im Redox-/Protonierungsprozess der Chinone (Ubichinone ohne Seitenkette) wurden die Strukturen berechnet. Hier erwies sich eine erste Protonierung an der C1O-Gruppe als energetisch günstiger. Zu diesen Zwischenstufen, die teils radikaler oder anionischer Natur sind, wurden die Spektren im Einklang mit bisherigen DFT-Analysen, die meist zu einfacheren Molekülen vorlagen, erstmals berechnet. Da die Spektrenberechnungen von den Strukturen in vacuo ausgingen, waren zusätzliche Modellstudien an Chinonen hilfreich, bei denen ein Wassermolekül benachbart war. Damit konnten die Auswirkungen entsprechender H-Brücken (z.B. zwischen Protein und Chinon- Molekül) anhand der berechneten Spektren der Modelle eingehender beleuchtet werden und ergaben zudem wichtige Hinweise auf mögliche Anordnungen von Wasserstoffbrücken zum (methoxy-substituierten) Chinol. Die Messungen der Ubichinole in wässriger Lösung und gebunden im Protein ergaben charakteristische Banden zwischen 1120 und 1050 cm-1, die mit den Spektrenberechnungen zugeordnet wurden: Diese Banden beinhalteten die für die Bindung der Ubichinole im Protein aussagekräftigen Signale der beiden C-O Gruppen. Damit wurde ein Grundstein gelegt für Interpretationen der Spektren hinsichtlich der Bindungen der Ubichinole an die Proteinumgebung. Für das oxidierte Ubichinon mit Isoprenseitenkette erwiesen sich die Intensitäten der vier str. C=O / C=C Moden im Vergleich zu UQ0 als verändert. Damit lag ein Beitrag einer dieser Moden zu einer Bande im Proteinspektrum nahe. Hier zeigte sich, dass eine Normalmodenanalyse von hoher Qualität, wie die vorliegende mittels Dichtefunktionaltheorie, entscheidende Aussagen über Banden liefern kann, die bei Messungen an Ubichinon-Lösungen nicht unterscheidbar sind, jedoch beim Molekül im Protein sichtbar sein können. Zu den berechneten Spektren der Ubichinole und der oxidierten Formen wurden jeweils Bandenverschiebungen ermittelt, die mit Isotopenmarkierungen einher gingen und die im Einklang mit den gemessenen Verschiebungen im Falle der 13C1- bzw. 13C4-markierten Ubichinone standen. Die Differenzspektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans zeigten aufgrund des hohen Chinongehalts ausgeprägte Banden der Ubichinole inklusive der erwähnten charakteristischen Moden. Da es in deren Bereich in den Proteinspektren zu Überlagerungen mit Häm- und Aminosäurensignalen kommt, sind weiterführende, experimentelle Studien für ein noch detailliertes Verständnis erforderlich. Die in den Spektren vorhandenen, zahlreichen weiteren Beiträge der verschiedenen Gruppen im Protein wurden anhand von Literaturdaten diskutiert. Dies betraf insbesondere die Schwingungsmoden der Häme und die Amid-Banden, die Signale des Polypeptidrückgrates des Proteins. Für die Spektrendiskussion bzgl. den Aminosäuren im Protein wurden die Ergebnisse aus Kap. 4.1 hinzugezogen. Mit zeitabhängigen IR-Messsungen (alle 30 Sekunden) wurde versucht, Erkenntnisse über weitere Beiträge oder zeitliche Entwicklungen im Proteinspektrum zu gewinnen. Da die Chinone verzögert (zum Anlegen des entsprechenden Potentials) reagierten, waren in Abhängigkeit der Reaktionsrichtung auch Signale anderer Gruppen im Protein messbar. So konnten mehrere Moden der Häme im bc1-Komplex (tendenziell) nachvollzogen werden. Aus diesen Messreihen ergaben sich wichtige Hinweise auf Signale der Histidine am Eisen-Schwefel-Zentrum des Enzyms. Diese Aminosäuren stehen direkt mit den Ubichinolen in der Qo-Bindestelle in Wechselwirkung.
Die transversale Betatronbewegung eines Ionenstrahls, genannt Tune, stellt neben der Strahlposition die wichtigste zu messende Strahleigenschaft für den stabilen Betrieb eines Kreisbeschleunigers dar. Die Einstellung des Tunes auf einen Arbeitspunkt unterliegt engen Grenzen, da eine Vielzahl resonanter Störungen existiert, die die Teilchenbewegung beeinflussen und somit Emittanzvergrößerung und Strahlverlust hervorrufen. Den gemessenen Tune mit hoher Auflösung in Zeit und Frequenz während der gesamten Beschleunigungsphase auszugeben ermöglicht eine Justierung der ionenoptischen Elemente der Strahlführung. Dadurch läßt sich die Teilchenzahl bis zur theoretischen Raumladungsgrenze erhöhen und darüber hinaus Teilchenverluste minimieren. Die Messungen wurden an Positionssonden (BPM) des Schwerionensynchrotrons SIS18 der "GSI Helmholtzzentrum für Schwerionenforschung GmbH" mit zwei verschiedenen Meßsystemen durchgeführt, was einen Vergleich der Systemauflösungen ermöglicht. Das Direkt Digitalisierende Meßsystem (DDM) wandelt das BPM-Elektrodensignal direkt nach der Verstärkerkette mit einer Rate von 125 MSa/s in digitale Daten um. Der Strahlschwerpunkt eines jeden Einzelbunches wird daraus mittels digitaler Prozessierung berechnet und durch Fouriertransformation dessen Frequenzspektrum bestimmt. Man erhält den fraktionalen Tune dadurch direkt im Basisband. Das am CERN entwickelte und für Parameter des SIS18 adaptierte Direct Diode Detection - System (DDD) zeigt ebenfalls den Tune im Basisband. Um den zu bearbeitenden Frequenzbereich erheblich zu reduzieren, werden bei diesem Verfahren die Bunchpeakwerte, die die Strahlschwingung enthalten, über ein RC-Element analog verzögert ausgegeben. Der erhaltene Tune kann daraus mit hoher Auflösung digitalisiert werden. In der vorliegenden Dissertation werden die Meßaufbauten, die digitale Prozessierung der BPM-Daten mittels neuer Algorithmen sowie die Auswertung und Berechnung des Tunes gezeigt. Es werden typische Tuneverläufe diskutiert und ein Arbeitsbereich definiert, bei dem stabile Tunemessungen mit S/N von 30-50 dB ohne meßbare Vergrößerung der Strahlemittanz möglich sind. Die Auflösung der Tunemessung beträgt δqy = 3.50 · 10−4 und δqx = 7.97 · 10−4 für Anregungskickwinkel im Arbeitsbereich. Darüber hinaus werden physikalische Anwendungen des Systems diskutiert, indem verschiedene Einflüsse von ionenoptischen- und Strahlparametern auf den Tuneverlauf gezeigt und ausgewertet werden.
Die vorliegende Arbeit stellt Design, Aufbau und erste experimentelle Testergebnisse einer integrierten RFQ-Driftröhrenkombination für den Einsatz im Injektorbereich einer klinischen Synchrotronanlage zur Behandlung von Tumorerkrankungen mit Ionenstrahlen vor. Das Hauptziel der Bemühungen war, eine sehr kompakte und auf die gestellten Aufgaben hoch spezialisierte Lösung zu finden, die den täglichen Anforderungen im Klinikbetrieb gerecht wird. Zuverlässigkeit, einfache Bedienbarkeit und möglichst geringe Betriebskosten standen dabei im Vordergrund und führten letztlich zu einer nur 1,40 m langen Kombination der beiden Beschleunigerkomponenten, die üblicher Weise in zwei getrennten Kavitäten mit separater Leistungsversorgung, separater Steuerung und mit deutlich mehr Platzbedarf untergebracht sind. Im Zuge der Designarbeiten wurde insbesondere das Programm PARMPRO den hier aufgetretenen aktuellen Problemstellungen angepasst. Die Berechnung der Wechselwirkung von Ionen bei raumladungsdominierten Teilchenstrahlen wurde korrigiert, das Programm um ein Transportelement zu Transformation geladener Teilchen durch eine frei wählbare Potentialverteilung erweitert und mit einem neu entwickelten Programmteil wurden die zur Fertigung notwendigen Daten generiert. Die Optimierung der Strukturparameter mit Hilfe einer externen Visual-Basic-Anwendung zum automatischen Optimieren der Strukturdaten mit Hilfe von PARMPRO war ein Schritt auf dem Wege zum endgültigen, an die Eingangsstrahldaten und an die Erfordernisse der darauffolgenden IH-Struktur angepassten Elektrodendesign. Nach den Simulationsrechnungen erfolgten Referenzmessungen an entsprechenden Modellaufbauten insbesondere mit einem computergesteuerten Störkörpermessstand, zur experimentellen Bestimmung der Spannungsverhältnisse an der jeweils zu untersuchenden Strukturvariante. Auf diesen Ergebnissen basiert das endgültig entwickelte Resonatorkonzept der RFQ-Driftröhrenkombination. Das Kapitel "Aufbau des Medizin-RFQs" behandelt die Konstruktion und die technische Umsetzung des erarbeiteten Beschleunigerkonzepts. Einzelnen Beschleunigerkomponenten wie Tank, Elektroden, Resonatorstruktur, Bunchereinheit und deren Fertigungsprozesse werden vorgestellt, Arbeitsschritte wie das Verkupfern des Tanks in der Galvanik der GSI oder das Verfahren zum Versilbern von Kontaktteilen im hauseigenen Labor werden beschrieben. Es folgt eine Diskussion des Justierkonzepts und der Maßnahmen zur Einhaltung der erforderlichen Genauigkeiten von ca. 20 mm, um die berechnete Strahlqualität zu gewährleisen. Abschließend werden die Ergebnisse erster HF-Testmessungen auf Messsenderniveau beschrieben. Hier wurden zunächst experimentell grundlegende Resonatoreigenschaften wie etwa Resonanzfrequenz, Güte und Parallelersatzwiderstand bestimmt. Danach wurde ein spezielles Störkörpermessverfahren angewandt, um den über die Montagehöhe der Driftröhre einstellbaren Spannungsbereich der Bunchereinheit zu erfassen, da die geometrischen Verhältnisse einen computergesteuerten Messstand wie er zur Untersuchung der Modellaufbauten herangezogen wurde nicht zuließen. Abschließend erfolgte ein Abstimmen der Spannungsverteilung entlang der RFQ-Elektroden. Diese experimentellen Ergebnisse belegen eindrucksvoll die Funktionsfähigkeit der RFQ-Driftröhrenkombination, so ist insbesondere die erforderliche Buncherspannung auf einer mittleren Montagehöhe der spannungsführenden Driftröhre zu erreichen, die durch die zusätzlich Driftröhrenkapazität hervorgerufene Verzerrung der Spannungsverteilung auf den Elektroden lässt sich über die höhenverschiebbaren Kurzschlussplatten gut korrigieren. Das erarbeitete Gesamtkonzept dieser neuartigen, sehr kompakten RFQ-Driftröhrenkombination ist auch für andere Anwendungsbereiche sehr attraktiv, so dass bereits ein Patent darauf angemeldet wurde. Damit ist das Ziel, eine RFQ-Driftröhrenkombination für die medizinische Beschleunigeranlage in Heidelberg aufzubauen erreicht. Strahltests und die experimentelle Bestimmung der Phasen- und Energiebreite des Ionenstrahls sind als nächstes vorgesehen.
In der vorliegenden Dissertation werden mit einem chiralen SU(3)-Modell die thermodynamischen Eigenschaften von stark wechselwirkender hadronischer Materie und die mikroskopischen Medium-Eigenschaften von Hadronen bei hohen Temperaturen und hohen Baryonen-Dichten untersucht. Das verwendete chirale Modell ist ein erweitertes sigma-omega-Modell in Mittlerer-Feld-Näherung (Mean-Field) mit baryonischen und mesonischen effektiven Freiheitsgraden; es basiert auf spontan gebrochener chiraler Symmetrie und Skaleninvarianz. Das Phasenübergangsverhalten des chiralen Modells wird systematisch untersucht und dabei gezeigt, dass es signifikant von den Kopplungen zusätzlicher schwererer hadronischer Freiheitsgrade ('Resonanzen') abhängt. Durch entsprechende Ankopplung des niedrigsten baryonischen Dekupletts kann ein Phasendiagramm in qualitativer Übereinstimmung mit aktuellen Vorhersagen der Gitter-QCD erreicht werden. Alternativ wird die Ankopplung einer schweren baryonischen Test-Resonanz untersucht, welche effektiv für das Spektrum der schweren hadronischen Zustände steht. Hier ergibt sich für einen bestimmten Bereich der Kopplungen sogar eine quantitative Übereinstimmung zu den Gitter-QCD-Vorhersagen bei gleichzeitig guter Beschreibung der Grundzustandseigenschaften von Kernmaterie. Für diese Zustandsgleichung werden Vorhersagen (innerhalb der Modellannahmen) zu geplanten Experimenten gemacht -- konkret wird gezeigt, dass der Phasenübergangsbereich für das CBM Experiment des geplanten Beschleunigerzentrums FAIR an der GSI Darmstadt experimentell zugänglich ist. Weiter wird das chirale Modell auf die Beschreibung von experimentellen Teilchenzahlverhältnissen (Yield-Ratios) aus Schwerionen-Kollisionen von AGS, SPS und RHIC angewendet. Studiert werden Parametersätze mit stark unterschiedlichen Phasendiagrammen aufgrund unterschiedlicher Ankopplung des baryonischen Dekupletts sowie ein ideales Hadronengas. Bei den niedrigen und mittleren Kollisionsenergien zeigt sich eine verbesserte Beschreibung durch die chiralen Parametersätze im Vergleich zum idealen Hadronengas, besonders deutlich für Parametersätze mit Phasendiagramm ähnlich der Vorhersage aus der Gitter-QCD. Die Wechselwirkung im chiralen Modell führt zu Medium-Modifikationen der chemischen Potentiale und der Hadronenmassen. Die resultierenden Ausfrierparameter mu und T sind deshalb gegenüber dem nichtwechselwirkenden Fall signifikant verändert. An den Ausfrierpunkten zeigen sich deutliche Abweichungen der effektiven Massen von den Vakuummassen (5 bis 15 %) und des effektiven baryo-chemischen Potentials vom ursprünglichen Wert (bis zu 20 %). Ferner werden universelle Kriterien für das Ausfrieren diskutiert und isentrope Expansion zu den Ausfrierpunkten untersucht, wo sich eine starke Abhängigkeit der Trajektorien von der Zustandsgleichung ergibt. Schließlich wird der Einfluss des Dilaton-Felds (Gluonkondensat) auf das Phasenübergangsverhalten bei mu=0 studiert, indem das Gluonkondensat an die Dekuplett-Baryonen gekoppelt wird. Es zeigt sich, dass dadurch eine Restauration der Skaleninvarianz im Modell möglich wird, die gleichzeitig auch eine vollständige Restauration der chiralen Symmetrie bewirkt. Die Restauration der Skaleninvarianz erfolgt erst bei Temperaturen, die oberhalb der chiralen Restauration (im nichtseltsamen Sektor) liegen. Diese Modellerweiterung ermöglicht es, zukünftig das Phasenübergangsverhalten -- Restauration von chiraler Symmetrie und Skaleninvarianz -- auch bei nichtverschwindenden Baryonendichten zu untersuchen. Die Resultate dieser Arbeit zeigen die Wichtigkeit der schweren hadronischen Zustände, der Resonanzen, für das QCD-Phasendiagramm. Für die Zukunft ist eine Ankopplung des gesamten hadronischen Massenspektrums an das Modell erstrebenswert, wie sich sowohl aus der Untersuchung der Modellerweiterung um eine Test-Resonanz als auch aus der Anwendung auf experimentelle Teilchenzahlverhältnisse ergibt.