Refine
Year of publication
Document Type
- Doctoral Thesis (593) (remove)
Has Fulltext
- yes (593)
Is part of the Bibliography
- no (593) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (593) (remove)
In this thesis I use effective models to investigate the properties of QCD-like theories at nonzero temperature and baryon chemical potential. First I construct a PNJL model using a lattice spin model with nearestneighbor interactions for the gauge sector and four-fermion interactions for the quarks in (pseudo)real representations of the gauge group. Calculating the phase diagram in the plane of temperature and quark chemical potential in QCD with adjoint quarks, it is qualitatively confirmed that the critical temperature of the chiral phase transition is much higher than the deconfinement transition temperature. At a chemical potential equal to half of the diquark mass in the vacuum, a diquark Bose–Einstein condensation (BEC) phase transition occurs. In the two-color case, a Ginzburg–Landau expansion is used to study the tetracritical behavior around the intersection point of the deconfinement and BEC transition lines which are both of second order. A compact expression for the expectation value of the Polyakov loop in an arbitrary representation of the gauge group is obtained for any number of colors, which allows us to study Casimir scaling at both nonzero temperature and chemical potential. Subsequently I study the thermodynamics of two-color QCD (QC2D) at high temperature and/or density using ZQCD, a dimensionally reduced superrenormalizable effective theory, formulated in terms of a coarse grained Wilson line. In the absence of quarks, the theory is required to respect the Z2 center symmetry, while the effects of quarks of arbitrary masses and chemical potentials are introduced via soft Z2 breaking operators. Perturbative matching of the effective theory parameters to the full theory is carried out explicitly, and it is argued how the new theory can be used to explore the phase diagram of two-color QCD.
In this thesis, we studied the single impurity Anderson model and developed a new and fast impurity solver for the dynamical mean field theory (DMFT). Using this new impurity solver, we studied the Hubbard model and periodic Anderson model for various parameters. This work is motivated by the fact that the dynamical mean field theory is widely used for the studies of strongly correlated systems, and the most frequently used methods, e.g. the quantum Monte-Carlo method (QMC), and the exact digonalization method are much CPU time consuming and usually limited by the available computers. Therefore, a fast and reliable impurity solver is needed. This new impurity solver was explored based on the equation-of-motion method (also called Green's function and decoupling method in some literature). Using the retarded Green's function, we first derived the equations of motion of Green's functions. Then, we employed a decoupling scheme to close the equations. By solving self-consistently the obtained closed set of integral equations, we obtained the single particle Green's function for the single impurity Anderson model. After that, the single impurity Anderson model was solved along with self-consistency conditions within the framework of DMFT. In this work, we studied and compared two decoupling schemes. Moreover, we also derived possible higher order approximations which will be tested in future work. Besides the theoretical work, we tested the method in numerical calculations. The integral equations are first solved by iterative methods with linear mixing and Broyden mixing, respectively. However, these two methods are not sufficient for finding the self-consistent solutions of the DMFT equations because converged results are difficult to obtain. Moreover, the computing speed of the two methods is also not satisfactory. Especially the iterative method with linear mixing costs always a lot of CPU time due to the required small mixing. Hence, we developed a new method, which is a combination of genetic algorithm and iterative method. This new method converges very fast and removes artifacts appearing in the results from the iterative method with linear and Broyden mixing. It can directly operate on the real axis, where no numerical error from the high frequency tail corrections and the analytical continuation is introduced. In addition, our new technique strongly improves the precision of the numerical results by removing the broadening. With this newly developed impurity solver and numerical technique, we studied the single impurity Anderson model, the single band Hubbard model and the periodic Anderson model with arbitrary spin and orbital degeneracy N on the real axis. For the single impurity Anderson model, the spectral functions are calculated for the infinite and finite Coulomb interaction strength. We also studied the spectral functions in dependence of the parameters of impurity position and hybridization. For the Hubbard model, we studied the bandwidth control and filling control Mott metal-insulator transition for spin and orbital degeneracy N = 2. It gives qualitatively the critical value of Coulomb interaction strength for the Mott metal-insulator transition, and the spectral functions which are comparable to those obtained in QMC and numerical renormalization group methods. We also studied the quasiparticle weight and the self-energy in metallic states. The latter shows almost Fermi liquid behavior. At last we calculated the densities of states for the Hubbard model with arbitrary spin and orbital degeneracy N. The periodic Anderson model (PAM) is also studied as another important lattice model. It was solved for various combinations of parameters: the Coulomb interaction strength, the impurity position, the center position of the conduction band, the hybridization, the spin and orbital degeneracy. The PAM results represents the physics of impurities in a metal. In short, our method works for the Hubbard model and the periodic Anderson model in a large range of parameters, and gives good results. Therefore, our impurity solver could be very useful in calculations within LDA+DMFT. Finally, we also made a preliminary investigation of the multi-band system based on the success in single band case. We first studied the two-band system in a simplified treatment by neglecting the interaction between the two bands through the bath. This has given promising numerical results for the two-band Hubbard model. Moreover, we have studied theoretically the two-band system with mean field approximation and Hubbard-I approximation in dealing with the higher order cross Green's functions which are related to both the two bands. In the mean field approximation, we even generalized the two-band system to arbitrary M=N/2 band system. Potential improvement can be carried out on the basis of this work.
Sensors for high rate charge particle tracking have to withstand the harsh radiation doses deposited by the particles to be sensed. This holds particularly for the novel CMOS Monolithic Active Pixel Sensors, which are considered a promising sensor technology for future vertex detectors due to their very light material budget and excellent spatial resolution. To resist the radiation doses expected close to the interaction regions of heavy-ion experiments, the sensors have to be hardened against radiation doses, which exceed the native tolerance of CMOS technology significantly. In this thesis, the results of non-ionizing radiation hardness studies at the IKF on sensor prototypes developed at the IPHC in Strasbourg are presented. Our results demonstrate that the CMOS sensors evaluated in the context of this thesis can withstand non-ionizing radiation of up to 5×10^14 neq/cm^2. This hardness qualifies them as promising candidates for use in future vertex detectors.
Elektron-Zyklotron-Resonanz-Ionenquellen dienen der Erzeugung von hochgeladenen Schwerionen. Die Erzeugung und Extraktion der Schwerionen beruht auf dem komplexen Zusammenspiel von physikalischen Prozessen aus der Atom, Oberflächen und Plasmaphysik sowie der Elektrodynamik. In dieser Arbeit werden grundlegende physikalische Prozesse in EZR-Ionenquellen experimentell untersucht, welche auf Grund der Komplexität bislang nicht vollständig verstanden sind. Als Schwerpunkt werden insbesondere die häufig angewendeten Methoden zur Steigerung der Ausbeute an hochgeladenen Ionen erforscht. Hierzu zählen die negativ vorgespannte Scheibe (eine Elektrode in axialer Nähe des Plasmas, biased Disk), die Beschichtung der Plasmakammerwände mit Isolatoren (Wall coating) und die Gasbeimischung von leichteren Gasen zum eigentlichen Arbeitsgas. Die Untersuchungen wurden an der Frankfurter EZR-(VE)RFQ-Beschleunigeranlage durchgeführt und mit aktuellen Theorien sowie Messungen an anderen EZR-Ionenquellen verglichen. Zur Diagnose wird erstmals die negativ vorgespannte Scheibe im gepulsten Betrieb eingesetzt, um die dynamische Auswirkung dieser Scheibe auf den Ionisationsprozeß und die Ionenextraktion zu studieren. Als erstaunlichstes Ergebnis wird die bisher vermutete und in der Literatur dargestellte physikalische Wirkungsweise der biased Disk, nämlich die Erhöhung der Plasmadichte und eine Verbesserung des Ionisationsprozesses, widerlegt. Dieses Ergebnis wird durch Messungen der Quellenemittanz, des dynamischen Ionisationsverlaufes durch Injektion von kurzen Neutralteilchenpulsen mittels Laserablation, der Spektroskopie der Röntgenbremsstrahlung und der optischen Spektroskopie des sichtbaren Lichtes bestätigt. Als neue Hypothese für die physikalische Auswirkung der negativ vorgespannten Scheibe auf die Ausbeute an hochgeladenen Schwerionen wird eine axiale Elektronenverteilung angenommen. Diese entsteht aus axial oszillierenden Elektronen, welche in einem Potentialtopf zwischen der negativ vorgespannten Scheibe und dem Extraktionsbereich der Ionenquelle eingeschlossen sind. Radial werden diese Elektronen durch die Magnetfeldlinien der beiden Magnetspulen geführt. Diese Elektronenverteilung beeinflußt die Ionendiffusion aus dem EZR-Plasma und die Ionenstrahlformierung im Extraktionsbereich der Ionenquelle positiv. In dieser Arbeit wird zudem gezeigt, daß die gezielte Steuerung der Ionenextraktion durch die vorgespannte Scheibe (biased Disk) mit sehr geringem Aufwand möglich ist. Insbesondere durch Pulsung der Disk-Spannung ist die Extraktion von gepulsten Ionenstrahlen aus einer EZR-Ionenquelle mit bislang nicht erreichten Wiederholungsfrequenzen möglich (bis einige 10 kHz). Die Ionenpulse weisen zudem höhere Intensitäten im Vergleich zur kontinuierlichen Extraktion auf. Eine weitere angewendete Diagnosemethode ist die Injektion von kurzen Pulsen an Neutralteilchen in das EZR-Plasma mit dem Ziel, die Ionenerzeugung und die Ionenextraktion zeitaufgelöst zu studieren. Die Neutralteilchenpulse werden mit Hilfe der Laserablation erzeugt und im EZR-Plasma sukzessive ionisiert. Das zeitliche Verhalten der extrahierten Ionen gibt Ausschluß über die Dynamik des Ionisationsprozesses, den Ioneneinschluß und die Extraktion der Ionen. Hierbei werden die Auswirkungen der Mikrowellenleistung, des Quellengasdruckes, der Gaszusammensetzung und der negativ vorgespannten Scheibe auf die Erzeugung von hochgeladenen Ionen in einer EZR-Ionenquelle untersucht. Auch diese Messungen werden durch die Untersuchung der Röntgenbremsstrahlung und der optischen Spektroskopie des sichtbaren Lichtes vervollständigt. Außerdem wird der Einfluß der injizierten Neutralteilchenpulse auf das bestehende Plasma in der Ionenquelle gemessen. Neben der Plasmadiagnose durch die Injektion von Neutralteilchenpulsen mittels Laserablation wurde auch die Erzeugung von gepulsten Strahlen hochgeladener Ionen verschiedenster Festkörperelemente untersucht. Es wird gezeigt, daß durch einen einfachen Versuchsaufbau hochgeladene Ionen von nahezu allen Festkörpern erzeugt werden können. Durch den Einsatz von speziellen Aluminium-Hohlzylindern mit metalldielektrischer Beschichtung (AlAl 2 O 3 ) in der Plasmakammer der EZR-Ionenquelle (Wall coating) und der dadurch gezielten Beeinflussung der Plasma-Wand-Wechselwirkung kann die Ausbeute an hochgeladenen Schwerionen (z. B. Ar 16 ) um bis zu einem Faktor 50 gesteigert werden. Die in dieser Arbeit angewandten Diagnosemethoden und das dadurch erzielte bessere Verständnis der physikalischen Prozesse und der Dynamik im EZR-Plasma ermöglichen die Erhöhung der Ausbeute an hochgeladenen Ionen, die effektive Erzeugung von hochgeladenen Festkörperionen und die Extraktion von gepulsten Ionenstrahlen mit bisher nicht erreichten Wiederholungsfrequenzen.
Im NA49-Experiment wird der hadronische Endzustand von Kern und Protonen induzierten Reaktionen gemessen, um die Eigenschaften von Kernmaterie unter extremen Bedingungen zu untersuchen. Dabei stellt die Flugzeitmessung ein wichtiges Instrument zur Teilchenidentifizierung dar. Der von Yu.N. Pestov 1971 erstmal vorgestellte und nach ihm benannte Pestov-Zähler ist ein gasgefüllter Parallelplatten-Zähler, der im Funken/Überschlag-Modus betrieben wird. Die Besonderheit dieses Zählers ist die Lokalisierung der Entladung, die durch eine Anode aus halbleitendem Glas mit einem hohen spezifischen Widerstand und ein Zählgas mit großer Photonen-Absorption erreicht wird. In der Protonenstrahlzeit 1997 wurde der PesTOF-Detektor (Pestov Time Of Flight) bestehend aus zwölf einzelnen Zählern, erstmals im Vertex-1 Magneten des NA49-Experimentes eingesetzt. Neben der guten Zeitauflösung sind die Unempfindlichkeit gegenüber dem magnetischen Feld und die gute Ortsauflösung die auch bei großen Spurdichten ein korrektes Zuordnen der Treffer ermöglicht, die Voraussetzungen für diesen Einsatz. Der kinematische Akzeptanzbereich für die Identifikation von Pionen liegt bei Rapiditäten von y ~ 2-5 - 3 und Tranzversalimpulsen von pt <= 500 MeV/c. Der Akzeptanzbereich der Kaonen liegt bei einer Rapidität von y ~ 2 und Tranzversalimpulsen von pt <= 500 MeV/c. Der Detektor konnte über den gesamten Zeitraum stabil und zuverlässig betrieben werden. Die gemessene gaußförmige Zeitauflösung beträgt 78 ps, wobei die Hochspannung die 1.5fache Schwellenspannung betrug. Neben dem gaußförmigen Anteil der Zeitauflösung zeigt der Detektor jedoch auch einen asymmetrischen nicht gaußförmigen Anteil ("Tail"). Aufgrund einer verzögerten Funkenentwicklung im Zähler liegen etwa 12.6% der Signale außerhalb der gaußförmigen Verteilung bzw. sind etwa 4% der Signale um mehr als 500 ps verspätet. Neuere Untersuchungen mit anderen Zählgasen und Zählergeometrien haben gezeigt, dass der Anteil der verzögerten Signale in Zukunft deutlich reduziert werden kann. Der Verlauf der gemessenen pt und mt-Verteilungen der identifizierten Kaonen und Pionen kann durch Simulationen mit dem VENUS-Modell reproduziert werden. Mit der möglichen Verbesserung der Zeitauflösung und dem geplanten Ausbau des PesTOF-Detektors mit bis zu 80 einzelnen Zählern wird der Impuls- und Akzeptanzbereich, in dem Teilchen identifiziert werden können, deutlich vergrößert werden. Die Messungen dieser Arbeit geben einen Ausblick darauf dass es in Zukunft möglich sein wird, relevante physikalische Größen mit dem PesTOF-Detektor im NA49-Experiment zu messen. Insbesondere in nicht symmetrischen Stoßsystemen ist der Einsatz von Flugzeitdetektoren in dem rückwärtigen kinematischen Bereich der Reaktion interessant. Mit den in dieser Arbeit gefundenen positiven Eigenschaften und den sich abzeichnenden Modifikationen am Zählgas und Zähler ist der Pestov-Zähler ein interessanter Detektor für zukünftige Experimente.
Im Rahmen dieser Arbeit werden verschiedene Modellsysteme untersucht, die Metriken der klassischen Allgemeinen Relativitätstheorie mit Erweiterungen vergleichen, in denen Ereignishorizonte nicht existieren müssen. Die untersuchten Korrekturterme sind durch Schwachfeldmessungen, wie sie zum Beispiel in unserem Sonnensystem durchgeführt werden, nicht überprüfbar. Es ist deshalb nötig solche Systeme zu betrachten, in denen die vollständigen Gleichungen berücksichtigt werden müssen und keine Entwicklungen für schwache Felder gemacht werden können. Es gibt eine Reihe von astrophysikalischen Systemen, die diese Bedingungen erfüllen, wie das Galaktische Zentrum oder Doppelsternsysteme.
Im zweiten Kapitel der Arbeit werden Testteilchenorbits in einem Zentralpotential beschrieben und Unterschiede zwischen der klassischen und einer modifizierten Kerr-Metrik herausgearbeitet. Drei neue Phänomene der modifizierten Metrik gegenüber der Klassischen treten hier in Erscheinung. Zum einen haben Teilchen, die sich auf prograden Bahnen um den Zentralkörper drehen, ein Maximum in ihrer Winkelgeschwindigkeit. Zum anderen ist das Phänomen des frame-draggings deutlich schwächer ausgeprägt. Schließlich tritt ein letzter stabiler Orbit für entsprechend schnell rotierende Zentralkörper nicht mehr auf. Gleichzeitig sind die Unterschiede in den beiden Metriken für große Abstände (r > 10m) nahezu vernachlässigbar. In Kapitel 3 werden diese Ergebnisse auf zwei unterschiedliche Modelle zur Beschreibung von Akkretionsscheiben angewendet. Untersucht wird zum einen das Verhalten der Eisen-Kα-Emissionslinie und zum anderen der Energiefluss aus einer Akkretionsscheibe.
In der Form der Eisen-Kα-Emissionslinie gibt es eine deutliche Zunahme des rotverschobenen Anteils der Strahlung in der modifizierten Kerr-Metrik gegenüber der klassischen Kerr-Metrik. Die Akkretionsscheibe nach Page und Thorne zeigt unter Verwendung der modifizierten Kerr-Metrik eine signifikante Erhöhung der abgestrahlten Energie, wenn der Zentralkörper so schnell rotiert, dass kein letzter stabiler Orbit mehr auftritt. Zusätzlich gibt es hier in der Scheibe einen dunklen Ring im Vergleich zu den Bildern höherer Ordnung, die in der klassischen Kerr-Metrik auftreten. Erklärbar sind diese Phänomene dadurch, dass sich Teilchen auf stabilen Bahnen in der modifizierten Kerr-Metrik näher an den Zentralkörper heran bewegen können, als es in der klassischen Kerr-Metrik der Fall ist. Die Rotverschiebung ist für beide Fälle annäherend gleich.
Kapitel 4 gibt eine kurze Einführung in die Beschreibung von Gravitationswellen im Rahmen der linearisierten Allgemeinen Relativitätstheorie. Hier wird als Modell ein Binärsystem, wie etwa der Hulse-Taylor-Pulsar, betrachtet. Die Unterschiede zwischen der klassischen Theorie und einer Beschreibung unter Hinzunahme von Zusatztermen sind hier erwartungsgemäß sehr gering, da die Linearisierung der Gleichungen dazu führt, dass Starkfeldeffekte vernachlässigt werden. Für große Abstände, was in diesem Fall auch schwache Felder impliziert, sind die Erweiterungen der Gleichungen vernachlässigbar. Hier werden zum Teil auch Effekte in der klassischen ART vernachlässigt.
In Kapitel 5 befindet sich ein kurzer Ausblick in die 3+1-Formulierung der Einsteingleichungen für die numerische Beschreibung von Gravitationsphänomenen. Diese Beschreibung ermöglicht es auch komplexe Systeme ohne viele nähernde Annahmen genau beschreiben zu können. Diese Systeme können zum einen Akkretionsscheiben um kompakte Objekte sein, aber auch die Verschmelzung von zwei massiven Objekten und die damit verbundenen Gravitationswellensignale. Dadurch lassen sich die Vorhersagen der ART oder etwaiger Erweiterungen präziser modellieren.
Die vorgestellten Ergebnisse liegen innerhalb der Einschränkungen durch aktuelle Messungen. Zukünftige Messungen wie genauere Beobachtungen des Galaktischen Zentrums durch das Event Horizon Telescope sind aber voraussichtlich dazu in der Lage zwischen den untersuchten Metriken zu unterscheiden.
This thesis presents the first measurement of the proton capture reaction on the isotope 124Xe performed in inverse kinematics. The experiment was carried out in June 2016 at the Experimental Storage Ring (ESR) at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, Germany.
124Xe is one of about 35 p-nuclei that cannot be produced via neutron-induced nucleo- synthesis as the vast majority of heavy elements. Its production and destruction provide important information about the nucleosynthesis of the p-nuclei. Measuring the 124Xe(p,g)125Cs reaction also gives strong constraints for its reverse 125Cs(g,p)124Xe reaction.
Fully stripped 124Xe ions repeatedly passed a H2 gas jet target at five different energies between 5.5 MeV/u and 8 MeV/u. An electron cooler compensated for the energy loss in the target and reduced the beam momentum spread. The reaction product 125Cs55+ has a smaller magnetic rigidity than 124Xe54+. Therefore 125Cs55+ was deflected towards smaller radii in the first dipole after the target area and thereby separated from 124Xe54+. It was detected with a position-sensitive Double-Sided Silicon Strip Detector (DSSSD). The novelty of this experiment was the installation of the DSSSD inside the ultra-high vacuum of the storage ring using a newly designed manipulator.
Three High-Purity Germanium X-ray detectors were used to measure the X-rays following the Radiative Electron Capture (REC) events into 124Xe53+. The REC cross sections are well-known and were used to determine the luminosity.
The 124Xe(p,g)125Cs cross sections at ion beam energies between 5.5 MeV/u and 8 MeV/u were determined relatively to the K-REC cross sections and finally compared to the theoretically predicted cross sections. While theoretical predictions of the TENDL database are lower than the measured ones by a factor of up to seven, the NON-SMOKER data are higher by a factor of up to two, except of the cross section at 7 MeV/u, where NON-SMOKER data are slightly lower than the experimental value.
For the first time, a proton capture cross section could be measured in inverse kinematics close to the astrophysically relevant Gamow window. This allows the direct determination of the (p,g) cross section of isotopes with half-lives down to several minutes, which is not possible with any other technique.
Within the nucleosynthetic processes of the slow neutron-capture reaction network (called the s process) the so called branching points, unstable isotopes where different nuclear reactions are competing, are important to understand . For modeling and calculating the nucleosynthesis and compare the resulting abundances to the observed ones, it is indispensable to know the branching ratios as well as the corresponding cross sections.
A great challenge in measuring those rates in experiments may be the radioactivity of the isotopes involved, which can make it nearly impossible to manufacture the needed targets. In addition, in stellar environments the excited states of isotopes can be in equilibrium with the ground state, affecting the half-lives and the branching ratios significantly. The isotope 152Eu is such a branching point, with neutron captures and β-decays competing. Those challenges were approached in the s405 experiment performed at the GSI Helmholtzzentrum für Schwerionenforschung GmbH: the challenge the challenge of the radioactivity can be approached by experiments carried out in inverse kinematics with radioactive beams, solving the problem of unstable targets. Also a reversed reaction was used to access the excited states of the studied isotope. The performed 152Sm(p,n)152Eu is a pioneering attempt to use those methods on heavy ions. The (p,n) reaction was used as a substitute for electron capture, the focus lies on reactions with low-momentum transfers, resulting in the emission of low-energy neutrons. The new developed low-energy detector array LENA was put to test for the fist time in the s405 experiment.
The last decades have brought tremendous progress in understanding the phase structure of the strongly interacting matter. This has been driven by studying heavy-ion collisions on the experimental side and Lattice QCD, functional approaches to QCD, perturbation theory and effective theories on the theoretical side. Of particular interest is the transition from hadrons to partonic degrees of freedom which is expected to occur at high temperatures or high baryon densities. These phases play an important role in the early universe and the core of neutron stars. Nowadays, the existence of a deconfined phase, i.e. Quark Gluon Plasma (QGP) and its phase transition at vanishing and small net-baryon densities, are well established. However, the situation at larger densities is less clear.
Complementary to the studies of matter at high temperatures and low net-baryon densities performed at RHIC and LHC, the proposed Compressed Baryonic Matter (CBM) experiment at the future FAIR facility, aims to explore the QCD phase diagram at very high baryon-net densities and moderate temperatures. The CBM research program includes the search for the deconfinement phase transition, the study of chiral symmetry restoration in super dense baryonic matter, the search for the critical endpoint, and the study of the nuclear equation of state at high densities. While other experiments (STAR-BES at BNL, BM@N at NICA) are suited to measure bulk observables, CBM is explicitly designed to access rare observables, such as multi-strange hadrons, dileptons, hypernuclei and charmonium. Therefore, a key feature of CBM is the very high interaction rate, exceeding those of contemporary and proposed nuclear collision experiments by several orders of magnitude. However, some of the rare probes have a complex signature, hidden in a background of several hundreds of charged tracks. This forbids a conventional, hardware-triggered readout; instead, the experiment combines self-triggered front-end electronics, fast and free-streaming data transport, online event reconstruction and online event selection.
The central detector for tracking and momentum determination of charged particles in the CBM experiment is the Silicon Tracking System (STS). It is designed to measure up to 700 charged particles in nucleus-nucleus collisions between 0.1 and 10 MHz interaction rate, to achieve a momentum resolution in 1 Tm dipole magnetic field better than 2%, and to be capable of identifying complex particle decays topologies, e.g., such with strangeness content. The STS comprises 8 tracking stations equipped with double-sided silicon microstrip sensors. Two million channels are read out with self-triggering electronics, matching the data streaming and on-line event analysis concept applied throughout the experiment. The detector’s functional building block consists of a silicon sensor, aluminum-kapton microcables and two front-end electronics boards integrated in a module. The custom-designed ASIC (STS-XYTER) implements the analog front-end, the digitizer and the generation of individual hit data for each signal.
Design of the front-end chip requires finding an optimal solution for time and input charge measurements with tight constraints: small area (58 μm channel pitch), low noise levels (below 1500 ENC(e− )), low power consumption (610 mW/channel), radiation hard architecture and speed requirements. Being a part of the first processing stage in the full readout and data acquisition chain, the characterization of the chip and its integration with the detector components is a crucial task. In this work, various methods and tools are established for testing and qualifying the ASIC analog front-end. A procedure for amplitude and timing calibration is developed using different functionalities of the chip. The procedure is optimized for our prototype system in order to achieve the best accuracy in the shortest amount of time. Results were verified using a gamma source and an external pulse generator, showing discrepancies below 5%.
Among the multiple operation requirements of the ASIC, the noise performance is of essential importance. The characterization of the chip noise is carried out as a function of a large number of parameters such as: low-voltage power regulators, input capacitance, shaping time, temperature and bond’s protective glue (glob-top). These studies allowed to optimize the ASIC configuration settings, to identify possible malfunctions in the low voltage powering scheme and to select possible glob-top materials to be used in the module assembly. Moreover, important differences are found among odd and even channels, which main cause was related to the bias scheme of the amplifiers of the two groups of channels. This effect has been corrected in the new version (v2.1) of the ASIC.
Despite the STS front-end electronics being located outside of the physics acceptance, they will be exposed to high fluxes of charged particles. Considering the SIS100 possible running scenario, the lifetime dose at the location of the electronics is expected not to exceed 800 krad. Consequently, the STS-XYTERv2 ASIC implements a radiation hard design based on dual-interlocked cells (DICE), and triple modular redundancy (TMR).
Multiple dedicated beam campaigns were carried out to evaluate the ASIC’s design in terms of immunity to single event upsets (SEU) errors and overall performance after a lifetime doses. The DICE cell SEU cross section was measured in a high-intensity proton beam. Result show a significant improvement of the SEU immunity in the STS-XYTERv2 compared to its predecessor, and allows to estimate the upset rate in the CBM running scenario, resulting in less than one SEU/ASIC/day.
The studies on the total ionizing dose (TID) show that the overall noise levels for the ASIC, at the end of the experiment lifetime, are expected to increase by approximately 40 – 60%. Moreover, they demonstrated that short periods of annealing at room temperature can favorably influence the noise performance of the chip.
The assembly and test of the STS modules, a complex process with multiple stages and a long learning curve, is illustrated in different parts of this work. The first prototype modules were built with the front-end board type B (FEBs-B), capable of reading out 128 channels for p and n side respectively. The studies were conducted with a relativistic proton beam of 1.7 GeV/c momentum at the COSY accelerator facility, Research Center Juelich, in March 2018. The campaign brought valuable insights to the development of an effective grounding and powering scheme for reading out the detectors. The signal-to-noise was measured for one of the prototype modules, resulting in values larger than 15 for both polarities. A deeper analysis into the collected data allowed the identification of a logic error in the ASIC that affected the readout rate and the quality of the data. This issue was corrected in the new version of the chip.
A precursor of the STS detector, named mini-STS (mSTS), has been built within the mCBM project carried out in FAIR Phase0. mSTS was built from 4 fully assembled detector modules. To ensure the proper operation of the ASICs that were used in the module assembly, it was required to develop a rigorous quality assurance procedure. A dedicated setup was built based on a custom designed pogo-pin station and a total of 339 chips were tested. More than 90% of good-quality and operational ASICs were obtained. In the mCBM beam campaign of March 2019, four detector modules were successfully operated in a close-to-final readout chain and valuable data were collected. The mSTS detector was exposed to the products of Ag+Au collisions at energies above 1.58 AGeV and overall interaction rates up to 106 , which resembles the real conditions of the CBM experiment.
Along this work, significant progress for the development of the STS detector modules was achieved. Techniques for characterization of the front-end electronics and the complete detector system were developed and worked out. They will be applied for QA of the components during the series production.
The core of this work is represented by the investigation of the chiral phase transition, using Monte Carlo simulations and unimproved staggered fermions, both in the weak and strong coupling regimes of Quantum Chromodynamics. Based on recent results from Monte Carlo simulations, both using unimproved staggered fermions and Wilson fermions, the chiral phase transition in the continuum and chiral limit shows compatibility with a second-order phase transition for Nf (number of flavours) in range [2:7], at zero baryon chemical potential. This achievement relies on the analytic continuation of Nf to non-integer values on the lattice, which allows to make use of extrapolation techniques to the chiral limit, where simulations are not possible. Furthermore, these results provide a resolution to the ambiguous scenario for Nf = 2 in the chiral limt. The first part of this thesis is devoted to the investigation of the chiral phase transition when a non-zero imaginary baryon chemical potential is involved, whose value corresponds to the 81% of the Roberge-Weiss one. Using the same extrapolation techniques aforementioned, the order of the chiral phase transition in the continuum and chiral limit shows compatibility with a second-order phase transition for Nf in range [2:6], highlighting a lack of dependence of the order of the chiral phase transition on the imaginary baryon chemical potential value. The second part of this thesis is about the study of the extension of the first-order chiral region in the strong coupling regime, at zero baryon chemical potential. Using Monte Carlo techniques, this can be done by investigating the Z2 boundary on a coarse lattice, whose temporal extent reads Nt = 2, and simulations are realised for Nf = 4, 8. The results in the weak coupling regime show, for $Nt = 8, 6, 4 and fixed Nf value, an inflating first-order chiral region. As in the strong coupling limit a second-order chiral phase transition is expected, the first-order chiral region has to shrink as the strong coupling regime is approached, resulting in a non-monotonic behaviour of the Z2 boundary. For Nf = 8, a critical mass on the Z2 boundary has been obtained, confirming the expected non-monotonic behaviour. For Nf = 4 the results do not provide a unique conclusion: Either a Z2 boundary at extremely low bare quark mass or a second-order chiral phase transition in the O(2) universality class in the chiral limit can take place. In addition to the two main topics, the performances of the second-order minimum norm integrator (2MN) and the fourth-order minimum norm integrator (4MN) have been compared, after implementing the 4MN one in the CL2QCD code used to realise our simulations. The 2MN integrator had already been implemented in the code since the first version was released. The two integrators belong to the class of symplectic integrators and represent an essential component of the RHMC algorithm, involved in our investigation. This step is extremely important, in order to guarantee the best quality when collecting data from simulations, and the results of the comparison suggested to favor the 2MN integrator, for both the topics.
Nicotinic acid has been used in the clinical treatment of elevated blood lipid levels for over 50 years. Although it has a beneficial effect on myocardial infarction and blood lipid profiles, its widespread use has been hampered by side effects such as skin rashes and a burning sensation on the upper body. Since elevated blood lipid levels, especially ones of VLDL and LDL cholesterol are a frequent indication and high risk factor for coronary and cardiac diseases, finding a compound with an enhanced pharmacological profile, still holding the desired effects, but without inconvenient side effects, is a very appealing aim to many pharmaceutical companies. These efforts have already produced two marketed drugs, Acipimox and Acifran, but they have not been able to overcome the restrictions already imposed on the treatment by nicotinic acid. Although proposed long before, in the year 2000 the gene for the nicotinic acid receptor in mouse PUMA-G was cloned, and in 2003 the discovery of the genes HM74 and HM74A followed, which comprise the homologous low and high affinity receptors for nicotinic acid in humans. The discovery of this G Protein-coupled receptor target allowed a more directed approach for the search of alternative compounds. This work is the first report of the heterologous overexpression of the high affinity GPCR gene HM74A in the methylotrophic yeast Pichia pastoris. The protein product, NAR1, was pharmacologically characterized, and displayed a binding affinity of 224.8 nM to its ligand nicotinic acid, showing a similar activity profile compared to those displayed in human tissue, which were determined to be 60 nM to 90 nM. Additionally, inhibitory constants (Ki) for Acifran and Acipimox were determined to be 4.5 µM and 50.5 µM, respectively. Furthermore, the total yield of NAR1 reached 42 pmol/mg membrane protein, which corresponds to 0.4 mg of receptor produced per liter yeast culture, opening up the perspective of large scale protein production to facilitate high throughput screening drug discovery efforts and structural studies. In addition, NAR1 could be solubilized in n-decyl-β-D-maltopyranoside and purified to homogeneity after immobilized metal affinity chromatography and a second affinity chromatography step on immobilized monomeric avidin, yielding a single peak on gel filtration, while the purified receptor was able to bind ligand, as shown in NMR Saturation Transfer Difference (STD) measurements. It could be shown that NAR1 is desensitized by β-arrestin 1 in vivo in confocal microscopy studies on HEK and BHK cells. This finding provides a native binding partner for the stabilization of the receptor upon solubilization and purification. Finally human β-arrestin 1 could be produced as a constitutively active variant, comprising residues 1-382 in Pichia pastoris and Escherichia coli. The purified protein was used for in vitro binding experiments and shown to be capable of interacting with NAR1. Although the interaction and formation of the complex was only possible to a limited extent, it leaves open the perspective of crystallizing NAR1 in its active conformation, bound to nicotinic acid and β-arrestin 1.
In this thesis different descriptions for the non-Abelian Landau-Pomeranchuk-Migdal (LPM) effect are studied within the partonic transport approach BAMPS (Boltzmann Approach to Multi-Parton Scatterings), which numerically solves the 3+1-dimensional Boltzmann equation for massless partons based on elastic and radiative interactions calculated in perturbative quantum chromodynamics.
The LPM effect is a coherence effect originating from the finite formation time of gluon emissions leading to characteristic dependencies of the radiative energy loss of energetic partonic projectiles, as e.g. jets in ultra-relativistic heavy-ion collisions.
Due to this non-locality of interactions, such coherence effects are difficult to describe rigorously in transport theory.
Therefore we compare in this work three different implementations for the LPM effect: i) a parametric LPM suppression based on a theta function in the radiative matrix elements, ii) a stochastic LPM approach, which explicitly simulates the elastic interactions of gluons during their formation time, and iii) the thermal gluon emission rate from the AMY formalism, which is a hard-thermal-loop calculation exactly considering the non-Abelian LPM effect by resumming ladder diagrams in the large medium limit.
After discussing the numerical implementation of the three approaches, we investigate their consequences in different jet-energy loss scenarios: first the academic scenarios of eikonal and non-eikonal jets flying through a static brick of thermal quark-gluon plasma and then jets traversing the expanding medium of ultra-relativistic heavy-ion collisions at LHC energies.
We can demonstrate that although the different LPM approaches show similarities in the radiative energy loss there are differences in the underlying gluon emission spectra, which originate from the specific treatment of divergences in the matrix elements within BAMPS.
Furthermore, based on the different LPM approaches we present simulation results for recent jet quenching observables from the LHC experiments and discuss properties of the underlying heavy-ion medium.
The nature of spontaneous brain activity during wakefulness and sleep: a complex systems approach
(2014)
In this thesis we study the organization of spontaneous brain activity during wakefulness and all stages of human non-rapid eye movement sleep using an approach based on developments and tools from the theory of complex systems. After a brief introduction to sleep physiology and different theoretical models of consciousness, we study how the organization of cortical and sub-cortical interactions is modified during the sleep cycle. Our results, obtained by modeling global brain activity as a complex functional interaction network, show that the capacity of the human brain to integrate different segregated functional modules is diminished during deep sleep, in line with an informationintegration account of consciousness. We then show that integration is impaired not only across space but also in the temporal domain, by assesing the emergence of long-range temporal correlations in brain activity and how they are modified during sleep. We propose an encompassing explanation for this observation, namely, that the brain operatsat different dynamical regimes during different states of consciousness. Finally, we gather massive amounts of data from different collaborative projects and apply machine learning techniques to reveal that the \resting state" cannot be considered as a pure brain state and is in fact a mixture containing different levels of conscious awareness. This last result has deep implications for future attempts to develop a discovery science of brain function both in health and disease.
In this thesis, I study the phase diagram of dense, locally neutral three-flavor quark matter as a function of the strange quark mass, the quark chemical potential, and the temperature, employing a general nine-parameter ansatz for the gap matrix. At zero temperature and small values of the strange quark mass, the ground state of quark matter corresponds to the color–flavor-locked (CFL) phase. At some critical value of the strange quark mass, this is replaced by the recently proposed gapless CFL (gCFL) phase. I also find several other phases, for instance, a metallic CFL (mCFL) phase, a so-called uSC phase where all colors of up quarks are paired, as well as the standard two-flavor color-superconducting (2SC) phase and the gapless 2SC (g2SC) phase. I also study the phase diagram of dense, locally neutral three-flavor quark matter within the framework of a Nambu–Jona-Lasinio (NJL) model. In the analysis, dynamically generated quark masses are taken into account self-consistently. The phase diagram in the plane of temperature and quark chemical potential is presented. The results for two qualitatively different regimes, intermediate and strong diquark coupling strength, are presented. It is shown that the role of gapless phases diminishes with increasing diquark coupling strength. In addition, I study the effect of neutrino trapping on the phase diagram of dense, locally neutral three-flavor quark matter within the same NJL model. The phase diagrams in the plane of temperature and quark chemical potential, as well as in the plane of temperature and leptonnumber chemical potential are presented. I show that neutrino trapping favors two-flavor color superconductivity and disfavors the color–flavor-locked phase at intermediate densities of matter. At the same time, the location of the critical line separating the two-flavor color-superconducting phase and the normal phase of quark matter is little affected by the presence of neutrinos. The implications of these results for the evolution of protoneutron stars are briefly discussed.
The study of meson production in proton-proton collisions in the energy range
up to one GeV above the production threshold provides valuable information about
the nature of the nucleon-nucleon interaction. Theoretical models describe the interaction
between nucleons via the exchange of mesons. In such models, different
mechanisms contribute to the production of the mesons in nucleon-nucleon collisions.
The measurement of total and differential production cross sections provide information
which can help in determining the magnitude of the various mechanisms.
Moreover, such cross section information serves as an input to the transport calculations
which describe e.g. the production of e+e− pairs in proton- and pion-induced
reactions as well as in heavy ion collisions.
In this thesis, the production of ω and η mesons in proton-proton collisions at 3.5
GeV beam energy was studied using the High Acceptance DiElectron Spectrometer
(HADES) installed at the Schwerionensynchrotron (SIS 18) at the Helmholtzzenturm
f¨ur Schwerionenforschung in Darmstadt.
About 80 000 ω mesons and 35 000 η mesons were reconstructed. Total production
cross sections of both mesons were determined. Furthermore, the collected statistics
allowed for extracting angular distributions of both mesons as well as performing
Dalitz plot studies.
The ω and η mesons were reconstructed via their decay into three pions (π+π−π0)
in the exclusive reaction pp −→ ppπ+π−π0. The charged particles were identified
via their characteristic energy loss, via the measurement of their time of flight and
momentum, or using kinematics.
The neutral pion was reconstructed using the missing mass method. A kinematic
fit was applied to improve the resolution and to select events in which a π0 was
produced.
The correction of measured yields for the effects of spectrometer acceptance was done
as a function of four variables (two invariant masses and two angles). Systematic
studies of the acceptance for different input distributions were performed.
The measured yields were normalized to the number of measured events of elastic
scattering. Systematic errors due to the methods of the data analysis and the
background subtraction were investigated.
Production angular distributions of ω and η mesons were measured. Both mesons
exhibit a slightly anisotropic angular distribution.
The Dalitz plot of ω meson production shows indications of resonant production.
However, the deviation of the distribution from the one expected by phase space
simulations is not large.
The Dalitz plot of η meson production shows a signal of the production via the
N(1535) resonance, The contribution of N(1535) to the production was quantified
to be about 47%. The angular distribution of η mesons does not show significant
differences between resonant and non resonant production.
The total production cross section of ω mesons in the reaction pp −→ ppω was
determined to be 106.5 ± 0.9 (stat) ± 7.9 (sys) [μb] where stat indicates statistical
error and sys indicates systematic error, while that of η mesons was determined to
be 136.9 ± 0.9 (stat) ± 10.1 (sys) [μb] in the reaction pp −→ ppη
In this thesis, we use lattice QCD to study a part of the QCD phase diagram, specifically the QCD phase transition at mu=0, where the QCD matter changes from hadron gas to quark-gluon plasma (QGP) with increasing temperature.
This phase transition takes place as a crossover, but when theoretically changing the masses of the quarks, the order of the phase transition changes as well.
We focus on the region of heavy quark masses with Nf=2 flavours, where we investigate the critical quark mass at the second order phase transition in the form of a Z2 point between the first-order and the crossover region.
The first-order region is positioned at infinitely heavy quarks. As the quark masses decrease, the associated Z3 centre symmetry breaks explicitly, causing the first-order phase transition to weaken until it turns into the Z2 point and finally into a crossover.
We study this Z2 point using simulations at Nf=2 and lattices of the sizes Nt = {6, 8, 10, 12}, partially building on previous work, in which the simulations for Nt = {6, 8, 10} were started.
The simulations for Nt=12 are not finished yet though, but we were able to draw some preliminary conclusions. These simulations are run on GPUs and CPUs, using the codes Cl2QCD and open-QCD-FASTSUM, respectively. Afterwards, the data goes through a first analysis step in the form of the Python program PLASMA, preparing it for the two techniques we use to analyse the nature of the phase transition.
As a first, reliable analysis method, we perform a finite size scaling analysis of the data to find the location of the Z2 point. Since we are using lattice QCD, performing a continuum extrapolation is necessary to reach the continuum result.
In regard to this, the finite size scaling analysis method is hampered by the excessive amount of simulated data that is needed regarding statistics and the total number of simulations, which is why this thesis is only an intermediate step towards the continuum limit.
This also leads to the second analysis technique we explore in this thesis.
We start to design a Landau theory which describes the phase boundary for heavy masses at Nf=2 based on the simulated data.
We develop a Landau functional for every Nt we have simulation data for.
Albeit the results are not at the same precision as the ones from the finite size scaling analysis, we are able to reproduce the position of the Z2 point for every Nt.
Even though we are not able to take a continuum extrapolation right now, after more development takes place in future works, this approach might, in the long run, lead to a continuum result that won't need as many simulations as the finite size scaling analysis.
In this thesis, we study some features of the quantum chromodynamics (QCD) phase diagram at purely imaginary chemical potential using lattice techniques. This is one of the possible methodologies to get insights about the situation at finite density, where the sign problem prevents direct investigations from first principles.
We focus, in particular, on the Roberge-Weiss plane, where the phase structure with two degenerate flavours is studied both in the light and in the heavy quark mass limit. On the lattice, any result is affected by cut-off effects and so are the positions of the two tricritical points m_{tric}^{1,2} separating the second-order intermediate mass region from the first-order triple light and heavy mass regions. Therefore, changing the lattice spacing 'a', the values of m_{tric}^1 and m_{tric}^2 will change. In order to find their position in the continuum limit – i.e. for 'a' going to 0 – they have to be located on finer and finer lattices. Typically, in lattice QCD (LQCD) simulations, the temperature T is tuned through the bare coupling β, on which 'a' depends, while keeping Nt fixed. Hence, it is common to implicitly refer to how fine the lattice is just mentioning its temporal extent.
Using both Wilson and staggered fermions, we simulate Nf=2 QCD on Nt=6 lattices, varying the quark bare mass from the chiral (m_{u,d} going to 0) to the quenched (m_{u,d} going to infinity) limit. For each quark mass, a thorough finite scaling analysis is carried out, taking advantage of two different but consistent methods. In this way we identify the order of the phase transition locating, then, the position of the tricritical points. In order to convert our measurements to physical units we fix the scale measuring the lattice spacing as well as the pion mass corresponding to the quark bare mass used. This allows a comparison between different discretisation, getting a first idea of how serious are cut-off effects.
To be able to make a comparison between two different discretisations, we added an RHMC algorithm with staggered fermions to the CL2QCD software, a GPU code based on OpenCL, which we released in 2014. A considerable part of our work has been invested in ameliorating and optimising CL2QCD, as well as in developing new analysis tools regularly used next to it. Just to mention one, the multiple histogram method has been implemented in a completely general way and we took advantage of it in order to obtain more precise results. Finally, in order to efficiently handle and monitor the hundreds of simulations that are typically concurrently run in finite temperature LQCD, a completely new Bash library of tools has been developed. We plan to release it as a byproduct of CL2QCD in the near future.
In this thesis we investigate the role played by gauge fields in providing new observable signatures that can attest to the presence of color superconductivity in neutron stars. We show that thermal gluon fluctuations in color-flavor locked superconductors can substantially increase their critical temperature and also change the order of the transition, which becomes a strong first-order phase transition. Moreover, we explore the effects of strong magnetic fields on the properties of color-flavor locked superconducting matter. We find that both the energy gaps as well as the magnetization are oscillating functions of the magnetic field. Also, it is shown that the magnetization can be so strong that homogeneous quark matter becomes metastable for a range of parameters. This points towards the existence of magnetic domains or other types of magnetic inhomogeneities in the hypothesized quark cores of magnetars. Obviously, our results only apply if the strong magnetic fields observed on the surface of magnetars can be transmitted to their inner core. This can occur if the superconducting protons expected to exist in the outer core form a type-I I superconductor. However, it has been argued that the observed long periodic oscillations in isolated pulsars can only be explained if the outer core is a type-I superconductor rather than type-I I. We show that this is not the only solution for the precession puzzle by demonstrating that the long-term variation in the spin of PSR 1828-11 can be explained in terms of Tkachenko oscillations within superfluid shells.
In this thesis, different physical and electrical aspects of silicon microstrip sensors and low-mass multi-line readout cables have been investigated. These silicon microstrip sensors and readout cables will be used in the Silicon Tracking System (STS) of the fixed-target heavy-ion Compressed Baryonic Matter (CBM) experiment which is under development at the upcoming Facility for Antiproton and ion Research (FAIR) in Darmstadt, Germany. The highly segmented low-mass tracking system is a central CBM detector system to resolve the high tracking densities of charged particles originating from beam-target interactions. Considering the low material budget requirement the double-sided silicon microstrip detectors have been used in several planar tracking stations. The readout electronics is planned to be installed at the periphery of the tracking stations along with the cooling system. Low-mass multi-line readout cables shall bridge the distance between the microstrip sensors and the readout electronics. The CBM running operational scenario suggests that some parts of the tracking stations are expected to be exposed to a total integrated particle fluence of the order of 1e14 neq/cm2. After 1e14 neq/cm2 the damaged modules in the tracking stations will be replaced. Thus radiation hard sensor is an important requirement for the sensors. Moreover, to cope with the high reaction rates, free-streaming (triggerless) readout electronics with online event reconstruction must be used which require high signal-to-noise (SNR) ratio (i.e., high signal efficiency, low noise contributions). Therefore, reduction in noise is a major goal of the sensor and cable development.
For better insight into the different aspects of the silicon microstrip sensors and multi-line readout cables, the simulation study has been performed using SYNOPSYS TCAD tools. 3D models of the silicon microstrip sensors and the readout cables were implemented which is motivated by the stereoscopic construction of the silicon microstrip sensors. For the evaluation of the performance of the silicon microstrip sensors in the harsh radiation environment during experimental operation, a radiation damage model has been included. It reproduces the behavior of the irradiated CBM prototype sensors. In addition to the static characteristics, the interstrip parameters relevant to understand strip isolation and cross-talk issues have been extracted. The transient simulations have been performed to estimate the charge collection performance of the irradiated sensors. The signal transmission in the readout cables has been evaluated with the finite element simulation tool RAPHAEL. Based on the performance of the front-end electronics used for early prototyping in the CBM experiment, capacitive and resistive noise contributions from the silicon microstrip sensors and multi-line readout cables have been extracted.
To validate the aforementioned simulations, numerous tests have been performed both on the multi-line readout cables and silicon microstrip sensors. Characterizations of multi-line readout cables and silicon microstrip sensors in laboratory conditions have been found to agree reasonably well with the simulations. Considering the expected radiation environment the behavior of silicon microstrip sensors have been studied especially in terms of noise and charge collection efficiency. Source-scan of the silicon microstrip sensors using 241Am is presented. In order to test a first system of detector stations including the data acquisition system, slow control and online monitoring software and for track reconstruction, in-beam tests have been performed at the COSY synchrotron of the Research Center Juelich, Germany. Further, different design parameters have been suggested to improve the sensor and readout cable design on the basis of the simulations and the measurements. Many of these parameters have been implemented in the new prototypes under production. These new prototypes will be tested in-beam by the end of 2013.
Subject of this thesis is the non-perturbative investigation of the thermal transition in Quantum Chromodynamics by means of lattice gauge theory and a particular type of lattice fermions, the so-called twisted mass fermions. These fermions offer the possibility of improvement as compared to the standard Wilson-type formulation. We investigate the properties of these fermions at finite temperature, i.e. the structure of the bare parameter space as well as leading order cutoff effects in the weak coupling limit. Then we focus on two-flavour simulations at finite pion mass. We identify the (pseudo-)critical temperatures for our set of pion masses (300 to 500 MeV) and discuss the extrapolation to the chiral limit for which the nature of the transition is still an open question. Besides pseudo-critical temperatures we consider the magnetic equation of state and screening observables. We find that the assumption of a second order transition (in the 3d O(4) universality class) agrees with our data without being able to exclude alternatives. Finally, we discuss the future inclusion of strange and charm quarks in dynamical twisted mass simulations and look at the corresponding cutoff effects in the free limit.
Diese Thesis befasst sich mit dem Problem korrelierter Elektronensysteme in realen Materialien. Ausgangspunkt hierbei ist die quantenmechanische Beschreibung dieser Systeme im Rahmen der sogenannten Kohn-Scham Dichtefunktionaltheorie, welche die Elektronen der Kristallsysteme als effektiv nicht-wechselwirkende Teilchen beschreibt.
Während diese Modellierung im Falle vieler Materialklassen erfolgreich ist, unterscheiden sich die korrelierten Elektronensysteme dadurch, dass der kollektive Charakter der Elektronendynamik nicht zu vernachlässigen ist.
Um diese Korrelationseffekte genauer zu untersuchen, verwenden wir in dieser Arbeit das Hubbard-Modell, welches mit der projektiven Wannierfunktionsmethode aus der Kohn-Scham Dichtefunktionaltheorie konstruiert werden kann.
Das Hubbard-Modell umfasst hierbei nur die lokale Elektron-Elektron-Wechselwirkung auf einem Gitter. Auch wenn das Modell augenscheinlich sehr simpel ist, existieren exakte Lösungen nur in bestimmten Grenzfällen. Dies macht die Entwicklung approximativer Ansätze erforderlich, wobei die Weiterentwicklung der sogenannten Two-Particle Self-Consistent Methode (TPSC) eine zentrale Rolle dieser Arbeit einnimmt.
Bei TPSC handelt es sich um eine Vielteilchenmethode, die in der Sprache funktionaler Ableitungen und sogenannter conserving approximations hergeleitet werden kann.
Der zentrale Gedanke dabei ist, den effektiven Wechselwirkungsvertex als statisch und lokal zu approximieren. Dies wiederum erlaubt die Bewegungsgleichung des Systems
erheblich zu vereinfachen, sodass eine numerische approximative Lösung des Hubbard-Modells möglich wird. Vorsetzung hierbei ist nur, dass sich das System in der normalleitenden Phase befindet und die bei Phasenübergängen entstehenden Fluktuationen nicht zu groß sind.
Während diese Methode ursprünglich von Y. M. Vilk und A.-M. Tremblay für das Ein-Orbital Hubbard-Modell entwickelt wurde, stellen wir in dieser Arbeit eine Erweiterung auf Viel-Orbital-Systeme vor.
Im Falle mehrerer Orbitale treten in der TPSC-Herleitung einzelne Komplikationen auf, die mit weiteren Approximationen behandelt werden müssen. Diese werden anhand eines einfachen Zwei-Orbital Modell-Systems diskutiert und die TPSC-Ergebnisse werden darüber hinaus mit den Ergebnissen der etablierten dynamischen Molekularfeldnährung verglichen.
In diesem Zusammenhang werden auch mögliche zukünftige Erweiterungen bzw. Verbesserungen von TPSC diskutiert.
Ein weiterer wichtiger Aspekt ist die Anwendung von TPSC auf reale Materialien.
In diesem Zusammenhang werden in dieser Arbeit die supraleitenden Eigenschaften der organischen K-(ET)2X Systeme untersucht. Hierbei lassen die TPSC-Resultate darauf schließen, dass das populäre Dimer-Modell, welches zur Beschreibung dieser Materialien herangezogen wird, nicht genügt um die experimentell bestimmten kritischen Temperaturen zu erklären und dass das komplexere Molekülmodell weitere exotische supraleitende Lösungen zulässt.
Schließlich untersuchen wir außerdem die elektronischen Eigenschaften des eisenbasierten Supraleiters LiFeAs und diskutieren inwieweit nicht-lokale Korrelationseffekte, welche durch TPSC aufgelöst werden können, die experimentellen Daten reproduzieren.
The phenomenon of magnetism has been known to humankind for at least over 2500 years and many useful applications of magnetism have been developed since then, starting from the compass to modern information storage and processing devices. While technological applications are an important part of the continuing interest in magnetic materials, their fundamental properties are still being studied, leading to new physical insights at the forefront of physics. The magnetism of magnetic materials is a pure quantum effect due to the electrons that carry an intrinsic spin of 1/2. The physics of interacting quantum spins in magnetic insulators is the main subject of this thesis.We focus here on a theoretical description of the antiferromagnetic insulator Cs2CuCl4. This material is highly interesting because it is a nearly ideal realization of the two-dimensional antiferromagnetic spin-1/2 Heisenberg model on an anisotropic triangular lattice, where the Cu(2+) ions carry a spin of 1/2 and the spins interact via exchange couplings. Due to the geometric frustration of the triangular lattice, there exists a spin-liquid phase with fractional excitations (spinons) at finite temperatures in Cs2CuCl4. This spin-liquid phase is characterized by strong short-range spin correlations without long-range order. From an experimental point of view, Cs2CuCl4 is also very interesting because the exchange couplings are relatively weak leading to a saturation field of only B_c=8.5 T. All relevant parts of the phase diagram are therefore experimentally accessible. A recurring theme in this thesis will be the use of bosonic or fermionic representations of the spin operators which each offer in different situations suitable starting points for an approximate treatment of the spin interactions. The methods which we develop in this thesis are not restricted to Cs2CuCl4 but can also be applied to other materials that can be described by the spin-1/2 Heisenberg model on a triangular lattice; one important example is the material class Cs2Cu(Cl{4-x}Br{x}) where chlorine is partially substituted by bromine which changes the strength of the exchange couplings and the degree of frustration.
Our first topic is the finite-temperature spin-liquid phase in Cs2CuCl4. We study this regime by using a Majorana fermion representation of the spin-1/2 operators motivated by theoretical and experimental evidence for fermionic excitations in this spin-liquid phase. Within a mean-field theory for the Majorana fermions, we determine the magnetic field dependence of the critical temperature for the crossover from spin-liquid to paramagnetic behavior and we calculate the specific heat and magnetic susceptibility in zero magnetic field. We find that the Majorana fermions can only propagate in one dimension along the direction of the strongest exchange coupling; this reduction of the effective dimensionality of excitations is known as dimensional reduction.
The second topic is the behavior of ultrasound propagation and attenuation in the spin-liquid phase of Cs2CuCl4, where we consider longitudinal sound waves along the direction of the strongest exchange coupling. Due to the dimensional reduction of the excitations in the spin-liquid phase, we expect that we can describe the ultrasound physics by a one-dimensional Heisenberg model coupled to the lattice degrees of freedom via the exchange-striction mechanism. For this one-dimensional problem we use the Jordan-Wigner transformation to map the spin-1/2 operators to spinless fermions. We treat the fermions within the self-consistent Hartree-Fock approximation and we calculate the change of the sound velocity and attenuation as a function of magnetic field using a perturbative expansion in the spin-phonon couplings. We compare our theoretical results with experimental data from ultrasound experiments, where we find good agreement between theory and experiment.
Our final topic is the behavior of Cs2CuCl4 in high magnetic fields larger than the saturation field B_c=8.5 T. At zero temperature, Cs2CuCl4 is then fully magnetized and the ground state is therefore a ferromagnet where the excitations have an energy gap. The elementary excitations of this ferromagnetic state are spin-flips (magnons) which behave as hard-core bosons. At finite temperatures there will be thermally excited magnons that interact via the hard-core interaction and via additional exchange interactions. We describe the thermodynamic properties of Cs2CuCl4 at finite temperatures and calculate experimentally observable quantities, e.g., magnetic susceptibility and specific heat. Our approach is based on a mapping of the spin-1/2 operators to hard-core bosons, where we treat the hard-core interaction by the self-consistent ladder approximation and the exchange interactions by the self-consistent Hartree-Fock approximation. We find that our theoretical results for the specific heat are in good agreement with the available experimental data.
Die vorliegende Arbeit befallt sich im theoretischen Teil mit den Grundlagen zu Strahl-Resonator-Wechselwirkungen bei Beschleunigerresonatoren und mit den sich daraus ergebenden Konsequenzen bei der Resonatorentwicklung für zukünftige lineare Kollider mit Multibunch-Betrieb. Zur Bekämpfung der vor allem im Multibunchbetrieb störenden Long-Range-Wakefelder müssen die schädlichen Moden möglichst so stark bedämpft werden, daß ihre Felder bis zum Eintreffen des nächsten Bunches auf ein erträgliches Maß abgeklungen sind. Im experimentellen Teil befaßt sich diese Arbeit daher mit der Entwicklung von Meßmethoden zur Bestimmung sehr kleiner Resonatorgüten sowie sehr kleiner transversaler Shuntimpedanzen bzw. sehr kleiner Feldpegel in stark störmodenbedämpften Beschleunigerresonatoren. Diese Meßmethoden sind an mehreren S-Band-Modellresonatoren (Betriebsfrequenz lag bei etwa 2.4 GHz) mit verschiedenen Dämpfungssystemen, die für den Einbau in einen normalleitenden Linearbeschleuniger für einen Kollider geeignet wären, erfolgreich getestet worden. Die Feldmessungen an den Modellresonatoren haben bisher unbekannte Gesetzmäßigkeiten bezüglich des Verhaltens dieser Dämpfungssysteme ergeben. In einer kurzen Beschreibung und Diskussion der sechs wichtigsten Vorschläge für zukünftige lineare Kollider wurde ein Überblick über die Unterschiede bei diesen verschiedenen Konzepten gegeben. Zunächst konnten über eine qualitative Diskussion der beim Linearbeschleuniger vom Iristyp vorkommenden Beam Blowup Phänomene, wie der regenerative BBU und der cumulative BBU, die Erscheinungsformen und die physikalischen Ursachen dieser BBU Phänomene verstanden werden. Hier zeigt sich, daß bei Irisstrukturen die HEM11-Moden die Hauptursache sowohl für den regenerativen- als auch für den cumulativen BBU sind. Der dritte Abschnitt führte in eine allgemeine Methode zur quantitativen Beschreibung der sogenannten Strahl-Resonator-Wechselwirkung ein. Diese Methode heißt Condon- Methode und erlaubt die Berechnung von BBU verursachenden Wakefeldern über eine Eigenwellenentwicklung aus den Eigenmoden des leeren Rersonators. Im vierten Abschnitt wurde durch die Herleitung des Theorems von Panofsky-Wenzel die Theorie der Strahl-Resonator-Wechselwirkung vervollständigt, wonach der einer Testladung während der Durchquerung eines felderfüllten Resonators mitgeteilte Transversalimpuls vollständig durch die räumliche Verteilung der elektrischen Longitudinalkomponente allein bestimmt ist. Damit erhält man also eine Aussage über die Wirkung der in Beschleunigerresonatoren feldanfachenden vorauslaufenden Ladungen auf die nachfolgenden. Dabei konnte auch die Frage geklärt werden, welche Moden zylindrischer Symmetrie wegen ihrer transversal ablenkenden Wirkung für den Teilchenstrahl gefährlich sind. Hier zeigt sich, daß alle BBU verursachenden Moden TM2np- bzw. TM2np-Moden sind, d.h., die Moden mit dipol- bzw. quadrupolartiger Symmetrie. Die Anwendung der in den Abschnitten drei und vier entwickelten Theorie zur Strahl-Resonator-Wechselwirkung konnte im Abschnitt fünf anhand dreier, für die Beschleunigerphysik sehr interessanter Beispiele gezeigt werden. Im ersten Beispiel gelang die Beschreibung der Wechselwirkung eines in Längsrichtung homogenen Strahls, welcher transversal Betatranschwingungen vollführt, mit der TM110-Mode eines Zylinderresonators. Dieses Beispiel ist von praktischer Bedeutung bei Linearbeschleunigern. die bei hohem Duty Cycle betrieben werden, also z.B. beim RACE TRACK Mikrotron oder bei supraleitenden Linacs. Beim zweiten Beispiel hat die Anwendung der Theorie auf eine Irisstruktur zu Formeln geführt, die sich Fair eine numerische Berechnung des Startstroms zum regenerativen BBU eignen, was jedoch relativ aufwendig ist. Es konnte aber auch eine einfache Abschätzungsformel für den Startstrom durch die Anwendung des Poyntingschen Satzes auf eine differentielle Länge des der Irisstruktur entsprechenden Wellenleiters abgeleitet werden. Aus der Bedingung, daß die durch den Strahl erzeugte Leistung pro Längeneinheit gleich den Leistungsverlusten pro Längeneinheit ist, findet man den Startstrom für den regenerativen BBU. Das letzte Beispiel, die Wechs 1 e Wirkung einer hochrelativistischen Punktladung mit einem beliebigen Resonator, ist auch das wichtigste. Hier wurden die Wakefelder aus einer simplen Energiebilanzbetrachtung abgeleitet, da eine Berechnung nach der Condon-Methode relativ aufwendig und langwierig wäre. Diese Vorgehensweise hat hier zu einem tieferen physikalischen Verständnis der Vorgänge im Resonator geführt. Die mit Hilfe einer Punktladung abgeleiteten Wakefelder sind Greensfunktionen. die zur quantitativen Beschreibung des cumulativen BBU’s bei linearen Kollidern benutzt werden können. Die Diskussion der anhand der Beispiele gewonnenen Ergebnisse am Ende des fiinften Abschnitts führte zu verschiedenen Maßnahmen zur Verringerung der schädlichen Strahl-Resonator-Wechselwirkung. Hier hat sich gezeigt, daß sowohl der regenerative BBU als auch der cumulative BBU u. a. durch eine Verringerung der Resonatorgüte der strahlstörenden Dipolmode verhindert werden können. Im sechsten Abschnitt erfolgte die noch ausstehende quantitative Beschreibung des cumulativen BBU mit Hilfe der im vorangehenden Abschnitt am dritten Beispiel gewonnenen Formeln für die Wakefelder. Die Berechnung der Strahlablage und Strahlrichtung geschieht hier über einen Matrizenformalismus, der aus der Idee heraus entstand, die Beschleunigersektionen des linearen Kolliders durch Resonatoren verschwindender Länge zu ersetzen. Uber den Matrizenformalismus konnte die durch den Einfluß von Beschleunigung, Fokussierung und Wakefeldern doch recht komplizierte Teilchenbewegung sehr elegant formuliert werden, jedoch eignet sich dieser Formalismus nur für numerische Zwecke. Abschätzungen sind in diesem allgemeinen Fall unmöglich. Durch die Einführung eines sehr restriktiven Modells, des sogenannten DAISY-CHAIN Modells, welches nur bei sehr stark bedämpften Beschleunigersektionen gültig ist. hat sich der Matrizenformalismus auf sehr einfache, der analytischen Berechnung zugängliche Gleichungen reduzieren lassen. Die Bedämpfung der Beschleunigersektionen muß dabei so stark sein, daß eine Ladung innerhalb einer ganzen Kette äquidistanter Ladungen nur ein signifikantes Wakefeld der unmittelbar vorrauslaufenden Ladung erfährt. Wie stark im Einzelfall bedämpft werden muß, um einen stabilen Transport einer Kette von Teilchenpaketen zu ermöglichen, konnte anhand zweier, in der Betriebsfrequenz unterschiedlicher Konzepte für normalleitende Linearbeschleuniger zukünftiger Kollider gezeigt werden. Dabei wurde deutlich, daß man bei ausschließlicher Anwendung von in Bezug auf die HEM11-pi-Mode stark bedämpften Beschleunigerstrukturen zur Kontrolle des cumulativen BBU bei einer hohen Betriebsfrequenz, z.B. im X-Band (11.45 GHz), sehr unbequem niedrige Gütewerte von ca. Q=5 erreichen muß. Das ist, wie sich im praktischen Teil der vorliegenden Arbeit gezeigt hat, vom technischen Aufwand her gesehen sehr schwierig. Für einen X-Band-Kollider wird man also eine Kombination von Maßnahmen zur Kontrolle des cumulativen BBU’s bevorzugen, z.B. neben dem Bedämpfen auch das sogenannte “Detunen” der Beschleunigersektionen. Bei einem Linearbeschleuniger im S-Band (Betriebsfrequenz bei 3 GHz) befindet man sich von vornherein bei ausschließlicher Verwendung gedämpfter Strukturen in bequemeren Gütebereichen Q ungefähr gleich 20-50, was ohne weiteres praktikabel ist. Aber auch hier kann man durch Zusatzmaßnahmen die Anforderungen an die Resonatordämpfung weiter reduzieren. Als erste Methode zur Bestimmung der Güte eines störmodenbedämpften Beschleunigerresonators wurde die Chipman-Methode angewendet. Meßobjekt war hier das dreizellige Modell einer Irisstruktur mit Halbzellenabschluß. Zur Auskopplung der dominanten Störmode, der sogenannten HEM11-Mode, war die mittlere Irisblende einseitig geschlitzt. Bei diesem Modell lag die Frequenz der als Beschleunigermode vorgesehenen TM010-2pi/3-Mode etwa bei 2.35 GHz und die Frequenz der dominanten Störmode, der HEM11-pi-Mode, lag bei etwa 2.81 GHz. Die mittlere geschlitzte Irisblende war austauschbar, so daß eine Messung der durch das Dämpfungssystem belasteten Güte QL bzw. des Koppelfaktors K in Abhängigkeit von der Schlitzhöhe möglich war. Die Messungen ließen sich bei diesem Koppelsystem ohne Schwierigkeiten durchrühren, bei der größten möglichen Schlitzhöhe von 10 mm wurde auch der größte Koppelfaktor mit 46 gemessen. Bei einer vom Dämpfungssystem unbelasteten Güte von Q0=4500 korrespondiert ein Koppelfaktor von K=46 mit einer durch das Dämpfungssystem belasteten Güte von QL = 100. Ein Mangel wurde bei der Anwendung der Chipman-Methode sofort sichtbar: Durch die Anregung der HEM11-pi-Mode von der Meßleitung aus sind im Koppelsystem offenbar Störmoden angeregt worden. Liegen diese Störmoden nahe bei der zu messenden Resonanz, dann ist eine präzise Bestimmung des Koppelfaktors unmöglich. Glücklicherweise war das hier nicht der Fall. Die Messungen mit der einseitig geschlitzten Irisblende haben gezeigt, daß dieses Dämpfungssystem Anwendung finden könnte bei Beschleunigerstrukturen im S-Band. wie sie z.B beim DESY/THD-Kollider vorgeschlagen wurden. Natürlich kann bei den hier erreichten Koppelfaktoren nicht die Dämpfung der schädlichen HEM11-pi- Mode die alleinige Maßnahme sein, die einseitig geschlitzte Irisblende könnte nur zusammen mit dem Detunen angewendet werden. Da die einseitig geschlitzte Irisblende auch eine Feldasymmetrie bei der Beschleunigermode erzeugt, müssen die Dämpfer entlang einer Beschleunigersektion alternierend angebracht werden, d.h. jeder Dämpfer ist im Bezug zum nächsten Nachbardämpfer um 90° gedreht. Die 90° ergeben sich aus der Notwendigkeit, auch die Dämpfung der zweit en Polarisationsebene der HEM11-pi-Mode zu gewährleisten. Als zweite, der Chipman-Methode sehr ähnliche Methode, wurde die Kurzschlußschiebermethode angewendet. Erstes Untersuchungsobjekt war die bei der Chipman- Methode bereits erwähnte dreizeilige Irisstruktur. Ein Vorteil im Vergleich zur Chipman-Methode ist vor allem die schnelle Durchführbarkeit der Messung bei wenig experimentellem Aufwand, wenn auch die Kurzschlußschiebermethode weniger präzise ist, und man auf einige Informationen, wie z.B. der Verlauf des Reflexionsfaktors und dessen Phase, verzichten muß. Im Vergleich mit der Chipman-Methode waren die mit der Kurzschlußschiebermethode gemessenen Koppelfaktoren immer um etwa 10-15% höher. Das liegt vor allem daran, daß die Theorie zur Kurzschlußschiebermethode von einem verlustfreien Resonator-Hohlleitersystem ausgeht, so daß die nach dieser Theorie ermitteten Koppelfaktoren prinzipiell zu groß sind. Auch bei dieser Methode hat sich gezeigt, daß eine Auswertung der Meßergebnisse scheitern muß, falls ein Modenüberlapp auftritt. Bei Experimenten mit komplizierteren Dämpfungssystemen, bestehend aus mehr als vier Hohlleitern an Resonatoren mit mehr als zwei Zellen ist deutlich geworden, daß eine Bestimmung des Koppelfaktors über die Kurzschlußschiebermethode durch die entstehende Modenvielfalt praktisch unmöglich ist. Es stellte sich heraus, daß bei der Auswertung der Meßergebnisse dadurch ein Fehler entsteht, wenigstens bei sehr starker Dämpfung, daß man die Feldverteilung als konstant animmt, denn bei dem Vergleich der unbelasteten Güte Q0 mit der vom Dämpfungssystem belasteten Güte QL geht man davon aus, daß die Feldverteilungen im ungedämpften- und gedämpften Fall identisch sind. Das kann bei Koppelfaktoren im Bereich von einigen zehn bis zu einigen hundert nicht mehr zutreffen, da das Feld der Mode immer stärker in das Dämpfungssystem eindringt, je stärker die Kopplung ist. Das ändert die Modengeometrie natürlich in dramatischer Weise und die belastete Güte QL kann dann nicht mehr einfach über die Gleichung QL=Q0/(1+ K) aus den gemessenen Größen Q, und K ausgerechnet werden, da der Koppelfaktor K nun nicht mehr konstant sein kann, sondern im Gegenteil sich sehr stark ändert, je nachdem an welcher Stelle die Felder gemessen werden. Ein weiterer Mangel bei beiden Methoden ist, daß über diese Methoden weder die longitudinale noch die transversale Shuntimpedanz bestimmt werden kann. Ein Ausweg aus diesem Dilemma war die Anwendung zweier neuer Meßmethoden, die Antennenmethode und die nichtresonante Störkörpermethode. Diese beiden Methoden beruhen im Gegensatz zu den ersten beiden Methoden auf einer direkten Bestimmung der Feldpegel bzw. der transversalen Shuntimpedanz im bedämpften Resonator was den Vorteil hat, daß im Resonator genau das Feld bzw. die Shuntimpedanz vermessen wird, welches die Teilchen bei der Durchquerung des Resonators auch tatsächlich sehen. Die Antennenmethode war eine komplette Neuentwicklung, während es sich bei der nichtresonante Störkörpermethode um die Anwendung einer seit 1966 bekannten, jedoch in Vergessenheit geratenen Theorie handelte. Beide Meßmethoden konnten am Beispiel eines im Bezug auf die TM110-Mode (Frequenz bei ca. 3.2 GHz) sehr stark bedämpften Zylinderresonators (Die Frequenz der TM010-Mode lag bei ca. 2.049 GHz) erfolgreich getestet werden. Die durch das Dämpfungssystem belastete Güte QL war hier ca. 10. Bei der Bestimmung der longitudinalen elektrischen Feldstärken bzw. der longitudinalen Shuntimpedanz der TM110-Mode in Abhängigkeit vom axialen Abstand vor und nach der Bedämpfung konnten zunächst folgende Feststellungen gemacht werden: 1) Die Modengeometrie im ungedämpften- und gedämpften Fall unterscheiden sich sehr stark voneinander. Dadurch mißt man verschiedene Koppelfaktoren, je nachdem an welcher Stelle man die Felder mißt. 2) der maximal gemessene Koppelfaktor liefert über die Gleichung QL=Q0/(1+K) die richtige beklastete Güte QL. 3) Der höchste Koppelfaktor wurde bei der Feldmessung in einem Achsortabstand vom halben Radius des Zylinderresonators gemessen. Da die beiden Meßmethoden das Verhältnis der elektrischen Feldstärkequadrate in Abhängigkeit vom Meßort vor und nach der Bedämpfung liefern, konnte die zweite Feststellung nur durch eine Kontrollmessung mit Hilfe der Kurzschlußschiebermethode, die hier dank des einfachen Aufbaus leicht durchfiihrbar war, gemacht werden. Die Kurzschlußschiebermessung lieferte eine Güte QL ungefähr gleich 9, während der höchste bzw. der niedrigste mit den beiden neuen Megmethoden ermittelte Koppelfaktor mit einer Güte von QL ungefähr gleich 11 bzw. mit einer Güte von QL ungefähr gleich 14 korrespondierte, d.h. also. daß der höchste gemessene Koppelfaktor für dieses Dämpfungssystem die richtige Resonatorgüte liefert. Anhand eines zweizeiligen Resonators (Die Frequenz der TM010-2pi/3-Beschleunigermode lag bei ca. 2.35 GHz) mit beidseitig geschlitzter Irisblende als Dämpfungssystem für die HEM11-pi-Mode (ca. 3.5 GHz) konnte gezeigt werden, daß die zweite Feststellung eine Gesetzmäßigkeit bei spiegelsymmetrischen Dämpfungssystemen ist. Im Unterschied zum Zylinderresonator wurde der höchste mit der richtigen bedämpften Güte QL ungefähr gleich 37 korrespondierend Koppelfaktor K ungefähr gleich 153 jedoch direkt auf der Resonatorachse gemessen. Die bedämpfte Güte wurde auch hier wieder mit Hilfe der Kurzschlußschiebermethode kontrolliert. Ein sehr interessantes Verhalten zeigte der gleiche zweizeilige Resonator mit einseitig geschlitzter Irisblende als Dämpfungssystem. Hier korrespondierte der in der Nähe der Resonatorwand gemessene niedrigste Koppelfaktor mit der bedämpften Güte QL ungefähr gleich 230 des Resonators. In Achsennähe hingegen war der Koppelfaktor etwa dreimal höher, K ungefähr gleich 82, als aus der der Güteerniedrigung K ungefähr gleich 35 nach der Dämpfung hervorgegangen wäre, die transversale Shuntimpedanz ist also auch etwa um den Faktor 3 erniedrigt. Durch dieses Verhalten ist der einseitig bedämpfte Resonator für die Verwendung bei einem linearen Kollider im S-Band (hier muß nicht so stark bedämpft werden) interessant geworden, denn wenn nur wenige Zellen einer Beschleunigersektion mit einem Dämpfungssystem ausgerüstet werden müssen, ist es wichtig in diesen Zellen ein effektives Dämpfungssystem bei Gewährleistung eines einwandfreien Transports der Feldenergie der HEM11-pi-Mode in diese gedämpften zu haben. Das funktioniert einerseits nur, wenn sich die Resonanzfrequenz der gedämpften Zellen in Bezug auf die HEM11-pi-Mode auf die Resonanzfrequenz der benachbarten ungedämpften Zellen einstellen läßt und andererseits die mit einer Dämpfung einhergehende schlechtere Anregungsfähigkeit dieser Störmode in den gedämpften Zellen nicht zu schlecht ist. Bei einer zu starken Dämpfung wäre beides nicht möglich. Zusammenfassend kann man sagen, daß durch die Antennen- und die nichtresonante Störkörpermethode ein für die Entwicklung von störmodenbedämpften Beschleunigerresonatoren für zukünftige lineare Kollider und natürlich auch anderer Elektronenbeschleuniger sehr wirksames Instrument zur Verfügung steht. Ein detailliertes Design eines für einen bestimmten Beschleuniger passenden Dämpfungssystems ist mit Hilfe dieser Meßmethoden möglich geworden, da kleine Unterschiede zwischen verschiedenen Ausführungen von Dämpfungssystemen meßbar sind. Durch die bei der Anwendung der Meßmethoden auf unterschiedliche bedämpfte Resonatoren gefundenen Gesetzmäßigkeiten ist unter anderem auch die Frage geklärt worden, auf welche Weise ein Dämpfungssystem auch auf numerischem Wege mit Hilfe von Computerprogrammen wie z.B. MAFIA berechnet werden kann.
In the present work, the problem of protein folding is addressed from the point of view of equilibrium thermodynamics. The conformation of a globular protein in solution at common temperatures is quite complicated without any geometrical symmetry, but it is an ordered state in the sense of its biological activity. This complicated conformation of a single protein molecule is destroyed upon increasing the temperature or by the addition of appropriate chemical agents, as is revealed by the loss of its activity and change of the physical properties, and so on. Once the complicated native structures having biological activity are lost, it would be natural to suppose that the native structure could hardly be restored. Nevertheless, pioneers, such as Anson and Mirsky, recognized as early as in 1925 that this was not always the case. If one defines the folded and unfolded states of a protein as two distinct phases of a system, then under the variation of temperature the system is transformed from one phase state into another and vice versa. The process of protein folding is accompanied by the release or absorption of a certain amount of energy, corresponding to the first-oder-type phase transitions in the bulk. Knowing the partition function of the system one can evaluate its energy and heat capacity under different temperatures. This task was performed in this work. The results of the developed statistical mechanics model were compared with the results of molecular dynamic simulations of alanine poylpeptides. In particular, the dependencies on temperature of the total energy of the system and heat capacity were compared for alanine polypeptides consisting of 21, 30, 40, 50 and 100 amino acids. The good correspondence of the results of the theoretical model with the results of molecular dynamics simulations allowed to validate the assumptions made about the system and to establish the accuracy range of the theory. In order to perform the comparison of the results of theoretical model and the molecular dynamics simulations it is necessary to perform the efficient analysis of the results of molecular dynamics simulations. This task was also addressed in the present work. In particular, different ways to obtain dependence of the heat capacity on temperature from molecular dynamics simulations are discussed and the most efficient one is proposed. The present thesis reports the result of molecular dynamic simulations for not only alanine polypeptides by also for valine and leucine polypeptides. In valine and leucine polypeptides, it is also possible to observe the helix↔random coil transitions with the increase of temperature. The current thesis presents a work that starts with the investigation of the fundamental degrees of freedom in polypeptides that are responsible for the conformational transitions. Then this knowledge is applied for the statistical mechanics description of helix↔coil transitions in polypeptides. Finally, the theoretical formalism is generalized for the case of proteins in water environment and the comparison of the results of the statistical mechanics model with the experimental measurements of the heat capacity on temperature dependencies for two globular proteins is performed. The presented formalism is based on fundamental physical properties of the system and provides the possibility to describe the folding↔unfolding transitions quantitatively. The combination of these two facts is the major novelty of the presented approach in comparison to the existing ones. The “transparent” physical nature of the formalism provides a possibility to further apply it to a large variety of systems and processes. For instance, it can be used for investigation of the influence of the mutations in the proteins on their stability. This task is of primary importance for design of novel proteins and drug delivering molecules in medicine. It can provide further insights into the problem of protein aggregation and formation of amyloids. The problem of protein aggregation is closely associated with various illnesses such as Alzheimer and mad cow disease. With certain modifications, the presented theoretical method can be applied to the description of the protein crystallization process, which is important for the determination of the structure of proteins with X-Rays. There many other possible applications of the ideas described in the thesis. For instance, the similar formalism can be developed for the description of melting and unzipping of DNA, growth of nanotubes, formation of fullerenes, etc.
In dieser Arbeit wurden thermodynamische Eigenschaften eines chiralen Quark Meson Modelles untersucht. Das chirale Quark Meson Model beschreibt die starke Wechselwirkung über den Austausch von Mesonen und zudem die thermische und dichteabhängige Entwicklung der Quarkmassen im Medium über die chirale Symmetrie.Im SU(2) Model wurde zunächst in mean field approximation gearbeitet, um im Anschluss den divergenten Vakuumterm mit einzubeziehen. Nach eingehender Untersuchung der Ergebnisse, wurden dann die thermischen Mesonenfluktuationen studiert. In beiden Ansätzen verschiebt die Nullpunktsenergie den chiralen Phasenübergang zu höheren Temperaturen, wodurch die Massen bei höheren Temperaturen entarten. Beide Ansätze wurden dann zu einem gemeinsamen Modell kombiniert, um den Einfluss der Mesonenfluktuationen auf Ordnungsparameter, Massen und thermodynamische Grössen zu untersuchen. Als Fazit der Studie kann behauptet werden, dass sich der Einfluss der Mesonenfluktuationen in grösserem Maÿ auf die Thermodynamik, als auf den Ordnungsparameter und die Massen auswirkt. Im SU(3) Modell wurden ebenfalls regularisiert und zudem Vektormesonen mitberücksichtigt, welche die Repulsion zwischen den einzelnen Freiheitsgraden modelliert. Die Zustandsgleichung wird durch den Vakuum Term etwas softer und zeigt ein ähnliches Verhalten im niederen Energiebereich. Untersucht wurde neben der Temperatur T, die Elektron Baryon Rate Ye, die Sigma Meson Masse noch der Einfluss der Vektorkopplung. Aus der Zustandsgleichung konntendann Isentropen im T-mu Phasendiagramm errechnet werden, welche in naher Zukunft Aufschluss über eine dritte Familie von kompakten Sternen in Zusammenhang mit der entsprechenden Supernova Explosion geben könnte. Um die Existenz von kompakten Sternen genauer zu analysieren, wurde das chiraleSU(3) Quark Meson Modell bei T = 0 benutzt, um über die aus dem Formalismusgewonnenen Grössen Druck und Energiedichte die Tolmann-Oppenheimer-Volkoff zu lösen. Diese stellen die Masse-Radius Beziehungen kompakter Objekte dar. Auf der Suche nach Twin Stern Lösungen aus dem chiralen SU(3) Quark Meson Model wurde zunächst ein Modell für Hybridsterne entwickelt. Im untersuchten Parameterbereich fanden wir Hybrid Stern Lösungen, bei welchen der Einfluss der Quarkmaterie auf die Stabilität des Sternes untersucht wurde, denn das Einsetzen des Phasenüberganges übt einen zusätzlichen gravitativen Zug auf die hadronische Kruste aus. Der Stern ist stabil, wenn der Druck der Quarkmaterie diesem zusätzlichen Zug standzuhalten vermag. Für einen zu grossen Sprung in der Energiedichte werden die Lösungen jedoch instabil. Zwillingssterne waren nicht unter den Lösungen, da der Übergangsdruck relativklein sein muss, während der Energiedichtesprung eher gross sein sollte. Das Auftreten zweier stabiler Äste in der Masse Radius Relation kann allerdingsmit dem SU(3) Modell und entsprechendem chiralen Phasenübergang modelliert werden. Für einen gewissen Parameterbereich einhergehend mit kleinem Wert des Vakuum Druckes B konnten Nicht-Linearitäten in der Zustangsgleichungzur Lösung der TOV Gleichung beitragen. Im Weitern ist das Zusammenspiel der Vektorkopplung und der Sigma Mesonen Masse einflussreich auf die Lösungen, welche auf Kausalität, Stabilität und neben der 2 Sonnenmassen Bedingung noch auf Restriktionen vom millisecond pulsar PSR J1748-2446ad untersucht wurden.Mit Weltraummissionen wie etwa NICER (Neutron star Interior CompositionExploreR) sollte die Radiusbestimmung kompakter Objekte in Zukunft bis auf einen Kilometer genau bestimmt werden können. Die Entdeckung von zweiSternen mit der gleichen Masse und unterschiedlichen Radien wäre in der Tat ein Beweis für die Existenz von Zwillingssternen, welche dann die Theorie des Phasenüberganges in dichter Materie untermauern würde. Das Kollaps-Szenario eines Zwillingssternes würde weiteren Aufschluss über Neutrino-Emmissivität, Gamma-ray burster und Gravitationswellen Signale geben können. Dynamische Simulationen in allgemein relativistischem Kontext für compact star merger mit den hier diskutierten Zustandsgleichungen sind bereits in Planung, um Eigenschaftenwie beispielsweise das Temperatur- und Dichteprofil solcher Objekte genauer zu analysieren.
In the field of strongly correlated electron systems, there is a long standing discussion on whether lattice degrees of freedom play a role for several physical phenomena, among them the Mott MI transition and charge-ordering transition. Charge-transfer salts of the ..-(BEDT-TTF)2X and (TMTCF)2X families have been revealed as model systemss for the study of the latter phenomena. The (TMTCF)2X salts have been recognized as model systems for studying correlation effects in 1D, while the (BEDT-TTF)-based materials for such studies in 2D. In this work, high-resolution dilatometry experiments were performed in order to address these issues. The main results obtained are summarized below. ...
Thermal expansion measurements provide a sensitive tool for exploring a material's thermodynamic
properties in condensed matter physics as they provide useful information
on the electronic, magnetic and lattice properties of a material. In this thesis, thermal
expansion measurements have been carried out both at ambient-pressure and under hydrostatic
pressure conditions. From the materials point of view, the spin-liquid candidate
Kappa-(BEDT-TTF) 2 Cu 2(CN)3 has been studied extensively as a function of temperature and
magnetic field. Azurite, Cu 3 (CO 3) 2 (OH) 2 - a realization of a one-dimensional distorted
Heisenberg chain is also studied both at ambient and hydrostatic pressure to demonstrate
the proper functioning of the newly built setup "thermal expansion under pressure". ...
This thesis aimed at identifying and understanding the interplay of charge and lattice degrees of freedom at metal-insulator transitions that are driven by strong electron correlations, i.e., Mott and charge-order metal-insulator transitions. To this end, measurements of the thermal expansion were performed, which have proven to be particularly suited to deliver insight into the role of lattice degrees of freedom in strongly correlated electron systems. Prime examples of such systems are the herein studied organic charge-transfer salts which stand out by a high tunability of the interaction strength.
The central topic of this thesis was the investigation of the universal behavior of the pressure-induced finite-temperature Mott critical endpoint in the organic charge-transfer salt kappa-(BEDT-TTF)2Cu[N(CN)2]Cl. In the present work, it was proven experimentally that lattice effects play a crucial role for the universal behavior, in contrast to the assumption made in previous works.
Die vorliegende Arbeit beschäftigt sich mit den Tieftemperatureigenschaften dreier niedrigdimensionaler Spinsysteme. Der experimentelle Schwerpunkt liegt auf Messungen zur thermischen Ausdehnung und zur spezifischen Wärme, die mit einem hochauflösenden kapazitiven Dilatometer bzw. einem AC-Kalorimetrie-Aufbau durchgeführt wurden. Da die sogenannten magnetischen Grüneisenparameter, die die Stärke der Kopplung des magnetischen Teilsystems ans Gitter beschreiben, durchweg sehr groß sind, liefern insbesondere die thermischen Ausdehnungsmessungen wertvolle Informationen zum Verständnis der behandelten Systeme. Das zentrale Ergebnis dieser Arbeit stellen Messungen an der Hochdruckphase von (VO)2P2O7, kurz HP-VOPO, dar. Dieses System besteht aus alternierenden Spinketten, wobei die beiden Austauschkonstanten ähnliche Werte haben, das heißt es liegt nur eine schwache Alternierung vor. In der thermischen Ausdehnung beobachtet man eine insbesondere in Kettenrichtung sehr ausgeprägte Anomalie bei etwa 13 K. Die Erklärung dieser Anomalie offenbart einen neuartigen Aspekt von alternierenden Spinketten mit schwacher Alternierung, der auf dem Vorhandensein von zwei deutlich verschiedenen Energieskalen beruht, zum einen der größeren der beiden Austauschkonstanten und zum anderen der Energielücke im System. Eine sehr gute quantitative Beschreibung der thermischen Ausdehnungsmessungen gelingt durch eine Erweiterung des herkömmlichen Grüneisenmodells, welches eine Proportionalität zwischen den magnetischen Beiträgen zur thermischen Ausdehnung und zur spezifischen Wärme vorsieht, auf Systeme mit zwei magnetischen Austauschkonstanten. In diesem Fall tritt in der thermischen Ausdehnung ein zusätzlicher, zur Ableitung der Entropie nach der Energielücke proportionaler Term auf, der durch Messungen zur spezifischen Wärme nicht zugänglich ist. Aus den unter Verwendung dieses Modells bestimmten Grüneisenparametern lässt sich folgern, dass die ausgeprägte Tieftemperaturanomalie in HP-VOPO zum Teil von der starken Verzerrungsabhängigkeit der kleineren der beiden Austauschkonstanten, zum Teil aber auch von der Nähe zu einem quantenkritischen Punkt verursacht wird. Das zweidimensionale Dimersystem SrCu2(BO3)2 hat insbesondere durch die Lokalisierung der Triplettanregungen und die dadurch bedingten Magnetisierungsplateaus bei gewissen Bruchteilen der Sättigungsmagnetisierung Berühmtheit erlangt. In der thermischen Ausdehnung wird eine deutliche Anomalie bei der gleichen Temperatur beobachtet (T = 8K), wo sie auch in der spezifischen Wärme auftritt. Sie lässt sich durch die thermische Anregung der lokalisierten Tripletts erklären. Abschließend werden Messungen am natürlichen Mineral Azurit vorgestellt, bei dem die Spins zu sogenannten Diamantketten angeordnet sind. In der Literatur wird noch diskutiert, ob es sich bei Azurit um die magnetisch frustrierte Variante einer solchen Kette handelt. In der magnetischen Suszeptibilität, der spezifischen Wärme und der thermischen Ausdehnung tritt eine auffallende Doppelstruktur auf. Im Tieftemperaturbereich lässt sich die spezifische Wärme gut mit dem effektiven Modell einer homogenen Spinkette beschreiben. Auch der lambdaförmige antiferromagnetische Ordnungsübergang wurde untersucht und das in der Literatur bis B = 2 T gegebene Phasendiagramm, bestehend aus paramagnetischer, antiferromagnetische und Spin-Flop-Phase, bis B = 10 T erweitert.
In this work, the complex structure of ionization and dissociation pathways on the potential energy curves in small molecules were investigated that are initiated by the absorption of a sequence of multi-color pulses in the XUV, VUV, and IR spectrum. Femtosecond pump-probe spectroscopy was used to track the evolution of nuclear dynamics in neutral hydrogen molecules. Previously unpublished excitation and ionization pathways leading to the dissociative ionization of hydrogen molecules were investigated by employing 3D momentum imaging spectroscopy. These studies were extended to oxygen molecules where an XUV attosecond pulse train coherently ionized several electronic states of O2+ followed by the dissociation of the molecule via multiple pathways. The infrared electric field of the driving laser was then used to couple the electronic and nuclear wave-packets, thus, manipulating the dissociation dynamics of the molecule on an attosecond time scale.
In order to perform the experiments presented here, a novel experimental setup was developed and constructed. It combines an existing high-flux High Harmonic Generation light source that delivers attosecond pulse trains in the VUV and XUV spectrum with a state-of-the-art 3D momentum imaging apparatus (COLTRIMS), as well as a beamline consisting of several experimental tools enabling the selection, characterization, and propagation of the photon spectrum.
This thesis serves two main purposes:
1. The introduction of a novel experimental method to investigate phase change dynamics of supercooled liquids
2. First-time measurements for the crystallization behaviour for hydrogen isotopes under various conditions
1) The new method is established by the synergy of a liquid microjet of ~ 5 µm diameter and a scattering technique with high spatial resolution, here linear Raman spectroscopy. Due to the high directional stability and the known velocity of the liquid filament, its traveling axis corresponds to a time axis static in space. Utilizing evaporative cooling in a vacuum environment, the propagating liquid cools down rapidly and eventually experiences a phase transition to the crystalline state. This temporal evolution is probed along the filament axis, ultimately resulting in a time resolution of 10 ns. The feasibility of this approach is proven successfully within the following experiments.
2) A main object of study are para-hydrogen liquid filaments. Raman spectra reveal a temperature gradient of the liquid across the filament. This behaviour can quantitatively be reconstructed by numerical simulations using a layered model and is rooted in the effectiveness of evaporative cooling on the surface and a finite thermal conductivity. The deepest supercoolings achieved are ~ 30% below the melting point, at which the filament starts to solidify from the surface towards the core. With a crystal growth velocity extracted from the data the appropriate growth mechanism is identified. The crystal structure that initially forms is metastable and probably the result of Ostwald’s rule of stages. Indications for a transition within the solid towards the stable equilibrium phase support this interpretation.
The analog isotope ortho-deuterium is evidenced to behave qualitatively similar with quantitative differences being mass related.
In further measurements, isotopic mixtures of para-hydrogen and ortho-deuterium are investigated. It is found that the crystallization process starts earlier and lasts significantly longer compared to the pure substances with the maximum values between 20-50% ortho-deuterium content. A solely temperature based explanation for this effect can be excluded. The difference in the quantum character and hence effective size of the isotopes suggests a strong influence of the progressing liquid-solid-interface. Small dilutions of each para-hydrogen and ortho-deuterium with neon show an even more extended crystallization process compared to above isotopic mixtures. Additionally, the crystal is strongly altered in favor of the equilibrium lattice structure of neon.
Towards a THz Bloch laser
(2011)
The realisation of tunable THz laser sources working at room temperature would give
rise to further applications in this range of the electromagnetic spectrum. The THz
Bloch laser could therefore become the basis for a technological breakthrough. Beside
this practical relevance, the physics of the gain mechanism has been investigated
theoretically for a long time and the experimental implementation of a self-starting
laser still has not been achieved.
At the beginning of this thesis the basic principles of Bloch oscillations and the
related Bloch gain are described. The need of a superlattice structure to make Bloch
oscillations possible in a semiconductor material is discussed. In this context, the effect
of negative differential resistance and its influence on the field distribution due to Gunn
domains is explained. The latter lead to an inhomogeneous field which may suppress
the Bloch gain mechanism. The Krömer criterion is introduced and the concept of
field-pinning layers to improve the field homogeneity is deduced. Finally, the design of
the laser material is shown and different types of laser waveguides are compared.
In chapter 3 detailed recipes for the processing of samples are given. Different types of
contacts (ohmic and Schottky), the wafer bonding process required for double-metal
lasers and the application of different photoresists for different purposes are described.
An explanation of the formation of waveguides due to dry etching, wet etching
and ion implantation follows. Dry etching is an established technique in the field
of microstructure processing but the challenge of etching about 20 μm has led to
problems. The high etching depth also makes wet etching difficult but this method
could be improved due to a hard bake of the photoresist. The protection of critical
areas on the surface of the samples with photoresist during ion implantation was
increased by optimising the spin coating process. However, a full implantation of the
active layer between the waveguides was not achieved which was the reason for the
development of the hybrid technology. Here a prior wet etching of about 10 μm is
performed and the rest of the material is implanted.
The experimental setup is shown in chapter 4. An alternative method for the electrical
contacting with the help of a copper bar is introduced. This improves the current
distribution and the risk of an electrical breakdown during the measurements could
therefore be lowered. Devices for THz beam guidance and spectroscopic measurements
are shown and the method of biasing the samples with pulses below 100 ns and
determining the effective voltage applied to the sample is depicted. These short pulses
are required to prevent the samples heating up drastically due to high power.
Chapter 5 contains the current-voltage characterisation of several structures including
I-V-samples, Bloch laser samples and a quantum cascade laser. Different contacts
(ohmic and Schottky) and different techniques for the formation of the ridges have
been used in the processing of these samples (performed at the University of Frankfurt
in all cases) and their influence on the I-V-dependence is discussed. The properties of
the THz emission of the quantum cascade laser are in good agreement with published
results from lasers processed with the same material. Another important result of
this chapter is that the Bloch laser samples show unstable behaviour compared to the
quantum cascade structure even with short pulses (of about 10 ns) where the risk of an
electrical breakdown or the building of filaments is low. THz radiation emitted from
one of the Bloch laser samples could not be observed.
Two aspects that may have prevented the Bloch laser to emit are discussed in
chapter 6. The saturation of the gain for higher amplitudes of the THz wave is
investigated in single mode and multiple mode operation (the latter could occur due
to the Bloch gain being expected to be broadband). In both cases it is shown that
the saturation effect would limit the output power only to values clearly above the
detection limit. In the subsequent section the distribution of the electric field is
simulated with SILVACO software. Structures with transit layer lengths above the
Krömer criterion are compared with structures which include field-pinning layers. It is
shown that the latter are useful to avoid propagating Gunn domains as they build up
in similar structures without field-pinning layers. Nevertheless, the electric field inside
the superlattice regions is not stable. Beside spatial inhomogeneities also temporal
variations of the field magnitude are observed. The lack of a suitable field distribution
is expected to be the main reason for the samples not to work.
HADES (High Acceptance DiElectron Spectrometer), located at GSI, is a versatile detector for precise spectroscopy of e+ e- pairs and charged hadrons produced on a fixed target in a 1 to 3.5 AGeV kinetic beam energy region. The main experimental goal is to investigate properties of dense nuclear matter created in heavy ion collisions and learn about in-medium hadron properties.
In the HADES set-up 24 Mini Drift Chambers (MDC) allow for track reconstruction and determining the particle momentum by exploiting charged particle deflection in a magnetic field. In addition, the drift chambers contribute to particle identification by measuring the energy loss. The read-out concept foresees each sensing wire to be equipped with a preamplifier, analog pulse shaper and discriminator. In the current front-end electronics, the ASD-8 ASIC comprises the above modules. Due to limitations of the current on-board time to digital converters (TDC), especially regarding higher reaction rates expected at the future FAIR facility (HADES at SIS-100), the electronics need to be replaced by new board featuring multi-hit TDCs. Whereas ASD-8 chips cannot be procured anymore, a promising replacement candidate is the PASTTREC ASIC, developed by JU Krakow, which was tested w.r.t. suitability for MDC read-out in a variety of set-ups and, where possible, in direct comparison to ASD-8.
The timing precision, being the most crucial performance parameter of the joint system of detector and read-out electronics, was assessed in two different set-ups, i.e. a cosmic muon tracking set-up and a beam test at the COSY accelerator at Juelich using a minimum ionizing proton beam.
The beam test results were reproduced and can thus be quantitatively explained in a three dimensional GARFIELD simulation of a HADES MDC drift cell. In particular, the simulation is able to describe the characteristic dependence of the time precision on the track position within the cell.
A circuit simulation (SPICE) was used to closely model the time development of a raw drift chamber pulse, measured as a response to X-rays from a 55 Fe source. The insights gained from this model were used for attributing realistic charge values to the time over threshold values measured with the read-out ASICs in a charge calibration set-up. Furthermore, a high-level circuit simulation of the PASTTREC shaper is implemented to serve as a demonstration of the effect of the individual shaping and tail cancellation stages which are present in both ASICs.
The present work deals with the integration of variable renewable energy sources, wind and solar energy into the European and US power grid. In contrast to other networks, such as the gas supply mains, the electricity network is practically not able to store energy. Generation and consumption therefore always have tobe balanced. Currently, the load curve is viewed as a rigid boundary condition, which must be followed by the generation system. The basic idea of the approach followed here is that weather-dependent generation causes a shift of focus of the electricity supply. At high shares of wind and solar generation, the role of the rigid boundary condition falls to the residual load, that is, the remaining load after subtraction of renewable generation. The goal is to include the weather dependence as well as the load curve in the design of the future electricity supply.
After a brief introduction, the present work first turns to the underlying weather-, generation and load data, which form the starting point of the analysis. In addition, some basic concepts of energy economics are discussed, which are needed in the following.
In the main part of the thesis, several algorithms are developed to determine the load flow in a network with a high share of wind and solar energy and to determine the backup supply needed at the same time. Minimization of the energy needed from controllable power plants, the capacity variable power plants, and the capacity of storing serve as guiding principles. In addition, the optimization problem of grid extensions is considered. It is shown that it can be formulated as a convex optimization problem. It turns out that with an optimized, international transmission network which is about four times the currently available transmission capacity, much of the potential savings in backup energy (about 40%) in Europe can be reached. In contrast, a twelvefold increase the transmission capacity would be necessary for a complete implementation of all possible savings in dispatchable power plants.
The reduction of the dispatchable generation capacity and storage capacity, however, presents a greater challenge. Due to correlations in the generation of time series of individual countries, it may be reduced only with difficulty, and by only about 30%.
In the following, the influence of the relative share of wind and solar energy is illuminated and examined the interplay with the line capacitance. A stronger transmission network tends to lead to a higher proportion of wind energy being better integrated. With increasing line capacity, the optimal mix in Europe therefore shifts from about 70% to 80% wind. Similar analyses are carried out for the US with comparable results.
In addition, the cost of the overall system can be reduced. It is interesting at this point that the advantages for the network integration may outweigh higher production costs of individual technologies, so that it is more favourable from the viewpoint of the entire system to use the more expensive technologies.
Finally, attention is given to the flexibility of the dispatchable power plants. Starting from a Fourier-like decomposition of the load curve as it was a few years ago, when hardly renewable generation capacity was present, capacities of different flexibility classes of dispatchable power plant are calculated. For this purpose, it is assumed that the power plant park is able to follow the load curve without significant surplusses or deficits. From this examination, it is derived what capacity must at least be available without having to resort to a detailed database of existing power plants.
Assuming a strong European cooperation, with a stronger international transmission network, the dispatchable power capacity can be significantly reduced while maintaining security of supply and generating relatively small surplusses in dispatchable power plants.
In this work we provided additional insights into our understanding of bulk QCD matter through the study of the transport coeffcients which govern the non-equilibrium microscopical processes of statistical ensembles. Specically, we focused on the low energy regime corresponding to the hadron gas, as the properties of this region of the phase diagram are still relatively unknown, and existing calculations for the transport coeffcients are either scarce, contradictory, or somewhat limited in scope; this thesis' main goal was thus to shed some light on this by providing new independent calculations of these quantities.
We subsequently presented two formalisms which can be used to calculate transport coeffcients. The first one (which also was the main tool we used in the following chapters to produce our results) relies on the development of so-called Green-Kubo formulas, which relate non-equilibrium dissipative fluctuations with transport coeffcients; notably, the off-diagonal components of the energy-momentum tensor are shown to be related to the shear viscosity, its diagonal components to the bulk viscosity and fluctuations in the electric current can be related to the electric conductivity. We additionally introduced two new conductivities, namely the baryon-electric and strange electric conductivities, which we dubbed, together with the already known electric one, the "cross-conductivity", which encodes information about how electric fluctuations are correlated to changes in electric, baryonic or strange currents, or vice-versa. The second way of calculating transport coeffcient which we discussed consists in linearizing the collision term of the Boltzmann equation through the Chapman-Enskog formalism. While in principle providing direct semi-analytical results for the transport coeffcients, this approach is complicated to implement when more than a few species are considered, and as such was then mostly used as a tool to calibrate our Green-Kubo calculations.
The hadron gas model that we used for all calculations, namely the transport approach SMASH, was then presented. The main features of the model were explained, such as the collision criterion, the considered degrees of freedom and the specific way in which they microscopically interact with each other. It was verified that SMASH does reproduce analytical results of the Boltzmann equation in an expanding universe scenario, thus showing the equivalence of this transport approach and the associated kinetic theory results. A special care was taken to detail the ways in which a state of thermal and chemical equilibrium (which is necessary for Green-Kubo relations to be valid) can be reached and described using SMASH.
...
Ziel dieser Dissertation ist es, die Gleichgewichts- und Nichtgleichgewichts-Eigenschaften des stark wechselwirkenden QGP-Mediums nahe dem Phasenübergang unter extremen Bedingungen von hohen T und hohen Baryonendichten mit Hilfe der kinetischen Theorie im Rahmen von effektiven Modellen zu untersuchen. Wir werden zunächst die thermodynamischen und Transporteigenschaften des QGPs in der Nähe des Gleichgewichts auf der Basis des DQPM im Bereich moderater chemischer Baryonenpotentiale μB ≥ 0.5 GeV untersuchen. Insbesondere werden die EoS und die Schallgeschwindigkeit sowie die Transportkoeffizienten des QGP auf der Grundlage des DQPM bei endlichen T und μB berechnet. Transportkoeffizienten sind besonders interessant, da sie Informationen über die Wechselwirkungen im Medium erlauben, das im Gleichgewicht durch eine Temperatur T und ein chemisches Potential μB charakterisiert werden kann. Unter Berücksichtigung der Transportkoeffizienten und der EoS der QGP-Phase vergleichen wir unsere Ergebnisse mit verschiedenen Resultaten aus der Literatur, in denen Transportkoeffizienten des QGPs auf Basis von effektiven Modellen vorwiegend bei Null oder kleinem chemischen Potentialen untersucht wurden.
Darüber hinaus werden in Kapitel 3 die Gleichgewichtseigenschaften des QGPs und insbesondere die Auswirkungen der μB-Abhängigkeit der thermodynamischen und Transporteigenschaften des QGPs im Rahmen des erweiterten PHSD-Transportansatzes untersucht, der die vollständige Entwicklung des Systems einschließlich der partonischen Phase umfasst. Die Entwicklung des PHSD-Transportansatzes wird in der partonischen Phase erweitert, indem explizit die gesamt- und differentiellen partonischen Streuquerschnitte auf der Grundlage des DQPM berechnet und bei der tatsächlichen Temperatur T und dem baryonischen chemischen Potential μB in jeder einzelnen Raum-Zeit-Zelle, in der die partonische Streuung stattfindet, ausgewertet werden.
Um die Spuren der μB-Abhängigkeit des QGPs in den Observablen zu untersuchen, werden die Ergebnisse von PHSD5.0 (mit μB-Abhängigkeiten) mit den Ergebnissen von PHSD5.0 für μB = 0 sowie mit PHSD4.0, in dem die Massen/Breiten der Quarks und Gluonen sowie deren Wechselwirkungsquerschnitte nur von T abhängen, verglichen. Wir diskutieren die PHSD-Ergebnisse für verschiedene Observablen: (i) Rapiditäts- und pT -Verteilungen von identifizierten Hadronen für symmetrische Au+Au- und Pb+Pb- Kollisionen bei Energien von 30 AGeV (zukünftige NICA-Energie) sowie für die RHIC-Spitzenenergie von √sNN = 200 GeV; (ii) gerichteter Fluss v1 von identifizierten Hadronen für Au + Au bei invarianter Energie √sNN = 27 GeV und 200 GeV; (iii) elliptischer Fluss v2 der identifizierten Hadronen für Au+Au bei invarianten Energien √sNN = 27 und 200 GeV. Der Vergleich der "Bulk"-Observablen für Au+Au-Kollisionen innerhalb der drei PHSD-Einstellungen hat gezeigt, dass sie eine recht geringe Empfindlichkeit gegenüber den μB -Abhängigkeiten der Partoneigenschaften (Massen und Breiten) und ihrer Wechselwirkungsquerschnitte aufweisen, sodass die Ergebnisse von PHSD5.0 mit und ohne μB sehr nahe beieinander liegen. Nur im Fall von Kaonen, Antiprotonen ̄p und Antihyperonen ̄Λ + ̄Σ0 konnte ein kleiner Unterschied zwischen PHSD4.0 und PHSD5.0 bei den höchsten SPS- und RHIC-Energien festgestellt werden.
Wir finden nur geringe Unterschiede zwischen den Ergebnissen von PHSD4.0 und PHSD5.0 für die hier betrachteten hadronischen Observablen sowohl bei hohen als auch bei mittleren Energien. Dies hängt damit zusammen, dass bei hohen Energien, wo die Materie vom QGP dominiert wird, ein sehr kleines chemisches Baryonenpotential μB in zentralen Kollisionen bei mittlerer Rapidität gemessen wird, während mit abnehmender Energie und größerem μB der Anteil des QGPs rapide abnimmt, sodass die endgültigen Beobachtungswerte insgesamt von den Hadronen dominiert werden, die an der hadronischen Rückstreuung teilgenommen haben, und somit die Information über ihren QGP-Ursprung verwaschen oder verloren geht.
In Kapitel 4 betrachten wir die Transportkoeffizienten von QGP-Materie im erweiterten Polyakov-NJL-Modell entlang der Übergangslinie für moderate Werte des chemischen Baryonenpotenzials 0 ≤ μB ≤ 0.9 GeV sowie in der Nähe des kritischen Endpunkts(CEP) und bei großem chemischen Baryonenpotenzial μB = 1.2 GeV, wo ein Phasenübergang erster Ordnung stattfindet. Wir untersuchen, wie die Natur der Freiheitsgrade die Transporteigenschaften des QGPs beeinflusst. Darüber hinaus demonstrieren wir die Auswirkungen des Phasenübergangs erster Ordnung und des CEP auf die Transportkoeffizienten im dekonfinierten QCD-Medium.
Darüber hinaus wird in Kapitel 5 eine phänomenologische Erweiterung des DQPM auf große baryonchemische Potentiale μB einschließlich der Region mit einem möglichen CEP und späterem Phasenübergang erster Ordnung betrachtet. Eines der wichtigsten Merkmale des Modells ist das Auftreten einer ’kritischen‘ Skalierung in der Nähe des CEP. Das Hauptziel des vorgestellten Modells besteht darin, die mikroskopischen und makroskopischen Eigenschaften der partonischen Freiheitsgrade für den Bereich des Phasendiagramms bereitzustellen, der durch moderates T und moderates oder hohes μB gekennzeichnet ist.
...
The production cross section and the transverse momentum distribution of charged particles is measured in pp collisions at √s = 2.76 TeV, 5.02 TeV, 7 TeV and 13 TeV, as well as for Pb-Pb collision at √s_NN = 5.02 TeV and Xe-Xe at √s_NN = 5.44 TeV in ALICE at the LHC. The measurement is performed in the transverse momentum region of 0.15 < p_T < 50 GeV/c and in the pseudorapidity range of |η| < 0.8. The precision of the measurement has been substantially enhanced as a result of the improved corrections, by taking into account a more realistic particle composition in the MC simulations. As a result, the systematic uncertainties have been reduced by more than a factor two in all systems and energies.
The average transverse momentum <p_T> results show a faster-than-linear increase with the center-of-mass energy and follow a similar trend with respect to previous measurements. The analysis of the p_T spectra in multiplicity intervals show a weak center-of-mass energy dependence when they are compared to their respective inelastic (INEL) pp measurement. The average multiplicity as a function of the collision energy shows a quadratic trend, and the comparison with other ALICE multiplicity measurements exhibits a remarkable agreement, within uncertainties.
The transverse momentum spectra in pp collisions are compared to state-of-the-art MC simulations, EPOS LHC and PYTHIA 8 event generators; none of them is able to reproduce the distributions over the full p_T range.
The differential cross section in pp collisions is an essential observable for the study of the Quark Gluon Plasma (QGP) created in ultra-relativistic heavy-ion collisions. The absence of a medium formation in pp collisions serves as an essential baseline for studies of particle production and suppression due to parton energy-loss in the QGP. Since pp collisions at √s = 5.44 TeV were not measured by ALICE, the pp reference at this energy was constructed by using a power law interpolation between the s = 5.02 TeV and 7 TeV data. The pp results are compared to the particle production in Pb-Pb collisions at √s_NN = 5.02 TeV and Xe-Xe collisions at √s_NN = 5.44 TeV.
The nuclear modification factor R_AA for Pb-Pb and Xe-Xe collisions was calculated and a strong suppression of high-p_T particles is observed in central collisions. The R AA in different systems allows for a differential study of the parton energy loss in the QGP. The comparison of the R AA in multiplicity intervals between the two systems provide insights into the path length dependence of a parton that propagates in the medium.
Organische Materialien haben bis zur Mitte des 20. Jahrhunderts hinsichtlich ihrer elektronischen Eigenschaften keine besondere Aufmerksamkeit auf sich gezogen. Größeres Interesse an diesen Materialien entstand erst durch die Entdeckung einer ungewöhnlich hohen elektrischen Leitfähigkeit des organischen Perylen-Bromin Ladungstransfer-Komplexes durch Inokuchi et al. im Jahr 1954. Diese neue Klasse von Materialien besteht typischerweise aus Donor- und Akzeptor-Molekülen, die in einer bestimmten Stöchiometrie aneinander gebunden sind. Elektrische Ladung wird zwischen den Donor- und Akzeptor-Molekülen transferiert. Um diesen Prozess zu beschreiben, entwickelte Robert Mulliken in den 60er Jahren ein theoretisches Gerüst. Abhängig von der Anordnung der Moleküle und transferierten elektrischen Ladung kann der Ladungstransfer-Komplex (oder Salz) ein Isolator, ein Halbleiter, ein Metall oder sogar ein Supraleiter sein. Noch mehr Aufmerksamkeit erhielten Ladungstransfer-Materialien mit der Entdeckung des ersten quasi-eindimensionalen organischen Metalls TTF-TCNQ (tetrathiafulvalene-tetracyanoquinodimethane) im Jahr 1973. ...
Tuning and optimization of the field distribution for 4-rod radio frequency quadrupole linacs
(2014)
In this thesis, the tuning process of the 4-rod Radio Frequency Quadrupole has been analyzed and a theory for the prediction of the tuning plate's influence on the longitudinal voltage distribution was developed together with RF design options for the optimization of the fringe fields.
The basic principles of the RFQ's particle dynamics and resonant behavior are introduced in the theory part of this thesis. All studies that are presented are based on the work on four RFQs of recent linac projects. These RFQs are described in one chapter. Here, the projects are introduced together with details about the RFQ parameters and performance. In the meantime two of these RFQs are in full operation at NSCL at MSU and FNAL. One is operating in the test phase of the MedAustron Cancer Therapy Center and the fourth one for LANL is about to be built. The longitudinal voltage distribution has been studied in detail with a focus on the influence of the RF design with tuning elements and parameters like the electrodes overlap or the distance between stems. The theory for simulation methods for the field flatness that were developed as part of this thesis, as well as its simulation with CST MWS have been analyzed and compared to measurements. The lumped circuit model has proven to predict results with an accuracy that can be used in the tuning process of 4-rod RFQs. Together with results from the tuning studies, the studies on the fringe fields of the 4-rod structure lead to a proposal for a 4-rod RFQ model with an improved field distribution in the transverse and longitudinal electric field.
Die Arbeit beschäftigt sich mit der Herstellung sowie der strukturellen und magnetischen Charakterisierung von zwei Materialklassen von kupferbasierten zweidimensionalen Quanten-Spin-Systemen: Quadratische Gitter von Dimeren sowie geometrisch frustrierte Kagomé Gitter. In beiden Systemen werden Substitutionen vorgestellt die zu verbesserten Eigenschaften führen.
Die Physik beschäftigt sich seit jeher mit der Frage nach dem Aufbau und der Struktur der Materie. Die Antworten änderten sich im Laufe der Zeit, der gegenwärtige Stand der Erkenntnis ist im sogenannten Standardmodell zusammengefasst. Dort werden die Elementarteilchen in Leptonen und Quarks unterteilt, die Wechselwirkungen zwischen ihnen beschreibt man durch vier fundamentale Kräfte: die Gravitation, die elektromagnetischen Kraft, die schwache und die starke Kernkraft. Gemäß dem Standardmodell sind Nukleonen, also Protonen und Neutronen, aus Quarks aufgebaut. Das Proton ist beispielsweise ein gebundener Zustand aus zwei up und einem down Quark. Die Nukelonen bilden ihrerseits die Atomkerne, welche die Systematik der Elemente bestimmen. Quarks treten in sechs verschiedenen Arten (flavours) auf: up, down, strange, charm, bottom und top. Freie Quarks konnten bislang nicht nachgewiesen werden, sie werden nur als Quark-Antiquark Paar (Meson) oder als Kombination aus drei Quarks (Baryon) beobachtet. Mesonen und Baryonen werden unter dem Begriff Hadronen zusammengefaßt. Die starke Kernkraft beruht letztlich auf der Wechselwirkung zwischen Quarks, diese wird durch die Quantenchromodynamik (QCD) beschrieben. Ähnlich der Glashow- Salam-Weinberg Theorie (GSW), die die elektromagnetische und die schwache Kernkraft beschreibt, ist die Quantenchromodynamik durch Austauschteilchen charakterisiert. Im Fall der GSW wurden die Photonen bzw. W± oder Z-Teilchen als Austauschteilchen identifiziert, in der QCD fungieren Gluonen als Austauschteilchen. Photonen vermitteln die elektromagnetische Kraft zwischen allen Teilchen, die elektrische Ladung tragen. Analog wirkt die Kraft, die durch den Austausch von Gluonen beschrieben wird, zwischen Teilchen, die eine Farbladung tragen. Anders als das neutrale Photon trägt das Gluon selbst Farbe und wechselwirkt daher mit anderen Teilchen, die Farbe tragen. Dieser Umstand zeigt bereits, dass in der QCD ganz andere Phänomene zu erwarten sind als in der GSW. Die Tatsache, dass Quarks nur in gebundenen Zuständen vorliegen, erschwert die direkte Beobachtung der Wechselwirkung zwischen ihnen. Ein indirekter Weg, um die Wirkungweise diese Kraft zu untersuchen, liegt in der Erzeugung hoher Kernmateriedichten und hoher Kerntemperaturen. Die Idee besteht darin, das Phasendiagramm von Kernmaterie experimentell zu bestimmen (Abbildung 1.3) und dann auf die zugrundeliegende Kraft zu schließen. Unter anderem führen die Kräfte, die zwischen den Einzelteilchen des Mediums herrschen, zu charakteristischen Phasenübergängen. Im Fall der Kernmaterie hofft man insbesondere, den Übergang von gebundenen Zuständen in eine Quark-Gluon-Plasma Phase (QGP), in der sich Quarks und Gluonen frei bewegen, zu beobachten. Zwei prominente Beispiele demonstrieren, warum die Eigenschaften dieses Materiezustandes - und ob er überhaupt existiert - auch für andere Teilgebiete der Physik von großem Interesse sind. Zum einen geht man davon aus, dass in der Frühphase des Universums, 10-12 s nach dem Urknall, die Energiedichte so hoch war, dass die Materie in einem Plasmazustand vorlag. In diesem Bild führt die Expansion des Raumes zu einer Abkühlung des Plasmas und schließlich zum Ausfrieren in Hadronen. Zum anderen zeigen viele Modellstudien, dass im Innern von Neutronensternen mit extremen Dichten zu rechnen ist. Unter Umständen werden Energiedichten erreicht, die hoch genung sind, um einen Phasenübergang in ein Quark Gluon Plasma zu erzwingen. Die Beschreibung dieser astronomischen Objekte setzt somit auch die Kenntnis der Kräfte zwischen den Quarks voraus. Der einzige Weg, dichte Kernmaterie im Labor zu erzeugen, stellen Schwerionenreaktionen dar. Wenn zwei ultrarelativistische schwere Kerne zentral kollidieren, entsteht für kurze Zeit eine Region hoher Energiedichte (Abbildung 1.1). QCD-Gitter-Rechnungen deuten darauf hin, dass die Dichte, die man in Schwerionreaktion gegenwärtig erreicht, hoch genung ist, um einen Übergang der Kernmaterie in eine Plasma-Phase zu erzwingen. Aufgrund des hohen Drucks expandiert die verdichtete, heiße Kernmaterie in longitudinaler (entlang des Strahls) und transversaler (senkrecht zum Strahl) Richtung und die Dichte nimmt ab. Vorausgesetzt am Anfang der Reaktion wurde ein Quark-Gluon-Plasma erzeugt, dann friert diese Phase in Hadronen aus (chemisches Ausfrieren), wenn Dichte und Temperatur einen kritischen Wert unterschreiten. Die erzeugten Hadronen wechselwirken zunächst noch elastisch miteinander, d.h. die Impulse der Teilchen ändern sich, die Identität der Teilchen bleibt jedoch erhalten. Schließlich enden auch diese Wechselwirkungen (thermisches Ausfrieren), und die Teilchen verlassen die Reaktionszone (Abbildung 1.4). Der Ablauf einer solchen Schwerionenreaktion dauert einige 10-23s und ihre räumliche Ausdehnung liegt in der Größenordnung von 10-15m, damit ist die Reaktion selbst nicht beobachtbar. Nur der Endzustand, also die Identitäten und Impluse der emittierten Teilchen, kann bestimmt werden. Um den Ablauf der Reaktion zu rekonstruieren, ist man daher auf Modellrechnungen angewiesen. Aufgrund dieser Modellrechnungen wurden einige Observablen vorgeschlagen, die einen Phasenübergang kennzeichnen. Neben anderen Signaturen führt ein Phasenübergang wahrscheinlich zu einer verlängerten Emissionsdauer. Dieser Effekt kann möglicherweise durch die Analyse von Zwei-Teilchen-Korrelationen sichtbar gemacht werden. Ganz allgemein stellt die Untersuchung von Teilchenkorrelationen die einzige Möglichkeit dar, die raum-zeitlichen Strukturen während des thermischen Ausfrierens experimentell zu bestimmen. Korrelationen zwischen Teilchen, die von einer hinreichend kleinen Quelle emittiert werden, haben verschiedene Ursachen. Betrachtet man beispielsweise die Häufigkeitsverteilung der Impulsdifferenz zwischen zwei elektrisch gleich geladenen Teilchen, so stellt man fest, dass Paare mit geringer Impulsdifferenz weniger häufig vorkommen, als man anhand der Ein-Teilchen Impulsverteilung vorhersagen würde. Dieser Effekt ist auf die Abstoßung zwischen zwei elektrisch gleich geladenen Teilchen zurückzuführen, die mit kleiner Impulsdifferenz emittiert wurden. Eine weniger offensichtliche Korrelation wird durch den Quantencharakter identischer Teilchen verursacht. Zwei identische Bosonen, die im Phasenraum nahe beieinander liegen, können gemäß den Prinzipien der Quantentheorie nicht unterschieden werden. Die Wellenfunktion, die diesen Zwei-Teilchen-Zustand beschreibt, muß beim Vertauschen der Teilchen erhalten bleiben. Diese Forderung führt zu einem Interferenzterm in der Zwei-Teilchen Intensitätsverteilung. Diese Verteilung ist proportional zur Wahrscheinlichkeit, ein Teilchenpaar mit der Impulsdifferenz q zu messen. Berechnet man die Impulsdifferenzverteilung von Pionenpaaren und berücksichtig nur quanten- statistische Effekte, so findet man, dass Paare mit geringem Impulsunterschied bis zu zweimal häufiger vorkommen, als man aufgrund einfacher statistischer Überlegungen erwarten würde. Um diesen Effekt experimentell sichtbar zu machen, konstruiert man die Korrelationsfunktion, die die gemessene Impulsdifferenzverteilung in Relation zu einer Untergrundverteilung setzt. Experimentell gewinnt man diese Referenzverteilung, indem Paare aus Spuren aus verschiedenen Ereignissen gebildet werden. Die Referenzverteilung entspricht damit der Verteilung, die man messen würde, wenn die Teilchen nicht der Quantenstatistik unterlägen. Die Korrelationsfunktion wird im allgemeinen durch eine Gauß-Funktion angenähert. Das Inverse der Standardabweichung dieser Funktion wird nach den Pionieren der Intensitätsinterferometrie R. Hanbury Brown und R. Twiss als HBT-Radius bezeichnet. Teilchen interferieren nur dann, wenn sie im Phasenraum nahe beieinander liegen, das heißt sowohl die Impulsdifferenz als auch der räumliche Abstand muß hinreichend klein sein. Diese Bedingung kann genutzt werden, um von der gemessenen Korrelationsfunktion, die nur auf den Impulskomponenten basiert, auf die räumliche Verteilung der Teilchenproduktion zu schließen. Eine detaillierte Betrachtung erlaubt sogar, aufgrund der gemessenen Korrelationsfunktion quantitative Aussagen über die räumlichen Aspekte der Teilchenquelle zu machen. Beispielsweise können im Rahmen eines Modells die Stärke der transversalen Expansion oder die Emissionsdauer in Relation zu den HBT-Radien gesetzt werden. In Kapitel 2 sind die Grundlagen der Teilcheninterferometrie ausführlicher dargestellt. Der eigentliche Gegenstand dieser Arbeit ist experimentelle Analyse der Zwei- Teilchen-Korrelationen in einer Schwerionenreaktion. Dazu wird zunächst in Kapitel 3 das STAR Experiment am RHIC vorgestellt, in dem die Daten aufgezeichnet wurden, die Grundlage dieser Analyse sind. Am RHIC-Beschleuniger am BNL in den USA werden AuAu Kollisionen bis zu einer Schwerpunktsenergie von Wurzel aus SNN=200 GeV erzeugt. Figur 3.1 zeigt den Beschleuniger-Ring und die vier Experimente Brahms, Phenix, Phobos und STAR. Der hier analysierte Datensatz wurde bei der Datennahme im Jahr 2000 aufgezeichnet. Zu dieser Zeit wurde am RHIC eine Schwerpunktsenergie von Wurzel aus SNN=130 GeV erreicht. Bei einer zentralen AuAu Kollision werden mehrere Tausend Teilchen produziert. Der STAR Detektor ist dafür konzipiert, hadronische Teilchen kleiner Rapidität (d.h. großer Winkel zur Strahlachse) zu messen, innerhalb der Akzeptanz werden etwa 80% der produzierten geladenen Teilchen nachgewiesen. Der schematische Aufbau des STAR Detektorsystems ist in Figur 3.2 dargestellt. Der zentrale Detektor ist eine TPC (Zeit-Projektions-Kammer). Dieser Detektor basiert darauf, dass geladene Teilchen beim Durchgang durch ein Messgas eine Spur von Ionen hinterlassen. Ein starkes elektrisches Feld driftet die Elektronen, die bei den Ionisationsprozessen freigesetzt wurden, zu einer Ausleseebene. Der Punkt, an dem die Elektronen auf der Ausleseebene ein Signal erzeugen, entspricht der Projektion des Ionisationpunktes auf die Ausleseebene. Die dritte Komponente, die den Raumpunkt der Ionisation festlegt, ist durch die Driftzeit bei bekannter Driftgeschwindigkeit gegeben. So erscheint eine Teilchenspur als eine Kette von Ionisationspunkten im Detektorgas. Ein magnetisches Feld parallel zur Strahlachse führt zu einer Ablenkung der geladenen Teilchen. Die Krümmung der Spur ist dabei umgekehrt proportional zum transversalen Impuls. Abbildung 3.6 zeigt ein typisches Ereignis mit etwa 105 Ionisationspunkten und den entsprechenden Teilchenspuren. Der spezifische Energieverlust eines Teilchens beim Durchgang durch das Messgas hängt von seinem Impuls und seiner Masse ab. Die Stärke des auf der Ausleseebene induzierten Signals erlaubt den spezifischen Energieverlust zu bestimmen. Da der Impuls durch die Krümmung der Spur bekannt ist, kann so die Masse und damit die Identität des Teilchens bestimmt werden (siehe Abbildung 3.7). In Kapitel 4 wird der Datensatz beschrieben, der als Grundlage für diese Analyse dient. Während der Datennahme werden die digitalisierten Daten der TPC auf ein Speichermedium geschrieben. Der erste Schritt bei der Rekonstruktion der Ereignisse besteht darin, die Ionisationspunkte zu lokalisieren. Dies leistet der Clusterfinder- Algorithmus, der in Kapitel 4.1.1 beschrieben ist. Die Spurpunkte werden dann durch den Tracking-Algorithmus zu Teilchenspuren verbunden. Die erreichte Effizienz, Akzeptanz und Impulsauflösung der Rekonstruktion sind in Kapitel 4.1.2 zusammengefaßt. Die Zwei-Teilchen-Korrelationen werden nur für zentrale Kollisionen betrachtet, das sind Ereignisse mit kleinem Stoßparameter. Die Multipliztät der gemessenen Spuren ist in erster Näherung ein Maß für die Zentralität des Ereignisses. Für diese Analyse werden nur die 12% zentralsten Ereignisse zugelassen. Die Selektion der Ereignisse ist in Kapitel 4.2 beschrieben. Die Auswahl der Spuren, die in der Analyse verwendet werden, ist in Kapitel 4.3 beschrieben. Es werden nur Spuren zugelassen, deren Impulse in einem Bereich hinreichend hoher Akzeptanz und Effizienz liegen. Außerdem werden die Spuren ausgewählt, die mit hoher Wahrscheinlichkeit von Pionen stammen. Eine weitere Auswahl wird auf der Paarebene getroffen. Die Korrelationsfunktion wird in einzelnen Intervallen transversalen Paarimpulses kt und Paarrapidität Yðð gebildet. Damit kann die Abhängigkeit der HBT-Radien von diesen Größen dargestellt werden. Zwei weitere Auswahlkriterien sollen die Qualität der Spurpaare garantieren. Zum einen werden solche Paare verworfen, die im Detektor zu nahe beieinander liegen. Für die HBT-Analyse sind Paare mit geringem Impulsunterschied entscheidend, ein geringer Impulsunterschied heißt notwendigerweise, dass die Spuren räumlich nicht sehr weit getrennt sind. Wenn die Spuren aber zu nahe liegen, können sie vom Detektor und von der Rekonstruktionskette nicht mehr aufgelöst werden. Damit verliert man einen Teil der Paare in der Signalverteilung, nicht aber in der Untergrundverteilung, da in diesem Fall die endliche Zwei-Spur-Auflösung keine Rolle spielt. Um die Korrelationsfunktion nicht durch einen Detektoreffekt zu verfälschen, entfernt man die Paare, die im Detektor nahe beieinander liegen, sowohl in der Signal- als auch in der Untergrundverteilung. Ein weiteres Problem stellen "gebrochene" Spuren dar. In einigen Fällen wird eine Teilchenspur von der Rekonstruktionskette nicht als Ganzes erkannt, vielmehr werden zwei Spurstücke im Dektor gefunden. Da diese Spurstücke vom selben Teilchen stammen, haben sie eine sehr geringe Impulsdifferenz. Diese Paare können anhand ihrer Topologie im Detekor erkannt werden. Wie im Fall der begrenzten Zwei-Spur-Auflösung werden sie sowohl für die Signal- als auch für die Untergrundverteilung nicht zugelassen. In Kapitel 5 werden schließlich die Ergebnisse der Korrelationsanalyse dargestellt. Die Korrelationsfunktion wird in verschiedenen Parametrisierungen betrachtet. In der einfachsten Form betrachtet man nur den Betrag des Impulsdifferenzvektors. Dieser Ansatz bedeutet aber, dass der entsprechende HBT-Radius alle Raum-Zeit Komponenten mischt und damit nur wenig Aussagekraft bezüglich der Quellfunktion besitzt. Eine differenzierte Analyse in drei unabhängigen Komponenten ermöglichen die Pratt-Bertsch (PB) und die Yano-Koonin-Podgoretskii (YKP) Parametrisierung. Die beiden Parametrisierungen unterscheiden sich in der Zerlegung des Impulsdifferenzvektors in drei unabhängige Komponenten. Im ersten Fall bezeichnet man die Komponenten als qout, qlong und qside, im zweiten Fall als qpara, qperp und q0 (Kapitel 2.7 und 2.8). Die entsprechenden Korrelationsfunktionen sind in Gleichung 2.31 bzw. 2.34 gegeben. Die jeweiligen HBT-Radien Rout, Rlong und Rside bzw. Rpara, Rperp und R0 können in Relation zu den Parametern der Quellfunktion (Gleichung 2.43) gesetzt werden. Die beiden Parametrisierungen liefern im Prinzip die gleiche Information und die beiden Sätze von HBT-Radien können in Beziehung zueinander gesetzt werden (Gleichung 2.41). Beispielsweise entspricht der HBT-Radius R0 in der YKP-Parametrisierung in erster Näherung der Emissionsdauer, während in der PB- Parametrisierung diese Größe Verhältnis von Rout zu Rside abhängt. Zusätzlich zu den Radien enthält die YKP-Parametrisierung einen Parameter ß, der erlaubt, die longitudinale Geschwindigkeit des betrachteten Quellelementes zu bestimmen. Die Abbildungen 5.7 bis 5.10 zeigen die HBT-Radien beider Parametrisierungen in Abhänigigkeit vom transversalen Paarimpuls kt und von der Paarrapidität Yðð. Die Größe der gemessenen Radien bewegt sich zwischen 3 und 7 fm. Nur der Radius R0 verschwindet in den meisten kt-Yðð Intervallen. Die anderen Radien nehmen mit steigendem kt ab und sind unabhängig von Yðð . Abbildung 5.11 demonstriert, dass die beiden Parametrisierungen -dort wo sie vergleichbar sind- konsistente Ergebnisse liefern. Eine Diskussion der Ergebnisse schließt sich in Kapitel 6 an. Die Abhänigigkeit des Parameters ß von Yðð zeigt eine starke longitudinale Expansion an. Ein ähnliches Verhalten wurde bei niedrigeren Schwerpunktsenergien beobachtet, wo man allerdings eine schwächere longitudinale Expansion erwarten würde. Die Lebensdauer der Quelle, also die Zeit vom anfänglichen Überlapp der Kerne bis zum thermischen Ausfrieren, bestimmt die kt-Abhänigigkeit des Parameters Rlong. Dieser Zusammenhang wurde von Mahklin und Sinyukow formuliert, eine Anpassung der entsprechenden Funktion an die gemessene kt Abhänigigkeit von Rlong ergibt eine Lebensdauer von etwa 8 fm/c bei einer Ausfriertemperatur von etwa 126 MeV. Entsprechende Messungen bei niedrigeren Kollisionsenergien lieferten ähnliche Resultate. Die kt-Abhängigkeit des Parameters Rside ist mit der Stärke der transversalen Expansion gemäß Gleichung 6.3 verknüpft. Da die Relation nicht eindeutig ist, muß entweder eine feste Ausfriertemperatur angenommen werden oder es werden gleichzeitig Einteilchenspektren betrachtet, um die Mehrdeutigkeit zu eliminieren. Eine vorläufige Abschätzung ergibt eine mittlere transversale Expansions- geschwindigkteit von v ungefähr gleich 0.6 und einen gemetrischen Radius von RG ungefähr gleich 7.4 fm . Auch diese Ergebnisse sind vergleichbar mit entsprechenden Resultaten bei niedrigeren Kollisionsenergien. Ein weiterer Parameter der Quellfunktion ist die Emissionsdauer. Die Pionen werden nicht zu einem festen Zeitpunkt emittiert, man geht vielmehr davon aus, dass die Zeitpunkte der letzten elastischen Wechselwirkung in der Quelle gaußförmig verteilt sind. Den Mittelwert dieser Verteilung bezeichnet man als Lebensdauer der Quelle, die Breite als Emissionsdauer. Entsprechend Gleichung 6.4 bzw. 6.5 ist die Emissionsdauer mit dem Radius R0 bzw. dem Verhältnis Rout zu Rside verbunden. Wie in Abbildung 5.8 ersichtlich verschwindet der Parameter R0 , außer im kleinsten kt Intervall. Dies entspricht in der PB-Parametrisierung der Tatsache, dass das Verhältnis Rout zu Rside bei hohen kt kleiner als eins ist. Diese Resultate sind nicht vereinbar mit herkömmlichen Modellen. Insbesondere weil eine verlängerte Emissionsdauer als Signatur für die Bildung eines Quark-Gluon-Plasmas vorgeschlagen wurde, wird dieses Ergebnis derzeit intensiv diskutiert. Die Ergebnisse dieser Analyse sind sowohl mit bereits publizierten Daten der STAR Kollaboration als auch mit Resultaten von anderen RHIC Experimenten verträglich (siehe Abbildung 6.8). In Abbildung 6.9 ist die Abhängigkeit der HBT-Radien von kt bei verschiedenen Schwerpunktsenergien dargestellt. Im Gegensatz zu vielen anderen Observablen ändern sich die HBT Radien nur geringfügig. Da man erwartet, dass die Reaktion bei hohen Energien vollkommen anders abläuft, würde man auch davon ausgehen, dass sich die Ausfrierbedingungen ändern. Dass dies nicht in den Zwei-Teilchen- Korrelationen sichtbar wird, deutet darauf hin, dass die Näherungen die notwendig sind, um die gemessenen Radien mit Modellparametern zu verbinden, nicht gültig sind. Die Systematik der HBT Parameter als Funktion der Schwerpunktsenergie enthält damit keinen direkten Hinweis, dass die kritische Energiedichte überschritten wurde, ab der die Kernmaterie in einer Plasmaphase vorliegt. Andererseits werden weder die verschwindende Emissionsdauer noch die Tatsache, dass die anderen HBT-Parameter sich nur wenig mit der Schwerpunktsenergie ändern, als Argument dafür gewertet, dass die kritische Energiedichte nicht überschritten wurde. Die Frage, ob ein Quark- Gluon-Plasma im Labor erzeugt und analysiert werden kann, bleibt damit offen. Das thermische Ausfrieren einer Pionenquelle scheint hingegen anders zu verlaufen, als bisher angenommen wurde. Systematische Studien der Korrelationsfunktion in AA Kollisionen am RHIC in Kombination mit Fortschritten im theoretischen Verständnis der Teilcheninterferometrie in Schwerionenreaktion werden in Zukunft hoffentlich erlauben, die gemessenen Radien in ein konsistentes Bild einzuordnen. In zukünftigen Experimenten am LHC werden noch weit höhere Dichten erreicht als bisher, damit sollten sich auch die Ausfrierbedingungen stark verändern. Es wird sich dann zeigen, ob die Teilcheninterferometrie das geeignete Instrument ist, um die Quellfunktion einer Schwerionenreaktion zu messen.
Ein wesentliches Ziel der Physik mit schweren Ionen ist die Untersuchung der Zustände von Kernmaterie bei hohen Dichten bzw. Temperaturen. Solche Zustände lassen sich durch Kollisionen von hochenergetischen schweren Ionen in Teilchenbeschleunigern wie dem Super Proton Synchrotron SPS am Europäischen Kernforschungszentrum CERN in Genf erzeugen und untersuchen. Die vorliegende Arbeit beschäftigt sich mit der Analyse des Einflusses des in einer solchen Kollision erzeugten Mediums auf hochenergetische Teilchen, welche dieses Medium durchqueren. Hierzu werden Korrelationen zwischen Teilchen mit hohem Transversalimpuls pt als Funktion der Zentralität der Kollisionen und der Ladung der beteiligten Teilchen untersucht. Ziel ist es, hierdurch eine experimentelle Grundlage für die theoretische Beschreibung der Eigenschaften des Mediums in solchen Kollisionen bereitzustellen. ...
In der modernen Festkörperphysik spielen elektronisch stark korrelierte Systeme mit ihrem komplexen Vielteilchenverhalten eine zentrale Rolle. Insbesondere das Wechselspiel zwischen thermischen und Quantenfluktuationen in den Ladungs- und Spinfreiheitsgraden führt zur Entstehung verschiedenster neuartiger Grundzustände.
Die vorliegende Dissertation „Ultrasonic and Magnetic Investigations in frustrated Lowdimensional Spin Systems“ beschäftigt sich mit den besonderen physikalischen Eigenschaften niedrig dimensionaler Spinsysteme. Diese Materialklasse, die auch zu den stark korrelierten Systemen zählt, wird seit vielen Jahren intensiv sowohl experimentell als auch theoretisch untersucht. Auf theoretischer Seite sind die niedrigdimensionalen Spinsysteme besonders interessant, da sie als Modellsysteme die exakte Beschreibung des Grundzustandes und des Anregungsspektrums ermöglichen. Von experimenteller Seite ist es in den letzten Jahrzehnten gelungen, verschiedenste Materialklassen niedrigdimensionaler Spinsysteme zu synthetisieren.
In der vorliegenden Arbeit werden die grundlegenden Theorien und physikalischen Konzepte niedrigdimensionaler Spinsysteme diskutiert. Insbesondere auch die Spin-Phonon-Wechselwirkung dieser Materialien, die für die hier beobachteten elastischen Anomalien verantwortlich ist. Weiterhin wird auch das elastische Verhalten bei magnetischen Phasenübergängen beschrieben.
Da die Ultraschallexperimente einen Schwerpunkt dieser Arbeit bilden, wird der Versuchsaufbau zur phasenempfindlichen Detektion von Schallgeschwindigkeit und Ultraschalldämfung ausführlich beschrieben. Diese Messmethode ist ideal zur Untersuchung der Spin-Phonon Wechselwirkung geeignet.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
To gain a better understanding of complex mechanisms in biological systems, simultaneous control over multiple processes is key. To this purpose selective photouncaging has been developed. Photo-uncaging is an experimental scheme in which a molecule of interest has been inactivated synthetically and is activated by light. Usually a bond is cleaved and a leaving group is set free. The molecule which inactivates the molecule of interest and sets the leaving group free is called (photo-)cage. In a selective photo-uncaging scheme a number of leaving groups can be released independently, usually by irradiation with light of different wavelengths. This approach is, however, seriously limited in its applicability due to the properties of the involved cages and irradiation schemes. A major drawback is the usually quite broad UV-Vis absorption of the cages. This makes a selective activation by light difficult and limits the maximal number of independent cages severely.
Therefore, the aim of this thesis is to introduce the Vibrationally Promoted Electronic Resonance (VIPER) 2D-IR pulse sequence in a alternative selective uncaging scheme.
The VIPER 2D-IR pulse sequence is a spectroscopic tool which allows to generate 2D-IR signals whose lifetime are independent of the vibrational relaxation lifetime. It has been first used to monitor chemical exchange. It consists of a narrowband infared pump pulse, a subsequent UV-Vis pump pulse and a broadband infrared probe pulse. The UV-Vis pump pulse is off-resonant with regard to the UV-Vis absorption band. Electronic excitation becomes only possible, if the infrared pump pulse modulates the UV-Vis transition of the IR-excited molecule. This modulation brings the UV-Vis transition in resonance with the UV-Vis pump pulse. Thereby, only the molecules which were pre-excited with the infrared pulse can be excited into the electronically excited state. A computational prediction of the modulation was carried out by Jan von Cosel in the Burghardt group.
The narrowband infrared pump pulse can be used to selectively excite a subensemble of molecules in a mixture into an electronically excited state even if the UV-Vis spectra of all molecules are virtually identical. For this the sub-ensemble needs to exhibit an identifiable infrared spectrum. Combined with the introduction of isotope labels, which lead to changes in the infrared absorption spectra, the larger selectivity in the infrared region can be exploited for an alternative selective uncaging approach. In VIPER uncaging the infrared pump pulse selects the species and the subsequent UV-Vis pulse provides the energy needed for electronic excitation upon which the photo cleavage can occur.
After an introduction of the principle idea of uncaging and VIPER spectroscopy, the concept of VIPER uncaging is introduced and its limits and requirements are discussed. Some examples for possible VIPER cages are reviewed.
A coumarin molecule (7-diethylamino coumarin) which can release an azide group was chosen as a first test molecule for VIPER uncaging. Its isotopomers were characterized to determine suitable spectroscopic markers for successful uncaging and to find fitting experimental conditions. The chosen coumarin cage has an UV-Vis absorption band at approximately 380 nm and a steep flank on the high wavelength side of the band. The quantum yield for the azide compound is between 10-20 % depending on the solvent’s water content. The release was found to be on a picosecond timescale which is among the fastest known photo reactions, but the photo reaction mechanism has proven to be not straightforward. For the VIPER experiment on the mixture two isotopomers were chosen with a 13C atom at different positions. In one species a ring mode of the coumarin is changed by the 13C atom. In the other isotopomer the carbonyl stretching mode is influenced. The change in the ring mode region allows to select one species or the other with the infrared pre-excitation. Because of experimental difficulties only isotopomers with the same leaving group could be used. The successful selective electronic excitation of the individual isotopomers in a mixture was monitored by probing the carbonyl region.
As a second VIPER cage, para-hydroxyphenacyl (pHP) was chosen. A thiocyanate group was selected as leaving group. pHP cages have their electronic transition in the UV, with a maximum absorption at 290 nm. The shape of the spectrum is suitable and the quantum yield is very high, with values in the literature of up to 90 %. Also the photo reaction is well studied and the expected byproducts are well characterized. The chosen isotopologues were characterized spectroscopically. The resulting data on the photo reaction were in agreement with the mechanism proposed in the literature. The mixture for the VIPER experiment consisted of two isotopologues, where for one species all the C atoms in the ring were labelled and for the other the C-atom in the thiocyanate leaving group was labelled. Here the release of the different leaving groups, labelled and unlabelled thiocyanate, could be monitored selectively. This shows that it is possible to selectively release a molecule in a mixture of caged molecules by applying the VIPER pulse sequence.
The samples were synthesized by Matiss Reinfelds from the Heckel group and the VIPER experiments were done together with Carsten Neumann and with support
of the Bredenbeck group.
The leaving groups were chosen because of their infrared absorption which allowed to directly monitor the successful cleavage by spectroscopy. This was needed for the proof-of-concept experiment and to allow direct optimization of the experimental parameters but is not necessarily a requirement for VIPER uncaging.
Concerning the selectivity of the VIPER uncaging, the approach is at the moment mainly limited by the infrared pulse energy. The selective VIPER excitation is competing with unselective excitation directly by just the UV-Vis pulse. A more intense infrared pump pulse would increase only the selective VIPER excitation and thereby improve the contrast to the unspecific background.
To address this issue, the first steps towards an alternative infrared light generation are undertaken. In this alternative approach the infrared light for preexcitation is directly generated by difference frequency generation of the laser output, i.e. the high energy 800 nm fundamental, and the output of a non-collinear optical parametric amplifier (NOPA). To achieve a narrowband pump pulse the pulses are chirped before mixing. In the scope of this thesis a NOPA has been installed and the mixing has been tested with available test crystal medium. While infrared wavelength region and power were not in the aspired range with this alternative crystal the feasibility of mixing between a NOPA output and the fundamental could be shown.
Other possibilities to increase the contrast to the unspecific background excitation by the UV-Vis pump pulse are discussed. For most applications of selective VIPER uncaging the detection by fs-laser spectroscopy will not be needed and could be replaced by other methods e.g. chromatography. This will allow the experimental parameters of the VIPER pulse sequence to be changed in a way which reduces unspecific excitation i.e. reducing the UV-Vis-pump energy and result in much better contrast.
In conclusion, the experimental data in this thesis shows the VIPER pulse sequence to be applicable to selective uncaging schemes and indicates measures to arrive at the specificity necessary for uncaging applications. This thesis was focused on uncaging photo reactions with isotopomers and isotopologues, but other types of photo reactions could in principle be controlled in the same way. It should be possible to address different isomers in mixtures or different ground states of proteins selectively. The discussed experiments are a significant step towards control over photo reactions in mixtures.
Topological phases set themselves apart from other phases since they cannot be understood in terms of the usual Landau theory of phase transitions. This fact, which is a consequence of the property that topological phase transitions can occur without breaking symmetries, is reflected in the complicated form of topological order parameters. While the mathematical classification of phases through homotopy theory is known, an intuition for the relation between phase transitions and changes to the physical system is largely inhibited by the general complexity.
In this thesis we aim to get back some of this intuition by studying the properties of the Chern number (a topological order parameter) in two scenarios. First, we investigate the effect of electronic correlations on topological phases in the Green's function formalism. By developing a statistical method that averages over all possible solutions of the manybody problem, we extract general statements about the shape of the phase diagram and investigate the stability of topological phases with respect to interactions. In addition, we find that in many topological models the local approximation, which is part of many standard methods for solving the manybody lattice model, is able to produce qualitatively correct phase transitions at low to intermediate correlations.
We then extend the statistical method to study the effect of the lattice, where we evaluate possible applications of standard machine learning techniques against our information theoretical approach. We define a measure for the information about particular topological phases encoded in individual lattice parameters, which allows us to construct a qualitative phase diagram that gives a more intuitive understanding of the topological phase.
Finally, we discuss possible applications of our method that could facilitate the discovery of new materials with topological properties.
Vibronic (vibrational-electronic) transition is one of the fundamental processes in molecular physics. Indeed, vibronic transition is essential both in radiative and nonradiative photophysical or photochemical properties of molecules such as absorption, emission, Raman scattering, circular dichroism, electron transfer, internal conversion, etc. A detailed understanding of these transitions in varying systems, especially for (large) biomolecules, is thus of particular interest. Describing vibronic transitions in polyatomic systems with hundreds of atoms is, however, a difficult task due to the large number of coupled degrees of freedom. Even within the relatively crude harmonic approximation, such as for Born-Oppenheimer harmonic potential energy surfaces, the brute-force evaluation of Franck-Condon intensity profiles in a time-independent sum-over-states approach is prohibitive for complex systems owing to the vast number of multi-dimensional Franck-Condon integrals. The main goal of this thesis is to describe a variety of molecular vibronic transitions, with special focus on the development of approaches that are applicable to extended molecular systems. We use various representations of Fermi’s golden rule in frequency, time and phase spaces via coherent states to reduce the computational complexity. Although each representation has benefits and shortcomings in its evaluation, they complement each other. Peak assignment of a spectrum can be made directly after calculation in the frequency domain but this sum-over-states route is usually slow. In contrast, computation is considerably faster in the time domain with Fourier transformation but the peak assignment is not directly available. The representation in phase space does not immediately provide physically-meaningful quantities but it can link frequency and time domains. This has been applied to, herein, for example (non-Condon) absorption spectra of benzene and electron transfer of bacteriochlorophyll in the photosynthetic reaction center at finite temperature. This work is a significant step in the treatment of vibronic structure, allowing for the accurate and efficient treatment of complex systems, and provides a new analysis tool for molecular science.