Refine
Year of publication
Document Type
- Doctoral Thesis (593) (remove)
Has Fulltext
- yes (593)
Is part of the Bibliography
- no (593) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (593) (remove)
Aufgebautes Zwei-Farben Lasersystem: Das für diese Arbeit aufgebaute Zwei-Farben Lasersystem erfüllt im Hinblick auf Abstimmbarkeit wie auch auf die erreichbare Ausgangsleistung die für diese Arbeit gesetzten Ziele. Für weiterführende Experimente muss allerdings berücksichtigt werden, dass für eine Steigerung der Ausgangsleistung, wie auch eine weiterführende Stabilisierung weitere Untersuchungen nötig sind, bei denen aber das jetzige System als Grundlage dienen kann und die mit ihm gewonnenen Erkenntnisse berücksichtigt werden müssen. Auch die verwendete Nahfeld-Beleuchtung erfüllt vor allem mit der automatischen Steuerung verknüpft wertvolle Dienst bei der Charakterisierung der untersuchen LT-GaAs Photomischer. Dieses System ist allerdings nicht geeignet, als direkter Entwurf für das endgültige System des SOFIA- oder ALMA-Projektes anzusehen, was auch nie seine Aufgabe war. Numerische Simulation: Die in dieser Arbeit vorgestellte numerische Simulation des DC-Stromverhaltens stellt einen guten Ansatz dar, die Effekte, die durch eine inhomogene Beleuchtung der Photomischer bedingt durch die verwendete Glasfaser entstehen, quantitativ und qualitativ zu erfassen und sie mit realen Photomischern und den durchgeführten Messungen in Verbindung zu bringen. Durchgeführte Nahfeld-Messungen: Die in dieser Arbeit vorgestellten automatischen Nahfeld-Messungen über einen 1D- und 2D-Bereich ermöglichen mit Hilfe des aufgebauten Lasersystems die in dieser Arbeit untersuchten LT-GaAs Photomischer in ihrem Verhalten zu untersuchen, wie es auch möglich ist, ein vollständiges Kennlinien-Feld aufzunehmen.
The HADES (High Acceptance DiElectron Spectrometer) is an experimental
apparatus installed at the heavy-ion synchrotron SIS-18 at GSI, Darmstadt.
The main physics motivation of the HADES experiment is the measurement
of e+e− pairs in the invariant-mass range up to 1 GeV/c2 in heavy-ion collisions
as well as in pion and proton-induced reactions.
The HADES physics program is focused on in-medium properties of the light
vector mesons ρ(770), ω(783) and φ(1020), which decay with a small branching
ratio into dileptons. Dileptons are penetrating probes which allow to study
the in-medium properties of hadrons. However, in heavy-ion collisions, the
measurement of such lepton pairs is difficult because they are rare and have a
very large combinatorial background.
Recently, HADES has been upgraded with new detectors and new electronics
in order to handle higher intensity beams and reactions with heavy nuclei up
to Au.
HADES will continue for a few more years its rich physics program at its
current place at SIS-18 and then move to the upcoming international Facility
for Antiproton and Ion Research (FAIR) accelerator complex. In this context
the physics results presented in this work are important prerequisites for the investigation
of in-medium vector meson properties in p + A and A+A collisions.
This work consists of five chapters. The first chapter introduces the physics
motivation and a review of recent physics results. In the second chapter, the
HADES spectrometer is described and its sub-detectors are presented. Chapter
three deals with the issue of lepton identification and the reconstruction of
the dielectron spectra in p + p collisions is presented. Here, two reactions
are characterized: inclusive and exclusive dilepton production reactions. From
the spectra obtained, the corresponding cross sections are presented with the
respective statistical and systematical errors. A comparison with theoretical
models is included as well. Conclusions are given in chapter four.
The final part of this work is dedicated to the HADES upgrade, whose goal
is among others the achievement of a reliable and fast data acquisition of the
Multiwire Drift Chambers (MDCs). Chapter five presents my contribution to
this successful project during the three years of my stay at GSI.
Der Urknall vor ungefähr 13.8 Milliarden Jahren markiert die Entstehung des Universums. Die gesamte Energie und Materie war in einem Punkt konzentriert und expandiert seitdem kontinuierlich. Wenige Sekundenbruchteile nach dem Urknall war die Temperatur und Dichte dieser Materie extrem hoch und die erschaffenen Elementarteilchen, speziell Quarks und Gluonen, durchliefen einen Zustand den man als Quark-Gluon-Plasma (QGP) bezeichnet und innerhalb dessen die starke Wechselwirkung dominiert. Innerhalb dieses Plasmas können Quarks und Gluonen, welche sonst in Hadronen gebunden sind, sich frei bewegen. Die direkte Beobachtung des frühzeitlichen QGPs ist mit heutigen Mitteln nicht möglich. Allerdings ist es möglich die Dynamik und Kinematik innerhalb eines künstlich erzeugten QGPs zu erforschen und damit Rückschlüsse auf die Vorgänge während des Urknalls zu machen.
Um künstliche QGPs unter kontrollierten Bedingungen zu erzeugen, werden heutzutage ultrarelativistische Schwerionen zur Kollision gebracht. Der stärkste je gebaute Schwerionenbeschleuniger LHC befindet sich am Kernforschungzentrum CERN in der Nähe von Genf. Das ALICE Experiment, als eines der vier großen Experimente am LHC, wurde speziell gebaut um das QGP näher zu untersuchen. Vollständig ionisierte Bleikerne werden mit nahezu Lichtgeschwindigkeit in den Experimenten zur Kollision gebracht. Die deponierte Energie lässt die Temperatur der Quarks und Gluonen innerhalb der kollidierenden Nukleonen ansteigen bis eine kritische Temperatur überschritten wird und ein Phasenübergang in das QGP erfolgt. Im Laufe der Kollision kühlt das Medium ab und gelangt unter die kritische Temperatur. Nun werden aus den ehemals freien Quarks Hadronen gebildet. Diese Hadronen oder Zerfallsprodukte dieser Hadronen können daraufhin in die Detektoren des Experiments fliegen und werden dann dort gemessen.
Es gibt mehrere mögliche Observablen des QGP, die messbar mit dem ALICE Experiment sind. Die Observablen, die in dieser Arbeit detailliert untersucht werden, sind die invariante Masse und der Paartransversalimpuls eines Dielektrons. Ein Dielektron besteht aus einem Elektron und einem Positron, welche miteinander korreliert sind. Dielektronen sind ideale Sonden zur Vermessung des QGPs. Sie werden durch verschiedene Prozesse während allen Kollisionsphasen produziert, wie beispielsweise bei den initialen, harten Stößen der kollidierenden Nukleonen oder durch den elektromagnetischen Zerfall verschiedener Hadronen wie π0 und J/ψ. Zusätzlich strahlt das QGP Dielektronen abhängig von seiner Temperatur ab. Theoretisch erlaubt dies die direkte Temperaturmessung des QGPs. Ein weiterer Vorteil der Dielektronenmessung gegenüber der Messung von Hadronen liegt darin, dass Elektronen und Positronen keine Farbladungen tragen und somit auch nicht mit der dominierenden starken Wechselwirkung innerhalb des QGPs interagieren und somit unbeeinflusst Informationen über seine Dynamik liefern können.
In dieser vorliegenden Arbeit werden Dielektronenspektren als Funktion der invarianten Masse und des Paartransversalimpulses in Blei-Blei-Kollisionen mit einer Schwerpunktsenergie von √sNN = 5.02 TeV gemessen. Das erste Mal in Schwerionenkollisionen konnte an einem der großen LHC Experimente der minimale Transversalimpuls der gemessenen Elektronen und Positronen auf peT > 0.2 GeV/c minimiert werden. Dies gibt im Vergleich zu der publizierten Messung mit peT > 0.4 GeV/c die Möglichkeit auch sogenannte weiche Prozesse zu messen, erhöht aber auch den Komplexit ätsgrad der Messung durch massiv gesteigerten Untergrund. Zusätzlich ist die Messung zentralitäsabhängig durchgeführt. Zentralität ist ein Maß für den Abstand der beiden Bleikerne zum Zeitpunkt der Kollision. Je zentraler eine Kollision, desto größer ist die deponierte Energie und desto größer und heißer ist das erzeugte QGP und die daraus resultierenden Effekte.
Die gemessenen Dielektronenverteilungen werden mit dem erwarteten Beiträgen aus hadronischen Zerfällen verglichen. Die Messung ergibt, dass der Beitrag aus semileptonischen Zerfällen von Charmquarks gemessen im Vakuum, welcher mit der Anzahl der binären Nukleon-Nukleon-Kollisionen in Blei-Blei-Ereignissen hochskaliert ist, nicht das Dielektronenspektrum beschreibt. Eine Modifizierung des Beitrag gemäß des unabhängig gemessenen nuklearen Modifikationsfaktors für einzelne Elektronen aus Charm- und Beautyquarks verbessert die Beschreibung des Dielektronenspektrums. Zusätzlich wurde der Beitrag virtueller direkter Photonen abgeschätzt. Die gemessenen Werte sind vergleichbar mit vorangegangenen Messungen bei einer niedrigeren Schwerpunktsenergie. Ebenso ist es möglich in periphären Kollisionen einen Beitrag durch eine Quelle zu vermessen, die Dielektronen bei niedrigem Transversalimpuls pT,ee < 0.15 GeV/c aussendet.
Die Untersuchung der Eigenschaften von Hadronen und ihren Konstituenten (Quarks und Gluonen) in heißer und/oder dichter Kernmaterie ist eines der Hauptziele der Physik mit schweren Ionen. Der Zustand dichter und heißer Materie kann im Labor für kurze Zeit in der Reaktionszone von relativistischen Schwerionenkollisionen geschaffen werden. Einen Einblick über die Eigenschaften der starken Wechselwirkung und über die Massenerzeugung der Hadronen geben Dileptonen-Experimente, da Leptonen nicht von der starken Wechselwirkung beeinflusst werden. Unabhängig von der Strahlenergie zeigen die invarianten Massenspektren der Dileptonen in Schwerionenkollisionen im Vergleich zur Superposition der erwarteten hadronischen Zerfälle im Vakuum einen Überschuss im invarianten Massenbereich 0,2 - 0,6 GeV/c². Während dieser Überschuss bei CERN-SPS Energien in Zusammenhang mit der In-Medium-Modifikation der Spektralfunktion des Rho-Mesons gebracht wird, konnte die hohe Zahl der Dileptonen, die von der DLS Kollaboration in C + C und Ca + Ca bei 1 GeV/u beobachtet wurde, bis zum Erscheinen der HADES Daten nicht zufrieden stellend erklärt werden. Die Diskrepanz zwischen experimentellen Daten und Transportrechnungen erhielt den Namen "DLS Puzzle". In diesem Zusammenhang wurde eine kontroverse Diskussion über die Validität der Ergebnisse der DLS Kollaboration geführt. Das HADES Detektorsystem (High Acceptance Di-Electron Spectrometer), das sich am Schwerionensynchroton der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt befindet, ist zur Zeit das einzige Experiment, das Dielektronen bei Projektilenergien von 1 - 2 GeV/u misst. Es tritt somit die Nachfolge des DLS Experiments an. Jedoch ist HADES durch zahlreiche technische Verbesserungen, u.a. Massenauflösung und Akzeptanz, im Vergleich zum Spektrometer DLS ein Experiment der 2. Generation. Erste Ergebnisse der Messung 12C + 12C bei 2 GeV/u der HADES Kollaboration bestätigen den generellen Trend einer erhöhten Zählrate im Vergleich zu den erwarteten Beiträgen von hadronischen Zerfällen. Es stellt sich die Frage, wie sich diese Beobachtung zu kleineren Strahlenergien hin fortsetzt. Im Rahmen der vorliegenden Arbeit wird die mit dem HADES Detektorsystem durchgeführte Messung der Dielektronenproduktion in der Schwerionenkollision 12C + 12C bei einer Projektilenergie von 1 GeV/u ausgewertet. Wesentliche Zielsetzungen sind u. a. die Überprüfung der DLS Daten und die Bestimmung der Anregungsfunktion des Überschusses. In der Analyse wird demonstriert, dass Leptonen effizient nachgewiesen werden. Die dargestellte Paaranalyse zeigt, dass der kombinatorische Untergrund erfolgreich reduziert und die Menge der wahren Dielektronen weitgehend erhalten werden kann. Nach Abzug des kombinatorischen Untergrundes werden die effizienzkorrigierten und normierten invarianten Massen-, Transversalimpuls- und Rapiditätsverteilungen der Dielektronen untersucht. Die Ergebnisse werden mit hadronischen Cocktails verschiedener theoretischer Ansätze verglichen. Diese beinhalten die Beiträge kurz- und langlebiger Dileptonenquellen einer thermischen Quelle (PLUTO) sowie mikroskopische Transportrechnungen (HSD,IQMD). Im Massenbereich 0,2 - 0,6 GeV/c² wird der gemessene Überschuss relativ zu den Vorhersagen bestätigt. Zusammen mit den Ergebnissen der Messung 12C + 12C bei 2 GeV/u zeigt sich, dass der Überschuss mit abnehmender Strahlenergie relativ zunimmt. Eine detaillierte Analyse zeigt, dass der Überschuss in dem Massenintervall 0,15 - 0,5 GeV/c² als Funktion der Projektilenergie entsprechend der Zahl der produzierten neutralen Pionen und nicht wie die Zahl des Eta-Mesons skaliert. Der direkte Vergleich der HADES mit den DLS Ergebnissen zeigt, dass die Daten der vorliegenden Arbeit mit den für lange Zeit angezweifelten DLS Resultaten übereinstimmen. Die Frage nach dem physikalischen Ursprung des Überschusses rückt somit erneut in den Vordergrund. In diesem Zusammenhang ist das Studium der Dileptonenproduktion in elementaren Reaktionen p + p und d + p wichtig. Neuere Rechnungen mit einem One Boson Exchange (OBE) Modell deuten darauf hin, dass die Beiträge von p-p und hauptsächlich p-n zur Bremsstrahlung signifikant höher sind als bisher vermutet. Eine aktualisierte Transportrechnung (HSD), deren Parametrisierung der Bremsstrahlung durch dieses OBE Resultat inspiriert ist, scheint in der Lage zu sein, die Ergebnisse der Messungen 12C + 12C bei 1 GeV/u der HADES und DLS Kollaboration recht gut zu beschreiben. Die entsprechenden Vergleiche sind dargestellt und werden diskutiert. Aber auch die Transportrechnung IQMD erklärt die HADES Daten recht gut. Daher ist es offensichtlich, dass eine direkte Gegenüberstellung der OBE Modellrechnungen und der von der HADES Kollaboration gemessenen und derzeit analysierten Daten zur Dileptonenproduktion in p + p und d + p Reaktionen erforderlich ist. Nur so können sichere Schlüsse über den Ursprung der Dileptonen bei SIS Energien gezogen werden.
In dieser Arbeit konnten erstmals differentielle Ionisationswirkungsquerschnitte für Antimaterie-Materie-Stöße gemessen werden. Mit Hilfe der COLd Target Recoil Ion Momentum Spectroscopy (COLTRIMS) wurden die Stoßsysteme p± + He ® p± + He+1 + ebei einer Einschußenergie von etwa 1 MeV untersucht. Die experimentellen Ergebnisse für die Einfachionisation von Helium durch Antiprotonenstöße werden mit denen für Protonenstöße verglichen. Dies erlaubt den Stoßmechanismus in Abhängigkeit von der Richtung der störenden Kraft zu studieren. Als Ergebniss konnte die Post-Collision-Interaction (PCI) in der longitudinalen Richtung des Stoßes (Projektilrichtung) quantitativ bestimmt werden. Trotz der großen experimentellen Schwierigkeiten (hochenergetischer Antiprotonenstrahl, geringer Antiprotonenstrom, große Strahldivergenz und Strahlungsuntergrund durch Antiprotonenzerfall) konnten absolute die Wirkungsquerschnitte in Abhängigkeit vom Longitudinalimpuls gemessen werden. Innerhalb der experimentellen Fehler zeigen die Longitudinalimpulsverteilungen keine Abhängigkeit vom Projektilvorzeichen. Die folgende Tabelle faßt die mittleren Impulse des Elektrons und des Rückstoßions für Antiprotonen- und Protonenstöße zusammen Rückstoßion Elektron Antiproton 0.07±0.045 a.u. 0.087±0.039 a.u. Proton 0.075±0.025 a.u. 0.075±0.007 a.u. Die Tabelle zeigt, daß nach dem Stoß die Elektronen in beiden Stoßsystemen etwas nach vorne emittiert werden. Das steht im Widerspruch zu den theoretischen Vorhersagen, wonach erwartet wird, daß die Elektronen im Protonenstoß etwas nach „vorne“ und im Antiprotonenstoß etwas nach „hinten“ emittiert werden. Das Rückstoßion agiert in beiden Systemen als Beobachter. Dies widerspricht ebenfalls den Vorhersagen, wonach erwartet wird, daß das Rückstoßion im Protonenstoß etwas nach hinten und im Antiprotonenstoß etwas nach vorne emittiert wird. Die experimentellen Ergebnisse zeigen eine bessere Übereinstimmung mit den Continuum-Distorted-Wave (CDW) Rechnungen als mit den Classical- Trajectory-Monte-Carlo (CTMC) Rechnungen. Im Vergleich zur Stößen mit schnellen hochgeladenen Ionen zeigen die Daten dieser Arbeit, daß die Elektronen die Impulsverluste des Projektils kompensieren, während in hochgeladenen Ion-Atom-Stöße die Rückstoßionen den Impuls der Elektronen kompensieren.
Während den ersten Mikrosekunden nach dem Urknall glaubt man, dass unser Universum aus einer heißen, dichten und stark wechselwirkenden Materie bestanden haben soll, welche man das Quark-Gluonen-Plasma (QGP) nennt.
In diesem Medium sind die elementaren Bausteine der Materie, die Quarks und die Gluonen, nicht mehr in Hadronen gebunden, sondern können sich stattdessen wie quasi-freie Teilchen verhalten.
Für die ALICE Kollaboration an CERN's Large Hadron Collider (LHC) ist die Untersuchung dieses Mediums eines der Hauptziele. Um dieses Medium im Labor zu erzeugen, werden Protonen und Nukleonen auf nahezu Lichtgeschwindigkeit beschleunigt und anschließend zur Kollision gebracht. Dabei werden Schwerpunktsenergien von bis zu 13 TeV bei Proton-Proton (pp) Kollisionen und bis zu 5.02 TeV bei Blei-Blei (Pb--Pb) Kollisionen erreicht.
Bei solchen hochenergetischen Kollisionen werden die kritischen Werte der Energiedichte und Temperatur von jeweils ungefähr 1 GeV/c und undgefähr 155 MeV überschritten, welche mithilfe von "lattice QCD" bestimmt wurden. Sie bieten daher die perfekten Voraussetzungen für einen Phasenübergang von normaler Materie zu einem QGP.
Die Entwicklung eines solchen Mediums, beginnend bei der eigentlichen Kollision, gefolgt von der Ausbildung des Plasmas und der letztendlichen Hadronisierung, kann jedoch nicht direkt untersucht werden, da das Plasma eine extrem kurze Lebensdauer hat.
Die Studien die das QGP untersuchen möchten, müssen sich deshalb auf Teilchenmessungen und deren Veränderung aufgrund von Einflüssen durch das Medium beschränken.
Es ist noch nicht definitiv geklärt, ob sich ein QGP nur in Kollisionen schwerer Ionen bildet, oder ob dies auch in kleineren Kollisionssystemen wie Proton-Proton oder Proton-Blei der Fall ist.
Damit in dieser Thesis Einschränkungen bezüglich einer möglichen Erzeugung eines mini-GQP in kleinen Kollisionssystemen gemacht werden kann, wird der Fokus auf Messungen von neutralen Pionen und Eta Mesonen mit dem ALICE Detektor am CERN LHC gesetzt. Hierfür wird in einem Referenzsystem von Proton-Proton Kollisionen bei sqrt(s)=8 TeV und in einem Proton-Blei (p--Pb) System bei sqrt(sNN)=8.16 TeV, welches eine nukleare Modifikation erfährt, gemessen und die Ergebnisse verglichen.
Da in Proton-Proton Kollisionen die Bildung eines QGP, aufgrund zu geringer Energiedichte, nicht erwartet wird, dient eine Messung in diesem System als Messbasis, um Effekte der Kollision selbst von Effekten nach der Kollision zu separieren, welche die Teilchenproduktion beeinflussen.
Teilchen können zusätzlich zu dem QGP auch mit kalter Kernmaterie interagieren, was sich in asymmetrischen Proton-Blei Kollisionen testen lässt. In diesem Kollisionssystem wird größtenfalls ein vergleichsweise kleines QGP gebildet, wohingegen das Blei Ion selbst als kalte Kernmaterie agieren kann.
Zusätzlich zu den Mesonenmessungen wird in dieser Thesis auch die Erzeugung von direkten Photonen bei niedrigen Transversalimpulsen (pT) in multiplizitätsabhängigen p--Pb Kollisionen bei einer Schwerpunktsenergie von sNN=5.02 TeV gemessen, welche als direkte Probe, sowie als charakteristisches Signal des QGP gilt.
Die neutralen Pionen, welche in dieser Thesis gemessen werden, kann man als einen Überlagerungszustand der zwei leichtesten Quarksorten, dem "up" (u) und dem "down" (d) Quark, sowie deren entsprechenden Anti-Teilchen verstehen.
Das eta meson hingegen hat einen zusätzlichen Anteil des "strange" Quarks und eine resultierende höhere Masse.
Quarks sind Teil des Standardmodells der Teilchenphysik, welches die Elementarteilchen und die zwischen ihnen wirkenden Elementarkräfte, ausgeübt durch Bosonen, beschreibt.
Das Modell umfasst insgesamt sechs Quarks, welche sich durch ihre Masse und Ladung unterscheiden und als Grundbestandteil von gebundenen Zuständen, sogenannten Hadronen, fungieren.
Die "up" und "down" Quarks gelten hierbei als die leichtesten Quarks und kommen daher am häufigsten in der Natur vor. Das bekannteste Beipiel stellen hier die allgemein bekannten Protonen (uud) und Neutronen (udd) dar, welche die Grundkomponenten von Nukleonen sind.
Die restlichen Quarks tragen eine deutlich höhere Masse und haben daher eine große Tendenz, sich in leichtere Quarks umzuwandeln, wodurch ihre Lebensdauer sehr gering ist. Die "top" und "bottom" Quarks, welche die Schwersten sind, können daher nicht in gewöhnlicher Materie gefunden werden.
Sie können jedoch experimentell durch hoch energetische Teilchenkollisionen erzeugt werden und indirekt über ihre Zerfallsprodukte nachgewiesen werden.
Quarks tragen eine elektrische Ladung von entweder 1/3 oder 2/3, sowie eine Farbladung, wobei Letztere verantwortlich für ihre Bindung in Hadronen ist.
Hadronen bestehen entweder aus drei Quarks, dann werden sie Baryonen genannt, oder aus einem Quark-Antiquark Paar, welches Meson genannt wird.
Diese gebundenen Zustände erfüllen eine insgesamt neutrale Farbladung, sowie eine vollzählige elektrische Ladung.
Des Weiteren gibt es auch exotische Penta-Quark Zustände, welche aus vier Quarks und einem Antiquark bestehen und bereits experimentell nachgewiesen wurden.
Aufgrund der starken Wechselwirkung, welche durch Gluonen vermittelt wird, können Quarks nicht einzeln beobachtet werden.
...
Direct photon emission from heavy-ion collisions has been calculated and compared to available experimental data. Three different models have been combined to extract direct photons from different environments in a heavy-ion collision: Thermal photons from partonic and hadronic matter have been extracted from relativistic, non-viscous 3+1-dimensional hydrodynamic calculations. Thermal and non-thermal photons from hadronic interactions have been calculated from relativistic transport theory. The impact of different physics assumptions about the thermalized matter has been studied. In pure transport calculations, a viscous hadron gas is present. This is juxtaposed with ideal gases of hadrons with vacuum properties, hadrons which undergo a chiral and deconfinement phase transition and with a system that has a strong first-order phase transition to a deconfined ideal gas of quarks and gluons in the hybrid model calculations with the various Equations of State. The models used for the determination of photons from both hydrodynamic and transport calculations have been elucidated and their numerical properties tested. The origin of direct photons, itemised by emission stage, emission time, channel and baryon number density, has been investigated for various systems, as have the transverse momentum spectra and elliptic flow patterns of direct photons. The differences of photon emission rates from a thermalized transport box and the hadronic photon emission rates that are used in hydrodynamic calculations are found to be very similar, as are the spectra from calculations of heavy-ion collisions with transport model and hybrid model with hadronic Equation of State. Taking into account the full (vacuum) spectral function of the rho-meson decreases the direct photon emission by approximately 10% at low photon transverse momentum. The numerical investigations show that the parameter with the largest impact on the direct photon spectra is the time at which the hydrodynamic description is started. Its variation shows deviations of one to two orders of magnitude. In the regime that can be considered physical, however, the variation is less than a factor of 3. Other parameters change the direct photon yield by up to approximately 20%. In all systems that have been considered -- heavy-ion collisions at E_lab = 35 AGeV and 158 AGeV, (s_NN)**1/2 = 62.4 GeV, 130 GeV and 200 GeV -- thermal emission from a system with partonic degrees of freedom is greatly enhanced over that from hadronic systems, while the difference between the direct photon yields from a viscous and a non-viscous hadronic system (transport vs. hydrodynamics) is found to be very small. Predictions for direct photon emission in central U+U-collisions at 35 AGeV have been made. Since non-soft photon sources are very much suppressed at this energy, experimental results should very easily be able to distinguish between a medium that is entirely hadronic and a system that undergoes a phase transition from partonic to hadronic matter. In the case of lead-lead collisions at 158 AGeV, the situation is not so clear. In central collisions, the complete direct photon spectra including prompt photons seem to favour hadronic emission sources, while the partonic calculations only slightly overpredict the data. In peripheral collisions at the same energy, the hadronic contribution is more than one order of magnitude smaller than the prompt photon contribution, which fits the available experimental data. A similar picture presents itself at higher energies. At RHIC energies, however, the difference between transport calculations and hadronic hybrid model calculations is largest. Hybrid model calculations with partonic degrees of freedom can describe the experimental results in gold-gold collisions at 200 GeV. The elliptic flow component of direct photon emission is found to be consistently positive at small transverse momenta. This means that the initial photon emission from a non-flowing medium does not completely overshine the emission patterns from later stages. High-pt photons dominantly come from the beginning of a heavy-ion collision and therefore do not carry the directed information of an evolving medium.
Binary neutron star mergers represent unique observational phenomena because all four fundamental interactions play an important role at various stages of their evolution by leaving imprints in astronomical observables. This makes their accurate numerical modeling a challenging multiphysics problem that promises to increase our understanding of the high-energy astrophysics at play, thereby providing constraints for the underlying fundamental theories such as the gravitational interaction or the strong interaction of dense matter. For example, the first and so far only multi-messenger observation of the binary neutron star merger GW170817 resulted in numerous bounds on the parameters of isolated non-rotating neutron stars, e.g., their maximum mass or their distribution in radii, which can be directly used to constrain the equation of state of cold nuclear matter. While many of these results stem from the observation of the inspiral gravitational-wave signal, the postmerger phase of binary neutron star mergers encodes even more details about the extreme physics of hot and dense neutron star matter. In this Thesis we focus on the exploration of dissipative and shearing effects in binary neutron star mergers in order to identify novel approaches to constrain hot and dense neutron star matter.
The first effect is the well-motivated dissipation of energy due to the bulk viscosity which arises from violations of weak chemical equilibrium. We start by exploring the impact of bulk viscosity on black-hole accretion. This simplified problem gives us the opportunity to develop a test case for future codes taking into account the effects of dissipation in a fully general-relativistic setup and build intuition in the physics of relativistic dissipation. Next, we move on to isolated neutron stars and binary neutron star mergers by developing a robust implementation of bulk-viscous dissipation for numerical relativity simulations. We test our implementation by calculating the damping of eigenmodes of isolated neutron stars and the violent migration scenario. Finally, we present the first results on the impact of bulk viscosity on binary neutron star mergers. We identify a number of ways how bulk viscosity impacts the postmerger phase, out of which the suppression of gravitational-wave emission and dynamical mass ejection are the most notable ones.
In the last part of this Thesis we investigate how the shearing dynamics at the beginning of the merger affects the amplification of different initial magnetic-field topologies. We explore the hypothesis that magnetic fields which are located only in a small region near the stellar surface prior to merger lead to a weaker magnetic-field amplification. We show first evidence which confirms this hypothesis and discuss possible implications for constraining the physics of superconduction in cold neutron stars.
The aim of this thesis is to provide a complete and consistent derivation of second-order dissipative relativistic spin hydrodynamics from quantum field theory. We will proceed in two main steps. The first one is the formulation of spin kinetic theory from quantum field theory using the Wigner-function formalism and performing an expansion in powers of the Planck constant. The essential ingredient here is the nonlocal collision term. We will find that the nonlocality of the collision term arises at first order in the Planck constant and is responsible for the spin alignment with vorticity, as it allows for conversion between spin and orbital angular momentum.
In the second step, this kinetic theory is used as the starting point to derive hydrodynamics including spin degrees of freedom. The so-called canonical form of the conserved currents follows from Noether’s theorem.
Applying an HW pseudo-gauge transformation, we obtain a spin tensor and energy-momentum tensor with obvious physical interpretation. Promoting all components of the HW tensors to be dynamical, we derive
second-order dissipative spin hydrodynamics. The additional equations of motion for the dissipative currents are obtained from kinetic theory generalizing the method of moments to include spin degrees of freedom.
Das Spektrum der Einfachionisation von Helium unterhalb der Doppelionisationsschwelle bei 79 eV ist reich an komplexen Strukturen. Eine Vielzahl von Resonanzen tritt dort auf. Diese Resonanzen sind unmittelbar verbunden mit doppelt angeregten Zuständen von Helium. Unterhalb einer Photonenenergie von ca. 77 eV liegen diese Resonanzen geordnet vor, und sie können dort mit Hilfe weniger Quantenzahlen klassifiziert werden. Das trifft aber nicht auf den Bereich dicht unterhalb der Doppelionisationsschwelle zu, d.h. zwischen ca. 78,2 eV und 79 eV. Hier verlieren die bis dahin verwendeten Quantenzahlen ihre Gültigkeit. Dieses Gebiet ist sowohl theoretisch als auch experimentell nahezu unerforscht. Traditionelle experimentelle Methoden stoßen hier auf Hindernisse, die auch in den kommenden Jahren höchstwahrscheinlich nicht überwunden werden können. Das größte Problem hierbei sind die sehr geringen Reaktionsraten. Aus diesem Grund wurde im Rahmen dieser Arbeit ein neuer Weg gewählt, der diese Probleme weitgehend hinter sich läßt und Untersuchungen in dieser äußerst schwer zugänglichen Region ermöglicht. Die neue Technik weist gegenüber bisherigen Methoden eine um mehrere Größenordnungen gesteigerte Nachweiseffizienz auf, wodurch Messungen in diesem Energiebereich innerhalb eines vernünftigen Zeitrahmens praktisch erst ermöglicht werden. Erreicht wird dies durch ein Spektrometer, das zu allen Raumrichtungen hin sensitiv ist und die Impulse und Flugrichtungen der emittierten Elektronen individuell für jede einzelne Reaktion nachweisen kann. Die Elektronen werden zusammen mit dem jeweiligen He+-Ion in Koinzidenz nachgewiesen, wodurch eine sehr effiziente Unterdrückung von Untergrundereignissen realisiert wird. Die vorgestellte Meßmethode basiert auf der sogenannten Coltrims-Technik, die seit einigen Jahren im Bereich der Atom- und Molekülphysik äußerst erfolgreich eingesetzt wird. Ihre Anwendung auf niederenergetische Elektronen mit kinetischen Energien im Bereich zwischen 0 eV und 0,5 eV war bisher jedoch nur sehr eingeschränkt möglich und mit großen Unsicherheiten verbunden, da in diesem Fall die Einflüsse verschiedener Störquellen wie beispielsweise das Erdmagnetfeld berücksichtigt werden müssen. Diese Probleme konnten gelöst werden, so daß nun auch winkelaufgelöste Messungen an Elektronen mit weniger als 100 meV kinetischer Energie möglich sind. Die Apparatur wurde im Rahmen einer Messung am Berliner Synchrotron BESSY II erfolgreich eingesetzt. Untersucht wurden die partiellen Wirkungsquerschnitte sN(E) der verschiedenen Ausgangskanäle der Reaktion g(E) + He -> He** -> e- + He+(N), wobei E die Photonenenergie und N die Hauptquantenzahl des erzeugten Heliumions ist. Zusätzlich wurde zu jedem dieser Reaktionskanäle die Winkelverteilung bN(E) der emittierten Elektronen bestimmt. Ziel der Messung war es, zunächst einen Bereich des Energiespektrums abzudecken, für den theoretische Vorhersagen existieren. Im weiteren Verlauf der Messung wurde dieser Bereich ausgedehnt bis hin zur Doppelionisationsschwelle. Die Ergebnisse werden verschiedenen theoretischen Vorhersagen gegenübergestellt und diskutiert. Die aufgenommenen Daten umfassen auch Bereiche des Energiespektrums, für die noch keine theoretischen Ergebnisse vorliegen (78,3 eV<E<78,9 eV). Die hier beobachteten Verhaltensweisen insbesondere der Winkelverteilungen der emittierten Elektronen werden mit veröffentlichten Daten verglichen, die bei einer Photonenenergie von E=80,1 eV aufgenommen wurden, d.h. dicht oberhalb der Doppelionisationsschwelle. Die beobachteten Parallelen können innerhalb eines klassischen Modells interpretiert werden.
The theoretical and experimental investigation of exotic hadrons like tetraquarks is an important branch of modern elementary particle physics. In this thesis I investigate different four-quark systems using lattice QCD and search for evidence of stable tetraquark states or resonances.
Lattice QCD as a non-perturbative approach to QCD allows an accurate and reliable determination of the masses of strongly bound hadrons.
However, most tetraquarks appear as weakly bound states or resonances, which makes a theoretical investigation using lattice QCD difficult due to the finite spatial volume. A rigorous treatment of such systems is feasible using the so-called Lüscher method. This allows to calculate the scattering amplitude based on the finite-volume energy spectrum determined in a lattice QCD calculation. Similarly to the analysis of experimental data, this scattering amplitude can be used to determine the binding energies of bound states or the masses and decay widths of resonances in the infinite volume.
In my work I calculate the low-energy energy spectra of different four-quark systems and use - if necessary - the Lüscher method to determine the masses of potential tetraquark states.
I focus on systems consisting of two heavy antiquarks and two light quarks, where at least one of the heavy antiquarks is a bottom quark.
Even though such tetraquarks have not yet been experimentally detected, they are considered promising candidates for particles that are stable with respect to the strong interaction.
A decisive step for successfully calculating low-lying energy levels for such four-quark systems is a carefully chosen set of creation operators, which represent the physical states most accurately. In addition to operators that generate a local structure where all four quarks are located at the same space-time point, I also use so-called scattering operators that resemble two spatially separated mesons. These scattering operators turned out to be relevant for successfully determining the lowest energy levels and are therefore essential, especially if a Lüscher analysis is carried out.
In my work, I considered two different lattice setups to study the four-quark systems $\bar{b}\bar{b}ud$ with $I(J^P)=0(1^+) $, $\bar{b}\bar{b}us$ with $J^P=1^+ $ and $\bar{b}\bar{c}ud$ with $I(J^P)=0(0^+) $ and $I(J^P)=0(1^+) $ and to predict potential tetraquark states. In both setups, I considered scattering operators. While in the first setup I used them only as annihilation operators, in the second setup they were included both as creation and annihilation operators. Additionally, in the second lattice setup, I performed a simplified investigation of the $\bar{b}\bar{b}ud$ system with $I(J^P)=0(1^-) $, which is a potential candidate for a tetraquark resonance. The results of the investigation of the mentioned four-quark systems can be summarized as follows:
For the $ \bar{b}\bar{b}ud $ four-quark system with $ I(J^P)=0(1^+) $ I found a deeply bound ground state slightly more than $ 100\,\textrm{MeV} $ below the lowest meson-meson threshold. The existence of a corresponding $\bar{b}\bar{b}ud$ tetraquark in the infinite volume was confirmed using a Lüscher analysis and possible systematic errors due to the use of lattice QCD were taken into account.
Similar results were obtained for the $ \bar{b}\bar{b}us $ four-quark system with $ J^P=1^+ $. Again, I found a ground state well below the lowest meson-meson threshold, but slightly weaker bound than for the $ \bar{b}\bar{b}ud $ system. Effects due to the finite volume turned out to be negligible for this system, as already predicted for the $ \bar{b}\bar{b}ud $ system. \item For the $ \bar{b}\bar{c}ud $ four-quark systems with $ (J^P)=0(0^+) $ and $ (J^P)=0(1^+) $ I was able to rule out the existence of a deeply bound tetraquark states based on the energy spectrum in the finite volume. However, by means of a scattering analysis using the Lüscher method, I found evidence a broad resonance for both channels.
In the case of the $ \bar{b}\bar{b}ud $ four-quark system with $ I(J^P)=0(1^-) $, I could neither confirm the existence of a resonance, nor rule out its existence with certainty.
In particular, my investigations showed that the results of the two different lattice simulations are consistent. The theoretical prediction of the bound tetraquark states $\bar{b}\bar{b}ud$ and $\bar{b}\bar{b}us$ as well as the tetraquark resonances in the $\bar{b}\bar{c}ud$ system in this work represent an important contribution to the future experimental search for exotic hadrons and can support the discovery of previously unobserved particles.
Die vorliegende Dissertation untersucht die Nichtgleichgewichtsdynamik von relativistischen Schwerionenkollisionen ausgehend von der anfänglichen Produktion von Teilchen durch den Zerfall von Strings, der Bildung eines Quark-Gluon-Plasmas (QGP), dessen kinetische und chemische Äquilibrierung als Funktion der Zeit sowie seine Transporteigenschaften im Gleichgewicht bei endlicher Temperatur und endlichem chemischen Potential. Ein Verständnis der frühen Phase der Schwerionenkollisionen ist insbesondere von großen Interesse, da letztere eine Verbindung zwischen den ersten Nukleon-Nukleon Kollisionen und der Quark-Gluon-Plasma Phase herstellen, die zu einem späteren Zeitpunkt ein gewisses Maß an Thermalisierung zeigt. Allerdings können nur Nichtgleichgewichts-Theorien eine Verbindung zwischen dem anfänglichen QGP und seiner - zumindest partiellen - Thermalisierung herstellen. Um die Dynamik eines stark wechselwirkenden Mediums wie des Quark-Gluon-Plasmas zu beschreiben, reichen übliche Transportgleichungen (basierend auf der Boltzmann-Gleichung) nicht aus und es müssen komplexere Theorien, die auch für stark korrelierte Medien geeignet sind, angewendet werden. Hier kommen hydrodynamische Simulationen oder Transportrechnungen - basierend auf verallgemeinerten Transportgleichungen - zum Einsatz. Solche verallgemeinerte Transportgleichungen, wie die Kadanoff-Baym-Gleichungen, ergeben sich aus der quantenmechanischen Nichtgleichgewichts-Vielteilchentheorie, in der Green’s- Funktionen in Minkowski Raum-Zeit die interessierenden Größen sind, um die Dynamik des betrachteten Mediums zu beschreiben. Mit geeigneten Näherungen kann man so kinetische Transportgleichungen erhalten, die eine einheitliche Behandlung von stabilen und instabilen Teilchen auch außerhalb des Gleichgewichts ermöglichen. Diese Bestandteile bilden die Basis des Transportmodells Parton-Hadron-String Dynamics (PHSD), welches daher ein geeignetes ’Instrument’ ist um die verschiedenen Phasen einer Schwerionenkollision zu analysieren, egal ob die verschiedenen Formen der Materie im Gleichgewicht sind oder nicht.
In dieser Arbeit wird zunächst die Quantenchromodynamik (QCD) vorgestellt und erklärt, wie diese Theorie im Laufe der Jahre entwickelt wurde um ein wichtiger Bestandteil des Standardmodells der Teilchenphysik zu werden. Wir werden weiterhin die verbleibenden Herausforderungen in unserem Verständnis der QCD vorstellen, die sich primär auf das Phasendiagramm der stark wechselwirkenden Materie konzentrieren.
Im zweiten Kapitel untersuchen wir die Nichtgleichgewichts-Feldtheorie und die damit verbundenen Techniken - wie die Keldysh-Kontur - zur Beschreibung der Green’schen Funktionen als wesentlichen Freiheitsgrade. Wir leiten die Evolutionsgleichung für die Green’schen Funktionen her, d. h. die Kadanoff Baym-Gleichungen am Beispiel einer skalaren Feldtheorie.
Im nächsten Kapitel wird das Transportmodell Parton-Hadron-String Dynamics (PHSD), welches die Anwendung der verallgemeinerten Transportgleichungen zur Beschreibung relativistischer Schwerionenkollisionen darstellt, vorgestellt.
Wir beginnen im Kapitel 4 mit der Untersuchung der Nichtgleichgewichtseigenschaften des Quark-Gluon-Plasmas, welches bei relativistischen Schwerionenkollisionen erzeugt wird. Zu diesem Zweck vergleichen wir die Quark-Gluon-Plasmaentwicklung aus dem PHSD mit einem viskosen hydrodynamischen Modell, bei dem ein lokales kinetisches und chemisches Gleichgewicht angenommen wird.
Im Kapitel 5 konzentrieren wir uns auf das frühe Vorgleichgewichtsstadium ultra-relativistischer Schwerionenkollisionen und insbesondere auf die Freiheitsgrade der QGP-Phase in diesem Stadium. Wir untersuchen die Auswirkungen eines QGP, welches anfänglich entweder aus einem System aus massiven Gluonen (Szenario I) oder alternativ aus Quarks und Antiquarks (Szenario II) besteht. Das nächste Kapitel wird ebenfalls die Produktion von Teilchen im Frühstadium von Schwerionenkollisionen behandeln, jedoch bei niedrigeren Kollisionsenergien. Hier wird eine mikroskopische Beschreibung des K+/pi+-Verhältnisses im Vordergrund stehen, d. h. die Erklärung des Maximums in diesem Verhältnis bei etwa 30 A GeV ("Horn") in zentralen Au+Au (oder Pb+Pb) Kollisionen. Insbesonders werden wir die Modifikation des String-Fragmentierungsprozesses (über den Schwinger-Mechanismus) in einer Umgebung mit hoher hadronischer Dichte aufgrund der teilweisen Wiederherstellung der chiralen Symmetrie untersuchen.
In Kapitel 7 erweitern wir das Parton-Hadron-String Dynamics (PHSD)-Transportmodell im partonischen Sektor, indem wir explizit die totalen und differentiellen partonischen Streuungsquerschnitte als Funktion der Temperatur T und des baryochemischen Potentials μB berechnen auf der Basis der effektiven Propagatoren und Kopplungen des Dynamical QuasiParticle Models (DQPM), welches auch die generelle Zeitentwicklung der partonischen Freiheitsgrade beschreibt. Wir finden nur eine sehr bescheidene Änderung von n/s mit dem baryonchemischen Potential μB in Abhängigkeit von der skalierten Temperatur T/Tc(μB). Dies gilt auch für eine Vielzahl von hadronischen Observablen aus zentralen A+A Kollisionen im Energiebereich von 5 GeV < vsNN < 200 GeV bei der Implementierung der differentiellen Querschnitte in das PHSD-Modell. Da wir in Schwerionen-Observablen nur kleine Spuren einer μB-Abhängigkeit finden - obwohl die effektiven Partonenmassen und Kollisionsbreiten sowie deren Partonenquerschnitte eindeutig von μB abhängen - impliziert dies, dass man eine beträchtliche Partonendichte und ein großes Raum-Zeit-QGP-Volumen zur Untersuchung der Dynamik in der partonischen Phase benötigt. Diese Bedingungen sind nur bei hohen Kollisionsenergien erfüllt, bei denen μB jedoch eher niedrig ist. Wenn andererseits die Kollisionsenergie verringert und somit μB erhöht wird, wird die hadronische Phase dominant und dementsprechend wird es zunehmend schwieriger, Signale aus der Partonendynamik auf der Basis von "Bulk"-Observablen zu extrahieren.
In this thesis, various aspects on the theoretical description of ultracold bosonic atoms in optical lattices are investigated. After giving a brief introduction to the fundamental concepts of BECs, atomic physics, interatomic interactions and experimental procedures in chapter (1), we derive the Bose-Hubbard model from first principles in chapter (2). In this chapter, we also introduce and discuss a technique to efficiently determine Wannier states, which, in contrast to current techniques, can also be extended to inhomogeneous systems. This technique is later extended to higher dimensional, non-separable lattices in chapter (5). The many-body physics and phases of the Bose-Hubbard is shortly presented in chapter (3) in conjunction with Gutzwiller mean-field theory, and the recently devised projection operator approach. We then return to the derivation of an improved microscopic many-body Hamiltonian, which contains higher band contributions in the presence of interactions in chapter (4). We then move on to many-particle theory. To demonstrate the conceptual relations required in the following chapter, we derive Bogoliubov theory in chapter (5.3.4) in three different ways and discuss the connections. Furthermore, this derivation goes beyond the usual version discussed in most textbooks and papers, as it accounts for the fact, that the quasi-particle Hamiltonian is not diagonalizable in the condensate and the eigenvectors have to be completed by additional vectors to form a basis. This leads to a qualitatively different quasi-particle Hamiltonian and more intricate transformation relations as a result. In the following two chapters (7, 8), we derive an extended quasi-particle theory, which goes beyond Bogoliubov theory and is not restricted to weak interactions or a large condensate fraction. This quasi-particle theory naturally contains additional modes, such as the amplitude mode in the strongly interacting condensate. Bragg spectroscopy, a momentum-resolved spectroscopic technique, is introduced and used for the first experimental detection of the amplitude mode at finite quasi-momentum in chapter (9). The closely related lattice modulation spectroscopy is discussed in chapter (10). The results of a time-dependent simulation agree with experimental data, suggesting that also the amplitude mode, and not the sound mode, was probed in these experiments. In chapter (11) the dynamics of strongly interacting bosons far from equilibrium in inhomogeneous potentials is explored. We introduce a procedure that, in conjunction with the collapse and revival of the condensate, can be used to create exotic condensates, while particularly focusing on the case of a quadratic trapping potential. Finally, in chapter (12), we turn towards the physics of disordered systems derive and discuss in detail the stochastic mean-field theory for the disordered Bose-Hubbard model.
In der vorliegenden Arbeit wurden mikroskopische Studien zur Äquilibrierung von partonischer und hadronischer Materie im Rahmen einer Nichtgleichgewichts-Transporttheorie durchgeführt, die sowohl hadronische als partonische Freiheitsgrade enthält und den Übergang zwischen beiden Phasen dynamisch beschreibt. Des Weiteren wurden die thermischen Eigenschaften des Gleichgewichtszustandes der stark wechselwirkenden Materie untersucht, insbesondere Fluktuationen in der Teilchenzahl wie auch höhere Momente von Observablen und deren Verhältnisse. Besonderes Interesse galt dabei den Transportkoeffizienten wie Scher- und Volumenviskosität sowie der elektrischen Leitfähigkeit.
Die Methode der Nichtgleichgewichts-Green'schen Funktionen - initiiert von Schwinger sowie Kadanoff und Baym - wurde vorgestellt um hochenergetische Kern-Kern Kollisionen zu beschreiben. Weiterhin wurde der Schwinger-Keldysh Formalismus benutzt um im Sinne einer Zweiteilchen-irrediziblen Näherung (2PI) die Dynamik von 'resummierten' Propagatoren und Kopplungen in konsistenter Weise zu beschreiben. Des Weiterhin wurden generalisierte Transportgleichungen auf der Basis der Kadanoff-Baym Gleichungen (in Phasenraumdarstellung) abgeleitet und ein Testteilchenverfahren zur Lösung dieser Gleichungen vorgestellt. Damit wurde der formale Rahmen der Parton-Hadron-String Dynamik (PHSD) abgesteckt.
Das PHSD Transportmodell wurde sodann für die Lösung der expliziten Fragestellungen in dieser Arbeit verwendet. Die 'Eingangsgrößen' des Modells wurden in Kapitel 3 aufgeführt. Weiterhin wurde aufgezeigt, dass das Transportmodell alle Phasen einer relativistischen Schwerionenkollision konsistent beschreibt, d.h. angefangen von den primären harten Stoßprozessen und der Bildung von 'Strings' zur Formierung einer partonischen Phase, den Wechselwirkungen in dieser Phase sowie die
dynamische Beschreibung der Hadronisierung. Weiterhin enthält das Modell zudem die hadronischen Endzustandswechselwirkungen bis zum Ausfrieren der hadronischen Freiheitsgrade bei geringer Dichte. ...
Light scalar mesons can be understood as dynamically generated resonances. They arise as 'companion poles' in the propagators of quark-antiquark seed states when accounting for hadronic loop contributions to the self-energies of the latter. Such a mechanism may explain the overpopulation in the scalar sector - there exist more resonances with total spin J=0 than can be described within a quark model.
Along this line, we study an effective Lagrangian approach where the isovector state a_{0}(1450) couples via both non-derivative and derivative interactions to pseudoscalar mesons. It is demonstrated that the propagator has two poles: a companion pole corresponding to a_{0}(980) and a pole of the seed state a_{0}(1450). The positions of these poles are in quantitative agreement with experimental data. Besides that, we investigate similar models for the isodoublet state K_{0}^{*}(1430) by performing a fit to pion-kaon phase shift data in the I=1/2, J=0 channel. We show that, in order to fit the data accurately, a companion pole for the K_{0}^{*}(800), that is, the light kappa resonance, is required. A large-N_{c} study confirms that both resonances below 1 GeV are predominantly four-quark states, while the heavy states are quarkonia.
In this thesis we have studied the physics of different ultracold Bose-Fermi mixtures in optical lattices, as well as spin 1=2 fermions in a harmonic trap. To study these systems we generalized dynamical mean-field theory for a mixture of fermions and bosons, as well as for an inhomogeneous environment. Generalized dynamical mean-field theory (GDMFT) is a method that describes a mixture of fermions and bosons. This method consists of Gutzwiller mean-field for the bosons, and dynamical mean-field theory for the fermions, which are coupled on-site by the Bose-Fermi density-density interaction and possibly a Feshbach term which converts a pair of up and down fermions into a molecule, i.e. a boson. We derived the self-consistency equations and showed that this method is well-controlled in the limit of high lattice coordination number z. We develop real-space dynamical mean-field theory for studying systems in an inhomogeneous environment, e.g. in a harmonic trap. The crucial difference compared to standard DMFT is that we are taking into account that different sites are not equivalent to each other and thus take into account the inhomogeneity of the system. Different sites are coupled by the real-space Dyson equation. ...
The main subject of this thesis is the study of hadron and photon production in relativistic heavy-ion collisions by means of hydrodynamics+transport approaches. Two different kinds of such hybrid approaches are employed in this work, the SMASH-vHLLE-hybrid and a MUSIC+SMASH hybrid. While the former is capable of simulating heavy-ion collisions covering a wide range of collision energies down to √s = 4.3 GeV, reproducing the correct baryon stopping powers, the latter provides a framework to consistently model photon production in the hadronic stage of high-energy heavy-ion collisions.
The SMASH-vHLLE-hybrid is a novel state-of-the-art hybrid approach whose development constitutes a major contribution to this thesis. It couples the hadronic transport SMASH to the 3+1D viscous hydrodynamics approach vHLLE. Therein, SMASH is employed to provide the fluctuating 3D initial conditions and to model the late hadronic rescattering stage, and vHLLE for the fluid dynamical evolution of the hot and dense fireball. The initial conditions are provided on a hypersurface of constant proper time, and the macroscopic evolution of the fireball is carried out down to an energy density of ecrit = 0.5 GeV/fm3, where particlization occurs. Consistency at the interfaces is verified in view of global, on-average quantum number conservation and the SMASH-vHLLE-hybrid is validated by comparison to SMASH+CLVisc as well as UrQMD+vHLLE hybrid approaches. The establishment of the SMASH-vHLLE-hybrid to theoretically describe heavy-ion collisions at intermediate and high collision energies forms a basis for a range of extensions and future research projects. It is further made available to the heavy-ion community by virtue of being published on Github.
The SMASH-vHLLE-hybrid is applied to simulate Au+Au/Pb+Pb collisions between √s = 4.3 GeV and √s = 200.0 GeV. A good agreement with the experimentally measured rapidity and transverse mass spectra is obtained. In particular the baryon stopping dynamics are well reproduced at low, intermediate, and high collision energies. Excitation functions for the mid-rapidity yield and mean transverse momentum of pions, protons and kaons are demonstrated to agree well with their experimentally measured counterpart. These results further validate the approach and provide a solid baseline for potential future studies. The importance of annihilations and regenerations of protons and anti-protons is additionally investigated in Au+Au/Pb+Pb collisions between √s = 17.3 GeV and √s = 5.02 TeV with the SMASH-vHLLE-hybrid. It is found that, regarding the p + p ̄ ↔ 5 π reaction, 20-50% (depending on the rapidity range) of the (anti-)proton yield lost to annihila- tions in the hadronic rescattering stage is restored owing to the back reaction. The back reaction thus constitutes a non-negligible contribution to the final (anti-)proton yield and should not be neglected when modelling the late rescattering stage of heavy-ion collisions.
The MUSIC+SMASH hybrid is a hybrid approach ideally suited to model the production of photons in relativistic heavy-ion collisions. Therein, the macroscopic production of photons in the hadronic stage in MUSIC relies on the identical effective field theories as the photon cross sections implemented in SMASH for the microscopic production. The MUSIC+SMASH hybrid thus provides the first consistent framework to the end of hadronic photon production. It accounts for 2 → 2 scattering processes of the kind π + ρ → π + γ and pion bremsstrahlung processes π + π → π + π + γ. The MUSIC+SMASH hybrid is employed in an ideal 2D setup to systematically assess the importance of non-equliibrium dynamics in the hadronic rescattering stage on mid-rapidity transverse momentum spectra and elliptic flow of photons at RHIC/LHC energies. This is achieved by comparing the outcome of the MUSIC+SMASH hybrid, involving an out-of-equilibrium late rescattering stage, to macroscopically approximating late stage photon production by means of MUSIC, employed down to temperatures well below the switching temperature. It is found that non-equilibrium dynamics have only minor implications for photon transverse momentum spectra, but significantly enhance the photon elliptic flow. At RHIC energies, an enhancement of up to 70%, and at LHC of up to 65% is observed in the non-equilibrium afterburner as compared to its hydrodynamical counterpart. In combination with the large amount of photons produced above the particlization temperature, these differences are modest regarding the transverse momentum spectra, but a significant enhancement of the elliptic flow is observed at low transverse momenta. Below pT ≈ 1.4 GeV, the combined v2 is enhanced by up to 30% at RHIC, and up to 20% at the LHC within the non-equilibrium setup as compared to its approximation via hydrodynamics. Non-equilibrium dynamics in the hadronic rescattering stage are hence important, especially in view of momentum anisotropies at low transverse momenta. These findings thus contribute to the understanding of low-pT photons produced in heavy-ion collisions at RHIC/LHC energies and the MUSIC+SMASH hybrid employed for this study provides a baseline for additional studies regarding photon production in the future.
To summarize, the approaches and frameworks presented in this thesis provide a good baseline for further extensions and studies in order to improve the understanding of hadron and photon production in relativistic heavy-ion collisions across a wide range of collision energies. More broadly, such future studies of hadrons and photons may contribute to enhance the understandig of the properties of the fundamental building blocks of matter, of which everything that surrounds us is made of.
Fullerene, Nanoröhren und auch anderen hohlen Strukturen können Atome oder Moleküle in ihrem Inneren einschliessen. In solchen Systemen beeinflussen sich die einschliessenden und eingeschlossenen Strukturen gegenseitig, und es existiert eine Vielzahl unterschiedlicher Effekte: Änderungen der Energieeigenwerte, Änderungen der Elektronenstruktur sowie Ladungsaustausch zwischen den beiden Teilen des Systems. All diese Effekte beeinflussen die Absorbtionsspektren beider Systembestandteile. In dieser Arbeit liegt der Schwerpunkt auf einem dieser Effekte: Dem dynamischen Abschirmungseffekt. Den dynamischen Abschrimungseffekt findet man insbesondere bei solchen Systemen, bei denen die einschliessende Struktur viele delokalisierte Elektronen besitzt. Zu solchen Systemen gehören zum Beispiel endohedrale Komplexe sowie "Nano Peapods" (Nanoröhren mit eingeschlossenen Atomen oder Molekülen). Ursächlich für den dynamischen Abschirmungseffekt ist die Tatsache, dass die Elek- tronen des umschliessenden Käfigs die eingeschlossene Struktur gegen elektromagentische Wellen abschirmen. Mit anderen Worten: Dass das elektrische Feld sowohl innerhalb als auch ausserhalb der einschliessenden Struktur wird vom polarisierenden Feld der einschliessenden Struktur beein°usst. Klassisch betrachtet ist die Photoabsorbtionsrate eines Objektes proportional zu der Intensität eines elektrischen Feldes. Somit unterscheidet sich die Photoabsorbtionsrate (und auch der Wirkungsquerschnitt) der gleichen elektromagnetischen Welle einer Struktur innerhalb eines Einschlusses von der Photoabsorbtionsrate eines freien Atoms oder Moleküls. Der dynamische Abschirmungsfaktor dient als Beschreibung des Verhältnisses dieser beiden Wirkungsfaktoren. Darüber hinnaus können, da die Käfigstruktur viele delokalisierte Elektronen besitzt, Elektronen gemeinsam angeregt werden und somit Plasmons hervorrufen. Wenn sich die Frequenz der anregenden elektromagentischen Strahlung der Resonanzfrequenz dieser Plasmonen annähert, wird das polarisierende Feld besonders gross. Im Endeffekt beobachtet man nahe der Plasmon-Frequenz einen starken Anstieg des Wirkungsquerschnittes der eingeschlossenen Struktur. Der Schwerpunkt in dieser Arbeit liegt auf einer spezifischen Art von System: Endo- hedrale Komplexe. Diese Strukturen wurden mit einem klassichen Ansatz untersucht. Die Fullerene wurden, da sie viele delokalisierte Elektronen besitzen als dielektrische Schalen modelliert, mit der dielektrischen Funktion eines freien Elektronengases. Dabei ist der dynamische Abschrimfaktor durch Auswertung des gesamten elektrischen Feldes am Ort des Atoms im Vergleich zur Stärke des externen elektrischen Feldes definiert. Der dynamische Abschrimungsfaktor wurde für eine Vielzahl unterschiedlicher Situationen untersucht. Im einfachsten Fall, bei dem die Polarisierbarkeit des eingeschlossenen Atoms vernachlässigbar klein ist, ist der dynamische Abschirmfaktor unabhängig von der Position des Atoms innerhalb des Fullerens. Die Veranderung des elektrischen Feldes wird vollständig von der dynamischen Reaktion des Fullerens auf das externe Feld bestimmt. Da das Fulleren von endlicher Dicke ist (definiert duch die räumliche Ausdehnung der Elektronenwolke), besitzt es zwei Oberflächen. Die Wirkung der elektromagnetischen Welle induziert oszillierende Oberflächen-Ladungs-Dichten. Die Oberflächen-Ladungs-Dichten wechselwirken und erzeugen somit zwei Plasmon Eigenmoden: eine symmetrische Mode bei der beide Ladungsdichten in Phase oszillieren und eine antisymmetrische bei denen sie gegen-phasig oszillieren. Der dynamische Abschirmfaktor eines solchen eingeschlossenen Atoms zeigt zwei ausgeprägte Peaks, welche eine Manifestation dieser beiden Oberflächen-Plasmone sind. Die Wechselwirkung zwischen diesen Plasmon-Moden wurde untersucht. Darüber hinnaus wurde der Einfluss der Grösse des Käfigs untersucht; mit Fallbeispielen für C20, C60, C240 und C960 [2, 3]. Im Grenzfall eines unendlich dünnen Fulleren-Käfigs ist nur ein einelnes Oberflächen-Plasmon zu beachten. Als nächstes wurde der Einfluss des eingeschlossenen Atoms untersucht [3{5]. Wenn dessen Polarisierbarkeit gross ist, wird ein reziproker Einfluss des Dipol-Moments des Atoms auf das Fulleren messbar. Dies wurde zunächst unter der Annahme eines zentral angeodneten Atoms für die folgenden drei Fälle untersucht: Ar@C60, Xe@C60 and Mg@C60. Der dynamische Abschirmfaktor verÄanderte sich dabei nur wenig. Der stärkste Einfluss auf das Verhalten des Abschirmfaktors ensteht durch Unstetigkeiten in der Polarisierbarkeit des Atoms nahe dessen Ionisierungs-Schwelle. Die Wahl dieser drei Fallstudien ist durch die quantenmechanischen Berechnungen von [7-9] motiviert. Der Vergleich mit diesen Berechnungen zeigt hohe Übereintismmungen für Ar@C60 und Xe@C60. Allerdings fanden sich auch grosse Unterschiede für Mg@C60, vor allem bei niedriger Photonen-Energie. Das Fulleren besitzt zwei Arten von Valenzelektronen: Die ¼-Elektronen und die stärker gebundenen ¾-Elektronen. Dies führt zum Auftreten zweier Oberflächen-Plasmons in Fullerenen. Dabei ist allgemein bekannt, dass das Buckminster-Fulleren ein Plasmon nahe 8 eV, sowie ein deutlich größeres nahe 20 eV besitzt. Diese sind mit den ¼-Elektronen, respektive den ¾-Elektronen verknüpft (auch wenn ¼-Elektronen zusÄatzlich zu dem ¾-Plasmon beitragen). Aufgrund dieser Tatsache wäre es angemessener, die Valenzelektronen nicht als Ein-, sondern als Zwei-Komponenten-Elektronen-Gas zu behandeln. Um dies miteinzubeziehen, passten wir unser Modell dahingehend an, dass wir das Fulleren als zwei unabhängige kozentrische dielektrische Schalen simulieren. Die Valenzelektronen wurden so auf die zwei Schalen aufgeteilt, dass eine Schlale alle Elektronen enthielt, die Teil des ¼{Plasmons sind, und die andere alle Beteiligten am ¾{Plasmon [4, 5]. Der Vergleich dieses modifizierten Modelles mit den quanten{mechanischen Berechnungen zeigte eine deutlich verbesserte Übereintismmung der Ergebnisse. Alle Merkmale der Berechnungen, vor allem das deutliche Maximum nahe 10 eV bei Mg@C60, konnten reproduziert und damit erklärt werden. Bedingt durch die endliche Dicke der Fulleren-Schale spalten jeder der beiden Plasmonen in jeweils zwei Plasmon Eigenmoden auf. Daher zeigt der dynamische Abschirm-Faktor nun vier Haupt{Eigenschaften welche die vier Plasmon-Moden abbilden. Nichtsdestotrotz zeigen sich immer noch quantitative Unterschiede im Falle von Mg@C60. Fürr Ar@C60 und Xe@C60, bei welchen das ursprÄungliche Modell bereits gute Fits zeigte, werden diese Fits durch die Anpassungen im Modell sogar noch verbessert. Interessanterweise zeigen sich die größten Veränderungen des dynamischen Abschirm-Faktors bei niedrigen Photonen{Energien, also im Bereich des ¼-Plasmons. Betrachtet man den Querschnitt dieses Fulleren Modells, so zeigt der Querschnitt Eigenschaften die den vier Ober°Äachen{Plasmon{Moden des Fullerens zugeordnet werden. Vergleicht man dies mit anderen theoretischen Arbeiten [12] und einer Sammlung verschiedener experimenteller Messungen [10], so zeigt sich, dass alle SchlÄussel{Eigenschaften des Querschnittes in unserem Modell vorhanden sind. Abschlie¼end wurde die Abhängigkeit des dynamische Abschirm-Faktors von der Position des endohedralen Atoms innerhalb des Fullerens anhand zweier Fallstudien, Ar@C60 und Ar@C240 [3, 4], untersucht. Die Ergebnisse zeigen, dass der dynamische Abschirmfaktor relativ unempfindlich gegenüber Veränderung des Positions-Winkels des Atoms ist. Die radiale Position hingegen stellte sich als sehr wichtig heraus. Je mehr sich das Atom der Fulleren-Hülle nähert, desto grösser wird der dynamische Abschirmfaktor. Diese Studien zeigen, dass es notwendig ist, eine Art räumlichen Mittelwertes für den dynamische Abschirmfaktor zu bestimmen, um sichtbare Resultate zu erhalten. Im Rahmen dieser Arbeit wurde daher eine Methode für solch einen Mittelwert entwickelt [3, 4]. Neben der Untersuchung des dynamische Abschirm-Faktors wurde auch ein Vergleich mit experimentellen Messungen erarbeitet. Im Falle von Ce@C82 war die Photon{Energiespanne sehr hoch, weit über der Plasmon-Energie des Fullerens. Das Fulleren sollte daher für eine solche Bestrahlung durchlässig sein, und daher würde man keinen dynamischen Abschirmungs-Effekt finden können. Der Vergleich für Sc3N@C80 ist komplizierter. Da es sich dabei um ein rein klassisches Modell handelt, muss man achtgeben, es nicht mit dem vollständig freien Komplex zu vergleichen, sondern zusätzlich quanten{mechanische Effekte aus Confinements, wie zum Beispiel Elektronen{Transfers, miteinzubeziehen. Zudem ist das aktuelle Modell zu dynamischer Abschirmung nicht für Moleküle, sondern nur für einzelen Atomeentwickelt worden. Ein erster naiver Vergleich, in welchem der Endohedrale Komplex als Pseudo{Atom modelliert wurde, konnte die breite Struktur der experimentellen Ergebnisse nicht wiedergeben. Berechnungen des dynamischen Abschirmfaktors und des daraus resultierenden Querschnittes für ein einzelnes Scandium{Ion zeigte, dass auch räumliches Mitteln nicht ausreicht um die experi-mentellen Beobachtungen erklären zu können. Die Anwesenheit des Fullerens führt zur Öffnung eines neuen Kanals innerhalbdes Auger Prozesses [6, 11] und damit zur Verbreiterung der atomaren Spektrallinienweite. Berücksichtigt man diesen Effekt, so kann die ÄAhnlichkeit zu den experimentellen Ergebnissen deutlich erhöht werden. Allerdings ist es wichtig dabei auch die räumlichen Abhängigkeiten des Effekts, wie auch die der dynamischen Abschirmung, zu beachten. Erste vorläufige Ergebnisse deuten an, dass die beiden genannten Effekte, zumindest teilweise, dabei helfen können, die experimentell gefunden Ergebnisse zu erklären. Unser Modell zur Berechnung des dynamischen Abschirmfaktors liefert eine detaillierte Beschreibung und mögliche Erklärungen der diskutierten Phänomene, welche über die bisherige Arbeiten in der theoretischen Literatur hinausgehen. Die wichtigen Eigenschaften der experimentellen Arbeiten konnten mit dem Modell reproduziert werden, und mit der Verbreiterung der atomaren Spektrallinienweite und der dynamischen Abschirmung konnten wir zwei Effekte als mögliche bisher nicht berücksichtigete Erklärungen für einige dieser Eigenschaften herausarbeiten.
The chiral phase transition of Quantum Chromo Dynamics (QCD) is investigated with the help of the linear-sigma model and a numerical transport simulation. The scope are non-equilibrium and critical effects of the different type of orders of the transition. Additionally, a mathematical and numerical method is developed which allows to simulate a particle-wave duality and non-continuous interactions, even for classical systems.
Compact objects - black holes and neutron stars - are fascinating objects, not only for the astrophysicists, but for a wide range of researchers, including astronomers, theoretical physicists, particle and nuclear physicists, condensed matter physicists and arguably for the layman as well.
First theorized in the first part of the twentieth century, for a long time these objects have been considered just exotic ideas or mathematical curiosities. Pulsar were however detected in the late 1960s and readily identified as rotating, radiating neutron stars, while the first candidate black hole, Cygnus X-1, was observed in 1972. Since then the interest in these objects has steadily grown.
The reasons behind this interest are easily understood considering that compact object dwell at the intersection of many different areas of physics, and are ideal laboratories to explore the interplay between these areas.
Black holes, which are purely gravitational objects, are perfectly suited to study the nature of gravity, its manifestations such as gravitational waves, and the differences between various theories of gravity in the regime where they are expected to be most relevant, i.e. the strong field regime. However, just like any massive astrophysical object, black holes are interested by accretion phenomena, which are thought to be the power source of some very bright astrophysical emitters of electromagnetic signals, such as active galactic nuclei or X-ray binaries.
At the same time, black holes exist in a variety of different mass scales, from stellar mass to supermassive black holes billions of times heavier. The latter play a very important and yet not fully understood role in the formation and evolution of galaxies, as well as in shaping the large scale structure of the universe, making them relevant to cosmology as well.
Neutron stars share with black holes the characteristic of being gravitationally dominated systems; but because they are composed of baryon matter, they display a much richer behaviour. It has been realized early on that the matter in neutron star cores reaches extreme densities, exceeding the one in atomic nuclei. This means that neutron stars could provide invaluable information on the behaviour of matter in such extreme conditions (which are impossible to achieve in laboratory experiments), such as details of the nucleonic interaction, the properties of hyperons or of quark-gluon plasmas.
...
Dynamics of chaotic strings
(2011)
The main topic of this thesis is the investigation of dynamical properties of coupled Tchebycheff map networks. At every node of the network the dynamics is given by the iteration of a Tchebycheff map, which shows strongest possible chaotic behaviour. By applying a coupling between the various individual dynamics along the links of the network, a rich structure of complex dynamical patterns emerges. Accordingly, coupled chaotic map networks provide prototypical models for studying the interplay between local dynamics, network structure, and the emergent global dynamics. An exciting application of coupled Tchebycheff map lattices in quantum field theory has been proposed Beck in Spatio-temporal chaos and vacuum fluctuations of quantized fields' (2002). In this so-called chaotic string model, the coupled map lattice dynamics generates the noise needed for the Parisi-Wu approach of stochastic quantization. The remarkable obversation is that the respective dynamics seems to reproduce distinguished numerical values of coupling constants that coincide with those observed in the standard model of particle physic. The results of this thesis give insights into the chaotic string model and its network generalization from a dynamical point of view. This leads to a deeper understanding of the dynamics, which is essential for a critical discussion of possible physical embeddings. Apart from this specific application to particle physics, the investigated concepts like synchronization or a most random behaviour of the dynamics are of general interest for dynamical system theory and the science of complex networks. As a first approach, discrete symmetry transformations of the model are studied. These transformations are formulated in a general way in order to be also applicable to similar dynamics on bipartite network structures. An observable of main interest in the chaotic string model is the interaction energy. In Spatio-temporal chaos and vacuum fluctuations of quantized fields' (2002) it has been observed that certain chaotic string couplings, corresponding to a vanishing interaction energy, coincide with coupling constants of the standard model of elementary particle physics. Since the interaction energy is basically a spatial correlation measure, an interpretation of the respective dynamical states in terms of a most random behaviour is tempting. In order to distinguish certain states as most random', or evoke another dynamical principle, a deeper understanding of the dynamics essential. In the present thesis the dynamics is studied numerically via Lyapunov measures, spatial correlations, and ergodic properties. It is shown that the zeros of the interaction energy are distinguished only with respect to this specific observable, but not by a more general dynamical principle. The original chaotic string model is defined on a one-dimensional lattice (ring-network) as the underlying network topology. This thesis studies a modification of the model based on the introduction of tunable disorder. The effects of inhomogeneous coupling weights as well as small-world perturbations of the ring-network structure on the interaction energy are discussed. Synchronization properties of the chaotic string model and its network generalization are studied in later chapters of this thesis. The analysis is based on the master stability formalism, which relates the stability of the synchronized state to the spectral properties of the network. Apart from complete synchronization, where the dynamics at all nodes of the network coincide, also two-cluster synchronization on bipartite networks is studied. For both types of synchronization it is shown that depending on the type of coupling the synchronized dynamics can display chaotic as well as periodic or quasi-periodic behaviour. The semi-analytical calculations reveal that the respective synchronized states are often stable for a wide range of coupling values even for the ring-network, although the respective basins of attraction may inhabit only a small fraction of the phase space. To provide analytical results in closed form, for complete synchronization the stability of all fixed points and period-2 orbits of all chaotic string networks are determined analytically. The master stability formalism allows to treat the ring-network of the chaotic string model as a special case, but the results are valid for coupled Tchebycheff maps on arbitrary networks. For two-cluster synchronization on bipartite networks, selected fixed points and period-2 orbits are analyzed.
In dieser Arbeit wurden eine Reihe neuer organischer Ladungstransfer (CT)-Verbindungen in Form von Einkristallen und Dünnschichten synthetisiert und grundlegend charakterisiert.
Für die Synthese kamen verschiedene bekannte und bislang unbekannte Donor- und Akzeptormoleküle zum Einsatz. Während einige bekannte Materialien wie TTF und TCNQ kommerziell erworben werden konnten, bestand im Rahmen der Kollaboration mit dem MPI für Polymerforschung zudem Zugang zu mehreren neuen Molekülen wie TMP und HATCN, die besonders mit Blick auf die Möglichkeit zur Dünnschichtpräparation ausgewählt wurden. Auf dieser Grundlage konnten zum einen mittels verschiedener Varianten der Lösungszüchtung erfolgreich neue CT-Komplexe als Einkristalle gezüchtet werden. Dabei kamen mehrere unterschiedliche Lösungsmittel zur Anwendung, die z.T. auch die gezielte Synthese bestimmter Kristallphasen erlaubten. Zum zweiten gelang die Präparation eines Teils dieser Systeme als Dünnschicht über die Methode der Molekularstrahldeposition mit verschiedenen Isolatoren wie SiO2 als Substratmaterial. Hierbei wurde zum Teil zuvor gezüchtetes Material eingesetzt, zum Teil entstand die neue Verbindung erst über diesen Prozess.
Die Proben der neuen Verbindungen wurden zunächst mittels verschiedener Methoden morphologisch und kristallographisch untersucht. Die Kristallzüchtung lieferte in vielen Fällen eine gute Kristallqualität, die sowohl für die Strukturbestimmung als auch die späteren elektrischen Messungen ausreichend war. Die Kristallstruktur konnte für mehrere neue Systeme ermittelt werden und ergab in allen Fällen eine Anordnung mit gemischten Donor-Akzeptor-Stapeln. Für die präparierten Dünnschichten konnte bei einem Großteil der Verbindungen gemäß der Untersuchungen mittels Röntgendiffraktion die gleiche(n) kristalline(n) Struktur(en) wie in den Einkristallen festgestellt werden. Es ließen sich zwei wesentliche Beobachtungen machen: a) Die Morphologie der Schichten besitzt eine ausgeprägte Tendenz zu rauem Inselwachstum; b) In praktisch allen Fällen bilden sich innerhalb der Schicht mindestens zwei stabile CT-Phasen parallel. Beide Verhaltensweisen traten nahezu unabhängig von Substrat, dessen Temperatur, Ausgangszustand (Material vorreagiert oder nicht) und Depositionstemperatur auf.
Die elektronischen Transportmessungen bestanden primär aus temperaturabhängigen Messungen
der elektrischen Leitfähigkeit, während Feldeffektmessungen mit organischen Transistorstrukturen
lediglich den Charakter einer Grundsteinlegung für tiefergehende Untersuchungen mit optimierten Schichten hatten. Die Kryostat-Messungen bis hinunter zu rund 1,5 Kelvin zeigten bei keiner der Verbindungen ein klares Anzeichen für einen Phasenübergang. Die absoluten Werte der Leitfähigkeit bei Raumtemperatur passten qualitativ zu der typischen Erwartung an ein gemischt gestapeltes CT-System, nämlich ein halbleitendes oder isolierendes Verhalten, was durch das arrhenius-artige Temperaturverhalten auch bestätigt wurde.
Dielektrische Messungen mit Kondensatorstrukturen wurden für die neuen Systeme TMP-TCNQ
und ET-DTF in der Dünnschichtform vorgenommen. Im Vordergrund stand dabei die Suche nach neuen Verbindungen, die einen neutral-ionischen Phasenübergang zeigen, der sich im Idealfall durch eine starke, peakförmige Anomalie in der Temperaturabhängigkeit der Dielektrizitätskonstanten bemerkbar machen sollte. Während sich in TMP-TCNQ keinerlei Hinweise auf einen Übergang zeigten, lieferte ET-DTF einen Verlauf, der einen strukturellen
Übergang andeutet, dessen Identität aber noch ungeklärt ist.
Zur Ergänzung wurden mit Hilfe mehrerer Kooperationspartner weitere Untersuchungen zwecks
Charakterisierung der neuen CT-Systeme vorgenommen. Die Bestimmung des Ladungstransfergrades δ mittels IR-Absorption lieferte im Wesentlichen eine Bestätigung der Beobachtung, dass die inspizierten Verbindungen gemischt gestapelte Systeme halbleitender oder
isolierender Natur sind, da δ nur geringe Werte von max. ca. 0,2 zeigte, die für solche Systeme
typisch sind. In ähnlicher Weise bestätigten Bandstruktur-Rechnungen dieses Verhalten, da die Bänder allgemein nur eine eher geringe elektronische Bandbreite zeigten. Zudem ergab sich für die trikline Phase von ET-DTF und das System TMP-F4TCNQ eine deutliche Anisotropie hinsichtlich der Dispersion, da diese erheblich verstärkt entlang der zur Stapelachse des Systems korrespondierenden Richtung des k-Raumes auftritt, also (im Einklang mit den Leitfähigkeitsdaten) 1D-Charakter besitzt. Ein weiterer Beitrag zur Suche nach neuen NI-Verbindungen entstand durch Messung der charakteristischen CT-Absorption einiger Systeme im optischen bzw. IR-Spektrum. In Kombination mit den Werten für Ionisierungsenergie und Elektronenaffinität konnte eine Einordnung in das von Torrance et al. entwickelte, sog. V-Diagramm vorgenommen werden, mit dessen Hilfe sich aussichtsreiche Molekülkombinationen für ein neues NI-System eruieren ließen.
Ziel dieser Arbeit war, die Reaktion von biologischen Gewebeproben auf dünn- und dicht-ionisierende Strahlung zu evaluieren. Dafür wurden die Gewebeproben konventioneller Röntgenstrahlung sowie einem ausgedehnten 12C-Ionen Bragg-Peak ausgesetzt. Zur Bestrahlung der biologischen Proben mit 12C wurde mit dem GSI-eigenen Simulationsprogramm TRiP98 ein Tiefendosisprofil eines ausgedehnten Bragg-peaks erstellt. Ein weiteres Ziel dieser Arbeit war, dieses Tiefendosisprofil mit drei anderen Simulationsprogrammen (ATIMA, MCHIT, TRIM) zu reproduzieren und zu vergleichen.
ATIMA und TRIM sind allgemeine Programme für den Energieverlust von Ionen in Materie. Sie können das von TRiP98 berechnetet Tiefendosisprofil nur ungenügend reproduzieren, da sie aufgrund fehlender Fragmentierung ein linear ansteigendes Tiefendosisprofil berechnen. Das Monte Carlo-Programm MCHIT, welches speziell für die Wechselwirkung von Ionen mit Materie in medizinischer Anwendung entwickelt wurde, zeigt die beste Übereinstimmung mit der TRiP98-Referenzkurve. Bis auf eine leicht höhere Durchschnittsdosis um 0.1 Gy konnte das Tiefendosisprofil nahezu exakt reproduziert werden.
Die biologischen Proben bestanden aus Schnittkulturen gesunder Maus-Lebern und Explantatkulturen gesunder Maus-Pankreata, um Nebenwirkungen ionisierender Strahlen abzuschätzen. Zusätzlich wurde die Reaktion auf 12C-Bestrahlung in neoplastischem Lebergewebe transgener c-myc/TGF-α Mäuse mit induzierbarem Lebertumor bestimmt. Um eine mögliche Tageszeitabhängigkeit der Gewebereaktion auf die Bestrahlung zu untersuchen, wurden die Schnitt- und Explantatkulturen zu zwei unterschiedlichen Tageszeiten präpariert: zur Mitte des subjektiven Tages und zur Mitte der subjektiven Nacht.
Die Präparate wurden für mehrere Tage auf einer Membran an einer Grenzschicht von Flüssigkeit und Luft kultiviert. Leber- und Pankreaskulturen gesunder C3H wildtyp Mäuse wurden mit einer Dosis von 2 Gy, 5 Gy oder 10 Gy Röntgenstrahlen bestrahlt. Leber- und Pankreaskulturen transgener Mäuse wurden mit ausgedehnten C-Ionen Bragg Peaks gleicher Dosen bestrahlt. Als Kontrolle dienten unbestrahlte Proben. Alle Proben wurden 1 h bzw. 24 h nach der Bestrahlung fixiert und immunhistochemisch auf Marker für Proliferation (Ki67), Apoptose (Caspase3) und DNA- Doppelstrangbrüche (γH2AX) untersucht.
Während die Pankreas-Präparate im Hinblick auf die untersuchten Parameter leider keine auswertbaren Ergebnisse ergaben, zeigten die untersuchten Parameter im gesunden Lebergewebe deutliche Tag-Nacht Unterschiede: die Proliferationsrate war zur Mitte des subjektiven Tages signifikant höher als zur Mitte der subjektiven Nacht. Umgekehrt waren die Raten für DNA-Doppelstrangbrüche zur Mitte der subjektiven Nacht signifikant erhöht. Diese Tag-Nacht Unterschiede ließen sich in neoplastischem Lebergewebe nicht nachweisen. Unabhängig von der Art und Dosis, hatte die Bestrahlung im gesunden Lebergewebe keinen Einfluss auf die untersuchten Parameter. In neoplastischem Lebergewebe hingegen wird die Rate an DNA-Doppelstrangbrüchen durch eine Bestrahlung dosisabhängig erhöht.
Die Auswirkungen ionisierender Strahlen auf das circadiane Uhrwerk wurden in Gewebeproben transgener Per2luc-Mäuse überprüft. Per2luc-Mäuse exprimieren das Enzym Luziferase unter der Kontrolle des Promoters von Per2, einem wichtigen Bestandteil des circadianen Uhrwerks. Daher erlaubt die Analyse dieser Tiere, den circadianen Rhythmus des molekularen Uhrwerks in Leber und anderen Geweben durch Messung der Luziferase-Aktivität in Echtzeit aufzuzeichnen. Wie in Leber- und Nebennierenkulturen dieser Tiere gezeigt werden konnte, führten ioniserende Strahlen dosisabhängig zu einem Phasenvorsprung des circadianen Uhrwerks.
Die Ergebnisse erlauben die Schlussfolgerung, dass ionisierende Strahlen das circadiane Uhrwerk verstellen, Proliferation und Apoptose in gesundem Lebergewebe jedoch kaum beeinflussen.
Compact stars can be treated as the ultimate laboratories for testing theories of dense matter. They are not only extremely dense objects, but they are known to be associated with strong magnetic fields, fast rotation and, in certain cases, with very high temperatures. Here, we present several different approaches to model numerically the signatures and properties of these stars, namely:
•The effects of strong magnetic fields on hybrid stars by using a fully general relativistic approach. We solved the coupled Maxwell-Einstein equations in a self-consistent way, taking into consideration the anisotropy of the energy-momentum tensor due purely to the magnetic field, magnetic field effects on equation of state and the interaction between matter and the magnetic field (magnetization). We showed that the effects of the magnetization and the magnetic field on the equation of state for matter do not play an important role on global properties of neutron stars (only the pure magnetic _eld contribution does). In addition, the magnetic field breaks the spherical symmetry of stars, inducing major changes in the populated degrees of freedom inside these objects and, potentially, converting a hybrid star into a hadronic star over time.
•The effects of magnetic fields and rotation on the structure and composition of proto-neutron stars. We found that the magnetic field not only deforms these stars, but also significantly alters the number of trapped neutrinos in the stellar interior, together with the strangeness content and temperature in each evolution stage from a hot proto-neutron star to a cold neutron star.
•The influence of the quark-hadron phase transitions in neutron stars. In particular, previous calculations have shown that fast rotating neutron stars, when subjected to a quark-hadron phase transition in their interiors, could give rise to the backbending phenomenon characterized by a spin-up era. In this work, we obtained the interesting backbending phenomenon for fast spinning neutron stars. More importantly, we showed that a magnetic field, which is assumed to be axisymmetric and poloidal, can also be enhanced due to the phase transition from normal hadronic matter to quark matter on highly magnetized neutron stars. Therefore, in parallel to the spin-up era, classes of neutron stars endowed with strong magnetic fields may go through a `magnetic-up era' in their lives.
•Finally, we were also able to calculate super-heavy white dwarfs in the presence of strong magnetic fields. White dwarfs are the progenitors of supernova Type Ia explosions and they are widely used as candles to show that the Universe is expanding and accelerating. However, observations of ultraluminous supernovae have suggested that the progenitor of such an explosion should be a white dwarf with mass above the well-known Chandrasekhar limit ~ 1.4 M. In corroboration with other works, but by using a fully general relativistic framework, we obtained also strongly magnetized white dwarfs with masses M ~ 2:0 M.
In dieser Arbeit wird die Elektronenemission aus langsamen He 2 HeStößen, d.h. bei Stoßenergien unterhalb von 25 keV/u, experimentell untersucht. Dabei wird auf den Vergleich der Einfachionisation (He 2 He ! He 2 He e \Gamma ) mit der Transferionisation (He 2 He ! He He 2 e \Gamma ) besonderes Gewicht gelegt. Die hier verwendete Meßtechnik ist von verschiedenen Arbeitsgruppen in den letzten Jahren entwickelt worden und unter dem Schlagwort COLTRIMS (Cold Target Recoil Ion Momentum Spectroscopy) [1, 2, 3] in der Literatur zu finden. Bei COLTRIMS werden die bei einer Reaktion in einem kalten Gastarget gebildeten Ionen in einem schwachen elektrischen Feld abgesaugt. Durch den ortsaufgelösten Nachweis und die Messung der Flugzeit von der Targetzone bis zum Detektor kann die Anfangsbedingung der Bewegung im Feld, d.h. der Vektor des auf das Targetatom übertragenen Impulses, berechnet werden. Diese Methode kommt ohne Blenden aus, so daß im relevanten Teil des Phasenraumes 4ß Raumwinkel erreicht werden. Der Nachweis des Elektrons erfolgt nach demselben Prinzip, jedoch stößt man dabei an die Grenzen der Flugzeitauflösung. Deshalb wurden in allen früheren Experimenten zu ähnlichen Reaktionen [4, 5, 6, 7, 8, 9] nur zwei der drei Impulskomponenten des Elektrons bestimmt. Die Konzipierung eines Spektrometers, welches in der Lage ist, den relevanten Phasenraum lückenlos zu erfassen und dabei alle drei Impulskomponenten der Elektronen zu bestimmen, war der wesentliche Teil der apparativen Entwicklung. Das durchgeführte Experiment ist nicht nur kinematisch vollständig, sondern erlaubt durch Anwendung des Energieerhaltungssatzes auch die Bestimmung der Schale, in der das Elektron im Endzustand gebunden ist. Die beiden oben genannten Reaktionen können somit getrennt nach Ereignissen mit und ohne Anregung untersucht werden, d.h., es wurden gleichzeitig vier verschiedene Ionisationskanäle vermessen. Für den Ionisationsmechanismus bei Stößen mit einer Projektilgeschwindigkeit unterhalb der klassischen Bahngeschwindigkeit der Elektronen hat sich in den letzten Jahren der Begriff ''Sattelpunkt''Prozeß durchgesetzt [10]. Quantenmechanische Beschreibungen für Einelektronensysteme, wie das Stoßsystem p H, wurden u.a. mit der semiklassischen GekoppelteKanäleMethode [11] in einem speziellen Basissatz [12, 13] und der ''HiddenCrossings''Theorie [14, 15] gegeben. Beide Modelle beschreiben das System aus Projektil und Target als Quasimolekül. Si sind lediglich in der Lage, die groben Strukturen in den Spektren zu erklären. Das gewählte Stoßsystem He 2 He, welches zwei Elektronen besitzt, erlaubt die Untersuchung von Korrelationseffekten. Die Messungen haben ergeben, daß die Impulsverteilung des emittierten Elektrons stark davon abhängt, wo und in welchem Bindungszustand das zweite Elektron nachgewiesen wird. Die gleiche Kernladung von Projektil und Target bedingt, da alle Eigenzustände des gebildeten Quasimoleküls die Symmetrie des Hamiltonoperators gegenüber Raumspiegelung besitzen, und durch diese Spiegeloperation gehen die Endzustände der Transferionisation und der Einfachionisation ineinander über. Durch die gleichzeitige Messung der differentiellen Wirkungsquerschnitte der verschiedenen Reaktionskanäle und deren Vergleich erhält man Einblick in die zugrundeliegenden Prozesse.
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.
Efficient modeling and mitigation of quadrupole errors in synchrotrons and their beam transfer lines
(2023)
This thesis investigates the problem of estimating quadrupole errors on synchrotrons as well as how to minimize the influence of quadrupole errors for beam transfer lines (beamlines). It emphasizes the importance to treat possible error sources in all parts of an accelerator in order to provide constantly high beam quality to the experimental stations. While the presented methods have been investigated by using the example of the SIS18 synchrotron and the HEST beamlines at GSI Helmholtz Centre for Heavy Ion Research, they are equally relevant for the future synchrotrons and beamlines of the Facility for Antiproton and Ion Research in Europe (FAIR).
Part 1 discusses the problem of estimating quadrupole errors via orbit response measurements at synchrotrons. An emphasis is put on investigating the influence of the availability of steerer magnets and beam position monitors (BPMs) on the solvability of the inverse problem as well as on the propagation of measurement uncertainty for the estimation of quadrupole errors. The problem is approached via analytical considerations as well as via dedicated simulation studies. By developing an analytical expression for the Jacobian matrix, the theoretical boundaries for the solvability of the inverse problem are derived. Moreover, it is shown that the analytical expressions for the Jacobian matrix can be used during the fitting procedure to achieve a significant improvement in the computational efficiency by a factor $N_{steerers} \times N_{quadrupoles}$, where $N$ denotes the number of lattice elements of the respective type. The presented results are tested via dedicated measurements at the SIS18 synchrotron.
Part 2 discusses – complementary to part 1 – the influence of quadrupole errors in beam transfer lines with respect to the beam quality requirements given by the experimental stations. A preventive approach is presented which allows to minimize the influence of possible quadrupole errors on the degradation of beam quality. By identifying and selecting robust quadrupole configurations, a stable operation of the beamline can be enabled and the time needed by operators to readjust the beamline parameters can be reduced. The concept of beamline robustness is developed and is studied with the help of dedicated simulations. The simulation results are used to identify certain properties that distinguish robust from nonrobust quadrupole configurations. Also, various methods for improving the computational process of identifying robust quadrupole configurations are presented. The methods and results are tested via dedicated measurements at two different beamlines at GSI Helmholtz Centre for Heavy Ion Research and at Forschungszentrum Jülich.
Kompakte Sterne stellen neben weissen Zwergen und schwarzen Löchern eine der möglichen Endzustände der Evolution von Sonnen dar. Diese extrem dichten astrophysikalischen Objekte können als Restobjekte von massiven Sternen im Zentrum von Supernova-Explosionen entstehen. Allein in unserer Galaxie sind derzeit ca. 1500 solcher Objekte bekannt. Die Materie innerhalb der kompakten Sterne stellt neben der frühen Urknall-Phase, die dichteste, uns zugängliche Energieform im gesamten Universum dar; sie beschreibt den letzten stabilen Zustand bevor die Materie unaufhaltsam kollabiert und durch die Bildung eines Ereignishorizontes von der Aussenwelt abgetrennt wird. Die Eigenschaften der kompakten Sterne werden massgeblich durch zwei fundamentale Kräfte bestimmt: Die Quanten-Chromodynamik (QCD), die den Kräfteaustausch der elementaren Quarks durch farbgeladene Gluonen beschreibt, und die Allgemeine Relativitätstheorie, die die attraktive, gravitative Wechselwirkung der Sterne durch eine Verformung ihrer raumzeitlichen Struktur formuliert. In den ersten beiden Kapiteln der vorliegenden Arbeit wird zunächst die derzeitige Theorie der elementaren Wechselwirkungen mittels einer eichtheoretischen Formulierung beschrieben. Astrophysikalische Folgerungen der Allgemeinen Relativitätstheorie, wie die Raumzeitkrümmung innerhalb und ausserhalb kompakter Sterne und die Theorie schwarzer Löcher werden im Detail diskutiert und mittels dreidimensionaler Diagramme veranschaulicht. Im dritten Kapitel werden die numerisch erhaltenen Resultate der Eigenschaften der kompakten Sterne zusammengefasst und in folgende Gruppen untergliedert: Neutronensterne, Quarksterne, hybride Sterne und Zwillingssterne. Die mögliche Realisierung des Quark-Gluon-Plasmas im Inneren der kompakten Sterne wird diskutiert. Anhand von existierenden und zukünftig geplanten astrophysikalischen Beobachtungsmöglichkeiten (z.B. Gravitationswellendetektoren) wird die experimentelle Überprüfbarkeit der dargestellten Ergebnisse aufgezeigt.
Im Jahr 2000 wurde am Soreq Nuclear Research Center in Yavne bei Tel Aviv, Israel, der Neubau der Forschungsanlage SARAF (Soreq Applied Research Accelerator Facility) begonnen. Mit dem Bau der Anlage sollen neue Forschungsfelder erschlossen, sowie die vorhandenen Experimente erweitert werden, der Forschungsreaktor IRR1 und die vorhandenen Beschleunigeranlagen werden damit abgelöst. Kernstück der Anlage ist der Linearbeschleuniger aus EZR-Ionenquelle, LEBT, RFQ, MEBT und 46 supraleitenden HWRs, damit soll ein 5 mA Deuteronen CW-Strahl der Teilchenenergie 40 MeV erzeugt werden.
Die vorliegende Arbeit basiert auf einer Kombination von IR-Messungen und Spektrenberechnungen mittels Dichtefunktionaltheorie und konnte tiefere Einblicke in die von vielfältigen Überlagerungen geprägten Spektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans geben. Absorptionsmessungen zu allen 20 natürlich vorkommenden a-Aminosäuren wurden an wässrigen Lösungen im Spektralbereich von 1800 bis 500 cm-1 durchgeführt und stellten eine wichtige Grundlage zur Identifikation von Signalen der Aminosäuren im Proteinspektrum dar. Durch die Berechnung der molaren Absorptionskoeffizienten aus den Aminosäurespektren konnten Beiträge einzelner Aminosäuren zum Proteinspektrum besser eingeordnet bzw. abgeschätzt werden. Eine detaillierte Untersuchung für die wichtige Aminosäure Histidin, auch mittels zitierten Rechnungen an Modellsubstanzen, diente zur tendenziellen Zuordnung einige dieser Banden in zeitabhängig gemessenen Proteinspektren. Um eine qualitativ hochwertige Aufnahme der elektrochemisch induzierten Redox- Differenzspektren zu gewährleisten, wurde eine Potentiostaten-Ansteuerung konzipiert und programmiert. Die damit automatisiert durchgeführten Messungen ergaben reproduzierbare Differenzspektren für die Ubichinone mit und ohne Isoprenseitenkette (UQ2, UQ0) als auch für das Protein, den Cytochrom bc1-Komplex, bis 880 cm-1. Dies bedeutete eine Erweiterung des Spektralbereichs im Vergleich zu vorigen Arbeiten und damit die Möglichkeit, signifikante Moden der Ubichinole zu detektieren. Zur Untersuchung der komplexen IR-Spektren der Ubichinole wurden ab initio - und Dichtefunktionaltheorie-Rechnungen durchgeführt. Für diese biologisch essentiellen Moleküle waren bislang keine Struktur- oder Normalmodenberechnungen bekannt und wurden in der vorliegenden Studie erstmals erarbeitet. Bei der Analyse der möglichen Geometrien des UQ0H2-Moleküls mittels ab initio - Studien resultierte eine energetisch günstigste Struktur, bei der beide Methoxygruppen aus der Ringebene in verschiedene Raumhälften (vor und hinter dem Ring) wiesen. Dies ergab sich sowohl für Chinole mit als auch ohne Isoprenseitenkette (gezeigt mittels ab initio oder DFT). Diese Anordnung hat zur Folge, dass es als unwahrscheinlich eingestuft werden kann, dass die Ubichinole in übereinander gestapelter Form vorliegen. Die für die Chinole charakteristischen Hydroxygruppen (COH) orientierten sich beim Ubichinol ohne Seitenkette zu den jeweils benachbarten Methoxygruppen hin. Beim UQ2H2 zeigte die C1-OH Gruppe in Richtung der Isoprenseitenkette. Die Strukturen der oxidierten Ubichinone wiesen den aus der Literatur bekannten Mesomerie-Resonanz-Effekt an den Bindungen C4=O, C2=C3 und C-O der Methoxygruppe an C2 auf. Dieser Effekt wurde an diesen Gruppen auch für das Ubichinon mit Isoprenseitenkette gezeigt, zu dem bislang kaum Literaturdaten aus Rechnungen vorlagen. Für biologisch relevante Zwischenstufen im Redox-/Protonierungsprozess der Chinone (Ubichinone ohne Seitenkette) wurden die Strukturen berechnet. Hier erwies sich eine erste Protonierung an der C1O-Gruppe als energetisch günstiger. Zu diesen Zwischenstufen, die teils radikaler oder anionischer Natur sind, wurden die Spektren im Einklang mit bisherigen DFT-Analysen, die meist zu einfacheren Molekülen vorlagen, erstmals berechnet. Da die Spektrenberechnungen von den Strukturen in vacuo ausgingen, waren zusätzliche Modellstudien an Chinonen hilfreich, bei denen ein Wassermolekül benachbart war. Damit konnten die Auswirkungen entsprechender H-Brücken (z.B. zwischen Protein und Chinon- Molekül) anhand der berechneten Spektren der Modelle eingehender beleuchtet werden und ergaben zudem wichtige Hinweise auf mögliche Anordnungen von Wasserstoffbrücken zum (methoxy-substituierten) Chinol. Die Messungen der Ubichinole in wässriger Lösung und gebunden im Protein ergaben charakteristische Banden zwischen 1120 und 1050 cm-1, die mit den Spektrenberechnungen zugeordnet wurden: Diese Banden beinhalteten die für die Bindung der Ubichinole im Protein aussagekräftigen Signale der beiden C-O Gruppen. Damit wurde ein Grundstein gelegt für Interpretationen der Spektren hinsichtlich der Bindungen der Ubichinole an die Proteinumgebung. Für das oxidierte Ubichinon mit Isoprenseitenkette erwiesen sich die Intensitäten der vier str. C=O / C=C Moden im Vergleich zu UQ0 als verändert. Damit lag ein Beitrag einer dieser Moden zu einer Bande im Proteinspektrum nahe. Hier zeigte sich, dass eine Normalmodenanalyse von hoher Qualität, wie die vorliegende mittels Dichtefunktionaltheorie, entscheidende Aussagen über Banden liefern kann, die bei Messungen an Ubichinon-Lösungen nicht unterscheidbar sind, jedoch beim Molekül im Protein sichtbar sein können. Zu den berechneten Spektren der Ubichinole und der oxidierten Formen wurden jeweils Bandenverschiebungen ermittelt, die mit Isotopenmarkierungen einher gingen und die im Einklang mit den gemessenen Verschiebungen im Falle der 13C1- bzw. 13C4-markierten Ubichinone standen. Die Differenzspektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans zeigten aufgrund des hohen Chinongehalts ausgeprägte Banden der Ubichinole inklusive der erwähnten charakteristischen Moden. Da es in deren Bereich in den Proteinspektren zu Überlagerungen mit Häm- und Aminosäurensignalen kommt, sind weiterführende, experimentelle Studien für ein noch detailliertes Verständnis erforderlich. Die in den Spektren vorhandenen, zahlreichen weiteren Beiträge der verschiedenen Gruppen im Protein wurden anhand von Literaturdaten diskutiert. Dies betraf insbesondere die Schwingungsmoden der Häme und die Amid-Banden, die Signale des Polypeptidrückgrates des Proteins. Für die Spektrendiskussion bzgl. den Aminosäuren im Protein wurden die Ergebnisse aus Kap. 4.1 hinzugezogen. Mit zeitabhängigen IR-Messsungen (alle 30 Sekunden) wurde versucht, Erkenntnisse über weitere Beiträge oder zeitliche Entwicklungen im Proteinspektrum zu gewinnen. Da die Chinone verzögert (zum Anlegen des entsprechenden Potentials) reagierten, waren in Abhängigkeit der Reaktionsrichtung auch Signale anderer Gruppen im Protein messbar. So konnten mehrere Moden der Häme im bc1-Komplex (tendenziell) nachvollzogen werden. Aus diesen Messreihen ergaben sich wichtige Hinweise auf Signale der Histidine am Eisen-Schwefel-Zentrum des Enzyms. Diese Aminosäuren stehen direkt mit den Ubichinolen in der Qo-Bindestelle in Wechselwirkung.
Die transversale Betatronbewegung eines Ionenstrahls, genannt Tune, stellt neben der Strahlposition die wichtigste zu messende Strahleigenschaft für den stabilen Betrieb eines Kreisbeschleunigers dar. Die Einstellung des Tunes auf einen Arbeitspunkt unterliegt engen Grenzen, da eine Vielzahl resonanter Störungen existiert, die die Teilchenbewegung beeinflussen und somit Emittanzvergrößerung und Strahlverlust hervorrufen. Den gemessenen Tune mit hoher Auflösung in Zeit und Frequenz während der gesamten Beschleunigungsphase auszugeben ermöglicht eine Justierung der ionenoptischen Elemente der Strahlführung. Dadurch läßt sich die Teilchenzahl bis zur theoretischen Raumladungsgrenze erhöhen und darüber hinaus Teilchenverluste minimieren. Die Messungen wurden an Positionssonden (BPM) des Schwerionensynchrotrons SIS18 der "GSI Helmholtzzentrum für Schwerionenforschung GmbH" mit zwei verschiedenen Meßsystemen durchgeführt, was einen Vergleich der Systemauflösungen ermöglicht. Das Direkt Digitalisierende Meßsystem (DDM) wandelt das BPM-Elektrodensignal direkt nach der Verstärkerkette mit einer Rate von 125 MSa/s in digitale Daten um. Der Strahlschwerpunkt eines jeden Einzelbunches wird daraus mittels digitaler Prozessierung berechnet und durch Fouriertransformation dessen Frequenzspektrum bestimmt. Man erhält den fraktionalen Tune dadurch direkt im Basisband. Das am CERN entwickelte und für Parameter des SIS18 adaptierte Direct Diode Detection - System (DDD) zeigt ebenfalls den Tune im Basisband. Um den zu bearbeitenden Frequenzbereich erheblich zu reduzieren, werden bei diesem Verfahren die Bunchpeakwerte, die die Strahlschwingung enthalten, über ein RC-Element analog verzögert ausgegeben. Der erhaltene Tune kann daraus mit hoher Auflösung digitalisiert werden. In der vorliegenden Dissertation werden die Meßaufbauten, die digitale Prozessierung der BPM-Daten mittels neuer Algorithmen sowie die Auswertung und Berechnung des Tunes gezeigt. Es werden typische Tuneverläufe diskutiert und ein Arbeitsbereich definiert, bei dem stabile Tunemessungen mit S/N von 30-50 dB ohne meßbare Vergrößerung der Strahlemittanz möglich sind. Die Auflösung der Tunemessung beträgt δqy = 3.50 · 10−4 und δqx = 7.97 · 10−4 für Anregungskickwinkel im Arbeitsbereich. Darüber hinaus werden physikalische Anwendungen des Systems diskutiert, indem verschiedene Einflüsse von ionenoptischen- und Strahlparametern auf den Tuneverlauf gezeigt und ausgewertet werden.
Die vorliegende Arbeit stellt Design, Aufbau und erste experimentelle Testergebnisse einer integrierten RFQ-Driftröhrenkombination für den Einsatz im Injektorbereich einer klinischen Synchrotronanlage zur Behandlung von Tumorerkrankungen mit Ionenstrahlen vor. Das Hauptziel der Bemühungen war, eine sehr kompakte und auf die gestellten Aufgaben hoch spezialisierte Lösung zu finden, die den täglichen Anforderungen im Klinikbetrieb gerecht wird. Zuverlässigkeit, einfache Bedienbarkeit und möglichst geringe Betriebskosten standen dabei im Vordergrund und führten letztlich zu einer nur 1,40 m langen Kombination der beiden Beschleunigerkomponenten, die üblicher Weise in zwei getrennten Kavitäten mit separater Leistungsversorgung, separater Steuerung und mit deutlich mehr Platzbedarf untergebracht sind. Im Zuge der Designarbeiten wurde insbesondere das Programm PARMPRO den hier aufgetretenen aktuellen Problemstellungen angepasst. Die Berechnung der Wechselwirkung von Ionen bei raumladungsdominierten Teilchenstrahlen wurde korrigiert, das Programm um ein Transportelement zu Transformation geladener Teilchen durch eine frei wählbare Potentialverteilung erweitert und mit einem neu entwickelten Programmteil wurden die zur Fertigung notwendigen Daten generiert. Die Optimierung der Strukturparameter mit Hilfe einer externen Visual-Basic-Anwendung zum automatischen Optimieren der Strukturdaten mit Hilfe von PARMPRO war ein Schritt auf dem Wege zum endgültigen, an die Eingangsstrahldaten und an die Erfordernisse der darauffolgenden IH-Struktur angepassten Elektrodendesign. Nach den Simulationsrechnungen erfolgten Referenzmessungen an entsprechenden Modellaufbauten insbesondere mit einem computergesteuerten Störkörpermessstand, zur experimentellen Bestimmung der Spannungsverhältnisse an der jeweils zu untersuchenden Strukturvariante. Auf diesen Ergebnissen basiert das endgültig entwickelte Resonatorkonzept der RFQ-Driftröhrenkombination. Das Kapitel "Aufbau des Medizin-RFQs" behandelt die Konstruktion und die technische Umsetzung des erarbeiteten Beschleunigerkonzepts. Einzelnen Beschleunigerkomponenten wie Tank, Elektroden, Resonatorstruktur, Bunchereinheit und deren Fertigungsprozesse werden vorgestellt, Arbeitsschritte wie das Verkupfern des Tanks in der Galvanik der GSI oder das Verfahren zum Versilbern von Kontaktteilen im hauseigenen Labor werden beschrieben. Es folgt eine Diskussion des Justierkonzepts und der Maßnahmen zur Einhaltung der erforderlichen Genauigkeiten von ca. 20 mm, um die berechnete Strahlqualität zu gewährleisen. Abschließend werden die Ergebnisse erster HF-Testmessungen auf Messsenderniveau beschrieben. Hier wurden zunächst experimentell grundlegende Resonatoreigenschaften wie etwa Resonanzfrequenz, Güte und Parallelersatzwiderstand bestimmt. Danach wurde ein spezielles Störkörpermessverfahren angewandt, um den über die Montagehöhe der Driftröhre einstellbaren Spannungsbereich der Bunchereinheit zu erfassen, da die geometrischen Verhältnisse einen computergesteuerten Messstand wie er zur Untersuchung der Modellaufbauten herangezogen wurde nicht zuließen. Abschließend erfolgte ein Abstimmen der Spannungsverteilung entlang der RFQ-Elektroden. Diese experimentellen Ergebnisse belegen eindrucksvoll die Funktionsfähigkeit der RFQ-Driftröhrenkombination, so ist insbesondere die erforderliche Buncherspannung auf einer mittleren Montagehöhe der spannungsführenden Driftröhre zu erreichen, die durch die zusätzlich Driftröhrenkapazität hervorgerufene Verzerrung der Spannungsverteilung auf den Elektroden lässt sich über die höhenverschiebbaren Kurzschlussplatten gut korrigieren. Das erarbeitete Gesamtkonzept dieser neuartigen, sehr kompakten RFQ-Driftröhrenkombination ist auch für andere Anwendungsbereiche sehr attraktiv, so dass bereits ein Patent darauf angemeldet wurde. Damit ist das Ziel, eine RFQ-Driftröhrenkombination für die medizinische Beschleunigeranlage in Heidelberg aufzubauen erreicht. Strahltests und die experimentelle Bestimmung der Phasen- und Energiebreite des Ionenstrahls sind als nächstes vorgesehen.
In der vorliegenden Dissertation werden mit einem chiralen SU(3)-Modell die thermodynamischen Eigenschaften von stark wechselwirkender hadronischer Materie und die mikroskopischen Medium-Eigenschaften von Hadronen bei hohen Temperaturen und hohen Baryonen-Dichten untersucht. Das verwendete chirale Modell ist ein erweitertes sigma-omega-Modell in Mittlerer-Feld-Näherung (Mean-Field) mit baryonischen und mesonischen effektiven Freiheitsgraden; es basiert auf spontan gebrochener chiraler Symmetrie und Skaleninvarianz. Das Phasenübergangsverhalten des chiralen Modells wird systematisch untersucht und dabei gezeigt, dass es signifikant von den Kopplungen zusätzlicher schwererer hadronischer Freiheitsgrade ('Resonanzen') abhängt. Durch entsprechende Ankopplung des niedrigsten baryonischen Dekupletts kann ein Phasendiagramm in qualitativer Übereinstimmung mit aktuellen Vorhersagen der Gitter-QCD erreicht werden. Alternativ wird die Ankopplung einer schweren baryonischen Test-Resonanz untersucht, welche effektiv für das Spektrum der schweren hadronischen Zustände steht. Hier ergibt sich für einen bestimmten Bereich der Kopplungen sogar eine quantitative Übereinstimmung zu den Gitter-QCD-Vorhersagen bei gleichzeitig guter Beschreibung der Grundzustandseigenschaften von Kernmaterie. Für diese Zustandsgleichung werden Vorhersagen (innerhalb der Modellannahmen) zu geplanten Experimenten gemacht -- konkret wird gezeigt, dass der Phasenübergangsbereich für das CBM Experiment des geplanten Beschleunigerzentrums FAIR an der GSI Darmstadt experimentell zugänglich ist. Weiter wird das chirale Modell auf die Beschreibung von experimentellen Teilchenzahlverhältnissen (Yield-Ratios) aus Schwerionen-Kollisionen von AGS, SPS und RHIC angewendet. Studiert werden Parametersätze mit stark unterschiedlichen Phasendiagrammen aufgrund unterschiedlicher Ankopplung des baryonischen Dekupletts sowie ein ideales Hadronengas. Bei den niedrigen und mittleren Kollisionsenergien zeigt sich eine verbesserte Beschreibung durch die chiralen Parametersätze im Vergleich zum idealen Hadronengas, besonders deutlich für Parametersätze mit Phasendiagramm ähnlich der Vorhersage aus der Gitter-QCD. Die Wechselwirkung im chiralen Modell führt zu Medium-Modifikationen der chemischen Potentiale und der Hadronenmassen. Die resultierenden Ausfrierparameter mu und T sind deshalb gegenüber dem nichtwechselwirkenden Fall signifikant verändert. An den Ausfrierpunkten zeigen sich deutliche Abweichungen der effektiven Massen von den Vakuummassen (5 bis 15 %) und des effektiven baryo-chemischen Potentials vom ursprünglichen Wert (bis zu 20 %). Ferner werden universelle Kriterien für das Ausfrieren diskutiert und isentrope Expansion zu den Ausfrierpunkten untersucht, wo sich eine starke Abhängigkeit der Trajektorien von der Zustandsgleichung ergibt. Schließlich wird der Einfluss des Dilaton-Felds (Gluonkondensat) auf das Phasenübergangsverhalten bei mu=0 studiert, indem das Gluonkondensat an die Dekuplett-Baryonen gekoppelt wird. Es zeigt sich, dass dadurch eine Restauration der Skaleninvarianz im Modell möglich wird, die gleichzeitig auch eine vollständige Restauration der chiralen Symmetrie bewirkt. Die Restauration der Skaleninvarianz erfolgt erst bei Temperaturen, die oberhalb der chiralen Restauration (im nichtseltsamen Sektor) liegen. Diese Modellerweiterung ermöglicht es, zukünftig das Phasenübergangsverhalten -- Restauration von chiraler Symmetrie und Skaleninvarianz -- auch bei nichtverschwindenden Baryonendichten zu untersuchen. Die Resultate dieser Arbeit zeigen die Wichtigkeit der schweren hadronischen Zustände, der Resonanzen, für das QCD-Phasendiagramm. Für die Zukunft ist eine Ankopplung des gesamten hadronischen Massenspektrums an das Modell erstrebenswert, wie sich sowohl aus der Untersuchung der Modellerweiterung um eine Test-Resonanz als auch aus der Anwendung auf experimentelle Teilchenzahlverhältnisse ergibt.
In this thesis we work on the theoretical description of relativistic heavy-ion collisions, focussing on electromagnetic probes. We present mainly four topics: electric conductivity and diffusion properties of the hot plasma and hadronic matter, response of the quark-gluon plasma to external magnetic fields, direct photon production in the quark-gluon plasma and a study about initial and final state effects in small systems. The latter topic aims, i.a., at a better understanding of the initial state, which is crucial for electromagnetic probes. In all research areas we make use of the Boltzmann transport equation, whereby the presented methods provide analytical and numerical solutions. We pay particular attention to the construction of complete leading order photon production processes in numerical transport simulations of the quark-gluon plasma.
To begin with, our findings are the complete conserved charge diffusion matrix and electric conductivity. Those properties are important ingredients, e.g., for future simulations of baryon rich collisions. Next, we find that the influence of external magnetic fields to the QGP dynamics is not quantifiable in observables.
We present results for a variety of direct photon observables and we can partly explain experimental data. We emphasize the importance of the chemical composition and non-equilibrium nature of the medium to the direct photon puzzle. Lastly, we observe the interesting dynamic behavior of azimuthal correlations in small systems and identify signatures of the initial state in final observables. This will also be of interest for more precise simulations of electromagnetic probes and allows for various future studies.
Electron tomography was used to investigate membrane proteins in a variety of contexts. A high-angle tilt holder, suitable for electron tomography was designed, constructed and characterised. 2D crystals of membrane proteins, NhaA and YidC, were examined as a resolution test, and a method established for determining planarity of crystals. A model for specific gold binding to NhaA crystals was also presented. ATP synthase, a membrane protein complex in mitochondria, were imaged in a frozen hydrated state. They were found to form ribbons of dimers at highly curved regions of the membrane. Dimers from bovine heart and rat liver were excised from the tomographic volumes and averaged. Based on the location of the dimers in the mitochondrion, a model was established whereby ATP synthase, a molecular motor driven by the proton motive force, benefits from the high curvature that it induces in the membrane. Whole yeast mitochondria, imaged by electron cryo-tomography, also contained long ribbons of dimeric ATP synthase. Multiple copies of an unknown membrane protein complex were visualised by electron cryo-tomography, excised and averaged. A general method for the identification of unknown proteins was presented to deal with this inevitable issue, as native tissues and organelles are imaged, and the structures of complexes determined in situ.
Great interest has emerged recently in the search for Kitaev spin liquid states in real materials. Such states rely on strongly anisotropic magnetic interactions, which have been suggested to exist in a number of candidate materials based on Ir and Ru. This thesis concentrates on two priority purposes. The first is the investigation of electronic and magnetic properties of candidate materials Na2IrO3, α-Li2IrO3, α-RuCl3, γ-Li2IrO3, and Ba3YIr2O9 for Kitaev physics where both spin-orbit coupling and correlation effects are important. The second is the method development for the microscopic description of correlated materials combining many-body methods and density functional theory (DFT). ...
This work presents the study on the suitability of single-crystal CVD diamond for particle-detection systems in present and future hadron physics experiments. Different characterization methods of the electrical and the structural properties were applied to gain a deeper understanding of the crystal quality and the charge transport properties of this novel semiconductor material. First measurements regarding the radiation tolerance of diamond were performed with sensors heavily irradiated with protons and neutrons. Finally, detector prototypes were fabricated and successfully tested in various experiments as time detectors for minimum ionizing particles as well as for spectroscopy of heavy ions at the energy ranges available at the SIS and the UNILAC facilities of GSI. ...
The intriguing effects of electroweak induced parity violation (PV) in molecules have yet to be observed, but experiments on molecular PV promise to provide fascinating insights. They potentially offer a novel testing ground for the low energy sector of the standard model and, in addition, a successful measurement of PV differences between the two enantiomers of a chiral molecule could promote a deeper understanding of molecular chirality, by essentially establishing a new link between particle physics and biochemistry. A key challenge in the design of such experiments is the identification of suitable molecules, which in turn requires widely applicable computational schemes for the prediction of PV experimental signals. To this end, a quasirelativistic density functional theory approach to the calculation of PV effects in nuclear magnetic resonance (NMR) spectra of chiral molecules has been developed and implemented during the course of this thesis. It includes relativistic as well as electron--correlation effects and has been used extensively in the screening of molecules possibly suited for a first observation of molecular PV. Some relevant compound classes have been identified, but none of their selected representatives are predicted to exhibit PV NMR frequency shifts that can be detected under current experimental restrictions. In order to advance the design of molecules which exhibit particularly large PV signals in experiments, systematic effects on PV NMR frequency splittings such as scaling with nuclear charge, conformational dependence and the impact of atomic substitution around the NMR active nucleus have been studied. Previously predicted scaling laws were confirmed and it was determined that the environment of the NMR active nucleus, both in terms of conformation and atomic composition, can be tuned to increase PV frequency shifts by several orders of magnitude. In addition to molecules suited for NMR experiments, a fascinating chiral actinide compound was studied with regard to PV frequency shifts in vibrational spectra. This compound displays the largest such shift ever predicted for an existing molecule, which lies well within the attainable experimental resolution. The challenge now lies in making it compatible with current experimental setups.
Die künstliche elektrische Stimulation bietet oftmals die einzige Möglichkeit, nicht vorhandene bzw. verloren gegangene motorische sowie sensorische Aktivitäten in gewissem Umfang wieder herzustellen. Im Falle von tauben Patienten wird zur Erlangung von Hörempfindungen die elektrische Stimulation des peripheren auditorischen Systems mit Hilfe von Cochlea- oder Hirnstammimplantaten standardmäßig eingesetzt. Es ist dabei notwendig, natürliche neuronale Entladungsmuster durch die elektrisch evozierten Entladungsmuster nachzubilden. Bei einkanaligen Systemen kann nur die Zeitstruktur des Signals dargeboten werden. Mehrkanalige Systeme bieten hier noch zusätzlich die Möglichkeit auch örtlich selektiv bestimmte Nervenfasergruppen zu stimulieren und damit die Ortsstruktur in den Entladungsmustern zu repräsentieren. So hat es sich gezeigt, dass die Sprachverständlichkeit durch Verwendung von Mehrkanal-Elektroden verbessert werden kann. Grundvoraussetzung hierfür ist die Optimierung der Kanalseparation durch Kleinst-Vielkanalelektroden und der Wahl einer optimalen Codierstrategie des Signals.
Die Codierstrategie ist abhängig von dem jeweiligen spezifischen Einsatzbereich. So gaben z.B. schon Clopton und Spelman (1995) zu bedenken, dass die als selektiv berechnete tripolare (S3) Konfiguration nur für einen bestimmten Stimulationsstrombereich gültig ist. Hinzu kommt es bei simultaner Verwendung benachbarter Kanäle zu schmerzhaften Lautheitssummationen. Ursache hierfür sind einerseits die Überlagerung der durch die Elektroden stimulierten neuronalen Bereiche und andererseits die Wechselwirkungen von Strömen benachbarter Elektrodenkanäle. Diese Effekte führen nicht nur zu einer Verringerung der räumlichen Stimulationsauflösung, sondern auch zu einer Einschränkung der exakten Abbildung der Zeitstruktur innerhalb der einzelnen Stimulationskanäle.
Die Techniken und Grundlagen der elektrischen Stimulation von neuronalem Gewebe mit Kleinst-Vielkanalelektroden sind bisher kaum untersucht worden. Ziel dieser Arbeit war es, ein mathematisches Modell zu implementieren und Qualitätsparameter zu definieren, mit deren Hilfe die Verteilung des elektrischen Feldes und die daraus resultierende neuronale Erregung beschrieben und optimiert werden kann. Zur Verifizierung des Modells sollten Methoden und Techniken entwickelt werden, die eine hochauflösende Abtastung der elektrischen Felder und Messung der neuronalen Daten innerhalb eines Messsystems ermöglichen.
Bei der neuronalen Stimulation mit Kleinst-Vielkanalelektroden ergibt sich eine Reihe von Problemen grundsätzlicher Art. So werden bei elektrodenferner Stimulation größere Stimulationsströme benötigt als bei elektrodennaher Stimulation, wobei für den Strombedarf die Stimulationskonfiguration eine entscheidende Rolle spielt: Der S1 Stimulationsmodus benötigt weniger Strom zur Erreichung großer Stimulationstiefen als der S2 Stimulationsmodus. Der größte Strom wird mit zunehmendem Elektrodenabstand gleichermaßen von dem S3 und S7 Stimulationsmodus benötigt. Gleichzeitig verfügen Kleinst-Vielkanalelektroden bauartbedingt aber nur über kleine Elektrodenkontaktoberflächen und lassen daher auf Grund der kritischen Feldstärke nur geringe Stimulationsströme zu.
Ein weiteres Problem besteht bei diesen Kleinst-Elektrodendimensionen in der konkreten Lage der Neurone an denen eine neuronale Erregung evoziert wird. Die Dimension der Kleinst-Vielkanalelektroden liegt bei einem Elektrodenkanalkontaktdurchmesser von 70 µm bereits in der Größenordnung der zu stimulierenden Neurone mit einem Durchmesser von 10 bis 15 µm. Dies macht sich bei den Messungen besonders dann deutlich bemerkbar, wenn nicht der Stimulationsstrom die Größe des überschwelligen Bereichs modelliert, sondern wenn der Elektrodenkanalabstand durch die Wahl der entsprechenden Elektrodenkanäle verändert wird. Hier weisen zwar die meisten neuronalen Antworten noch in die sich aus dem Modell ergebende Richtung, jedoch kommt es zu einer höheren Streuung der Ergebnisse als bei Messungen mit der Folienelektrode, die eine Kontaktfläche von 170 µm besitzt.
Es gibt also eine Reihe von begrenzenden Faktoren bei der optimalen Dimensionierung der Stimulationselektrode, die sowohl abhängig von der physiologischen Topologie ist als auch von den eingesetzten Stimulationskonfigurationen. Es ist also zur Stimulation die Wahl der optimalen Codierstrategie und die richtige Dimensionierung der Stimulationselektrode sowie der Elektrodenkanalabstände von entscheidender Bedeutung.
Die neuronalen Messungen wurden erstmalig für diese Fragestellung am Hirnschnitt durchgeführt, da sie, im Gegensatz zu in-vivo Versuchen, eine exakte Positionierung der Elektroden auf dem Hirnschnitt unter Sichtkontrolle durch das Mikroskop erlauben. Es wurden aus den neuronalen Messungen die Amplituden und Latenzen der exzitatorischen postsynaptischen Potenziale (EPSP) sowie der Feldpotenziale ausgewertet.
Der Versuchsaufbau macht es möglich, die Potenzialfelder mit genau den Konfigurationen abzutasten, mit denen auch die neuronalen Messungen des Hirnschnittes durchgeführt wurden. Das implementierte Programm zur Berechnung der Feldverteilung besitzt zum Messprogramm ein Interface, so dass es möglich ist, die Einstellungen des Experimentes, wie Stimulationskonfigurationen, Abtastraster des Feldes und die Koordinaten des Messraums, in der Modellrechnung zu verwenden. Somit ist ein direktes Vergleichen zwischen Messung und Berechnung möglich. In nachfolgenden Arbeiten können die vorliegenden Ergebnisse als Grundlage für in-vivo Versuche eingesetzt werden.
Zur Durchführung der Messungen wurden sehr kleine Elektroden aus eigener Herstellung verwendet und es wurden uns freundlicherweise neu entwickelte Folienelektroden des Fraunhofer Instituts St. Ingbert zur Verfügung gestellt. Die Größe der verwendeten Kleinst-Vielkanalelektroden aus eigener Herstellung lag um ca. eine Zehnerpotenz unter den aktuell eingesetzten Elektrodentypen und ist speziell für den direkten Kontakt zwischen Elektrode und Gewebe konzipiert. Dies entspricht dem typischen Einsatzbereich von Hirnstammimplantaten. Dies ist auch notwendig, um eine maximale räumliche Separation der erzeugten Felder zu ermöglichen. Außerdem erlaubte das Elektrodendesign auf Grund der hohen Anzahl der Elektrodenkanäle und durch variieren der Konfigurationen die Feldrichtung zu bestimmen, ohne die Elektrode neu auf den Hirnschnitt aufsetzen zu müssen.
Der in dieser Arbeit implementierte Algorithmus zur Berechnung der Feldverteilungen und die eingeführten Qualitätsparameter erlauben, die unterschiedlichen Stimulationskonfigurationen miteinander zu vergleichen und zu optimieren. Die Ergebnisse aus diesen Modellrechnungen wurden sowohl mit den Messungen der elektrischen Felder als auch mit den Ergebnissen aus den neuronalen Antworten verglichen.
Der im Rahmen dieser Arbeit erstellte Versuchsaufbau bestand aus einer über mehrere Mikromanipulatoren getriebene mikrometergenaue Positioniereinrichtung. Es konnten sowohl die Stimulationselektrode als auch die Elektrode zur Aufzeichnung der neuronalen Daten gesteuert werden. Die Steuerung des gesamten Setup, d.h. die Positionierung, die Aufzeichnung der neuronalen Daten und die Generierung der Stimulationsmuster wurde über den zentralen Messrechner durch ein hierfür entwickeltes Computerprogramm gesteuert. Die Versuche wurden über ein inverses Mikroskop durch eine CCD-Kamera aufgezeichnet.
Der entscheidende Vorteil des in dieser Arbeit gewählten Modellansatzes besteht in der grundsätzlichen Beschreibung der Feldverteilung bei vielkanaliger Stimulation, so dass diese auch auf andere Elektrodenformen bzw. Konfigurationen und Dimensionen übertragbar ist. Es lassen sich so den verschiedenen Konfigurationen nach bestimmten Qualitätskriterien bewerten und an die jeweilige Zielrichtung der Stimulation anpassen. Die berechneten Felder konnten erfolgreich in der Messeinrichtung generiert und nachgemessen werden. Außerdem ist es gelungen, differenzierte neuronale Aktivitäten auszuwerten, welche die Aussagen des Modells abstützen.
Die vorliegende Arbeit beschäftigt sich mit der Emission von Elektronen aus kleinen dissoziierenden Molekülen.
Die Frage, der hier nachgegangen werden soll: Wie läuft ein solcher Prozess, bei dem ein Molekül in seine atomaren Einzelteile zerbricht, tatsächlich ab? Während es Experimentalphysikern schon seit längerem möglich ist präzise Aussagen über den Zustand eines Systems vor und nach einer solchen „halben“ chemischen Reaktion zu machen, war es lange nicht möglich die Reaktion selbst zu be-obachten, da sie auf einer Zeitskala von einigen Femtosekunden (1 fs = 10-15 s) stattfindet. Eine Möglichkeit, solche Prozesse zu untersuchen, ist die Ionisation, also das Herauslösen eines Elektrons aus seinem gebunden Zustand im Molekül, und die anschließende Messung der kinetische Energie oder des Impulsvektors des Elektrons. Dadurch können Rückschlüsse auf die Bindungsenergie und die räumliche Verteilung der Elektronen im gebundenen Zustand gezogen werden. Wenn man in der Lage ist die Elektronen, die von einem dissoziierenden Molekül zu verschiedenen Zeitpunkten während des Dissoziationsprozesses emittiert werden, zu messen, so sollte es unter Umständen möglich sein, den Übergang von molekularen zu atomaren Orbitalen zu beobachten.
Zur Durchführung der Messungen wurde ein COLTRIMS-Multikoinzidenzimpulsspektrometer ver-wendet, mit welchem sowohl die kinetische Energie aller geladenen Reaktionsprodukte als auch deren vollständige Impulsvektoren koinzident gemessen werden können.
In einer Messung an Chlorwasserstoff wurde auf diese Weise die ultraschnelle Dissoziation angeregter neutraler Moleküle untersucht. Hierbei machte man sich den Umstand zunutze, dass die angeregten Zustände bei beliebigen internuklearen Abständen zerfallen und ein Auger-Elektron emittieren können.
Für den resonanten Auger-Zerfall der 2p-16σ-Zustände des Chlorwasserstoffmoleküls wurden unseres Wissens nach erstmals alle Komponenten der Impulsvektoren sowohl der Auger-Elektronen als auch der ionischen Reaktionsprodukte gemessen. Durch diese kinematisch vollständige Messung konnte der Prozess in bisher noch nie dagewesenem Detail untersucht werden. Zum ersten Mal konnte sowohl der angeregte Zustand nach der Absorption des Photons, als auch der elektronische Endzustand für jeden einzelnen Zerfall bestimmt werden. Aufgeschlüsselt nach diesen Zuständen konnten dann die Winkelverteilungen der Auger-Elektronen und die Aufteilung der Energie auf Elektron und Kernbewegung vermessen werden. Dies ist der vollständige Satz aller möglichen Beobachtungsgrößen, so dass die Daten über keine Größe mehr integriert wurden.
In einer Messung an H2O-Molekülen wurde ein Prozess untersucht, bei dem ein einfach geladenes angeregtes Molekül in zwei Fragmente dissoziiert und, wenn die Dissoziation bereits sehr weit fort-geschritten ist, ein weiteres Elektron emittiert. Hier konnte gezeigt werden, wie eine Anisotropie in der Elektronenwinkelverteilung eines dissoziierenden Moleküls mit Hilfe einer einfachen klassischen Simulation dazu verwendet werden kann, den Abstand zwischen einem Proton und einem angeregten Molekül, in welche das ursprüngliche Molekül dissoziiert, zu dem Zeitpunkt an dem das angeregte Molekül durch Autoionisation ein weiteres Elektron emittiert, zu bestimmen. Es wurde nachgewiesen, dass der Auger-Zerfall eines H2O+*-Ions, bei dem ein Sauerstoff 2s-Elektron aus dem Molekülverband entfernt wurde, erst bei sehr großen Abständen von mehreren 100 Ångström zwischen dem Proton und dem OH*-Molekül stattfindet.
Die dritte Messung an dem Ne2-Dimer beschäftigt sich mit der Frage, ob die in einem Molekül er-zeugten Vakanzen als lokalisiert oder delokalisiert zu betrachten sind. Wie bereits in vorhergegangenen Messungen dargelegt wurde, ist die Antwort auf die Frage für kovalente Moleküle eine Frage des Messprozesses. In Rahmen dieser Arbeit konnte nachgewiesen werden, dass dies auch für schwach gebundene Van-der Waals-Moleküle der Fall ist und deren Valenzelektronen ebenfalls unter bestimmten Umständen als delokalisiert angesehen werden müssen. Das ist insoweit überraschend, da die gängige Vorstellung eines solchen Moleküls die eines Systems aus einzelnen Atomen ist, welche nur durch kleine Ladungspolarisationen in den Elektronenschalen eine Bindung eingehen. Des Weiteren wurde gezeigt, dass sich der Prozess qualitativ mit einer einfachen Doppelspalt-Simulation erklären lässt, bei welcher ebene Wellen mit einem bestimmten Phasenversatz, der sich aus der Form der beteiligten Atomorbitale ergibt, von den beiden Kernen emittiert werden.
Die Dissoziation des Moleküls war selber nicht Gegenstand der Untersuchung, sondern wurde ausgenutzt um verschiedene elektronische Zustände, in welchen sich das Molekül nach der Ionisation befinden kann und von denen nur einer dissoziativ ist, zu unterscheiden.
Die Schwerpunkte dieser Arbeit sind elektrische, stationäre und zeitaufgelöste Transportmessungen an EuB6 sowie die Weiterentwicklung von Messmethoden und Analyseverfahren der Fluktuationsspektroskopie. Durch die Verwendung von
modernen Computern und Datenerfassungskarten konnten die Messmethoden effektiver eingesetzt werden.
Die ersten beiden Kapitel stellen die Grundlagen dar, die für diese Arbeit von Bedeutung sind. Der erste Teil dieser Arbeit wurde der Weiterentwicklung der bereits bekannten Messmethoden unter Verwendung einer schnellen Datenerfassungskarte gewidmet. Im Gegensatz zur Verwendung eines Signalanalysators bietet die Karte die Möglichkeit, auf die Rohdaten im Zeitraum zuzugreifen und sie anschließend mit einer selbst programmierten Software auszuwerten. Die technischen Methoden und der Aufbau der Software wurden in den Kapiteln 3 und 4 vorgestellt. Durch das Ersetzen des Signalanalysators kann bis zu 50% der Messzeit eingespart werden.
Durch die Code-Erweiterung kann bereits nach zwei hintereinander gemessenen Spektren vorläufig bei tiefen Frequenzen ausgewertet und somit frühzeitig entschieden werden, ob eine längere Messzeit aussichtsreich ist. Außerdem wird durch Verwendung der Code-Erweiterung eine sehr viel höhere Spektrendichte (Anzahl von Messpunkten) erreicht. Da im Gegensatz zum Signalanalysator alle gemessenen Spektren gespeichert werden, können in jeder Messung die Spektren auf ihre Korrelation (Korrelationskoeffizient und Zweites Spektrum) hin untersucht werden, ohne zusätzliche Messzeit zu benötigen.
Der zweite Teil dieser Arbeit befasst sich mit den elektrischen Transporteigenschaften von EuB6 und dem Verständnis der Kopplung zwischen Ladungs- und magnetischen Freiheitsgraden. Mittels Widerstands- und nichtlinearer Transportmessungen sowie Fluktuationsspektroskopie wurden Hypothesen von anderen Wissenschaftlern systematisch verifiziert, sowie neue, weiterführende Erkenntnisse gewonnen.
Direkte experimentelle Hinweise für die Phasenseparation sowie das Auftreten von Perkolation aus Transportmessungen fehlten bisher. In dieser Arbeit wurden daher systematisch die elektrischen Transportseigenschaften des Systems in Abhängigkeit von der Temperatur und vom Magnetfeld untersucht. Mittels Fluktuationsspektroskopie konnte erstmals ein direkter Hinweis auf perkolatives Verhalten in den Transporteigenschaften beobachtet werden. Ein starkes nichtlineares Transportsignal (dritter harmonischer Widerstand, DHW) im Bereich von TMI und TC ist eine Signatur einer räumlich inhomogenen Stromverteilung auf der Mikroskala und ein weiterer deutlicher Hinweis auf magnetisch induzierte elektronische Phasenseparation. Insbesondere tritt nichtlinearer Transport bei H = 0 im FM Bereich auf und kann im PM-Bereich bei T > TMI durch externe Magnetfelder induziert werden.
Die hier vorgelegte Arbeit hatte zur Aufgabe, funktionellen Einflüsse auf den Neurotransmittertransporter GAT-1 zu erhellen, welche durch eine N-Glykosilierung des Transportproteins hervorgerufen werden. Frühere Untersuchungen deuteten bereits darauf hin, daß der Glykosilierung der drei extrazellulär vorhandenen N-Glykosilierungsstellen des GAT- 1 neben einer expressionellen Bedeutung auch eine funktionelle zukam. So zeigten sich bei Arbeiten anderer Gruppen, welche N-Glykosilierungsmutanten des GAT-1 verwendeten, um die Glykosilierung des Transportproteins zu beeinträchtigen, daß fehlende Oligosaccharide an den N-Glykosilierungsstellen des GAT-1 durchaus in eine Reduktion der GABA-Aufnahme in die Zellen mündete, was zumindest bei Oozyten des Xenopus laevis auf eine verminderte Transportrate zurückgeführt werden konnte. An CHO-Zellen konnte nun auf gleiche Weise eine Reduktion der GABA-Aufnahme beobachtet werden, und es galt, mit elektrophysiologischen Methoden die Ursachen dieser Reduktion zu erkunden. Die hier vorgelegte Arbeit vermochte nun bei CHO-Zellen, eine Verminderung der Transportrate als Ursache jener reduzierten GABA-Aufnahme auszumachen. Zu diesem Zwecke wurden die CHO-Zellen entweder mit der DNA des mGAT1 Wild-Typs (einem aus der Maus klonierten GAT-1-Transporter) oder mit der DNA von N-Glykosilierungsmutanten des mGAT1 transfiziert. Es fanden zwei verschiedene N-Glykosilierungsmutanten Verwendung, an denen jeweils zwei der drei N-Glykosilierungsstellen Asparagin durch Aspartat bzw. Glycin ersetzt wurden: (Asp176, Gly181, Asn184) bzw. DDN (Asp176, Asp181, Asn184). Wie indes die durch eine beeinträchtigte N-Glykosilierung verminderte Transportrate zustande kam, und wie sich eine entsprechende Erklärung in die bisherige Annahme den GAT-1 Reaktionszyklus betreffend einfügen und mit dessen Struktur verbinden ließe, vermochte die hier vorgelegte Arbeit zu einem großen Teil einsichtig zu machen. Zwei Phänomene konnten die Transportrate vermindern: Zunächst waren die Zeitkonstanten transienter Ströme, welche bei Abwesenheit von GABA auftreten, verlangsamt. Weil diese Ströme den ratenlimitierenden Schritt im Reaktionszyklus zu repräsentieren scheinen, mußte also jener Schritt, welcher die Okklusion des ersten Natriums oder die darauffolgende Konformationsänderung beinhaltet, verlangsamt sein. Im weiteren zeigten Analysen der bei den transienten Strömen auftretenden Ladungsverschiebungen, daß die Natrium-Transporter-Interaktion auf extrazellulärer Seite durch das Fehlen von Oligosacchariden an den N-Glykosilierungsstellen des GAT-1 beeinträchtigt war, wobei als Grund hierfür eine Verstärkung der dimensionalen bzw. elektrogenen Schranke zu sehen ist, welche sich vor der Natriumbindungsstelle des GAT-1 befindet. Eine Veränderung der Expressionsrate als tragende Ursache verminderter Transportraten bzw. reduzierter GABA-Aufnahmen konnte hingegen ausgeschlossen werden. Experimente mit dem N-Glykosilierungs-Inhibitor dMM sowie Vergleiche von Experimenten verschiedener Mutanten vermochten die oben beschriebenen Effekte hauptsächlich auf die durch die Mutationen fehlenden Oligosaccharide zurückzuführen und weniger auf andere durch die Mutation hervorgerufene strukturelle Änderungen des GAT-1-Proteins.
The elliptic flow of heavy-flavour decay electrons is measured at midrapidity |eta| < 0.8 in three centrality classes (0-10%, 10-20% and 20-40%) of Pb-Pb collisions at sqrt(sNN) = 2.76TeV with ALICE at LHC. The collective motion of the particles inside the medium which is created in the heavy-ion collisions can be analyzed by a Fourier decomposition of the azimuthal anisotropic particle distribution with respect to the event plane. Elliptic flow is the component of the collective motion characterized by the second harmonic moment of this decomposition. It is a direct consequence of the initial geometry of the collision which is translated to a particle number anisotropy due to the strong interactions inside the medium. The amount of elliptic flow of low-momentum heavy quarks is related to their thermalization with the medium, while high-momentum heavy quarks provide a way to assess the path-length dependence of the energy loss induced by the interaction with the medium.
The heavy-quark elliptic flow is measured using a three-step procedure.
First the v2 coefficient of the inclusive electrons is measured using the event-plane and scalar-product methods. The electron background from light flavours and direct photons is then simulated, calculating the decay kinematics of the electron sources which are initialised by their respective measured spectra. The final result of this work emerges by subtracting the background from the inclusive measurement. A significant elliptic flow is observed after this subtraction. Its value is decreasing from low to intermediate pT and from semi-central to central collisions.
The results are described by model calculations with significant elastic interactions of the heavy quarks with the expanding strongly-interacting medium.
Cortical circuits exhibit highly dynamic and complex neural activity. Intriguingly, cortical activity exhibits consistently two key features across observed species and brain areas. First, individual neurons tend to be co-active in spatially localized domains forming orderly arranged, modular layouts with a typical spatial scale. Second, cortical elements are correlated in their activity over large distances reflecting long-range network interactions distributed over several millimeters. Currently, it is unclear how these two fundamental properties emerge in the early developing cortical activity.
Here, I aim to fill this gap by combining analyses of chronic imaging data and network models of developing cortical activity. Neural recordings of spontaneous and visually evoked activity in primary visual cortex of ferrets during their early cortical development were obtained using in vivo 2-photon and widefield epi-fluorescence calcium imaging. Spontaneous activity was used to probe the early state of cortical networks as its spatiotemporal organization is independent of a stimulus-imposed structure, and it is already present early in cortical development prior to reliably evoked responses. To assess the mature functional organization of distributed networks in cortex, the tuning of neural responses to stimulus features, in particular to the orientation of an edge-like stimulus, was assessed. Cortical responses to moving gratings of varying orientations form an orderly arranged layout of orientation domains extending over several millimeters.
To begin with, I showed that spontaneous activity correlations extend over several millimeters, supporting the assumption of using spontaneous activity to assess distributed networks in cortex.
Next, I asked how distributed networks in the mature visual cortex - assessed by spontaneous activity correlations - are related to its fine-scale functional organization. I found that the spatially extended and modular spontaneous correlation patterns accurately predict the fine spatial structure of visually evoked orientation domains several millimeters away. These results suggest a close relation between spontaneous correlations and visually evoked responses on a fine spatial scale and across large spatial distances.
As the principles governing the functional organization and development of distributed network interactions in the neocortex remain poorly understood, I next asked how long range correlated activity arises early in development. I found that key features of mature spontaneous activity introduced in this work, including long-range spontaneous correlations, were present already early in cortical development prior to the maturation of long-range, horizontal connections, and the predicted mature orientation preference layout. Even after silencing feed-forward input drive by inactivating retina or thalamus, long-range correlated and modular activity robustly emerged in early cortex. These results suggest that local recurrent connections in early cortical circuits can generate structured long-range network correlations that guide the formation of visually-evoked distributed functional networks.
To investigate how these large-scale cortical networks emerge prior to the maturation and elaboration of long-range horizontal connectivity, I examined a statistical network model describing an ensemble of spatially extended spontaneous activity patterns. I found a direct relationship between the dimensionality of this ensemble of activity patterns and the decay of its correlation structure. Specifically, reducing the dimensionality of the ensemble leads to an increase in the spatial range of the correlation structure.
To test whether this mechanism could generate a long-range correlation structure in cortical circuits, I studied a dynamical network model implementing a dimensionality reduction mechanism. Based on previous work demonstrating that network heterogeneity reduces the dimensionality of activity patterns, I showed that by increasing the degree of heterogeneity in the network, the dimensionality of the ensemble of activity patterns decreases and in turn their correlations extend over a greater range. A comparison to experimental data revealed a quantitative match between the network model and the observations in vivo in several of the key features of the early cortex including the spatial scale of correlations. Low dimensionality of spontaneous activity thus might provide an organizational principle explaining the observed long-range correlation structure in the early cortex.
Finally, I asked whether a network with a biologically plausible architecture can generate modular activity. Several classical models showed that modular activity patterns can emerge via an intracortical mechanism involving lateral inhibition. However, this assumption appears to be in conflict with current experimental evidence. Moreover, these network models were not experimentally tested, so far. Here, I showed by using linear stability analysis that spatially localized self-inhibition relaxes the constraints on the connectivity structure in a network model, such that biologically more plausible network motifs with shorter ranging inhibition than excitation can robustly generate modular activity.
Importantly, I also provided several model predictions to make the class of network models experimentally testable in view of recent technological advancements in imaging and manipulation of cortical circuits. A critical prediction of the model is the decrease in spacing of active domains when the total amount of inhibition increases. These results provide a novel mechanism of how cortical circuits with short-range inhibition can form modular activity.
Taken together, this thesis provides evidence that the two described fundamental features of neural activity are already present in the early cortex and shows that activity with those features can be generated in network models with an architecture consistent with the early cortex using basic principles.
Rückblick Die Motivation für diese Arbeit ergibt sich aus den immer neuen Fragestellungen der modernen Wissenschaft. Deren Beantwortung hängt wesentlich von den geeigneten Messapparaturen ab, die Einblicke in physikalische Prozesse erlauben. Durch effektivere und höher auflösende Detektoren werden präzisere, schnellere und schonendere Messungen möglich. Die Zielsetzung dieser Arbeit über den Hochdruck-Gas-Szintillations-Proportionalzähler ist es, einen Detektor zu entwickeln, mit dem hochenergetische Photonen praktisch vollständig vermessen werden können. Dazu gehören: - die Photonenenergie im Bereich von 5 bis 500 keV, - die Richtung der einfallenden Strahlung (bzw. der Auftreffort auf dem Detektor), - der Absorptionszeitpunkt und - die Diskriminierung von Gamma-induziertem Untergrund. Potenzielle Einsatzgebiete des Detektors sind im wesentlichen medizinische, atom- und astrophysikalische Anwendungen. Die vielversprechenden Eigenschaften dieses Detektorkonzeptes, gegenüber herkömmlichen Gasdetektoren, ergeben sich aus den Mechanismen der primären und der sekundären Gasszintillation. Daraus folgen der überlegene Verstärkungsprozess und das schnelle Zeitsignal. Als Grundlage für die in dieser Arbeit diskutierten Ergebnisse dienen die zuvor von Dangendorf und Bräuning entwickelten Konzepte und die von ihnen gebauten Prototypen. Sie sind geeignet für kleine und mittlere Photonenenergien und liefern eine gute Energie- und Zeitauflösung. Die Tests der Ortsauslese mit abbildenden, optischen Systemen zeigten erste Resultate. Ausgehend von diesen bestehenden Entwicklungen war die Motivation der Arbeit, den Aufbau an die gewünschten Anforderungen anzupassen. Für die höheren Photonenenergien werden ein dichterer Absorber, also ein höherer Gasdruck und damit verbunden neue Auslesekonzepte benötigt. Problem Ein zentrales Problem, das aufgrund dieser neuen Anforderungen auftritt, ist der Druckunterschied zwischen dem Hochdruck-Szintillator und der bei Niederdruck oder im Vakuum betriebenen UV-Auslese. Die dadurch bedingten Kräfte machen entweder besondere Stützstrukturen oder stabile - und dadurch dicke - Fenster erforderlich. In beiden Fällen geht ein Teil des Signals verloren und die Detektorauflösung nimmt ab. Es handelt sich dabei jedoch nicht um prinzipielle Probleme. Die Schwierigkeiten sind rein technischer Natur. Deshalb wurde intensiv weiter nach neuen Konzepten und Lösungsansätzen gesucht, die die Vorteile dieser überlegenen physikalischen Prozesse ausnutzen können. Lösungsansatz Das konkrete Ziel - bzw. die Aufgabenstellung - dieser Arbeit war, mit neuen Technologien, und dabei vor allem mit einem neuen Mikrostruktur-Elektroden-System, bislang bestehende technische Hürden zu überwinden (Kapitel 3). Durch die Möglichkeit, einen in das Hochdruckvolumen integrierten Photonendetektor zu bauen, werden viele der Stabilitätsprobleme gelöst. Mit der großflächigen Auslese des Szintillationslichts direkt dort, wo es entsteht, werden die Transmissionsverluste in Fenstern vermieden. Es gibt damit nur kleine raumwinkelabhängige Effekte und es wird nur ein Gasvolumen und damit kein zusätzliches System zum Evakuieren, Zirkulieren und Reinigen benötigt. Durch die Trennung der Energie- und der Ortsinformation und deren separate Auslese wird zwar die Komplexität des Detektors erhöht, die Teilsysteme können jedoch unabhängig für die jeweiligen Anforderungen optimiert werden. Grundlagen Im Rahmen dieser Arbeit wurden bereits existierende Erfahrungen aufgegriffen und in deren logischer Fortsetzung, ein, in das Szintillatorvolumen integrierter, UV-Photonendetektor entwickelt. Zunächst musste mit einer umfangreichen Recherche ermittelt werden, welche Anforderungen an einen integrierten Photonendetektor bestehen und wie ein solches System in den Aufbau eingebunden werden kann. Mit dem GEM, der sich schon in diversen anderen Gasdetektoranwendungen als universell einsetzbarer Verstärker bewährt hatte, war ein potenzielles Mikrostuktur-Elektroden-System für unsere Anwendung gefunden. Um die Einsatztauglichkeit dieser Mikrostrukturen für die neuen Applikationen zu analysieren, wurden sie im Standard-Design, unter vielen verschiedenen Betriebsparametern getestet. Dabei wurden wertvolle Erfahrungen im Umgang mit den Mikrostrukturen gesammelt. Die GEMs wurden in den typischen Detektorgasen, bei verschieden Drücken, elektrischen Spannungen und Feld-stärken studiert. Dabei wurden die Chancen, aber auch - vor allem aufgrund elektrischer Überschläge und Instabilitäten - die Grenzen des damit Erreichbaren, aufgezeigt. Mit der Herstellung der speziell für diese Anwendung entwickelten GEMs wurde die Grundlage für den stabilen Betrieb des Detektors geschaffen. Simulationsrechnungen In Kooperation mit einer italienischen Gruppe vom INFN in Cagliari haben wir, mit dem Detektor-Simulations-Programm Garfield, Berechnungen durchgeführt (Kapitel 4). Damit konnte schon vor der technischen Realisierung ein Überblick über die Betriebsbedingungen eines mehrstufigen und komplexen Systems gewonnen werden. Dazu zählen die messtechnisch erfassbaren Größen, wie z.B. die mittlere Gasverstärkung und Diffusion. Daneben konnten aber auch die Prozesse im Kleinen studiert werden. Von besonderem Interesse für die Funktion des Detektors ist dabei der Verlauf der Feldstärke in den Poren der Mikrostrukturen und den umliegenden Regionen. Dessen räumlicher Verlauf in Kombination mit den jeweiligen Gasdaten bestimmen die Elektronentransportparameter, die Gasverstärkung, die Diffusion und die Effizienz. In den Xenon-Szintillator integrierter UV-Photonen-Detektor Der UV-Photonendetektor konnte in zwei Varianten erfolgreich in ein Volumen mit dem Xenon-Gas-Szintillator integriert werden. Die Verbindung der CsI-Photokathode mit dem Elektronenverstärker wurde dabei zum einen als semitransparente dünne Schicht auf einer Quarzglasplatte vor der GEM-Folie und zum anderen als opake Variante auf der Frontseite des GEM realisiert. Bei der Auslese des Xenon-Szintillationslichts mit einer in reinem Xenon und bei hohem Druck betriebenen CsI-Photokathode, wurde Neuland betreten. Es wurde erfolgreich gezeigt, dass der integrierte Photonendetektor auf GEM Basis für die hier diskutierten Einsatzbereiche und Anforderungen funktioniert. Die Ankopplung der Photokathode an die Verstärkerstruktur und dabei vor allem der Elektronentransport von der CsI-Schicht in die Verstärkungszone, wurden im Detail untersucht. Dass die Gasverstärkung in reinem Xenon bei den beschriebe-nen Betriebsparameter überhaupt funktioniert, liegt zum einen daran, dass die optische Rückkopplung mit diesem neuen Design effektiv unterdrückt werden kann. Zum anderen konnten die Einflussparameter auf die Gasverstärkung, für den mehrstufigen GEM-Verstärkungsprozess in reinem Xenon, im Detail untersucht werden. Die gekoppelten Gas-Verstärker-Elemente wurden mit einer eigens für diese Anwendung entwickelten Versorgungsspannungsquelle betrieben, die die Folgen von elektrischen Überschlägen minimiert (Kapitel 5.1.3). Gegenüber den herkömmlichen Gasdetektoren ist es mit diesem neuartigen Aufbau möglich, den UV-Photonen-Detektor bei diesen Betriebsparametern stabil zu betreiben. Abbildende Optiken - optische und mechanische Eigenschaften Parallel zur Entwicklung dieses großflächigen Detektors zur Messung des Energiesignals und der Registrierung des primären Lichts, wurde das Konzept zur Ortsauslese via abbildender Optik weiterverfolgt. Die optischen Abbildungseigenschaften der Linsen wurde im Wellenlängenbereich des Xenon-Szintillationslichtes untersucht. In ersten Tests konnte bei kleinen Gasdrücken und somit geringen mechanischen Beanspruchungen die Ebene der Sekundär-lichterzeugung auf einen gekapselten Mikro-Kanal-Platten-Detektor abgebildet werden. Die Festigkeit der Quarzglaslinse für die Druckbeanspruchungen im hier diskutierten Detektor konnte in Zusammenarbeit mit der Fachhochschule Heilbronn - mittels Finite-Elemente-Berechnung - als ausreichend verifiziert werden. Ausblick Die beiden getrennten Systeme für Orts- und Energiemessung funktionieren unabhängig voneinander. Die Vorraussetzungen für die Kombination der Komponenten in einem gemeinsamen Aufbau sind damit geschaffen. Damit ist der Weg für die folgenden Schritte in diesem Projekt aufgezeigt. Als logische Fortsetzung dieser Arbeiten ist geplant, den integrierten Photonendetektor mit der Photokathode auf der GEM-Frontseite, zusammen mit der Ortsauslese gemeinsam aufzubauen. Von dieser Kombination profitiert das Auflösungsvermögen beider Messungen. Die Korrektur der ortsabhängigen Schwankungen in der Effizienz der Photokathode verbessert die Energieauflösung signifikant. Auf der anderen Seite kann durch das geschickte Setzen von geeigneten Bedingungen auf das Energiesignal die Ortsmessung optimiert werden. Als weiterer naheliegender Schritt auf dem Weg zum effizienten Nachweis der hochenergetischen Photonen, bietet sich der Einbau einer zusätzlichen Verstärkungsstufe zum Aufbau eines dreifach-GEM-Detektors an. Damit kann bei höheren Gasdrücken, trotz kleiner werdender maximaler Verstärkung pro GEM, eine ausreichende Gesamtverstärkung erreicht werden. Der Einsatz des Detektors in einem größeren Experiment, in Kombination mit anderen Messapparaturen, rückt somit in greifbare Nähe.
The strong nuclear force is described by Quantum Chromodynamics (QCD), the parallel field theory to Quantum Electrodynamics (QED) that describes the electromagnetic force. It is propagated by gluons analogously to photons in the electromagnetic force, but unlike photons, which do not carry electric charge, gluons carry color, and they can self-interact. However, as individual quarks have never been observed in nature, it is postulated that the color charge itself is confined, and hence all baryons and mesons must be colorless objects. To study nuclear matter under extreme conditions, it is necessary to create hot and dense nuclear matter in the laboratory. In such conditions the confinement between quarks and gluons is cancelled (deconfinement). This state is characterized with a qusi-free behavior of quarks and gluons. The strange (s) and anti-strange (anti-s) quarks are not contained in the colliding nuclei, but are newly produced and show up in the strange hadrons in the final state. It was suggested that strange particle production is enhanced in the QGP with respect to that in a hadron gas. This enhancement is relative to a collision where a transition to a QGP phase does not take place, such as p+p collisions where the system size is very small. Therefore the energy- and system size dependence is studied to receive a picture about the initial state. In this thesis experimental results on the energy- and system size dependence of Xi hyperon production at the CERN SPS is shown. All measurements were performed with the NA49 detector at the CERN SPS. NA49 took central lead-lead collisions from 20 - 158 AGeV, minimus bias lead-lead collisions at 40 and 158 AGeV, and semi-central silicon-silicon colisions at 158 AGeV. The NA49 experiment features a large acceptance in the forward hemisphere allowing for measurements of Xi rapidity spectra. At the SPS accelerator at CERN Pb+Pb collisions are performed with beam energies to 158 AGeV. The analyzed data sets were taken in the period from 1999 to 2002. The NA49 experiment is a large acceptance hadron spectrometer, which measures charged hadrons in a wide acceptance. The main components are the four TPCs (Time Projection Chamber). The centrality of nucleon-nucleon collisions was done by measuring the not in the collision participating (spectator-) nucleons in the VETO-calorimeter. The study of strangeness is motivated by its role as a signature for the Quark Gluon Plasma. Any enhancement in the yield must be with respect to a ’normal’ yield, where a QGP is not formed. This is usually taken to mean suitably scaled p+p collisions, where the volume of the system created is too small for a QGP to occur. The results at SPS and RHIC energies show an enhancement, with the doubly strange Xi? being enhanced more than the Lambda, in accordance with the original prediction. However, the enhancement at SPS energies is higher than at RHIC energies.
In this work data of the NA49 experiment at CERN SPS on the energy dependence of multiplicity fluctuations in central Pb+Pb collisions at 20A, 30A, 40A, 80A and 158A GeV, as well as the system size dependence at 158A GeV, is analysed for positively, negatively and all charged hadrons. Furthermore the rapidity and transverse momentum dependence of multiplicity fluctuations are studied. The experimental results are compared to predictions of statistical hadron-gas and string-hadronic models. It is expected that multiplicity fluctuations are sensitive to the phase transition to quark-gluon-plasma (QGP) and to the critical point of strongly interacting matter. It is predicted that both the onset of deconfinement, the lowest energy where QGP is created, and the critical point are located in the SPS energy range. Furthermore, the predictions for the multiplicity fluctuations of statistical and string-hadronic models are different, the experimental data might allow to distinguish between them. The used measure of multiplicity fluctuations is the scaled variance omega, defined as the ratio of the variance and the mean of the multiplicity distribution. In the NA49 experiment the tracks of charged particles are detected in four large volume time projection chambers (TPCs). In order to remove possible detector effects a detailed study of event and track selection criteria is performed. Naively one would expect Poisson fluctuations in central heavy ion collisions. A suppression of fluctuations compared to a Poisson distribution is observed for positively and negatively charged hadrons at forward rapidity in Pb+Pb collisions. At midrapidity and for all charged hadrons the fluctuations are larger than the Poisson ones. The fluctuations seem to increase with decreasing system size. It is suggested that this is due to increased relative fluctuations in the number of participants. Furthermore, it was discovered that omega increases for decreasing rapidity and transverse momentum. A hadron-gas model predicts different values of omega for different statistical ensembles. In the grand-canonical ensemble, where all conservation laws are fulfilled only on the average, not on an event-by-event basis, the predicted fluctuations are the largest ones. In the canonical ensemble the charges, namely the electrical charge, the baryon number and the strangeness, are conserved for each event. The scaled variance in this ensemble is smaller than for the grand-canonical ensemble. In the micro-canonical ensemble not only the charges, but also the energy and the momentum are conserved in each event, the predicted $omega$ is the smallest one. The grand-canonical and canonical formulations of the hadron-gas model over-predict fluctuations in the forward acceptance. In contrast to the experimental data no dependence of omega on rapidity and transverse momentum is expected. For the micro-canonical formulation, which predicts small fluctuations in the total phase space, no quantitative calculation is available yet for the limited experimental acceptance. The increase of fluctuations for low rapidities and transverse momenta can be qualitatively understood in a micro-canonical ensemble as an effect of energy and momentum conservation. The string-hadronic model UrQMD significantly over-predicts the mean multiplicities but approximately reproduces the scaled variance of the multiplicity distributions at all measured collision energies, systems and phase-space intervals. String-hadronic models predict for Pb+Pb collisions a monotonous increase of omega with collision energy, similar to the observations for p+p interactions. This is in contrast to the predictions of the hadron-gas model, where omega shows no energy dependence at higher energies. At SPS energies the predictions of the string-hadronic and hadron-gas models are in the same order of magnitude, but at RHIC and LHC energies the difference in omega in the full phase space is much larger. Experimental data should be able to distinguish between them rather easily. Narrower than Poissonian (omega < 1) multiplicity fluctuations measured in the forward kinematic region (1<y(pi)<y_{beam}) can be related to the reduced fluctuations predicted for relativistic gases with imposed conservation laws. This general feature of relativistic gases may be preserved also for some non-equilibrium systems as modeled by the string-hadronic approaches. A quantitative estimate shows that the predicted maximum in fluctuations due to a first order phase transition from hadron-gas to QGP is smaller than the experimental errors of the present experiment and can therefore neither be confirmed nor disproved. No sign of increased fluctuations as expected for a freeze-out near the critical point of strongly interacting matter is observed.
Das Heidelberger Ionenstrahl Therapiezentrum (HIT) ist die erste klinische Anlage in Europa, an der die Strahlentherapie zur Tumorbekämpfung mit schwereren Ionen als Protonen möglich ist. Seit November 2009 wurden mehr als 1500 Patienten bei HIT behandelt.
Dabei kommt das beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt entwickelte Rasterscan-Verfahren zum Einsatz. In der Bestrahlungsplanung wird der Tumor in Schichten gleicher Ionen-Energie und jede Schicht in einzelne Rasterpunkte eingeteilt. Für jeden Rasterpunkt wird eine individuelle Teilchenzahl appliziert, die am Ende zu der gewünschten Dosisverteilung führt. Dabei kann sich die benötigte Teilchenbelegung der einzelnen Rasterpunkte auch innerhalb einer Schicht um mehr als zwei Größenordnungen unterscheiden.
Ein auf wenige Millimeter Durchmesser fokussierter Teilchenstrahl kann in allen Raumrichtungen variiert werden, so dass selbst für unregelmäßig geformte Tumoren eine hochgenaue Dosiskonformität erreicht wird. Messkammern, die in der Ionen-Flugbahn kurz vor dem Patienten installiert sind, überwachen kontinuierlich Position, Form und Intensität des Strahls und ermöglichen so die Rasterpunkt-abhängige Dosisabgabe.
Zur Bereitstellung des Teilchenstrahls ist eine komplexe Beschleunigeranlage nötig, die eine große Bibliothek an möglichen Strahlparametern erzeugen kann. Das Herzstück der Anlage ist ein Synchrotron, in dem die Ionen auf die gewünschte Energie beschleunigt und anschließend über mehrere Sekunden extrahiert werden. Diese langsame Extraktion ist nötig, um dem Bestrahlungssystem genug Zeit für die korrekte, punktgenaue Dosisabgabe zu geben. Die zeitliche Struktur der beim Patienten ankommenden Strahlintensität wird Spill genannt.
Der verwendete Extraktionsmechanismus ist die transversale RF-Knockout Extraktion, die auf dem Prinzip der langsamen Resonanzextraktion beruht. Die im Synchrotron umlaufenden Teilchen werden dabei transversal angeregt, bis nach und nach ihre Schwingungsamplitude so groß ist, dass sie in den Extraktionskanal gelangen. Das für diese Anregung verantwortliche Gerät ist der RF-KO-Exciter. Er ist so eingestellt, dass ein möglichst konstanter Teilchenstrom das Synchrotron verlässt.
Bereits beim Befüllen des Synchrotrons variiert jedoch die injizierte Teilchenzahl und deren Verteilung im Phasenraum, so dass die voreingestellte Amplitudenfunktion des RF-KO-Exciters keinen idealen Spill liefern kann. Es kommt unweigerlich zu Schwankungen der Intensität am Strahlziel. Die erreichbare Leistungsfähigkeit der Therapieanlage hängt jedoch in hohem Maße von der Spillqualität ab. Je besser diese ist, umso schneller kann die individuelle Bestrahlung erfolgen und um so mehr Patienten können in gleicher Zeit behandelt werden.
Die vorliegende Arbeit beschäftigt sich mit der Verbesserung der Spillqualität am Bestrahlungsplatz. Dazu wird ein Regelkreis zwischen den Strahl-detektierenden Messkammern und dem die Extraktion steuernden RF-KO-Exciter geschlossen. Ionisationskammern, die auch zur Dosisbestimmung verwendet werden, messen die aktuelle Intensität. Das Therapiekontrollsystem, das den gesamten Bestrahlungsprozess steuert, gibt den Sollwert vor und leitet alle Informationen zur Reglereinrichtung. Dort wird in Abhängigkeit der Abweichung aus gewünschter und tatsächlich vorhandener Intensität sowie dem Regelalgorithmus ein Korrektursignal errechnet und dem RF-KO-Exciter zugeführt. Eine der Herausforderungen bestand dabei im Auffinden der geeigneten Regelparameter, die entsprechend der Strahlparameter Energie und Intensität gewählt werden müssen.
In einem ersten Schritt kann so der extrahierte Teilchenstrahl auf dem jeweils geforderten, konstanten Niveau gehalten werden. Diese Stufe wird seit April 2013 vollständig im Routinebetrieb der Therapieanlage verwendet. Der zweite Schritt besteht in der Anpassung der Extraktionsrate an den individuellen Bestrahlungsplan. So können die Rasterpunkte, die eine hohe Dosis benötigen, mit einer höheren Intensität bestrahlt werden, was die Bestrahlungszeit deutlich reduziert. Die Vollendung dieser Stufe ist bis Ende 2013 vorgesehen.
Im Rahmen dieser Arbeit wurden zwei Testsysteme sowie die Implementierung in den Routinebetrieb des Therapiebeschleunigers einer solchen Intensitäts- oder Spillregelung realisiert. Dies beinhaltet den Aufbau der Systeme, die Bereitstellung von Soll- und Istwert sowie die Auslegung und Einstellung des Regelkreises. Der erste Testaufbau für ein Strahlziel des Beschleunigers diente generellen Studien zur Machbarkeit einer solchen Regelung. Die dabei gesammelten Erfahrungen über nötige Erweiterungen führten zur zweiten Generation einer Testumgebung auf Basis eines Echtzeit-Ethernet-Systems. Dieses ermöglichte bereits die Regelung an allen Strahlzielen der HIT-Anlage sowie die Verwendung von unterschiedlichen Regelalgorithmen.
Mit den Systemen wurden Messungen zur Charakterisierung der Spillregelung im Parameterraum des Beschleunigers durchgeführt, um so ihre Möglichkeiten und Grenzen zu untersuchen. Erkenntnisse aus dieser Testphase flossen direkt in die Implementierung des für den Patientenbetrieb eingesetzten Systems ein, für das ein hohes Maß an Betriebs-Stabilität erforderlich ist. Es wurde in das Beschleuniger-Kontrollsystem unter Berücksichtigung des Sicherheitskonzeptes der Anlage integriert.
Die reine Bestrahlungszeit wird durch die Realisierung der ersten Stufe um bis zu 25% reduziert, nach Vollendung der zweiten Stufe wird sie um weitere bis zu 50% verringert. Strahlzeiten für Nachjustierungen der Spillqualität werden ebenfalls zum Teil eingespart. Insgesamt konnte durch die Spillregelung die Effizienz der Anlage deutlich gesteigert werden.
Im Rahmen des FRANZ-Projektes wurde nach einer Ionenquelle verlangt welche in der Lage ist einen intensiven hochbrillanten Protonenstrahl von 200 mA bei 120 keV im Dauerstrichbetrieb zur Verfügung zu stellen, bei gleichzeitig niedriger Strahlemittanz. Der recht hohe Protonenstrom von 200 mA stellt dabei eine Herausforderung an den Experimentator dar.
Die grundsätzliche Problematik bei der Entwicklung einer solchen Ionenquelle besteht im Wesentlichen darin, ein geeignetes Extraktionssystem zu designen, welches in der Lage ist den geforderten hohen Protonenstrom zu extrahieren und transportieren. In diesem Zusammenhang wurden Abschätzungen bezüglich des notwendigen Emissionsradius, der elektrischen Feldstärke im Extraktionsspalt sowie des Protonenanteils für den verlangten Protonenstrom von 200 mA durchgeführt. Für die praktische Umsetzung wurden Lösungsstrategien erarbeitet. Ziel war es die elektrische Feldstärke im Gap so hoch wie möglich und den Radius der Emissionsöffnung so klein wie möglich zu wählen, bei gleichzeitig möglichst hohem Protonenanteil. Basierend auf diesen Erkenntnissen wurde ein Prototyp der Bogenentladungs-Volumenionenquelle entwickelt und erfolgreich in Betrieb genommen.
Zur Steigerung des Protonenanteils im Wasserstoffplasma wurden diverse Parameter der Ionenquelle optimiert wie bspw. Bogenleistung, Gasdruck sowie insbesondere die Feldverteilung und die magnetische Flussdichte des magnetischen Filters. Diese Ergebnisse wurden mit dem verbesserten theoretischen Modell zur Erzeugung von atomaren Wasserstoffionenstrahlen verglichen. Um die elektrische Feldstärke im Extraktionsspalt zu steigern wurden die Elektroden aus einem thermisch belastbaren Material hergestellt und einer speziellen Oberflächenbehandlung unterzogen. Des Weiteren wurden theoretische und experimentelle Untersuchungen bezüglich der Emissionsstromdichte und der Strahlqualität durchgeführt. Weiterhin wurde die Emittanz des Ionenstrahls berechnet sowie mit einer eigens am Institut für Angewandte Physik entwickelten Pepperpot-Emittanzmessanlage experimentell bestimmt. Die vorliegende Dissertation präsentiert die Ergebnisse der Entwicklung dieser hocheffizienten Bogenentladungs-Volumenionenquelle.
In dieser Arbeit wurde eine Messmethode entwickelt, die es ermöglicht, mittels Infrarotspektroskopie quantitative Aussagen über bestimmte Inhaltsstoffe in Körperflüssigkeiten zu machen. Hierfür wurden sowohl selektierte Blutplasma- und Vollblutproben gemessen als auch selektierte Urinproben. Die richtige Selektion des Probensatzes ist von großer Wichtigkeit, um für jede Komponente eine große, unabhängige Varianz der Absorptionswerte zu erhalten. Hierfür wurden sowohl physiologische als auch pathologische Proben in den Datensatz integriert. Um Referenzwerte für diese ausgewählten Proben zu erhalten, wurden konventionelle klinische Methoden verwendet. Grundsätzlich ist die Genauigkeit dieser Methode durch die Genauigkeit der jeweiligen Referenzmethode, also den konventionellen klinischen Methoden, beschränkt. Mit der neu entwickelten Methode besteht nun die Möglichkeit, die wichtigsten Parameter im Blut und Urin schnell, einfach und reagenzienfrei quantitativ zu bestimmen. Zusätzlich zu den in dieser Arbeit angegebenen Inhaltsstoffen ist es möglich, für weitere Komponenten oberhalb eines bestimmten Schwellenwerts quantitative Angaben zu machen. Hierbei könnten z.B. für Albumin oder Glukose im Urin pathologische Proben identifiziert werden und somit Rückschlüsse auf bestimmte Krankheitsbilder ermöglicht werden. ...
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung des Prototypen einer supraleitenden CH-Beschleuniger-Struktur. Viele zukünftige Beschleunigeranlagen benötigen ein hohes Tastverhältnis bis hin zum so genannten cw-Betrieb. Dies würde bei normalleitenden Beschleunigern zu sehr großer Wärmeentwicklung führen, welche durch aufwendige Verfahren weggekühlt werden müsste. Da dies meistens gar nicht mehr möglich ist, kommen in solchen Bereichen heutzutage schon häufig supraleitende Beschleuniger zum Einsatz. Große Projekte, die im Hochenergiebereich auf die Supraleitung setzten, sind die SNS Beschleunigeranlage in Oak Ridge (Inbetriebnahme läuft) und das RIA-Projekt, welches radioaktive Isotope beschleunigen soll. Auch zukünftige Projekte, wie ein cw-Linac zur SHE-Synthese, EUROTRANS und IFMIF, sind ohne supraleitende Komponenten nur schwer vorstellbar. Im Rahmen dieser Arbeit wurden zunächst die anderen zur Familie der so genannten H-Moden-Beschleuniger gehörenden Resonatoren kurz vorgestellt. Danach wurde eine Einführung in die Supraleitung mit den wichtigsten Parametern für Niob und den HF-Eigenschaften von Supraleitern gegeben. Um Beschleuniger zu charakterisieren wurde in einem weiteren Kapitel ein überblick über wichtige Kenngrößen gegeben. Dabei wurde auch ein Vergleich der Skalierung von verschiedenen Parametern zwischen Normalleitung und Supraleitung gegeben. Da die Simulationsrechnungen mit dem Programm CST MicroWave Studio durchgeführt wurden, wurden die Grundlagen dieses Programms ebenfalls eingeführt. Es basiert auf der Finiten Integrationstheorie, welche die Maxwell-Gleichungen in eine Zwei-Gitter-Matrixform überführt, damit diese numerisch gelöst werden können. In einem weiteren Kapitel wurde eine Methode zur Bestimmung der Einkopplungsstärke in einen Resonator näher beschrieben. Dabei wurde auf zwei wesentliche Einkopplungsarten, die induktive und die kapazitive, im Detail eingegangen. Die Bestimmung der so genannten externen Güte stellt einen wesentlichen Punkt dar, um die Leitung, die durch einen Sender und Verstärker zur Verfügung gestellt wird, möglichst optimal in den Beschleuniger einzuführen. Wobei auch hierbei wieder auf die Unterschiede zwischen einer Einkopplung in einen normalleitenden und einen supraleitenden Beschleuniger eingegangen wurde. Bei einer supraleitenden Struktur erfolgt die Einkopplung in der Regel überkoppelt. Dies bedeutet, dass man durch zu starke Einkopplung die belastete Güte des Systems herabsetzt, damit eine bessere Regelung möglich ist. Um eine numerische Methode auf ihre Tauglichkeit hin zu testen, wurde zuerst eine Pillbox genommen, um die simulierten Ergebnisse mit einer Messung zu vergleichen. Als sich dabei sehr gute Ergebnisse herausstellten, wurde die Methode noch an einem Kupfermodell einer CH-Struktur verifiziert, bevor die Einkopplung für den supraleitenden Prototyp berechnet wurde. Im 7. Kapitel dieser Arbeit wurden die Voraussetzungen, die vorher geschaffen wurden, für die Optimierung des Prototyps der supraleitenden CH-Struktur angewendet. Dabei ging es um die Optimierung der Feldverteilung auf der Strahlachse durch Anpassung des Endzellendesigns, der Stützenoptimierung, um die magnetischen und elektrischen Spitzenfelder zu reduzieren, einer Untersuchung des Quadrupolanteils in den Spalten der CH-Struktur, der Einkopplung und schließlich um die Möglichkeit des statischen Tunings während der Fertigstellung der Struktur. Auf Grund dieser Untersuchungen wurde schließlich die Fertigstellung eines ersten supraleitenden Prototyps bei der Firma ACCEL in Bergisch-Gladbach in Auftrag gegeben. Diese Struktur wurde in mehreren Kalttests untersucht. Dabei konnten die vorher durch die Simulation festgelegten Designparameter sehr gut verifiziert werden. In den beiden letzten Kapiteln wurden noch Simulationen für eine im Betrieb befindliche Beschleunigeranlage durchgeführt und ein Ausblick auf mögliche Einsatzgebiete der supraleitenden CH-Struktur gegeben. Die durchgeführten Optimierungen für den Hochstrominjektor führten zu einem stabileren Betrieb der Anlage. Durch diese Arbeit konnte gezeigt werden, dass die neuentwickelte CH-Struktur für den Einsatz in supraleitenden Beschleunigern sehr gut geeignet ist. Sie stellt eine sehr kompakte Struktur dar und bietet somit auf kurzer Stecke eine hohe Beschleunigung. Sie ist im Bereich von 10-30% Lichtgeschwindigkeit die einzige supraleitende Vielzellenstruktur.
Am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt, wird für die Erweiterung der Forschungsmöglichkeiten am Bau des FAIR Projektes gearbeitet. Hierfür wird unter anderem ein Ringbeschleuniger gebaut (SIS100), der mit 100Tm den bestehenden Ring (SIS18) in magnetischer Steifigkeit ergänzen wird. Um SIS100 an SIS18 anzubinden, wird eine Transferstrecke benötigt, welche den Transfer von Ionen zwischen den Ringen übernimmt. In solchen Transferstrecken werden Quadrupollinsen mit hohen Gradienten benötigt. Ebenso werden für die finale Fokussierung von hochintensiven Strahlpulsen aus Synchrotronen auf Targets Linsen mit hohen Feldgradienten benötigt. Allerdings sind die Pulse nur sehr kurz und das Tastverhältnis bei Synchrotronen sehr klein. Daher sollte ein gepulster Fokussiermagnet entwickelt werden, der den hohen Gradientenanforderungen gerecht wird und sowohl platz- als auch energiesparend ist. Die vorliegende Arbeit befasst sich mit der Auslegung des elektrischen Schaltkreises, der Simulation des Magnetfeldes und der konstruktiven Umsetzung eines solchen gepulsten Quadrupols. Der elektrische Schaltkreis ist so ausgelegt, dass eine hohe Repetitionsrate zur Fokussierung für Teilchenpakete möglich ist. Die Linse wurde aus einer Luftspule ohne Eisenjoch aufgebaut. Die cos(2θ)-Verteilung des Stroms durch die Leiter wurde durch ein Design gesichert, welches den Skin-Effekt berücksichtigt und entsprechend ausgelegte Litzenkabel verwendet. Um die Magnetfeldverteilung des Fokussiermagneten zu untersuchen, wurden statische und transiente Simulationen mit dem Programm CST Mircowave Studio Suite vorgenommen. Zentraler Punkt bei der Neuentwicklung waren die Luftspulen. Um einen linearen Magnetfeldanstieg von der Strahlachse zum Aperturrand zu gewährleisten, muss die Stromverteilung in der Leiterspule so homogen wie möglich sein. Um bei Pulslängen von 170 µsec den Skineffekt zu berücksichtigen, wurde die Leiterspule aus HF-Litzen von je mehreren hundert Einzelleitern zusammengestellt, die jeweils gegeneinander isoliert und in Bündeln miteinander verdrillt sind. Außerdem wurde die Linse mit einer lamellierten Schirmung versehen, um das Magnetfeld effektiv nutzen zu können. Ziel der Auslegung war es, zusammen mit einem zweiten Quadrupol im Duplett einen Strahl mit einer magnetischen Steifigkeit von 11 Tm und einer Bunchlänge von 2µsec auf einen Punkt von 0,5 mm Radius zu fokussieren. Bei dem hierfür angestrebten Gradienten von 76 T/m wird eine maximale Stromamplitude von 400 kA benötigt. Im Rahmen dieser Arbeit wurde die Linse ausgelegt, konstruiert und gebaut. Die Funktionalität wurde untersucht und die Feldqualität wurde vermessen und zeigten die erwarteten Parameter. Bei 26 kA Messstrom wurden im Zentrum des Magneten ein maximaler Gradient von 4,5 T/m und Feldwerte von 0,11 T ermittelt. Somit liegt die Abweichung des gemessenen Gradienten bei ca. 5 %. Die durchgängige Umsetzung der homogenen Verteilung der Leiterbündel in der Luftspule und eine vollständige Kompensation des Skineffekts konnten nicht nachgewiesen werden. Jedoch konnte der Einfluss der Kabelzuleitung des Quadrupols auf den Magnetfeldverlauf in den Simulationen und Messungen nachgewiesen werden. Weiterhin wurde für den energieeffizienten Einsatz im Transferkanal zwischen SIS18 und SIS100 ein Energierückgewinnungsschaltkreis entwickelt, der eine Ersparnis von 84 % der Betriebsleistung ermöglicht.
Gegenstand dieser Arbeit ist die Entwicklung, der Aufbau und die Charakterisierung sowie Messung einer anwendungsspezifischen integrierten Schaltung (engl.: Application Specific Integrated Circuit, ASIC). Sie dient der Auslese der im elektromagnetischen Kalorimeter des PANDA-Experiments eingesetzten Lawinenfotodioden. Jeder Auslesekanal beinhaltet in der Eingangsstufe einen ladungsempfindlichen Vorverstärker, gefolgt von einem Pulsformer sowie zwei Ausgangstreibern. Am Beginn der Entwicklung steht die Machbarkeitsstudie einer integrierten Ausleseelektronik, welche die anspruchsvollen Anforderungen des PANDA-Experiments erfüllt. Aus rauschtheoretischen Untersuchungen resultieren erste Entwurfsparameter für die Schaltung, die mit Hilfe umfangreicher Simulationen verbessert und ergänzt werden. Die technische Umsetzung der Schaltung erfolgt in einem 0,35 Micrometer-CMOS-Prozess der Firma Austria Mikrosysteme. Die Charakterisierung der integrierten Ausleseelektronik ergibt bei einer Umgebungstemperatur von T = - 20° C eine Shapingzeit des Signalpulses von tr = (124 ± 2) ns. Mit dem äquivalenten Rauschwert von ENC = (4456 ± 35) e- und einer maximal möglichen Eingangsladung von 7,84 pC folgt ein dynamischer Bereich von über 10 000. Der ratenunabhängige Leistungsbedarf eines einzelnen Auslesekanals beträgt P = (52, 4 ± 0, 2)mW. Damit erfüllt der in dieser Arbeit beschriebene ASIC Prototyp alle Anforderungen, die vom Experiment an die Ausleseelektronik gestellt werden.
Das Heidelberger Ionenstrahl-Therapiezentrum (HIT) stellt Protonen-, Helium- und Kohlenstoff-Ionenstrahlen unterschiedlicher Energie und Intensität für die Krebsbehandlung und Sauerstoff-Ionenstrahlen für Experimente zur Verfügung. Der hierfür verwendete Beschleuniger ist darüber hinaus in der Lage auch Ionenstrahlintensitäten unterhalb der für Therapien verwendeten bereitzustellen. Allerdings ist das derzeit installierte Strahldiagnosesystems nicht in der Lage, das Strahlprofil bei solchen geringen Intensitäten (< 10^5 Ionen/s) zu messen. Dabei existieren mögliche medizinische Anwendung für diese niederintensiven Ionen-strahlen, wie beispielsweise eine neuartige und potentiell klinisch vorteilhafte Bildgebung: die Ionenradiographie. Eine essentielle Voraussetzung für diese und andere Anwendungen ist ein System zur Überwachung von Ionenstrahlen niedriger Intensität. Ein solches System wurde im Rahmen dieser Arbeit konzipiert, realisiert, getestet und optimiert.
Das Funktionsprinzip basiert auf szintillierenden Fasern, insbesondere solchen mit erhöhter Strahlungshärte für die Möglichkeit einer dauerhaften Platzierung im Therapiestrahl. Ein diese Fasern durchlaufendes Ion regt den darin enthaltenen Szintillator durch Stoßprozesse kurzzeitig an. Die dabei deponierte Energie wird anschließend in Form von Photonen wieder emittiert. Silizium-Photomultiplier sind an den Enden der Fasern montiert und wandeln die Photonensignale in verstärkte elektrische Impulse um. Diese Impulse werden von einer neuartigen und dedizierten Ausleseelektronik aufgezeichnet und verarbeitet. Ein Prototypaufbau, bestehend aus den genannten Teilen, wurde im Strahl getestet und kann das transversale Strahlprofil erfolgreich im Intensitätsbereich von 10^7 Ionen/s bis hinunter zu 10^2 Ionen/s aufzeichnen. Darüber hinaus konnte, durch die erfolgreiche Ankunftszeitmessung von einzelnen Ionen bis zu Intensitäten von 5*10^4 Ionen/s, ein Machbarkeitsnachweis für die Messung der Spur von einzelnen Teilchen erbracht werden.
Die Bestrahlung atmungsbewegter Tumoren stellt eine Herausforderung für die moderne Strahlentherapie dar. In der vorliegenden Arbeit werden zu Beginn die physikalischen, technischen und medizinischen Grundlagen vorgestellt, um dem Leser den Einstieg in die komplexe Thematik zu erleichtern. Des Weiteren werden verschiedene Techniken zur Bestrahlung atmungsbewegter Zielvolumina vorgestellt. Auch wird auf die Sicherheitssäume eingegangen, die notwendig sind, um Fehler in der Bestrahlungskette beim Festlegen des Planungszielvolumens für die Bestrahlung auszugleichen.
Im Rahmen dieser Arbeit wurde ein Konzept entwickelt, wodurch sich der Sicherheitssaum von bewegten Tumoren in der Radiochirurgie mit dem Tumor-Tracking-System des Cyberknifes noch weiter verkleinern lässt. Somit kann die sogenannte therapeutische Breite der Behandlung weiter vergrößert werden kann. Dafür wurden ein 4D-CT und ein Gating-System in den klinischen Betrieb aufgenommen. Die entwickelte Technik basiert auf den zehn individuellen Atemphasen des 4D-CTs und lässt eine Berücksichtigung bewegter Risikostrukturen bereits während der Bestrahlungsplanung zu. Diese Methode wurde mit aktuellen Bestrahlungstechniken mittels eines Vergleichs der Bestrahlungspläne anhand von zehn Patientenfällen verglichen. Zur Erstellung der Bestrahlungspläne kamen die Bestrahlungsplanungssysteme von Varian (Eclipse 13.5) und Accuray (Multiplan 4.6) zum Einsatz. Es wurden insbesondere die Bestrahlungsdosen an den Risikoorganen und die Volumina ausgewählter Isodosen betrachtet. Hier zeigte sich eine klare Abhängigkeit von der Belastung des gesunden Gewebes von der verwendeten Bestrahlungstechnik. Dies lässt die Schlussfolgerung zu, dass mit einer Reduzierung des Sicherheitssaums, welcher abhängig von der verwendeten Planungs- und Bestrahlungstechnik ist, eine Vergrößerung der therapeutischen Breite einhergeht. Zusätzlich bleibt bei einer geringen Belastung des umliegenden gesunden Gewebes die Möglichkeit für eine weitere Bestrahlung offen.
Anschließend wurden anhand von berechneten Testplänen Messungen an einem für diese Arbeit modifizierten Messphantom am Varian Clinac DHX und am Cyberknife VSI durchgeführt. Hier wurden die beim Planvergleich verwendeten Bestrahlungstechniken verwendet, um einen Abgleich von berechneter und tatsächlich applizierter Dosis zu erhalten. Das verwendete Messphantom simuliert die Atmung des Patienten und lässt gleichzeitig eine Verifikation der Dosisverteilung mit EBT3-Filmen sowie Messungen mit Ionisationskammern zu. Es zeigte sich, dass für die Techniken, welche aktiv die Atmung berücksichtigen (Synchrony am Cyberknife und Gating am Varian Clinac), selbst im Niedrigdosisbereich eine gute Übereinstimmung zwischen Messung und Berechnung der Dosisverteilung vorliegt. Sobald die Bewegung des Zielvolumens bereits bei der Bestrahlungsplanung berücksichtigt wird, steigt die Übereinstimmung weiter an. Für Techniken, welche die Atmung lediglich bei der Zielvolumen-Definition einbeziehen (ITV-Konzept), liegen sowohl die mit Ionisationskammern gemessenen Werte als auch die Übereinstimmung von berechneter und gemessener Dosisverteilung außerhalb des Toleranzbereichs.
Eine weitere Frage dieser Arbeit befasst sich mit der Treffsicherheit des Tumor-Tracking-Systems des Cyberknifes (Synchrony). Hier wurden Messungen mit dem XSightLung-Phantom und unterschiedlichen Sicherheitssäumen, welche die Bewegung des Tumors ausgleichen sollen, durchgeführt. Dies geschah sowohl mit dem für das Phantom vorgesehenen Würfel mit Einschüben für EBT3-Filme als auch mit einem Film-Sanchwich aus Flab-Material zur Untersuchung einer dreidimensionalen Dosisverteilung. Die Analyse der Filme ergab, dass es zumindest an einem Phantom mit einer einfachen kraniokaudalen Bewegung nicht nötig ist, die Bewegung des Zielvolumens durch einen asymmetrischen Sicherheitssaum in Bewegungsrichtung zu kompensieren um die Abdeckung des Zielvolumens mit der gewünschten Dosis zu gewährleisten.
Durch diese Arbeit konnten zusätzlich weitere wertvolle Erkenntnisse für den klinischen Alltag gewonnen werden: bei der Untersuchung der Bewegung von Tumoren in freier Atmung sowie bei maximaler Inspiration und Exspiration zeigte sich, dass zum Teil die Tumorbewegung in maximalen Atemlagen (3-Phasen-CT) deutlich von der freien Atmung abweicht. Dies lässt den Schluss zu, dass für eine Bestrahlung in freier Atmung ein 4D-CT die Tumorbewegung deutlich realistischer widerspiegelt als ein 3-Phasen-CT, zumal letzteres eine größere Dosisbelastung für den Patienten bedeutet.
Ebenfalls konnte anhand einer retrospektiven Untersuchung von Lungentumoren gezeigt werden, dass für die Berechnung von Bestrahlungsplänen für Tumoren in inhomogenem Gewebe der Ray-Tracing-Algorithmus die Dosis im Zielvolumen teilweise sehr stark überschätzt. Um eine realistische Dosisverteilung zu erhalten, sollte deshalb insbesondere bei Tumoren in der Lunge auf den Monte-Carlo-Algorithmus zurückgegriffen werden.
Bei der GSI – Helmholtzzentrum für Schwerionenforschung in Darmstadt wird im Rahmen des HITRAP-Projekts ein linearer Abbremser für schwere, hochgeladene Ionen für atomphysikalische Präzisionsexperimente in Betrieb genommen. Während der Inbetriebnahme wurden transversale Emittanzmessungen mit der Pepperpot- und der Multi-Gradienten-Methode durchgeführt, um die Emittanz des aus dem Experimentierspeicherring (ESR) extrahierten Strahls zu messen. Weiterhin wurde auch die Phasenraumverteilung des auf eine Zwischenenergie von 500keV/u abgebremsten Strahls hinter der IH-Struktur gemessen. Dazu wurden neue Auswertealgorithmen in die Analyse der digitalen Bilder integriert. Die longitudinalen Bunchstrukturmessungen des Strahls am Eintrittspunkt in den Abbremser und die Funktionsweise des Doppel-Drift Bunchers wird gezeigt. Die Konzeption und der Aufbau sowie die erste Inbetriebnahme einer neuartigen Einzelschuss-Pepperpot-Emittanzmessanlage für kleinste Strahlströme und -energien wird beschrieben, die es ermöglichen, den Strahl hinter den Abbremskavitäten zu vermessen. Zusätzlich wurden transversale Strahldynamikrechnungen durchgeführt, welche theoretische Grundlagen zur Inbetriebnahme von HITRAP lieferten. Es wird beschrieben, wie die gesamte Strahllinie vom ESR bis zum Radio-Frequenz Quadrupol nach der erfolgreichen Integration einer Abbremsroutine innerhalb des Softwarepakets COSY Infinity optimiert werden kann.
Magnetische Quadrupole und Solenoide sind ein elementarer Bestandteil einer Beschleunigeranlage und begrenzen die transversale Ausdehnung eines Teilchenstrahls durch eine Reflexion der Teilchen in Richtung der Beschleunigerachse. Die konventionelle Bauweise als Elektromagnet besteht aus einem Eisenjoch welches mit Spulen umwickelt ist. In dieser Arbeit werden diese Magnetstrukturen auf Basis von Permanentmagneten designt und hinsichtlich ihrer Qualität zum Strahltransport optimiert, sowie Feldmessungen an permanentmagnetischen Quadrupolen durchgeführt. Diese wurden mit 3D-gedruckten Halterungen aus Kunststoff gefertigt, was eine Vielzahl von Formvariationen ermöglicht. Darauf aufbauend wurde ein im Vakuum befindlicher Aufbau entwickelt, mit welchem die Strahlenvelope im inneren eines permanentmagnetischen Quadrupol Tripletts diagnostiziert werden kann. Dies greift auf ein am Institut für angewandte Physik entwickeltes System zur nicht-invasiven Strahldiagnose mithilfe von Raspberry Pi Einplatinencomputern und Kameras in starken Magnetfeldern zurück.
Die in dieser Arbeit vorgestellte Konfiguration eines PMQ’s ist eine Weiterentwicklung des am CERN im Linac4, einem Alvarez-Driftröhrenbeschleuniger zur Beschleunigung von H– , verwendeten Designs. Bei diesem sind je acht quaderförmige Permanentmagnete aus Samarium Cobalt (SmCo) in die Driftröhren des Beschleunigers integriert.
Darauf aufbauend wurden die geometrischen Designparameter hinsichtlich ihres Einflusses auf die Qualität des Magnetfelds untersucht. In einem magnetischen Quadrupol zur Strahlfokussierung wird dies durch einen linearen Anstieg des Magnetfeldes von Quadrupolachse zu Polflächen charakterisiert. Das Design wurde im Zuge dessen zur Verwendung von industriellen Standardgeometrien von Quadermagneten und der Erhöhung der magnetischen Flussdichte erweitert. Dazu wurde untersucht wie sich das Hinzufügen von zusätzlichen Magneten auswirkt und ob eine bessere Feldqualität durch andere Magnetformen erreicht wird.
Die Kombination mehrerer PMQ in geringem Abstand (<10 mm) führt abhängig von der Geometrie der PMQ-Singlets zu einer erheblichen Verschlechterung der Feldlinearität, was eine Erhöhung des besetzten Phasenraumvolumens der Teilchen nach sich zieht.
Am Beispiel von PMQ-Tripletts werden die zu beachtenden Designparameter analysiert und Lösungsansätze vorgestellt. Die auftretenden Effekte werden anhand von Strahldynamiksimulation veranschaulicht. Für eine Anwendung der vorgestellten Designs wurde eine Magnethülle mit einer Wabenstruktur zur Aufnahme der Einzelmagnete entwickelt. Diese besteht aus zwei Halbschalen, welche jeweils den Kompletteinschluss aller Magnete garantiert und eine einfache Montage um ein Strahlrohr ermöglicht. Diese wurden in der Institutswerkstatt aus Kunststoff via 3D-Druck gefertigt. Aufgrund der höheren erreichbaren Magnetisierung wurden Neodym-Eisen-Bor-Magnete (Nd2F14B, Br =1,36 T) für den Bau der entwickelten Strukturen verwendet. Für eine Magnetfeldmessung zur Bestätigung der magnetostatischen Simulationen und einer Bewertung der Druckqualität wurde eine motorisierte xyz-Stage zur Bewegung einer Hallsonde aufgebaut. Die Messungen zeigen eine gute Zentrierung des Magnetfeldes, sodass PMQ mit einer Kunststoffhalterung eine schnelle und billige Möglichkeit sind, kurzfristig eine Quadrupol-Konfiguration aufzubauen. Die Kosten belaufen sich für einen einzelnen PMQ je nach Länge auf 50€ bis 100€.
Basierend auf der PMQ-Struktur wurde ein PMQ-Triplett in ein Vakuum versetzt und mit Raspberry Pi Kameras im Zwischenraum der Singlets ausgestattet. Dies ermöglichte die Aufnahme der Strahlenvelope innerhalb des Tripletts anhand der durch einen Heliumstrahl induzierten Fluoreszenz und erste Erkenntnisse für notwendige Weiterentwicklungen wurden gesammelt. Auf den genauen technischen Aufbau wird im abschließenden Kapitel der Arbeit detailliert eingegangen.
In der einfachsten Form wird ein PM-Solenoid anhand eines einzelnen axial magnetisierten Hohlzylinders realisiert und erzeugt näherungsweise die Feldverteilung einer Zylinderspule. Durch die radialen Magnetfeldkomponenten an den Rändern des Solenoiden erhalten Teilchen eine tangentiale Geschwindigkeitskomponente und führen eine Gyrationsbewegung entlang der Solenoidachse aus. Diese reduziert den Strahlradius und die Teilchen behalten eine Geschwindigkeitskomponente, welche zur Solenoidachse zeigt. Für eine Maximierung dieser Fokussierung muss das Magnetfeld auf die Zylinderachse konzentriert werden. Insbesondere bei einer Verlängerung des Hohlzylinders wird die Kopplung der Polflächen über das Innenvolumen abgeschwächt. Aufgrund dessen wurde ein Design bestehend aus drei Hohlzylindersegmenten entwickelt. Dieses setzt sich aus zwei radial und einem axial magnetisierten Hohlzylinder zusammen und erhöht die mittlere magnetische Flussdichte für ausgewählte Geometrien um einen Faktor zwei im Vergleich zu einem einzelnen Hohlzylinder gleicher Geometrie. Dies ist gleichzusetzen mit einer Vervierfachung der Fokussierstärke, welche quadratisch mit der mittleren magnetischen Flussdichte skaliert. Die Strahldynamischen Konsequenzen werden anhand von Simulationen mit generierten Magnetfeldverteilungen erläutert. Für eine kostengünstige Bauweise wurde eine Design basierend auf quaderförmigen Magneten entwickelt.
Die vorliegende Dissertation befasst sich mit der Entwicklung und Erforschung eines konzeptionell neuartigen Injektionssystems zum Transport von Ionenstrahlen in toroidale Magnetfeldstrukturen. Die Forschungsarbeit ist dabei Teil des Figure-8 Speicherringprojekts (F8SR) des IAP, bei welchem es um die Erforschung der Physik und die Entwicklung eines niederenergetischen, supraleitenden, magnetostatischen Figure-8 Hochstromspeicherrings geht. Dieser neuartige Speicherring ermöglicht aufgrund des Einsatzes von fokussierenden solenoidalen und toroidalen Magnetfeldern das Speichern von Strahlströmen von bis zu einigen Ampere. Diese Arbeit baut auf früheren Forschungsarbeiten zu diesem Themenfeld auf, in welchen die Grundlagen und Ausgangsparameter für die experimentelle Untersuchung der Injektion gelegt und mit dem Aufbau des Injektionsexperiments begonnen wurde.
In dieser Dissertation wird den Fragen nachgegangen, ob ein magnetisches Konzept des Injektionssystems mittels eines „Scaled-Down“-Experiments experimentell umsetzbar ist und ob mit diesem die Injektion von Ionenstrahlen in toroidale Magnetfeldstrukturen realisiert werden kann. Ziel ist es dabei, ein Injektionssystem aufzubauen, durch welches sowohl ein seitlich injizierter Injektionsstrahl, welcher den in den Speicherring zu injizierenden Strahl darstellt, als auch ein gleichzeitig durch die toroidalen Magnetfelder driftender Ringstrahl, welcher den im Speicherring zirkulierenden Strahl darstellt, ohne Verluste transportiert werden können. Das Injektionssystem besteht dabei aus drei normalleitenden Magneten, wobei es sich um zwei baugleiche 30 Grad Toroide sowie einen Solenoid handelt. Die Toroide bilden den Transportkanal für den Ringstrahl, während der Injektionssolenoid senkrecht zwischen den beiden Toroiden endet und den Injektionskanal für den Injektionsstrahl darstellt.
Zunächst wurde das Injektionssystem mittels Strahltransportsimulationen untersucht und aufbauend auf den Ergebnissen die benötigen Vakuumkomponenten sowie der Injektionsmagnet ausgelegt, entwickelt und umgesetzt. Anschließend wurde mit dem fertigstellten Injektionsexperiment der Transport von zwei Ionenstrahlen durch das Injektionssystem experimentell erforscht. Dabei wurden die Strahlpfade mit einem in Entwicklung befindlichen Kameradetektorsystem aus verschiedenen Perspektiven aufgenommen und das Strahlverhalten in Abhängigkeit von unterschiedlichen Parametern phänomenologisch analysiert und diskutiert, mit den Ergebnissen der Simulationen verglichen sowie theoretisch bzgl. der RxB Drift und eines Gedankenmodells eingeordnet. Die technische Umsetzung, Inbetriebnahme und Durchführung verschiedener Vorabexperimente bzgl. weiterer Komponenten des Injektionsexperiments (bspw. Ionenquellen und Filterkanäle) ist ebenfalls Bestandteil dieser Arbeit.
Bei den experimentellen Untersuchungen mit Wasserstoff- und Heliumionenstrahlen konnte beobachtet werden, wie der Injektionsstrahl in den zweiten Toroid driftet und somit erfolgreich injiziert wird. Des Weiteren wurde eine Heliummessung durchgeführt, bei der sowohl der Injektionsstrahl als auch der Ringstrahl erfolgreich durch das Injektionssystem transportiert werden konnten. Auch die Auswirkungen des Injektionsmagneten auf den Ringstrahl konnten experimentell untersucht werden. Die verschiedenen Messungen wurden mittels des Gedankenmodells diskutiert und mit den Ergebnissen der Simulationen sowie untereinander verglichen.
Das abschließende Ergebnis dieser Arbeit ist, dass durch den Einsatz von solenoidalen und toroidalen Magnetfeldern der Injektionsstrahl vom Injektionsmagneten in den zweiten Toroid transportiert und dieser somit in die gekoppelte magnetische Konfiguration der Toroide eingelenkt werden kann. Der gleichzeitige verlustfreie Transport eines Ringstahls durch das Injektionssystem konnte dabei ebenfalls realisiert werden. Des Weiteren stimmen die Ergebnisse der Simulationen und Experimente sowie die theoretischen Überlegungen überein.
Das neuartige Injektionskonzept, welches als Schlüsselkomponente für die Umsetzung des Figure-8 Hochstromspeicherrings benötigt wird, wurde somit mittels Theorie, Simulation und Experiment überprüft und die Funktionalität bestätigt.
Zukünftige Forschungsfragen für welche der Figure-8 Hochstromspeicherring verwendet werden könnte, bspw. aus den Bereichen der experimentellen Astrophysik oder Fusionsforschung, wurden abschließend diskutiert.
Entwicklung und Inbetriebnahme zweier supraleitender 217 MHz CH-Strukturen für das HELIAC-Projekt
(2019)
Im Rahmen der hier vorgestellten Arbeit wurden zwei baugleiche CH-Strukturen für das im Bau befindliche HELIAC-Projekt (HELmholtz LInear ACcelerator) entwickelt und während der Produktion bis hin zu den finalen Kalttests bei 4.2 K begleitet. Zusammen mit der CH-Struktur des Demonstrator-Projektes ermöglichen sie die vollständige Inbetriebnahme und den ersten Strahltest des ersten Kryomoduls des HELIAC's, welcher aus vier Kryomodulen mit insgesamt 12 CH-Strukturen besteht. Im Vergleich zu bisherigen CH-Strukturen wurde das Design der Kavitäten im Rahmen dieser Dissertation grundlegend überarbeitet und optimiert. Durch die Entfernung der Girder und die konisch geformten Endkappen konnte die Stabilität der neuen CH-Strukturen deutlich erhöht werden, sodass die Drucksensitivität im Vergleich zur ersten CH-Kavität des Demonstrator-Projektes um ca. 80% reduziert werden konnte. Durch die nach außen gezogenen Lamellen der dynamischen Tuner konnte die mechanische Spannung sowie die benötigte Anzahl an Lamellen und damit das Risiko für das Auftreten von Multipacting reduziert werden. Das verringerte Risiko für Multipacting durch die entsprechenden Optimierungen der Kavitäten konnte durch die dauerhafte Überwindung aller Multipacting-Barrieren in den späteren Messungen verifiziert werden. Die Optimierung beider Kavitäten erfolgte dabei mit Hilfe der Simulationsprogramme CST Studio Suite und Ansys Workbench.
Beide Kavitäten wurden von der Firma Research Instruments (RI) gefertigt und während der gesamten Konstruktion durch diverse Zwischenmessungen überwacht. Nach jedem einzelnen Produktionsschritt wurden alle Einflüsse auf die Resonanzfrequenz so präzise ermittelt, dass die Zielfrequenz bei 4.2 K auf mehr als 1‰ genau erreicht werden konnte. Sowohl während der Zwischenmessungen als auch während den finalen Messungen bei 4.2 K wurden automatisierte Aufzeichnungsroutinen verwendet, welche eine sekundengenaue Auslese der Messdaten und damit eine hohe Messgenauigkeit ermöglichten. Im Hinblick auf die Komplexität der CH-Strukturen sind die geringen Abweichungen von der Zielfrequenz der direkte Beweis dafür, wie erfolgreich und präzise die Auswertungen und daraus folgenden Abschätzungen der einzelnen Zwischenmessungen waren. Insgesamt konnten bis auf die mechanischen Eigenmoden alle Ergebnisse der Simulationen durch entsprechende Messungen in guter Näherung verifiziert werden. In jeder Kavität wurden zwei dynamische Tuner verbaut, welche statische und dynamische Frequenzabweichungen im späteren Betrieb ausgleichen können. Die dynamischen Tuner wurden hinsichtlich ihrer mechanischen Stabilität und der erzeugbaren Frequenzänderung sowie ihrer mechanischen Eigenfrequenzen ausführlich mit Hilfe der Simulationsprogramme CST Studio Suite und Ansys Workbench untersucht und optimiert. Um die Ergebnisse der Simulationen zu überprüfen wurden ein eigens dafür entworfener und in der Werkstatt des Instituts für Angewandte Physik gefertigter Messaufbau verwendet, welcher es ermöglichte alle entscheidenden Eigenschaften der dynamischen Tuner präzise zu vermessen. Insgesamt stellen die ausführlichen Messungen mit Hilfe des entworfenen Aufbaus die bisher umfassendsten Messungen dynamischer Balgtuner innerhalb supraleitender CH-Strukturen dar und zeigen, mit welchen Abweichungen zwischen Simulationen und Messungen bei zukünftigen Kavitäten zu rechnen ist. Auch die Feldverteilung entlang der Strahlachse wurde während der Produktion der Kavitäten mit Hilfe der Störkörpermessmethode überprüft. Die dadurch ermittelten Werte stimmten mit einer maximalen Diskrepanz von 9% sehr gut mit den Simulationen überein.
Um eine möglichst gute Oberflächenqualität zu garantieren wurden an der Innenfläche beider Strukturen mindestens 200µm mit einer Mischung aus Fluss-, Salpeter und Phosphorsäure in mehreren Schritten abgetragen. Durch das Aufteilen der Behandlung in einzelne Schritte konnte der Einfluss der Oberflächenbehandlung auf die Resonanzfrequenz besser abgeschätzt und vorausgesehen werden. Dies führte, zusammen mit den Messungen zur Bestimmung der Drucksensitivität und der thermischen Kontraktion der Kavität beim Abkühlen, zu der hohen Übereinstimmung der gemessenen finalen Resonanzfrequenz mit der Zielfrequenz.
Die abschließenden Kalttests der beiden Kavitäten, ohne Heliummantel, wurden am Institut für Angewandte Physik der Johann Wolfgang Goethe Universität in einem vertikalen Bad-Kryostaten durchgeführt. Die erste CH-Struktur konnte erfolgreich bis zu einem maximalen Feldgradienten von 9.2 MV/m getestet werden, was einer effektiven Spannung von 3.37 MV entspricht. Die unbelastete Güte fiel dabei von anfangs 1.08 ∙ 109 auf 2.6 ∙ 108 ab. Die Vorgaben des HELIAC-Projektes liegen bei einem Beschleunigungsgradienten von 5.5 MV/m mit einer unbelasteten Güte von mindestens 3 ∙ 108. Diese Werte wurden von der ersten Kavität deutlich übertroffen, sodass sie für den Betrieb innerhalb des ersten Kryomoduls uneingeschränkt verwendet werden kann.
Bei der zweiten Kavität trat beim Abkühlen auf 4.2 K ein Vakuumleck auf, welches unter Raumtemperatur nicht detektierbar war. Aufgrund der schlechten Vakuumbedingungen innerhalb der Kavität konnten somit keine Messungen hinsichtlich der Leistungsfähigkeit durchgeführt werden, solange das Kaltleck vorhanden war. Ein erneuter Kalttest der Kavität nach Beseitigung des Lecks konnte zeitlich nicht mehr im Rahmen dieser Arbeit durchgeführt werden und ist aus diesem Grund Gegenstand nachfolgender Untersuchungen.
Insgesamt stellen die Entwicklungen, Untersuchungen und Messungen im Rahmen der hier vorgestellten Dissertation einen entscheidenden Schritt zur Inbetriebnahme des ersten Kryomoduls des HELIAC's sowie der Entwicklung weiterer CH-Kavitäten dar. Das überarbeitete Design der CH-Strukturen hat sich als erfolgreich erwiesen, weswegen es als Ausgangspunkt für die Entwicklung aller nachfolgenden CH-Strukturen des HELIAC, bis hin zur Fertigstellung des kompletten Beschleunigers, verwendet wird.
Heparin wird als gerinnungshemmendes Medikament in vielen Bereichen eingesetzt: in niedriger Dosierung wird es vor allem zur Thromboseprophylaxe verwendet, in höheren Konzentrationen kommt es zum Beispiel in der Hämodialyse oder bei herzchirurgischen Eingriffen unter Verwendung der Herz-Lungen-Maschine zum Einsatz, um ein Gerinnen des Patientenblutes zu verhindern. Obwohl Heparin schon seit vielen Jahrzehnten eingesetzt wird, fehlt bis heute eine Methode, mit der sich die Heparin-Konzentration einfach, schnell und kostengünstig während des OP-Verlaufs bestimmen lässt. Vielmehr wird der Zustand des Patientenblutes über Gerinnungsverfahren eingeschätzt, die nur indirekt abhängig von Heparin sind und die von vielen Parametern beeinflusst werden. Eine Überwachung des Heparinspiegels ist mit diesen Methoden nicht möglich. Ein weiteres Problem ergibt sich, wenn am Ende des Eingriffs die normale Blutgerinnung wiederhergestellt werden soll. Zu diesem Zweck wird Protamin verabreicht, welches das im Patientenblut zirkulierende Heparin binden und damit dessen gerinnungshemmende Wirkung neutralisieren soll. Die Verabreichung des Protamins geschieht jedoch nicht, wie es idealerweise wäre, entsprechend der aktuellen Heparin-Konzentration, da derzeit kein Heparin-Messverfahren existiert. Dies kann eine fehlerhafte Heparin-Neutralisierung zur Folge haben, welche mit weitreichenden Nebenwirkungen, vor allem einer erhöhten Blutungsgefahr, verbunden ist.
Aufgrund dieser Problematik wurde eine streulichtphotometrische Methode (LiSA-H) entwickelt, mit dem die Bestimmung der Heparin-Konzentration einer Patientenprobe während chirurgischen Eingriffen möglich ist. Diese basiert auf der Messung der Intensität des an Heparin-Protamin-Nanopartikeln gestreuten Lichts. Diese Nanopartikel bilden sich, sobald Protamin einer Lösung mit Heparin, z.B. heparinisiertes Blutplasma, zugegeben wird.
Mit Hilfe von analytischer Ultrazentrifugation sowie Rasterkraftmikroskop-Aufnahmen konnten die Größe und die Größenverteilung der Heparin-Protamin-Partikel charakterisiert werden. Beide Methoden zeigten gut übereinstimmende Ergebnisse und lieferten Partikeldurchmesser von etwa 70 – 200 nm.
Um den Prozess der Messung zu optimieren, wurde nach Filtrationsmethoden gesucht, um den zeit- und arbeitsaufwendigen Zentrifugationsschritt zu vermeiden. Dazu wurden Filtermembranen aus verschiedenen Materialien und mit unterschiedlichen Porengrößen getestet, die eine Plasmagewinnung durch Filtration von Vollblut ermöglichen sollten. Leider war dies mit den getesteten Filtersystemen nicht möglich. Dies bleibt jedoch ein aktuelles Thema und wird weiterhin untersucht werden.
Zusätzlich zu der streulichtbasierten Messmethode konnte gezeigt werden, dass über fluoreszenzspektroskopische Methoden die Bestimmung kleiner Heparin-Konzentrationen möglich ist. Dafür wurde Protaminsulfat mit Fluoreszenzfarbstoffen markiert und die Erniedrigung der Emissionsintensität des fluoreszierenden Protamins nach Zugabe von Heparin beobachtet. Aus dem Grad dieser Intensitätsabnahme lässt sich auf die Heparin-Konzentration schließen. Diese Methode wäre hervorragend dafür geeignet, das streulichtbasierte Verfahren zu ergänzen, das im niedrigen Konzentrationsbereich zunehmend unempfindlich wird. Hierfür müssen jedoch noch einige Messungen durchgeführt werden, um zu zeigen, ob eine Messung auch von Plasma- oder sogar Vollblutproben möglich ist.
Es wurde ein klinischer Prototyp entwickelt, der die Bestimmung der Heparin-Konzentration in einer Blutplasmaprobe während chirurgischer Eingriffe ermöglicht. Dabei wird eine LED mit einem Emissionsmaximum bei 627 nm verwendet und die Streulichtintensität zur Bestimmung der Anzahl und der Größe der Heparin-Protamin-Partikel genutzt. Die Steuerung der Messung sowie die Auswertung der Messdaten werden mit einem Netbook und eigens dafür neu entwickelter Software realisiert. Mit diesem Prototyp lässt sich reproduzierbar aus der Änderung der Streulichtintensität einer Blutplasmaprobe nach Protaminzugabe innerhalb weniger Minuten deren Heparin-Konzentration bestimmen. Es wurde eine Kalibrierfunktion erstellt, mit der es möglich ist, aus der Streulichtintensität die Heparin-Konzentration zu berechnen.
Eine erste Studie im Universitätsklinikum der Johann Wolfgang Goethe-Universität Frankfurt a.M., bei der bei 50 herzchirurgischen Eingriffen unter Verwendung der Herz-Lungen-Maschine parallel zur üblichen Gerinnungsmessung eine Heparin-Bestimmung mit dem neuen Heparin-Assay erfolgte, zeigte, dass es mit diesem Verfahren möglich ist, im OP-Verlauf die Heparin-Konzentration im Patientenblut zu ermitteln. Daraus konnten schließlich weitere Informationen wie die individuelle Geschwindigkeit des Heparin-Abbaus erhalten werden.
Eine zweite Studie in der Kinderkardiologie des Universitätsklinikums Gießen, deren Ergebnisse statistisch noch nicht vollständig ausgewertet sind, wurde ebenfalls mit Erfolg abgeschlossen. Die vorläufigen Ergebnisse zeigten hier, dass sich die Heparin-Abbaukinetik bei Erwachsenen und Kindern deutlich unterscheidet. Zudem zeigte sich, dass die gemessene Gerinnungszeit bei Kindern wesentlich schlechter (nur 30 % der Fälle) mit der gemessenen Heparin-Konzentration korreliert als bei Erwachsenen (etwa 70 % der Fälle).
Als Plasmafenster wird ein Aufbau bezeichnet, welcher zwei Bereiche unterschiedlicher Drücke voneinander trennt, Teilchenstrahlen jedoch nahezu verlustfrei passieren lässt.
Diese Anwendung einer kaskadierten Bogenentladung wurde von A. Hershcovitch vorgeschlagen.
Im Rahmen dieser Arbeit wurde ein solches Plasmafenster mit Kanaldurchmessern von 3.3 mm und 5.0 mm aufgebaut sowie die erreichbaren Druckunterschiede untersucht.
Auf der Bestimmung des Einflusses der Plasmaparametern und deren Abhängigkeit von äußeren Parametern auf die erreichbare Trennung der Druckbereiche liegt der Schwerpunkt dieser Arbeit.
Ein ausgeklügeltes optisches System ermöglicht die simultane Aufnahme mehrerer Spektren entlang der Entladungsachse, welche die gleichzeitige Bestimmung der Elektronendichte und -temperatur ermöglichen.
Für die Analyse der Plamaparameter aus über 6700 Spektren wird eine selbst entwickelte Software genutzt.
Die gemessenen Elektronendichte reicht von 8e14 cm^-3 bis zu 4.2e16 cm^-3.
Sie skaliert sowohl mit der Entladungsstromstärke als auch dem Teilchenfluss.
Für die Elektronentemperatur stellen sich Werte zwischen 1 eV und 1.3 eV ein, sie variiert nur leicht mit der Stromstärke und dem Teilchenfluss.
Wie später gezeigt wird, stimmen die hier präsentierten Daten gut mit Ergebnissen aus Simulationen und Experimenten anderer Arbeitsgruppen überein.
Als Betriebsgas wurde eine 98%Ar-2%H2 Mixtur genutzt, da die Stark-Verbreiterung der H-beta-Linie sowie die physikalischen Eigenschaften von Argon gut beschrieben sind und somit eine akkurate Elektronendichte- und -temperaturbestimmung ermöglichen.
Während die Drücke auf der Niederdruckseite einigen mbar entsprechen, werden auf der Hochdruckseite Drücke bis zu 750 mbar bei Teilchenflüsse zwischen 4.5e20 s^-1 und 18e20 s^-1 sowie Stromstärken von 45 A bis 60 A erreicht.
Die erzielten Druckverhältnisse entsprechen Werten zwischen 40 und 150, was eine Steigerung um einen Faktor von bis zu 12 gegenüber dem Druckverhältnis einer einfachen differentiellen Pumpstufe entspricht.
Zusätzlich zur Trennung der Druckbereiche kann am vorgestellten Experiment die Starkverbreiterung von Emissionslinien untersucht werden.
Vorteilhaft gegenüber anderen Aufbauten ist hier die Möglichkeit, zeitgleich Spektren unterschiedlicher Elektronendichten aufzunehmen.
Die entwickelte Software ist in der Lage, akkurate Halbwertsbreiten zu bestimmen und daher für eine solche Anwendung gut geeignet.
Alleinstellungsmerkmale dieses Aufbaus sind unter anderem die angesprochene Möglichkeit der simultanen Bestimmung von Plasmaparamertern und Linienverbreiterungen sowie der Verzicht auf Keramikisolatoren zwischen den Kühlplatten des Aufbaus.
Optische Analysen ergaben keine signifikante Schädigung der Bestandteile des Aufbaus nach einer Betriebsdauer von über 10 h; einzig die Kathodenspitzen müssen alle 5 h ausgetauscht werden.
Im Rahmen der hier vorgestellten Arbeit wurden eine Master- sowie Bachelorarbeit betreut und erfolgreich zum Abschluss gebracht.
Wie im Rahmen dieser Arbeit gezeigt, ist das entwickelte Plasmapfenster in der Lage, zwei Bereiche unterschiedlicher Drücke zu trennen und diese Trennung sicher aufrecht zu erhalten.
Die zugrundeliegenden Plasmaparameter sind erforscht und ihr Einfluss auf die Trennungseigentschaft des Plasmafensters beschrieben.
Als nächsten Schritt bietet sich die Erschließung technischer Einsatzmöglichkeiten des Plasmafensters an, so könnte dieses als Plasmastripper oder zum Schutz einer Beschleunigerstruktur vor durch Kollisionsexperimente entstandene radioaktive Isotope oder Sekundärteilchen.
Entwicklung und Test einer supraleitenden 217 MHz CH-Kavität für das Demonstrator-Projekt an der GSI
(2016)
In den letzten Jahrzehnten vergrößerten sich die Anwendungsgebiete von Linearbeschleunigern für Protonen und schwere Ionen, insbesondere im Nieder- und Mittelenergiebereich, stetig. Der überwiegende Teil dieser mittlerweile bewährten Anwendungen lag im Bereich der Synchrotroninjektion oder der Nachbeschleunigung von radioaktiven Ionenstrahlen. Darüber hinaus wird seit einiger Zeit die Entwicklung neuartiger, supraleitender Hochleistungslinearbeschleunigerkavitäten stark vorangetrieben, welche vor allem bei der Forschung an Spallationsneutronenquellen, in der Isotopenproduktion oder bei der Transmutation langlebiger Abfälle aus Spaltreaktoren Anwendung finden sollen. Die am Institut für Angewandte Physik der Goethe-Universität Frankfurt entwickelte CH-Kavität ist optimal für den Einsatz in derartigen Hochleistungsapplikationen geeignet. Sie ist die erste Vielzellenstruktur für den Nieder- und Mittelenergiebereich und kann sowohl normal- als auch supraleitend verwendet werden. Bislang konnten in der Vergangenheit ein supraleitender 360 MHz CH-Prototyp sowie eine für hohe Leistungen optimierte supraleitende 325 MHz CH-Struktur erfolgreich bei kryogenen Temperaturen ohne Strahl getestet werden. Um die Forschung im Bereich der Kernphysik, der Kernchemie und vor allem im Bereich der superschweren Elemente auch in Zukunft weiter fortzusetzen, ist der Bau eines neuen supraleitenden, dauerstrichbetriebenen Linearbeschleunigers an der GSI geplant. Das Kernstück des zukünftigen cw-LINAC basiert auf dem Einsatz supraleitender 217 MHz CH-Kavitäten, mit deren Hilfe ein adäquater Teilchenstrahl mit
maximal 7,5 MeV/u für die SHE-Synthese bereitgestellt werden soll. Auf dem Weg zur Realisierung des geplanten cw-LINACs wurde im Zuge des Demonstrator-Projektes die Umsetzung der ersten Sektion des gesamten Beschleunigers beschlossen. Der Fokus des Projektes liegt auf der Demonstration der Betriebstauglichkeit innerhalb einer realistischen Beschleunigerumgebung sowie insbesondere auf der erstmaligen Inbetriebnahme einer supraleitenden CH-Kavität mit Strahl. Im Rahmen der vorliegenden Arbeit wurde die erste supraleitende 217 MHz CH-Kavität für das Demonstrator-Projekt entwickelt, produziert und ihre Hochleistungseigenschaften in einem vertikalen Kryostaten bei 4,2 K getestet. Hierbei lag das Hauptaugenmerk auf der HF-Auslegung der Kavität, den begleitenden Tuningmaßnahmen während der Produktion sowie den ersten Leistungstests unter kryogenen Bedingungen. Weitere Schwerpunkte lagen auf der kompakten Bauweise, dem effektiven Tuning, der Oberflächenpräparation sowie auf dem Strahlbetrieb der Kavität mit einem dauerstrichfähigem 5 kW Hochleistungskoppler. Die Umsetzung
der Kavität beruhte auf dem geometrischen Konzept der supraleitenden, siebenzelligen 325 MHz CH-Struktur.
Ihre elektromagnetische und strukturmechanische Auslegung erfolgte mittels der Simulationsprogramme ANSYS Multiphysics und CST Studio Suite. Um während des Test- bzw. Strahlbetriebs mit der entsprechend notwendigen Kopplungsstärke die HF-Leistung in die Kavität einzuspeisen, wurden unterschiedliche Kopplerantennen für den jeweiligen Fall ausgelegt. Zum Erreichen der geforderten Zielfrequenz wurde ein Verfahren erarbeitet, welches die hierfür notwendigen Mess- und Arbeitsschritte während der einzelnen
Produktionsphasen beinhaltet. Diesbezüglich wurden während der Produktion der Kavität eine Reihe von Zwischenmessungen beim Hersteller durchgeführt, um den Frequenzverlauf innerhalb der jeweiligen Fertigungsschritte entsprechend beeinflussen zu können
und um vorangegangene Simulationswerte zu validieren. Alle untersuchten Parameter konnten während der Messungen in guter Übereinstimmung zu den Simulationen reproduziert und die Zielfrequenz der Kavität schließlich erreicht werden. Nach Abschluss der letzten Oberflächenpräparationen wurde die Kavität in einer neuen kryogenen Testumgebung innerhalb der Experimentierhalle des IAP für einen vertikalen Kalttest vorbereitet.
Daraufhin erfolgte das Evakuieren der Kavität, das Abkühlen auf 4,2 K sowie ihre Konditionierung. Anschließend erfolgte die Bestimmung der intrinsischen Güte der Kavität.
Sie betrug 1,44 x 10E9 und besitzt somit den bisher höchsten Gütewert, der jemals bei einer supraleitenden CH-Struktur erreicht wurde. Es konnte ein maximaler Beschleunigungsgradient von 7 MV/m im Dauerstrichbetrieb erreicht werden, was einer effektiven Spannung von 4,2 MV entspricht. Die zugehörigen magnetischen und elektrischen Oberflächenfelder lagen bei 39,3 mT bzw. 43,5 MV/m. Ein thermaler Zusammenbruch konnte während des gesamten Leistungstests nicht festgestellt werden, was auf eine gute thermische Eigenschaft der Kavität hindeutet. Allerdings zeigte der gemessene Verlauf ein frühes Abfallen der Güte ab 2,5 MV/m, was durch anormale Leistungsverluste aufgrund von Feldemission hervorgerufen wurde. Dies war aufgrund der unzureichenden Oberflächenbehandlung der Kavität zu erwarten, da die Hochdruckspülung aus technischen Gründen nur entlang der Strahlachse erfolgte. Dennoch konnte die Designvorgabe des geplanten cw-LINACs hinsichtlich der Güte bei 5,5 MV/m um einen Faktor 2 übertroffen werden.
Die positiven Ergebnisse der Simulationsrechnungen und der Messungen zeigen, dass die Anforderungen des Demonstrator-Projekts, insbesondere hinsichtlich des benötigten Beschleunigungsgradienten, mittels der entwickelten supraleitenden 217 MHz CH-Kavität erfüllt werden. Somit wurde im Rahmen dieser Arbeit maßgeblich an der Umsetzung des Demonstrator-Projekts bzw. an der Realisierung des geplanten cw-LINACs beigetragen und der Weg für einen Strahlbetrieb der Kavität vorbereitet.
Mit der COLTRIMS-Technik können immer kompliziertere Reaktionen untersucht werden, dabei steigt aber die Zahl der zu detektierenden Reaktionsfragmente. Der Nachweis von Ionen ist üblicherweise gut möglich, da die entsprechenden Flugzeiten groß sind im Vergleich zur Totzeit der benutzten Detektoren. Elektronen hingegen sind sehr leicht und erreichen den Detektor innerhalb von wenigen 10 ns. Aktuelle Detektoren erlauben aber nur den Nachweis weniger Elektronen und es werden somit neue Detektoren benötigt, um alle Teilchen nachzuweisen. Ziel dieser Arbeit war es also, einen Detektor zu entwickeln, der dies erreicht.
Zu Beginn dieser Monografie wird die COLTRIMS-Technik vorgestellt. Die Experimente mit dieser Messmethode finden hauptsächlich mit einer Laufzeitanode statt. Diese stößt aber bei dem Nachweis von mehreren Teilchen an ihre Grenzen und manche Experimente können nur unvollständig analysiert werden.
Damit ein neuer Detektor entwickelt werden kann, muss erst verstanden werden, wie die zu detektierenden Teilchen/Signale entstehen und wie ihre Eigenschaften sind. Aus diesem Grund wird das Sekundärteilchen-erzeugende MCP ausführlich vorgestellt.
Weiterhin gibt diese Arbeit einen umfassenden Überblick über bereits realisierte Anoden. Verschiedene Repräsentanten der fünf Anodenarten (Flächen-, Streifen-/Pixel-, Laufzeit-, Kamera-, sowie Halbleiter-Anode) werden vorgestellt und bewertet.
Mit diesem Wissen konnten drei Ansätze für neue Anoden entwickelt, designt, produziert, getestet und bewertet werden. Alle neu entwickelten Anoden benutzen Leiterplatinen als Basis und werden in derselben Vakuumkammer getestet. Auch wenn die Detektionsprinzipien der drei getesteten Detektoren unterschiedlich sind, so verläuft die Auskopplung, Verarbeitung und Digitalisierung der Signale nach dem gleichen Schema. Außerdem wurden im Rahmen dieser Arbeit diverse Algorithmen entwickelt und programmiert, mit deren Hilfe die Signalauswertung und Positionsbestimmung erfolgt.
Das dritte Kapitel beschreibt die neu entwickelte Draht-Harfen-Anode. Dieser Detektor besteht aus vielen kurzen Drähten die parallel auf Rahmen aus Leiterplatinen gespannt werden. Aus dieser Anode ließ sich im Rahmen dieser Arbeit aber kein funktionsfähiger Detektor entwickeln und es wird empfohlen, diesen Ansatz nicht weiterzuverfolgen.
Im Kapitel über die Pixel-Anode mit Streifenauslese wird ein Ansatz vorgestellt, bei dem die Elektronenwolke von einem Muster aus leitenden Rauten absorbiert wird. Es wurde ein funktionsfähiger Detektor mit MAMA-Verschaltung realisiert. Die aktive Fläche ist mit einem Durchmesser von 50 mm aber zu klein. Eine große Variante der Anode ist in der realisierten Form aber nicht als Detektor geeignet.
Als dritter neuer Detektor wird die Streifen-Laufzeit-Anode beschrieben. Diese besteht aus einem rechteckigen Muster von Pixeln, die in einer Richtung über eine Zeitverzögerung ausgelesen werden. Dieser Ansatz ist sehr vielversprechend und es ließen sich nicht nur einzelne Teilchen nachweisen, sondern auch beim Aufbruch eines D2+-Moleküls konnten beide Fragmente gemessen werden.
Das letzte Kapitel befasst sich mit weiteren Konzepten, die als Detektor realisiert werden könnten.
Im Rahmen des Programms zur Intensitätserhöhung am Universal Linear Accelerator UNILAC für das Element Uran hat sich die Forderung nach einer Ionenquelle ergeben, die einen intensiven, hochbrillianten Ionenstrahl aus vierfach geladenen Uranionen bereitstellen kann. Ziel war es, im Zusammenspiel von Ionenquelle, Nachbeschleunigungssystem und Niederenergiestrahlführung einen Strahlstrom von mindestens 15 emA U4+ am Eingang des RFQ-Beschleunigers bereitzustellen. Die vorliegende Arbeit befaßt sich mit den Optimierungen und den experimentellen Untersuchungen an der Vakuumbogenionenquelle VARIS für den Uranbetrieb, welche schließlich ihre Leistungsfähigkeit an der Beschleunigeranlage der GSI erfolgreich unter Beweis gestellt hat. Der erste Teil dieser Arbeit widmet sich der Theorie der Vakuumbogenentladung unter besonderer Berücksichtigung der Erzeugung von U4+. Die Generierung von U4+ erfolgt dabei zu einem Teil im dichten Kathodenspotplasma, wo das Ionisationspotential von 31 auf 21 eV herabgesetzt ist, U4+ also bei vergleichsweise niedrigen Elektronenenergien erzeugt werden kann. Der U4+-Anteil beträgt jedoch nur 30 %. Die Erzeugung eines höheren Anteils an U4+ ist geknüpft an zusätzlich Ionisationsvorgänge im expandierenden Zwischenelektrodenplasma, für welches eine neuartige Theorie (MHD Ansatz) angegeben werden konnte. Für die Vakuumbogenentladung im axialen Magnetfeld konnte eine Erhöhung der Elektronentemperatur vorhersagt werden, die für eine höhere Ionisationsrate für U4+ verantwortlich ist. Für die Elektronentemperatur wurde bei einer magnetischen Flußdichte von 40 mT ein Wert von 10 eV vorhergesagt, welcher experimentell bestätigt werden konnte. Zieht man zudem die berechneten Wirkungsquerschnitte für die Ein- und Mehrfachionisation heran, so konnte aus den Wirkungsquerschnitten vorausgesagt werden, daß für die Produktion eines hohen Anteils an U4+ eine Elektronenenergie von zirka 50 eV für die Generierung von U4+ aus U3+ erforderlich ist. Im weiteren wurde ausgeführt, wie ein Extraktionssystem ausgelegt sein muß, welches den Forderungen nach einem Gesamtstrom von 140 mA entspricht oder diesen übertrifft. Das Erreichen dieses Stroms ist im Einlochextraktionssystem mit Schwierigkeiten verbunden (große Emissionsfläche, langes Extraktionssystem, Extraktionsspannung zirka 180 kV). Aus diesen Gründen ist die Entscheidung zugunsten eines Extraktionssystem mit 13 Öffnungen mit einem Durchmesser von jeweils 3 mm gefallen. Die Gesamtemissionsfläche aller Aperturen liegt bei 0,92 cm2. Zur Bestimmung der Strahlformierung einer Öffnung im Extraktionssystem ist das Strahlsimulationsprogramm KOBRA3INP unter Berücksichtigung einer experimentell gut zugänglichen Feldstärke von 11 kV/mm bei einem Aspektverhältnis von 0,5 genutzt worden. Es ergab sich ein minimaler Divergenzwinkel von etwa 55 mrad, die unnormierte effektive Emittanz geht mit steigender Stromdichte asymptotisch einem Wert von 65p mm mrad entgegen. Für das Extraktionssystem (13 Öffnungen) kann die unnormierte effektive Emittanz zu 610p mm mrad abgeschätzt werden. Die Stromdichte, welche der Plasmagenerator bereitstellen muß, beträgt etwa 1600 A/m2. Die Extraktionsspannung liegt bei 32 kV, welche, ebenso wie die Stromdichte, experimentell erreicht wurde. Bei den experimentellen Untersuchungen wurde zunächst untersucht, inwieweit die Impedanz des Vakuumbogenplasmas gesteigert werden kann. Ziel war es, eine möglichst hohe Plasmaimpedanz und damit eine hohe Bogenspannung zu erhalten, wodurch die erreichbare Elektronenenergie vergrößert wird (Regelung der Bogenspannung durch die Plasmaimpedanz). Es ist gezeigt worden, daß die Impedanz vor allem durch eine geeignete Magnetfeldkonfiguration erhöht werden kann (axiales Feld). Ebenso sind die Geometrie der Ionenquelle (Abstand Kathode-Anode 15 mm, Anodenöffnung 15 mm) und die verwendeten Materialien (Anode aus Edelstahl, kleiner Sputterkoeffizient und Sekundärelektronenaus97 löse) entscheidend, wobei zugunsten eines zuverlässigen Zündverhaltens der Ionenquelle die Entscheidung für eine Anodenöffnung von 15 mm statt 25 mm gefallen ist. So erreicht man für eine magnetische Flußdichte von 120 mT bei einem Bogenstrom von 700 A eine Bogenspannung von 54 V, wodurch die Erzeugung bis zu sechsfach geladenen Uranionen möglich wird. Um grundlegende Eigenschaften des Vakuumbogenplasmas zu bestimmen und das theoretische Modell zur Erzeugung von U4+ zu überprüfen, wurden die Ionen- und Elektronenenergieverteilung im Plasma gemessen ...
Die hier vorliegende Arbeit stellt die experimentelle Bestimmung des Verhältnisses R der totalen Wirkungsquerschnitte von Doppel- zu Einfachionisation von Helium vor. Die Ionisation wurde durch Photonen der Energie von etwa 8 keV und 58 keV induziert. In diesem Energiebereich ist die Ionisation sowohl durch die Absorption eines Photons wie auch durch die Compton-Streuung möglich. Die genutzten Photonenenergien erlaubten, den asymptotischen Hochenergiebereich beider Prozesse zu untersuchen. Mit Hilfe der verwandten Methode der Rückstoßionen-Impulsspektroskopie (hier in der neuesten Generation COLTRIMS, nach COLd Target Recoil Ion Momentum Spectroscopy) konnten Photoabsorption und Compton-Streuung erstmals experimentell voneinander getrennt werden. Sie ermöglichte ebenfalls eine gegenüber anderen Meßmethoden deutlich gesteigerte Genauigkeit der Werte R. Die Kinematik der auslaufenden Teilchen unterscheidet sich in beiden Prozessen: In der Absorption überträgt das Photon seine volle Energie auf die Targetelektronen. Deren Impuls im auslaufenden Kanal ist groß gegenüber dem des einlaufenden Photons und muß vom Ion kompensiert werden. Dagegen findet die Streuung des Photons am Elektron statt, das Ion nimmt dabei die Rolle eines Zuschauers ein. Es besitzt im auslaufenden Kanal nur einen geringen Impuls. Die so wohlseparierten Strukturen in der Rückstoßionen-Impulsverteilung erlauben die Trennung beider Prozesse durch COLTRIMS. Das Resultat zur Photoabsorption im Hochenergielimit von Rph = (1.72 ± 0.12) % konnte erstmalig die theoretischen Vorhersagen dieses Wertes verifizieren. Der Wert von Rc = (1.22 ± 0.06) % bei etwa 8.8 keV bestätigt die Rechnung von Andersson und Burgdörfer (Phys. Rev. A50, R2810 (1994)). Das Ergebnis von Rc = (0.84 +0.08-0.11) % bei 58 keV stimmt mit dem für die Compton-Streuung vorhergesagten asymptotischen Grenzwert überein.
Viele mikroskopische Vorgänge in Festkörpern und molekularen Verbindungen sind verbunden mit Änderungen ihres Magnetisierungszustandes. Dies macht den Einsatz externer Magnetfeldsensoren interessant, die sich über wohlbekannte Effekte kalibrieren ließen und dann im Messeinsatz quantitative Aussagen liefern können. Nun laufen viele der interessanten magnetischen Vorgänge in besagten Materialien auf sehr schnellen Zeitskalen im Piko- und Subpikosekundenbereich ab. Kein etablierter Magnetfeldsensor kann diese Anforderung leisten. Im Rahmen dieser Arbeit wurde eine systematische Untersuchung verschiedener Ansätze zum Bau ultraschneller Magnetfelddetektoren durchgeführt. Ein Teil der Arbeit beschäftigt sich mit dem Potential photokonduktiver Ringantennen als Emitter und Detektor für ultraschnelle Magnetfelder. Ein alternativer Ansatz zur Messung transienter Magnetfelder besteht in der Verwendung magnetooptischer Sensoren, wie sie in verschiedenen Anwendungen, in denen keine Zeitauflösung gefordert wird, bereits zum Einsatz kommen (z. B. in der Faradaymikroskopie). Es wird eine für ultraschnelle Magnetooptik vielversprechende Materialklasse als Sensormaterial vorgestellt: die DMS-Systeme. Das sind magnetisch dotierte Verbindungshalbleiter, die in der Umgebung ihrer exzitonischen Resonanzen gewaltige Verdetkonstanten aufweisen. Parallel zu den DMS-Systemen wird das Verhalten eines dotierten Eisengranats untersucht, der als Ferrimagnet völlig andere Voraussetzungen als Messsensor bietet. Darüber hinaus werden verschiedene experimentelle Techniken zur Messung magnetooptischer Phänomene vorgestellt und ihre Vor- und Nachteile ausführlich diskutiert. Es wird ein Verfahren entwickelt, das trotz des Einsatzes der hochempfindlichen Differenzdetektion eine gewisse spektrale Auflösung gewährleistet und deshalb den Betrieb der DMS-Systeme als magnetooptische Sensoren erst ermöglicht. Es werden für die verschiedenen Messmethoden und magnetooptischen Materialien die Grenzen der Nachweisempfindlichkeit analysiert und ihre Eignung als schnelle Detektoren untersucht. Die verschiedenen Vor- und Nachteile der beiden Sensorsubstanzen wird anhand der gemessenen magnetischen Transienten detailliert analysiert. Anschließend wird das Optimierungspotenzial der beiden Materialklassen hinsichtlich ihrer chemischen Zusammensetzung ausgearbeitet und dargestellt.
Die opto-elektronische Erzeugung intensiver Terahertz-Pulse unter Verwendung von Verstärkerlaser-Systemen stellt eine leistungsfähige und im wissenschaftlichen Umfeld etablierte Technik dar. Es ist anzunehmen, dass diese Technik in Zukunft auch für kommerzielle Anwendungen eingesetzt werden wird. (Z.B. entwickelt die Firma Nikon, Japan ein Echtzeit- Bildgebungssystem mit opto-elektronisch erzeugter Terahertz-Strahlung basierend auf einem Verstärkerlaser.) In dieser Arbeit werden gängige und neuartige opto-elektronische Terahertz-Emitter für Verstärkerlaser theoretisch und experimentell untersucht. Zur experimentellen Untersuchung wurde die Methode der elektro-optischen Detektion, welche in der Arbeit ausführlich vorgestellt wird, verwendet. Dabei wird insbesondere die spektrale Detektorempfindlichkeit dargestellt und eine Methode zur Durchführung kalibrierter Messungen vorgestellt, welche auch für die Verwendung mit Verstärkerlasern geeignet ist. Zu den untersuchten bekannten Emittern gehört der vor ca. 10 Jahren erstmals vorgestellte groß- flächige GaAs-Emitter mit externem Feld. Obwohl dieser Emitter in der Literatur bereits ausführlich untersucht wurde, werden in der vorliegende Arbeit über den Stand der Literatur hinausgehende neue Aspekte wie die Feldabschirmung auf Grund von Ladungsträgerverschiebung und die Abhängigkeit der erzeugten THz-Feldstärke bzw. der THz-Pulsenergie von der Emitterfläche diskutiert. Zudem erfolgt die Behandlung dieses Emitters erstmals vollständig quantitativ, wobei eine gute Übereinstimmung mit den experimentellen Daten erreicht wird. Der zweite in der Arbeit untersuchte Emitter ist der großflächige ZnTe-Emitter. Die elektro-optische Erzeugung von THz-Strahlung in ZnTe-Kristallen mit hoch-repetierlichen Kurzpuls-Lasersystemen ist langjährig bekannt. Die Verwendung großflächiger ZnTe-Kristalle in Verbindung mit Verstärkerlasern wurde allerdings in Rahmen dieser Arbeit erstmals demonstriert. Vor dem Hintergrund der demonstrierten hervorragenden Eigenschaften dieses Emitters ist dieses besonders erstaunlich. Der Hauptteil der Arbeit beschäftigt sich mit der neuartigen Erzeugung von THz-Pulsen in laser-generierten Plasmen. Dabei wurden zwei Methoden untersucht. Die erste Methode, welche im Rahmen dieser Arbeit erstmals realisiert wurde, basiert auf einer Vorspannung des Plasmas mit einem externen elektrischem Feld. Die Methode ist vergleichsweise wenig effektiv, stellt aber eine gute Möglichkeit zur Überprüfung der in der Arbeit entwickelten Modelle für die THz-Emission dar. Die zweite Methode, die erstmals von Cook et al. im Jahre 2000 demonstriert wurde, basiert auf einer "optischen Vorspannung" des Plasmas mittels der Überlagerung des Laserpulses der Fundamentalfrequenz mit einem phasensynchronen Laserpuls der zweiten Harmonischen. Die ausführliche experimentelle und theoretische Untersuchung dieser Methode beinhaltet eine quantitative Modellierung der zu erwartenden Ergebnisse auf Basis des von Cook et al. vorgestellten phänomenologischen Modells, welches auf zeitunabhängigen Nichtlinearitäten dritter Ordnung im Plasma oder in der Luft beruht. Die in dieser Arbeit vorgestellte quantitative Analyse legt die Schlussfolgerung nahe, dass das phänomenologische Modell von Cook et al. in der vorliegenden Form in Frage gestellt werden muss. Daher wurde im Rahmen der Arbeit ein einfaches Modell zur Erklärung der mikroskopischen Ursache der Nichtlinearität entwickelt. Dieses Modell beinhaltet die Kopplung der Nichtlinearität mit dem lokalen Ionisierungsprozess und damit formal auch eine explizite Zeitabhängigkeit der Nichtlinearität im Plasma. Die quantitative Modellierung der makroskopischen THz-Emission auf Basis des mikroskopischen Bildes der Generations-Nichtlinearitäten zeigt, dass das Modell die experimentellen Befunde zufriedenstellend beschreiben kann. Die Arbeit schließt mit einem Vergleich der untersuchten Emitter in Bezug auf spektrale Eigenschaften, Effizienz und Sättigungsverhalten. Bei der Darstellung des Sättigungsverhaltens wird anhand der in der Arbeit entwickelten Modelle versucht die Entwicklung der erzeugten THz-Feldamplituden für Laserpulsenergien von bis zu 50 mJ vorauszusagen. Diese Abschätzung lässt vermuten, dass der Plasma-Emitter für Laserpulsenergien von 10mJ und mehr das Potential hat, deutlich höhere THz-Feldamplituden zu erzeugen als alle gängigen Standardemitter. Entsprechende Experimente in diesem Laserpuls-Energiebereich sind am Front-End des PHELIX-Lasers der GSI (Gesellschaft für Schwerionenforschung) in Darmstadt im Rahmen der Fortführung der Forschungsarbeiten geplant.
Die vorliegende Arbeit präsentiert die Ergebnisse der Erzeugung und Diagnostik eines HF-Plasmas in einem magnetischen Quadrupolfeld. Einen Schwerpunkt bildete dabei der Einfluss des magnetischen Quadrupolfeldes auf die Plasmaparameter Elektronentemperatur Te und Elektronendichte ne. Die Extraktion eines Ionenstrahls bietet die Möglichkeit, Zusammenhänge zwischen den erreichten Strahlparametern und den physikalischen Eigenschaften des HF-Plasmas herzustellen. Zudem wird eine Korrelation zwischen der Geometrie der Entladung, der erreichbaren Plasmaparameter und der eingespeisten HF-Leistung aufgezeigt werden. Zunächst wurde die Elektronentemperatur in Abhängigkeit vom eingestellten Gasdruck und von der Stromstärke in den Feldspulen des magnetischen Quadrupols vermessen. Die Emissionsspektroskopie bot sich hierbei als nicht invasive Diagnostik an. Eine umfangreiche Messreihe ergab schließlich ein Profil der Elektronentemperatur, als Funktion der variablen Parameter Gasdruck und Erregerstromstärke. Die Elektronentemperatur im Plasma lag dabei im Bereich zwischen 3eV ohne Magnetfeld bis maximal 11eV mit magnetischem Einschluss. Hierbei zeigten sich einige, auf den ersten Blick überraschende Ergebnisse. So ergab sich ein lokales Maximum der Elektronentemperatur von 11eV bei einem Gasdruck von 1Pa und einer Flussdichte von 11mT. Als physikalische Ursache konnte die Kombination aus zwei resonanten Heizmechanismen identifiziert werden. Sowohl die stochastische Heizung als auch die lokale Anwesenheit von Zyklotronresonanzbedingungen führten zu einer starken Erhöhung der Elektronentemperatur. Ferner konnte experimentell nachgewiesen werden, dass die charakteristischen Eigenschaften des Quadrupolfeldes, das Entstehen dieser Heizmechanismen in einem engen Parameterbereich begünstigte. In diesem Zusammenhang ist die Ausprägung einer Gyroresonanzzone im HF-Plasma erwähnenswert, deren Ausdehnung mit dem Erregerstrom in den Feldspulen des Quadrupols skaliert und die einen maßgeblichen Einfluss auf die Ausprägung hochenergetischer Elektronen hat. Neben der Diagnostik stand auch die Extraktion eines Ionenstrahls im Vordergrund. Das Potential des Gesamtsystems, als Ionenquelle zu fungieren wurde dabei experimentell verifiziert. Spezifische Strahlstromdichten von 8mA/cm²kW konnten dabei erreicht werden. Es ergab sich hierdurch auch die Möglichkeit, einen Zusammenhang zwischen der Elektronendichte im Plasma und der eingespeisten HF-Leistung herzustellen. Die Ergebnisse dienten anschließen dazu, den Einschluss des Plasmas im magnetischen Quadrupolfeld zu quantifizieren. Beim Betrieb des Plasmagenerators ohne Magnetfeld wurden Elektronendichten von 3 . 1016m-3 erzielt. Mit fokussierendem Quadrupolfeld konnte eine lokale Steigerung der Elektronendichte um den Faktor 10 auf 3 . 1017m-3 dokumentiert werden, was die theoretischen Studien von C. Christiansen und J. Jacoby [Chr99], zu den fokussierenden Eigenschaften eines magnetischen Quadrupols, bestätigte. Große Sorgfalt war bei der Konzeption der HF-Einspeisung erforderlich. Da für Entladungsplasmen ein im hohen Maß nichtlinearer Zusammenhang, zwischen den Plasmaparametern und der eingespeisten HF-Leistung besteht, erwies sich die Entwicklung einer HF-Einkopplung als besondere Herausforderung. Hier zeigte sich die Plasmadiagnostik als unverzichtbares Hilfsmittel, um theoretische Vorhersagen und experimentellen Befund in Einklang zu bringen. Als limitierende Rahmenbedingungen erwiesen sich hier die Abmessungen des Quadrupols. In der vorliegenden Arbeit konnte dokumentiert werden, wie die geometrischen Einschränkungen die Auswahl der HF-Einkopplung bestimmten. Das zur Untersuchung des magnetischen Plasmaeinschlusses verwendete Glasrohr, mit einer verhältnismäßig großen Oberfläche und einem vergleichsweise kleinem Volumen, war für eine kapazitive HF-Einkopplung wesentlich besser geeignet als für die ursprünglich antizipierte induktive Plasmaanregung. Die physikalischen Zusammenhänge zwischen den erreichbaren Plasmaparametern, der verwendeten Koppelmethode, der erzielbaren Stromstärke des Ionenstrahls und den Abmessungen des Entladungsgefäßes, konnten durch eine umfassende Analyse aufgeklärt werden. Zudem wurde auch die Problematik des Zerstäubens von Elektrodenmaterial einer qualitativen Untersuchung unterzogen. Hier kristallisierten sich vor allen Dingen die hohen Randschichtpotentiale bei der verwendeten HF-Einkopplung, als physikalische Ursache für die Sputterrate heraus. Basieren auf den gewonnenen Erkenntnissen wurde eine Maßnahme zur Reduzierung der Sputterproblematik vorgenommen. Die Untersuchung des magnetisch eingeschlossenen Entladungsplasmas brachte Einsichten über die Zusammenhänge zwischen gewählter HF-Einkopplung, den Plasmaparametern und den Rahmenbedingungen der Entladungsgeometrie. Es ergeben sich hierdurch wichtige Erkenntnisse, die eine Aufskalierung des vorliegenden Aufbaus hin zu einer Hochstromionenquelle mit spezifischen Strahlstromdichten von 100mA/cm²kW ermöglichen. Ferner ist auch ein Einsatz der Konfiguration als Plasmatarget möglich, um Wechselwirkungen zwischen hochenergetischen Schwerionen und magnetisch fokussierten Entladungsplasmen zu untersuchen.
Im Rahmen der vorliegenden Arbeit wurden am Schwerionensynchrotron (SIS) der Gesellschaft für Schwerionenforschung/Darmstadt (GSI) Untersuchungen zur Produktion geladener K-Mesonen in Kohlenstoff induzierten Schwerionenreaktionen durchgeführt. Im Energiebereich von 1 bis 2 AGeV wurden dazu spektrale Verteilungen von Pionen, Kaonen und Antikaonen aus Kernreaktionen der Stoßsysteme C + C und C + Au unter verschiedenen Laborwinkelbereichen mit dem Kaon-Spektrometer (KaoS) aufgenommen. Da es sich um Kaonproduktion unterhalb der Nukleon-Nukleon-Schwelle handelt, spielen Eigenschaften der Kernmaterie eine Rolle, die Gegenstand dieser Arbeit sind. Sowohl für Kaonen als auch für Antikaonen wurde eine polare Anisotropie der Winkelverteilung festgestellt. Die unter verschiedenen Laborwinkelbereichen aufgenommenen K+- -Spektren decken im Schwerpunktsystem einen Winkelbereich von 60 Grad < Theta CM < 150 Grad ab und lassen sich gut durch eine Winkelverteilung der Form sigma inv alpha (1 + a2 cos exp 2 Theta CM) beschreiben. Im Rahmen der Meßgenauigkeit konnte keine Abhängigkeit der polaren Anisotropie von der kinetischen Energie der Kaonen und Antikaonen festgestellt werden. Es lässt sich jedoch zeigen, dass es von der Einschussenergie abhängig eine Winkeleinstellung gibt, bei der der totale Wirkungsquerschnitt vom Anisotropieparameter a2 unabhängig bestimmt werden kann, wenn die oben angegebene Parametrisierung der wahren Winkelverteilung genügt. Die Anregungsfunktion sigma K+- (E Beam) für Antikaonen ist steiler als die für Kaonen, jedoch lassen sich beide Produktionswirkungsquerschnitte als Funktion der Differenz aus der pro Nukleon normierten Gesamtenergie und der Energie an der NN-Schwelle durch sigma K alpha (mK + sqrt s - sqrt s th) beschreiben. Es konnte gezeigt werden, dass sich dieses identische Verhalten der derart auf die Excess-Energie korrigierten Kaon- und Antikaonproduktion jedoch nicht nur in den totalen Wirkungsquerschnitten, sondern auch in der Form der spektralen Verteilungen widerspiegelt. Ebenso scheinen die pro Partizipant normierten K+- -Multiplizitäten bei gleicher Excess-Energie gleichermaßen stark von der Größe des Stoßsystems abzuhängen. Das etwa um einen Faktor 10 erhöhte K-/K+-Verhältnis im Vergleich zur K+- -Produktion in Proton-Proton-Stößen konnte nicht durch triviale Mediumeffekte wie Absorption oder sequentielle Mehrfachstöße erklärt werden. Dies kann als Hinweis auf eine eventuelle Modifikation der effektiven K+- -Massen in dichter Materie verstanden werden, wie sie die theoretische Hadronenphysik auf der Basis von QCD und chiraler Störungstheorie vorhersagt. Das benutzte relativistische RBUU-Modell kann die gemessenen Kaon- und Antikaonverteilungen nur unter der Annahme solcher Massenmodifikationen erklären. Die K- -Massenmodifikation hat interessante Konsequenzen für die Astrophysik und stellt somit eine Verbindung zu einem weiteren faszinierenden Teilgebiet der modernen Physik dar. Aufgrund der K- -Massenmodifikation erwarten G. E. Brown und H. A. Bethe ein Kaonkondensat in Neutronensternen ab einer Dichte von rho ~ 3 rho 0. Dies limitiert die Masse von Neutronensternen auf etwa 1.5 M ?. Für Supernovaüberreste von mehr als 1.5 M ?. erwarten sie die Bildung von schwarzen Löchern. Für das asymmetrische Stoßsystem 12C + 197 Au kann das Schwerpunktsystem nur berechnet werden, wenn z. B. mit dem geometrischen Modell mittlere Projektil- und Targetpartizipantenanzahlen (< A Projectile part >= 6 bzw. < A Target part >= 16 ) angenommen werden. Die damit ermittelten Wirkungsquerschnitte deuten auf eine stärkere polare Anisotropie als für das 12C + 12C-System hin. Wird aus der in symmetrischen Stößen gemessenen Abhängigkeit der K+- -Produktion von der Systemgröße die Anzahl der Partizipanten im 12C + 197Au-System ermittelt, so stimmt diese für K+ mit den Vorhersagen des geometrischen Modells in etwa überein, für K- werden hingegen nur halbsoviel Partizipanten ermittelt. Dies deutet auf eine starke K- -Absorption in der Targetspektatormaterie hin. Abschließend sei noch angemerk, dass die KaoS-Kollaboration bereits weitere Messungen zur K+- -Produktion in den Stoßsystemen Ni+Ni und Au+Au sowie in asymmetrische, protoninduzierten p + A Reaktionen durchgefüuhrt hat. Nach dem innerhalb der nächsten zwei Jahre zu erwartenden Abschluss der Analyse dieser Daten liegt somit eine systematische Studie der K+- -Produktion unterhalb der NN-Schwelle vor, die einen maßgeblichen Beitrag zum Studium der Eigenschaften von Hadronen in dichter Kernmaterie und zum Verhalten von Kernmaterie unter extremen Bedingungen liefern wird.
In this thesis, we opened the door towards a novel estimation theory for homogeneous vectors and have taken several steps into this new and uncharted territory. Present state of the art for homogeneous estimation problems treats such vectors p 2 Pn as unit vectors embedded in Rn+1 and approximates the unit hypersphere by a tangent plane (which is a n-dimensional real space, thus having the same number of degrees of freedom as Pn). This approach allows to use known and established methods from real space (e.g. the variational approach which leads to the FNS algorithm), but it only works well for small errors and has several drawbacks: • The unit sphere is a two-sheeted covering space of the projective space. Embedding approaches cannot model this fact and therefore can cause a degradation of estimation quality. • Linearization breaks down if distributions are not highly concentrated (e.g. if data configurations approach degenerate situations). • While estimation in tangential planes is possible with little error, the characterization of uncertainties with covariance matrices is much more problematic. Covariance matrices are not suited for modelling axial uncertainties if distributions are not concentrated. Therefore, we linked approaches from directional statistics and estimation theory together. (Homogeneous) TLS estimation could be identified as central model for homogeneous estimation and links to axial statistics were established. In the first chapters, a unified estimation theory for the point data and axial data was developed. In contrast to present approaches, we identified axial data as a specific data model (and not just as directional data with symmetric probability density function); this led to the development of novel terms like axial mean vectors, axial variances and axial expectation values. Like a tunnel which is constructed from both ends simultaneously, we also drilled from the parameter estimation side towards directional/axial statistics in the second part. The presentation of parameter estimation given in this thesis deviates strongly from all known textbooks by presenting homogeneous estimation problems as a distinguished class of problems which calls for different estimation tools. Using the results from the first part, the TLS solution can be interpreted as the weighted anti-mean vector of an axial sample. This link allows to use our results from axial statistics; for instance, the certainty of the anti-mode (i.e. of the TLS solution!) can be described with a weighted Bingham distribution (see (3.91)). While present approaches are only interested in the eigenvector of the some matrix, we can now exploit the whole mean scatter matrix to describe TLS solution and its certainty. Algorithms like FNS, HEIV or renormalization were presented in a common context and linked to each other. One central result is that all iterative homogeneous estimation algorithms essentially minimize a series of evolving Rayleigh coefficients which corresponds to a series of (converging?) cost functions. Statistical optimization is only possible if we clearly identify every step as what it exactly is. For instance, the vague statement “solving Xp ... 0” means nothing but setting ˆp := arg minp pTXp pT p . We identified the most complex scenario for which closed form optimal solutions are possible (in terms of axial statistics: the type-I matrix weighted model). The IETLS approach which is developed in this thesis then solves general type-II matrix weighted problems with an iterative solution of a series of type-I matrix weighted problems. This approach also allows to built converging schemes including robust and/or constrained estimation – in contrast to other approaches which can have severe convergence problems even without such extensions if error levels are not low. Chapter 6 then is another big step forward. We presented the theoretical background of homogeneous estimation by introducing novel concepts like singular vector unbiasedness of random matrices and solved the problem of optimal estimation for correlated data. For instance, these results could be used for better estimation of local image orientation / optical flow (see section 7.2). At the end of this thesis, simulations and experiments for a few computer vision applications were presented; besides orientation estimation, especially the results for robust and constrained estimation for fundamental matrices is impressive. The novel algorithms are applicable for a lot of other applications not presented here, for instance camera calibration, factorization algorithm formulti-view structure from motion, or conic fitting. The fact that this work paved the way for a lot of further research is certainly a good sign.
This work ties in with the investigation of the intermediate valent states and valence fluctuations in certain europium based intermetallic systems. Valence fluctuations are a property of the electronic system of a compound that is possibly accompanied by structural effects, which, in some cases, are quite noticable. By assuming how the changes in the electronic system and in the crystal lattice are connected, valence _uctuations of europium are believed to be a possible probe for the theory of quantum critical elasticity, which is investigated on by the SFB TRR 288 (Frankfurt, Mainz, Karlsruhe, Bochum, Dresden).
Here, the proceedings in growing single crystals of di_erent compounds related to this _eld of research are reported. This includes the ThCr2Si2 (122) type compounds EuPd2Si2 as well as the doping series EuPd2(Si1-xGex)2, the Europium based ternary Phosphides EuFe2P2, EuCo2P2, EuNi2P2 and EuRu2P2, and attempts to grow compounds of a derived 1144 structure by ordered substitution of half the Europium, EuKRu4P4.
The largest part of this work focusses on the EuPd2Si2 system, which exhibits intermediate valent europium and a temperature dependent transition between two di_erent intermediate valent states of europium. Crystals of this system were grown using the Czochralski method with a levitating melt and an europium excess flux after a two step prereaction process. Also, explorations of a PdSi-rich flux and external flux methods are reported. Ten Czochralski grown experiments, in six generations iteratevely seeded by the previous generation, were prepared.
Thermodynamical and structural analyses of the crystals located the transition between the di_erent intermediate valent states of europium between 140K and 165 K, transitioning from a high temperature Eu2.3+ state to a low temperature Eu2.7+ state, and classified it as a second order transition. To this transition a lattice anomaly of the a-parameter collapsing about 2% is connected, while the c-parameter remains largely unaffected. Large differences between individual samples can be explained by combining thermodynamical and structural analyses with compositional analysis, revealing the valence transition temperature as strongly dependent on the sample composition and Pd-Si site interchanges.
Searching to change the character of the valence transition to first order, silicon was substituted by germanium to introduce negative pressure. Germanium substituted samples of EuPd2(Si1-xGex)2 were grown using the Czochralski method with the optimized parameters from the growth experiments for the undoped compound. Samples were prepared with a nominal substitution of x = 0.05, x = 0.10, x = 0.15, x = 0.20 (twice) and x = 0.30. For the EuPd2(Si1-xGex)2 system, a phase diagram for the europium valence states is derived from chemical and thermodynamical characterizations.
n ternary europium phosphides EuT2P2, the position of the compounds in the generalized phase diagram and the question of long range magnetic order or valence transition appear connected to an isostructural transition of the tetragonal crystal structure, drastically decreasing the length of the c-parameter while establishing covalent bonds between phosphorus atoms of different interlayers of the structure, the so called ‚collapse‘. While EuFe2P2, EuT2P2 and EuCo2P2 display both long range magnetic order and a non-collapsed crystal structure, EuNi2P2 shows both a valence transition between two intermediate valent states at a characteristic temperature of 36K - accompanied by a small lattice anomaly of the a-parameter shrinking about 0.2% - and a collapsed crystal structure. Samples of EuFe2P2, EuCo2P2 and EuNi2P2 were grown in tin flux and using solid-solid sintering approaches.
Single crystals of EuFe2P2, EuCo2P2 and EuRu2P2 were investigated at ESRF in Grenoble with single crystal X-ray di_ractometry on a pressure range up to 15GPa and at temperatures down to 15K to investigate the nature of the structural transitions in the compounds. While in EuCo2P2 the structural transition occurs as a transition of first order at all temperatures (e.g. at 2GPa for 15 K), in EuFe2P2 and EuRu2P2 the structural collapse evolves over a broad pressure range up to 8GPa and as a transition of second order troughout the temperature ranges, albeit seeming to sharpen at lower temperatures. From the crystallographic data, elastic constants of the compounds could be derived, revealing EuFe2P2 and EuRu2P2 as unexpectedly elastic materials.
In order to probe the structural collapse at more accessible pressures, crystals with a sturcture derived from the 122 structure, but with ordered 50% substitution of europium and hence altering the symmetry from I4/mmm to P4/mmm in a 1144 structure, were exploratively pursued. Different experiments to obtain EuAT4P4 (with A = K, Rb, Cs and T = Fe, Ru) from binary or ternary prereactants or directly from the elements remained largely unsuccessful.
Event-by-event fluctuations of the particle yield ratios in heavy-ion collisions at 20 - 158 AGeV
(2010)
Non-statistical event-by-event fluctuations are considered as an important signal for the critical endpoint of the QCD phase diagram. Event-by-event fluctuations of different observables are thus investigated in detail in current experiments but are also an important observable to be studied at the future CBM experiment at FAIR. In this work we present the energy and centrality dependence of event-by-event fluctuations of particle yield ratios measured by the NA49 experiment in Pb+Pb collisions at 20 - 158 AGeV. Systematic studies of the influence of the dE/dx resolution on the particle identification and the centrality bin size were performed. Results can be compared to event-by-event fluctuations measured by NA49 for different observables such as <pt> or the mean charged particle multiplicity. Main results of these studies are an increase of absolute value of the dynamical particle ratio fluctuations with decreasing centrality for all considered ratios, saturation of the K/Pi and K/p ratio fluctuations for peripheral Pb + Pb collisions at 158A GeV and scaling of the energy and centrality dependences of the p/Pi ratio fluctuations with NpNPi. The measured energy and centrality dependences of the K/Pi and K/p ratio fluctuations scale with NK in a different way. The saturation of the mentioned ratios fluctuations was attributed to the development of pronounced spike at zero in the eventwise ratio distributions, which, as was shown by Monte Carlo simulations, influence the measured fluctuations in the very peripheral Pb + Pb collisions at 158A GeV. In future, the CBM experiment at FAIR will investigate the intermediate region of the QCD phase diagram in great detail searching for the first order phase transition line and the expected critical endpoint. It is therefore important to closely investigate its sensitivity towards particle ratio fluctuations in Au+Au collisions at 10-45 AGeV beam energy. Detailed simulation studies will be presented. As an outcome of these feasibility studies we conclude that the CBM experiment will be able to provide high quality data on the subject of the event-by-event flucutations of particle yield ratios with sensitivity in the order of 1%.
In this thesis, we study the properties of excitations in the systems of interacting fermions. These excitations can be bosonic such as collective modes which we handle in the first part of this thesis or fermionic like quasi particles and quasi holes. One of the important points, to investigate the excitations is their damping which corresponds to their life-time in the system. This thesis consists of two parts, where in both parts, we use the field-theoretical methods to examine the problem.
Gegenstand dieser Arbeit sind Eigenschaften angeregter hadronischer Materie sowie physikalische Systeme, in denen diese Materie auftritt bzw. produziert wird. Die Beschreibung der stark wechselwirkenden Materie erfolgt in einem hadronischen, chiral-symmetrischen SU(3)L x SU(3)R Modell, welches die Saturierungseigenschaften von Kernmaterie und die Eigenschaften von Atomkernen reproduziert. Die Untersuchung heißer und dichter unendlicher hadronischor Materie zeigt, dass das vom Modell vorhergesagte Phasendiagramm stark von den Kopplungen der Baryonenresonanzen abhängt. Für kalte hadronische Materie ergibt die Einbeziehung des Baryonendekupletts und die Freiheit in deren Vektorkopplungen eine sehr große Bandbreite an verschiedenen Zustandsgleichungen. Für heiße hadronische Materie mit verschwindendem baryochemischen Potential zeigt sich ebenfalls eine starke Abhängigkeit der Eigenschaften hadronischer Materie von der Ankopplung der baryonischen Resonanzen. Es werden drei verschiedene Parametrisierungen betrachtet. Das resultierende Phasenübergangsverhalten variiert von einem "Crossover" über einen schwachen, zu einem doppelten Phasenübergang erster Ordnung. Es zeigt sich jedoch, dass die beobachteten Eigenschaften von Neutronensternen die Unbestimmtheit bzgl. der Vektorkopplung dieser Freiheitsgrade und damit der Zustandsgleichung deutlich verringern. Das Raum-Zeit Verhalten relativistischer Schwerionenkollisionen bei SPS- und RHIC-Energien wird mittels einer hydrodynamischen Simulation unter Benutzung der chiralen Zustandsgleichungen untersucht. Dabei spiegelt sich das unterschiedliche Phasenübergangsverhalten deutlich im Ausfrierverhalten der hadronischen Materie wider. Die im chiralen Modell berechneten Teilchenzahlverhältnisse werden mit den aus Schwerionenkollisionen von AGS- bis RHIC-Energien erhaltenen experimentellen Daten verglichen. Dabei zeigt sich, dass die verschiedenen Parametersätze des chiralen Modells und die Rechnungen für ein nichtwechselwirkendes, ideales Hadronengas eine ähnlich gute Beschreibung der gemessenen Weite liefern. Die deduzierten Ausfrierwerte für die Temperatur sind sensitiv auf das Phasenübergangsverhalten und liegen unterhalb der jeweiligen kritischen Temperatur. Die vorhergesagten Ausfriermassen sind in allen Parametrisierungen sehr ähnlich mit Abweichungen bis zu 15% von den entsprechenden Vakuumwerten. Die Untersuchung der Eigenschaften von Vektormesonen in dichter Materie erfolgt in der Mittleren-Feld- und in der HartreeNäherung. Hierbei zeigt sich eine signifikante Reduzierung der Teilchenmassen durch Vakuumpolarisationseffekte.
Understanding the hadron spectrum is one of the primary goals of non-perturbative QCD. Many predictions have experimentally been confirmed, others still remain under experimental investigation. Of particular interest is how gluonic excitations give rise to states with constituent glue. One class of such states are hybrid mesons that are predicted by theoretical models and Lattice QCD calculations. Searching for and understanding the nature of these states is a primary physics goal of the GlueX experiment at the CEBAF accelerator at Jefferson Lab. A search for a JPC = 1−− hybrid meson candidate, the Y(2175), in φ(1020)π+π+ and φ(1020)f0(980) channels in photoproduction on a proton target has been conducted. A first measurement of non-resonant φ(1020)π+π+ and φ(1020)f0(980) total cross sections in photoproduction has been performed. An upper limit on the resonance production cross section for the Y (2175) → φ(1020)π+π+ and Y (2175) → φ(1020)f0(980) channels are estimated. Since the analysis essentially depends on the quality of the charged kaon identification, also an optimization of particle identification through an improvement of the energy loss estimation in the central drift chamber by a truncated mean method has been investigated.
The Large Hadron Collider (LHC) is the biggest and most powerful particle accelerator in the world, designed to collide two proton beams with particle momentum of 7 TeV/c each. The stored energy of 362MJ in each beam is sufficient to melt 500 kg of copper or to evaporate about 300 litre of water. An accidental release of even a small fraction of the beam energy can cause severe damage to accelerator equipment. Reliable machine protection systems are necessary to safely operate the accelerator complex. To design a machine protection system, it is essential to know the damage potential of the stored beam and the consequences in case of a failure. One (catastrophic) failure would be, if the entire beam is lost in the aperture due to a problem with the beam dumping system.
This thesis presents the simulation studies, results of a benchmarking experiment, and detailed target investigation, for this failure case. In the experiment, solid copper cylinders were irradiated with the 440GeV proton beam delivered by the Super Proton Synchrotron (SPS) at the High Radiation to Materials (HiRadMat) facility at CERN. The experiment confirmed the existence of the so-called hydrodynamic tunneling phenomenon for the first time. Detailed numerical simulations for particle-matter interaction with FLUKA, and with the two-dimensional hydrodynamic code, BIG2, were carried out. Excellent agreement was found between the experimental and the simulation results that validate predictions for the 7TeV beam of the LHC. The hydrodynamic tunneling effect is of considerable importance for the design of machine protection systems for accelerators with high stored beam energy. In addition, this thesis presents the first studies of the damage potential with beam parameters of the Future Circular Collider (FCC).
To detect beam losses due to fast failures it is essential to have fast beam instrumentation. Diamond based particle detectors are able to detect beam losses within a nanosecond time scale. Specially designed diamond detectors were used in the experiment mentioned above. Their efficiency and response has been studied for the first time over 5 orders of bunch intensity with electrons at the Beam Test Facility (BTF) at INFN, Frascati, Italy. The results of these measurements are discussed in this thesis. Furthermore an overview of the applications of diamond based particle detectors in damage experiments and for LHC operation is presented.
A novel experimental approach for studying exotic transitions in few-electron high-Z ions was developed. In this approach, few-electron ions with selectively produced single K-shell holes are used for the investigation of the transition modes that follow the decay of the excited ions. The feasibility of the developed approach was confirmed by an experimental study of the production of low-lying excited states in He-like uranium, produced by K-shell ionization of initially Li-like species. It was found that K-shell ionization is a very selective process that leads to the production of only two excited states, namely the 1s2s 21S0 and 1s2s 23S1. This high level of selectivity stays undisturbed by the rearrangement processes. These experimental findings can be explained using perturbation theory and an independent-particle model, and are a result of the very different impact parameter dependencies of K-shell ionization and L- intrashell excitation. The L-shell electron can be assumed to stay passive in the collision, whereas the K-shell electron is ionized. It was stressed that the current result might directly be applied to accurate studies of the two-photon decay in He-like ions. Up to now, the experimental challenge in conventional 2E1 experiments has been the photon-photon coincidence technique, which is required to separate the true 2E1 events from the x-ray background associated with single photon transitions. In contrast, by exploiting K-shell ionization, the spectral distribution of the two-photon decay could be obtained simply by a measurement of the photon emission, using only a single x-ray detector in coincidence with projectile ionization. One further particular advantage arises from the fact that the 1s2p 3P0 state is not populated, and does not contribute to the continuum distribution of the two-photon emission. At high Z, this state also undergoes a two-photon E1M1 decay, which would be indistinguishable from the 2E1 decay of the 1s2s 1S0. The first measurement of the two-photon energy distribution from the decay of 1s2s 1S0 level in He-like tin was performed by adopting the technique developed in this thesis. In this technique, excited He-like heavy ions were formed by K-shell ionization of initially Li-like species in collisions with a low-Z gas target, and x-ray spectra following the decay of the He-like ions were measured in coincidence with the up-charged tin ions. The observed intense production of the 2E1 transitions, and a very high level of selectivity, make this process particularly suited for the study of the two-photon continuum, and thus for a detailed investigation of the structure of high-Z He-like systems. The method allowed for a background-free measurement of the distribution of the two-photon decay (21S0 -> 11S0) in He-like tin. The measured distribution could also be discriminated from that of other He-like ions, and confirmed, for the first time, the fully relativistic calculations. In addition, the feasibility of the method was confirmed by studying another exotic transition, namely the two-electron one-photon transition (TEOP) in Li-like high-Z ions. An experimental investigation of the radiative decay modes of the 1s2s2 state in Li-like heavy ions has been started. In the first dedicated beam time at the ESR, selective population of this state via K-shell ionization of initially Be-like species was achieved. The x-rays produced in this process were measured by a multitude of x-ray detectors, each placed under different observation angles with respect to the ion beam direction. The spectra associated with projectile electron loss consist (in all cases) of one single x-ray transition, which was attributed to the TEOP decay to the 1s2 2p1/2 level, possibly contaminated by the M1 decay to the 1s22s. Thus it was proven that, by adopting the developed approach, one can indeed produce the desired initial state. This makes this method perfectly suited for studies of TEOP transitions in high-Z systems. An extension of this study, by the inclusion of an electron spectrometer, would also allow for measurements of the autoionization channel, which would provide complete information on the various decay modes of the 1s2s2 state.
The 35 neutron deficient nuclides known as the p nuclei are sysnthesized mainly in the so-called γ process. Taking place in explosive supernova events, the existing seed distribution from prior nucleosynthesis is altered by photodisintegration reactions of the types (γ,n), (γ,p) and (γ,α).
The bulk of reaction rates needed in network calculations of the γ process are predicted by the Hauser-Feshbach Model. When using this theory, the largest uncertainties stem from the interaction between charged particles and nuclei described by optical model potentials.
An improvement of these potentials can be achieved by comparison to measured cross section data. However, because of the low energies of interest for nuclear astrophysics and the resulting low cross sections, suitable data are scarce.
This thesis extends the corresponding database by measurement of the reactions 165Ho(α, n), 166Er(α, n), 169Tm(p,n) and 175Lu(p,n) using the activation technique. While not particularly important for the γ process, the selected (α,n) and (p,n) reactions exhibit nearly exclusive sensitivity to the α- or proton-nucleus potential, respectively. Therefore, the results presented here are well suited to test and improve the predictive power of currently available parameterizations of these potentials
In summary, the cooled heavy-ion beams of the ESR storage ring offer excellent experimental conditions for a precise study of the effects of QED in the groundstate of high-Z one- and two-electron ions. This has been demonstrated within the series of experiments conducted at the electron cooler device as well as at the gasjet target. In this work we have used a recently developed experimental approach to obtain the first direct measurement of the two-electron contributions to the ground state binding energy of helium-like uranium. By employing our method, all one-electron contributions to the binding energy such as finite-nuclear size corrections and the one-electron self energy cancel out completely. Note, this is a distinctive feature of this particular kind of QED test and is in contrast to all other tests of bound state QED for high-Z ions such as 1s Lamb shift (in one-electron systems), g-factor of bound electrons, or hyperfine splitting. Compared to former investigations conducted at the superEBIT in Livermore we could already substantially improve the statistical accuracy and extend studies to the higher-Z regime. Moreover, our result has reached a sensitivity on specific two-electron QED contributions. Our value agrees with the theoretical predictions within the experimental uncertainty. Similar to the superEBIT experiment possible sources of systematic errors are essentially eliminated and the final result is limited only by counting statistics. For the case of the 1s Lamb shift in hydrogen-like uranium, the achieved accuracy of +- 4.2 eV is a substantial improvement by a factor of 3 compared to the most precise value up to now [44] (see Fig. 5.6). Our result already provides a test of the first-order QED contributions at the 1.5% level and only a slight improvement is required in order to achieve a sensitivity to QED contributions beyond first-order SE and VP.
Es wird ein effektives Modell zur Berücksichtigung einer Minimalen Länge in der Quantenfeldtheorie vorgestellt. Im Falle der Existenz Großer Extradimensionen kann dies zu überprüfbaren Modifikationen verschiedener Experimente führen. Es werden verschiedene Phänomene wie z.B. der Casimir-Effekt, Neutrino-Nukleon-Reaktionen oder Neutrinooszillationen diskutiert.
In der vorliegenden Arbeit wurde die Ionisation von Atomen und Molekülen in starken Laserfeldern experimentell untersucht. Hierbei kam die COLTRIMS-Technik zur koinzidenten Messung der Impulse aller aus einem Ionisationsereignis stammender Ionen und Elektronen zum Einsatz. Unter Mitwirkung des Autors wurde ein COLTRIMS-Reaktionsmikroskop umgebaut und mit einem neuen Spektrometer sowie einer atomaren Wasserstoffquelle ausgestattet. Des Weiteren entstand ein interferometrischer Aufbau zur Erzeugung von Zwei-Farben-Feldern. Aus jedem der vorgestellten Experimente konnten Informationen über die elektronische Wellenfunktion an der Grenze zum klassisch verbotenen Bereich gewonnen werden. Dies geschah sowohl im Hinblick auf die Amplitude, als auch auf die Phase der Wellenfunktion. Mit dem Wasserstoffatom (Kapitel 9), dem Wasserstoffmolekül (Kapitel 10) und dem Argondimer (Kapitel 11) wurden drei Systeme unterschiedlicher Komplexität gewählt.
The Standard Model is one of the greatest successes of modern theoretical physics. Itl describes the physics of elementary particles by means of three forces, the electro-magnetisc, the weak and the strong interactions. The electro-magnetic and the weak interaction are rather well understood in comparison to the strong interaction.
The latest is as fundamental as the others, it is responsible for the formation of all hadrons which are classified into mesons and baryons. Well-known examples of the former is the pion and of the latter is the proton and the neutron, which form the nucleus of every atom. This fundamental force is believed to be described by the Quantum Chromodynamics (QCD) theory. According to this theory, hadrons are not elementary particles but are composed of quarks and gluons. The latter are the vector particles of the force and so are bosons of spin 1 and the former constitute the matter and are fermions with spin 1/2. To describe the interaction a new quantum number had to be introduced: the color charge which exists in three different types (blue, green and red). The name has not been chosen arbitrary as elements created from three quarks of different colors are colorless in the same way that mixing the three primary colors leads to white. However, experimentally no colored structure has ever been observed. The quarks and the gluons seem to be confined in colorless hadrons. This property of QCD is called confinement and results from a large coupling constant at low energy (or large distance). For high energy (or small distance), the perturbative analysis of QCD permits to establish the coupling constant to be small and quarks and gluons are almost free. This property is called asymptotic freedom. The possibility for QCD to describe both behaviors is one of its amazing characteristics. However, both phenomena are not well understood and one needs a method to study both the pertubative and the confining regime.
The only known method which fulfills the above criteria is Lattice QCD and more generally Lattice Quantum Field Theory (LQFT). It consists of a discretization of the spacetime and a formulation of QCD on a four-dimensional Euclidean spacetime grid of spacing a. In this way, the theory is naturally regularized and mathematically well-defined. On the other hand, the path integral formalism allows the theory to be treated as a Statistical Mechanics system which can be evaluated via a Markov chain Monte-Carlo algorithm. This method was first suggested by Wilson in 1974 [1] and shortly after Creutz performed the first numerical simulations of Yang-Mills theory [2] using a heath-bath Monte-Carlo algorithm. It appears that this method is extremely demanding in computational power. In its early days the method was criticized as the only feasible simulations involved non-physical values such as extremely large quark masses, large lattice spacing a and no dynamical quarks. With the progress of the computers and the appearance of the super-computer, the studies have come close to the physical point. But one still needs to deal with discrete space time and finite volume. Several techniques have been developed to estimate the infinite volume limit and the continuum limit. The smaller the lattice spacing and the larger the volume, the better the extrapolation to continuum and infinite volume limits is. The simulations are still very expensive and for the moment a typical length of the box is L ≈ 4fm and a ≈ 0.08fm. However, it has been realized simulating pure Yang-Mills theory and other lower dimensional models that the topology is freezing at small a [3]. It was also observed recently on full QCD simulations [4,5].
The typical lattice spacing for which this problem appears in QCD is a ≈ 0.05fm but this value depends on the quark mass used and on the algorithm. The freezing of topology leads to results which differ from physical results. Solving this issue is important for the future of LQCD [6]. Recently several methods to overcome the problem have been suggested, one of the most popular is the used of open boundary conditions [7] but this promising method has still its own issues, mainly the breaking of translation invariance.
Bei den Projekten wie der Europäischen und der Amerikanischen Spallationsneutronenquelle aber auch den geplanten aktuellen Großprojekten wie dem Upgrade von CERN oder ISIS werden negative Ionen benötigt. Bei solchen Anlagen werden am Ende des üblichen linearen Beschleunigers Speicherringe eingesetzt, die den Teilchenstrom akkumulieren und danach longitudinal komprimieren. Durch die Verwendung eines Strahls aus negativen Ionen kann die Injektion in den Speicherring wesentlich vereinfacht werden. In der vorliegenden Dissertation wurde die Extraktion und der Transport von negativen Wasserstoffionen für den ersten Abschnitt eines Linearbeschleunigers, bestehend aus Quelle, Extraktion und niederenergetischem Strahltransport (LEBT), sowohl experimentell als auch theoretisch untersucht. In dieser Sektion wird der grundlegende Strahlstrom und die Strahlqualität eines Linearbeschleunigers definiert. Eine komplette Untersuchung dieses Abschnitts lag bis dato für negative Ionen nicht vor. Um die Unterschiede aufzudecken und die einflußnehmenden Größen zu bewerten, mußten alle Experimente sowohl mit positiven als auch mit negativen Ionen durchgeführt werden. In allen Sektionen führen verschiedene Faktoren zu Strahlstromverlusten und Qualitätsverschlechterung, sprich Emittanzvergrößerung. Im Zuge dieser Arbeit wurde eine Quelle für negative Ionen entwickelt und gebaut und eine neue Methode zur Produktionssteigerung von negativen Ionen entwickelt. Die Innenwand der Plasmakammer der Ionenquelle wurde mit dem Edelmetallkatalysator Platin beschichtet. Die Plasmazusammensetzung innerhalb der Quelle verlagerte sich dadurch auf 80–90% H3 , 5-10% H2 und nur noch ein geringer Anteil an Protonen. Dieser hohe molekulare Anteil war über eine große Spanne aller Plasmaparameter stabil und führt zu einer drastischen Produktionssteigerung von angeregtem H2 und H- . Zur Formierung des Ionenstrahls wurde von mir ein sogenannter stromtoleranten Extraktor entwickelt. Trotz einer Veränderung des extrahierten Stroms um den Faktor 5 kommt es mit diesem Extraktor zu keinem nennenswerten Emittanzwachstum. Dieser eignet sich allgemein für die Extraktion gepulster Ionenstrahlen, im Besonderen aber für die Extraktion von negativen Ionen, da hierbei gleichzeitig Elektronen mit extrahiert werden. Dieser meist hohe Strahlanteil aus hochenergetischen Elektronen muß vor dem Einschuß der negativen Ionen in den RFQ durch ein geeignetes System aus dem Strahl ausgelenkt und abgeführt werden. Grundlagen, Entwicklung und Einflüsse dieser sogenannten Dumpingsysteme werden in Kap. 5 beschrieben. Für die Realisierung einer Niederenergietransportstrecke für negative Ionen stehen die beiden Möglichkeiten des magnetischen LEBT (Kap. 6) und des elektrostatischen LEBT (Kap. 7) zu Verfügung. Mit verschiedenen Meßaufbauten werden im anschließenden Kap. 8 die in den vorigen Kapiteln aufgeführten relevanten Größen der Erzeugung, der Extraktion und des Transport experimentell untersucht. Zusätzlich zu den bekannten klassischen Analyseverfahren kommen im Rahmen dieser Arbeit entwickelte optische Meßmethoden zum Einsatz, mit deren Hilfe man Plasmatemperatur und Plasmaverteilung innerhalb der Ionenquelle bestimmen kann. Mit Hilfe der Untersuchungen gelang es, die Unterschiede zwischen der Extraktion von negativen Ionen und von positiven Ionen aufzuzeigen und mit Hilfe der experimentellen Beobachtungen ein neues Modell für die Extraktion von negativen Ionen zu entwickeln. Mit der vorliegenden Arbeit wurde zudem gezeigt: - Der extrahierbare negative Strom ist hauptsächlich abhängig vom Diffusionsprozeß der Teilchen durch einen positiven Potentialwall innerhalb der Ionenquelle. - Durch Kompensation der magnetischen Felder in der Extraktionsregion wird die Emittanz reduziert und der Strom gesteigert. - Der beobachtete planare Plasmameniskus wird maßgeblich durch die rückfließenden Restgasionen beeinflußt. - Der Transport der negativen Ionen mit einer magnetischen LEBT stellt kein wesentliches Problem dar, da eine hinreichende Anzahl an positiven Restgasionen für den raumladungs-kompensierten Transport vorliegt.
High resolution gamma spectroscopy with sophisticated detector arrays significantly contributes to nuclear structure physics. The Advanced Gamma Tracking Array (AGATA) combines gamma tracking and pulse shape analysis to achieve an efficiency and quality of the spectra that could not be reached with spectrometers of the previous generation. Tracking of the photons interacting in the detector requires a precise knowledge of the individual interaction positions. The task of the pulse shape analysis is to provide a position resolution of better than $5mm$ FWHM, a value that could not be achieved by segmentation of the detector alone. As the signals induced on the electrodes of the detectors depends on the position of interaction, the charge pulses can be used to infer the interaction position. To be able to handle high rates, algorithms that are used have to be optimized to be able to process the data in real-time. Pulse shape analysis is the most involved part of the real-time processing and requires further improvement. This work is dealing with optimizations and improvements of pulse shape analysis algorithms. The Grid Search algorithm localizes the interaction position by comparing the measured pulse shape with precomputed shapes in a database to find the best fit. Two linear filters based on orthogonal transformations have been compared and it could be concluded that the one based on a singular value decomposition of the pulse shapes works best. It speeds up the pulse shape analysis by a factor of roughly $2-3$ (depending on how it is combined with the other modifications). Further, a new method to exclude most signals from the database as best fit has been developed based on the principle of lateration. Most interaction positions can be excluded by means of a fast check and for single interactions on average only $34.8\%$ of all signals from the database have to be compared to the measured one. The overhead introduced by the method is negligible and the reduced number of comparisons almost direclty translates into increased efficiency of the algorithm. A similar method could also be applied for double interactions. Two or more interactions taking place in the same segment require special treatment as the measured signals cannot be directly compared to signals from the database. A new method to calculate the figure of merit that quantifies the fit in case of a double interaction has been introduced. Compared to the unmodified algorithm the new method finds the best fit for double interactions roughly two orders of magnitude faster. Actually, the time required to localize double interactions is almost the same as for single interactions. Apart from optimizing the algorithm, also the achievable position resolution was investigated. It strongly varies inside the volume of the detector and it crucially depends on the shape of all signals in the database and the amplitude of the noise present in the measured signals. As a first step towards a precise analytic expression for the position resolution, an estimate for the probability to find the correct position has been derived.
Heavy-ion collisions at ultra-relativistic energies allow access to the Quark-Gluon Plasma, the deconfined phase of the strong interaction, a state which is believed to have existed fractions of seconds after the big bang. Two-particle correlations at small relative momenta, and particularly their dependence on pair transverse mass, are distinctly sensitive to the reaction dynamics of the fireball created in heavy-ion collisions.
Being the heaviest system to extract a size of the particle emitting source, proton-lambda correlations extend the studied range in pair transverse mass and are therefore well suited to explore the dynamical behavior of the matter created in Pb-Pb collisions at the Large Hadron Collider. The centrality dependence of the extracted source radii affirms the expectations of a larger source for more central collisions. Source radii were attained over a span of more than 0.9 GeV/c2 in mean pair transverse mass with a source radius extracted for a mean transverse mass as high as 2.18 GeV/c2. The source radii decrease with increasing pair transverse mass, as expected in a hydrodynamical picture. The comparison with radii obtained from other particle species exhibits the clear breaking of an elsewhere proposed scaling behavior of source radii with mean pair transverse mass for all particle species.
Gamma-gamma correlations possibly allow to look past the barrier of kinetic freeze-out. Additionally, they bear the potential to solve the puzzling observation in heavy-ion collisions of an excess of photons with a large temperature-like inverse slope parameter on the one hand and an elliptic flow coefficient of photons comparable to the one of hadrons on the other hand. A striking signal in the two-photon correlation function is observed; however it seems likely to not be of quantum statistical origin. A path for further studies is laid out.
In this thesis, we presented the theoretical description of the magnetic properties of various frustrated spin systems. Especially in search of exotic states, such as quantum spin liquids, magnetically frustrated systems have been subject of intense research within the last four decades. Relating experimental observations in real materials with theoretical models that capture those exotic magnetic phenomena has been one of the great challenges within the field of magnetism in condensed matter.
In order to build such a bridge between experimental observations and theoretical models, we followed two complementary strategies in this thesis. One strategy was based on first principles methods that enable the theoretical prediction of electronic properties of real materials without further experimental input than the crystal structure. Based on these predictions, low-energy models that describe magnetic interactions can be extracted and, through further theoretical modelling, can be compared to experimental observations. The second strategy was to establish low-energy models through comparison of data from experiments, such as inelastic neutron scattering intensities, with calculated predictions based on a variety of plausible magnetic models guided by microscopic insights. Both approaches allow to relate theoretical magnetic models with real materials and may provide guidance for the design of new frustrated materials or the investigation of promising models related to exotic magnetic states.
By combining two unique facilities at the Gesellschaft fuer Schwerionenforschung (GSI), the Fragment Separator (FRS) and the Experimental Storage Ring (ESR), the first direct measurement of a proton capture reaction of stored radioactive isotopes was accomplished. The combination of well-defined ion energy, an ultra-thin internal gas target, and the ability to adjust the beam energy in the storage ring enables precise, energy-differentiated measurements of the (p,gamma) cross sections. The new setup provides a sensitive method for measuring (p,gamma) reactions relevant for nucleosynthesis processes in supernovae, which are among the most violent explosions in the universe and are not yet well understood. The cross sections of the 118Te(p,gamma) and 124Xe(p,gamma) reactions were measured
at energies of astrophysical interest. The heavy ions were stored with energies of 6 MeV/nucleon and 7 MeV/nucleon and interacted with a hydrogen gas-jet target.
The produced proton-capture products were detected with a double-sided silicon strip detector. The radiative recombination process of the fully stripped ions and electrons from the hydrogen target was used as a luminosity monitor.
Additionally, post-processing nucleosynthesis simulations within the NuGrid [1] research platform have been performed. The impact of the new experimental results on the p-process nucleosynthesis around 124Xe and 118Te in a core-collapse supernova was investigated. The successful measurement of the proton capture cross sections of radioactive isotopes rises the motivation to proceed with experiments in lower energy regions.
[1] M. Pignatari and F. Herwig, “The nugrid research platform: A comprehensive simulation approach for nuclear astrophysics,” Nuclear Physics News, vol. 22, no. 4, pp. 18–23, 2012.
Das Ziel der Untersuchung von ultra-relativistischen Schwerionenkollisionen ist die Suche nach dem Quark Gluon Plasma (QGP), einem Zustand hochdichter stark wechselwirkender Materie in dem der Einschluss von Quarks und Gluonen in Hadronen aufgehoben ist. Die bisher gewonnenen experimentellen Hinweise deuten daraufhin,daß in Schwerionenkollisionen bei den derzeit höchsten zur Verfügung stehenden Energien von 158 GeV/Nukleon in Pb+Pb Reaktionen am CERN-SPS die Rahmenbedingungen für einen Phasenübergang von hadronischer Materie zu einer partonischen Phaseerfüllt sind. Die exakte Phasenstruktur stark wechselwirkender Materie hingegen ist derzeit noch nicht vollständig verstanden. Da inklusive hadronische Observablen und "penetrierende Proben" nicht direkt sensitiv auf die Existenz und Natur des Phasenübergangs sind, wurde die Analyse von Einzelereignis-"event-by-event"-Fluktuationenvorgeschlagen. Das Fluktuationsverhalten von Einzelereignis-Observablen sollte direkt sensitiv auf die Natur des zu beobachtenden Phasenübergangssein. In dieser Arbeit wurden Fluktuationen in der "chemischen" Zusammensetzung der Teilchenquelle untersucht und erste Ergebnisse werden präsentiert.
The current thesis is devoted to a systematic study of fluctuations and correlations in heavy-ion collisions, which might be considered as probes for the phase transition and the critical point in the phase diagram, within the Hadron-String- Dynamics (HSD) microscopic transport approach. This is a powerful tool to study nucleus-nucleus collisions and allows to completely simulate experimental collisions on an event-by-event basis. Thus, the transport model has been used to study fluctuations and correlations including the influence of experimental acceptance as well as centrality, system size and collision energy. The comparison to experimental data can separate the effects induced by a phase transition since there is no phase transition in the HSD version used here. Firstly the centrality dependence of multiplicity fluctuations has been studied. Different centrality selections have been performed in the analysis in correspondence to the experimental situation. For the fixed target experiment NA49 events with fixed numbers of the projectile participants have been studied while in the collider experiment PHENIX centrality classes of events have been defined by the multiplicity in certain phase space region. A decrease of participant number fluctuations (and thus volume fluctuations) in more central collisions for both experiments has been obtained. Another area of this work addresses to transport model calculations of multiplicity fluctuations in nucleus-nucleus collisions as a function of colliding energy and system size. This study is in full correspondence to the experimental program of the NA61 Collaboration at the SPS. Central C+C, S+S, In+In, and Pb+Pb nuclear collisions at Elab = 10, 20, 30, 40, 80, 158 AGeV have been investigated. The expected enhanced fluctuations - attributed to the critical point and phase transition - can be observed experimentally on top of a monotonic and smooth ‘hadronic background’. These findings should be helpful for the optimal choice of collision systems and collision energies for the experimental search of the QCD critical point. Other observables are fluctuations of ratios of hadrons (e.g. pions, kaons, protons, etc.) which are not so much affected by volume fluctuations. In particular HSD results for the kaon-to-pion ratio fluctuations, which has been regarded as promising observable for a long time, are presented from low SPS energies up to high energies at RHIC. In addition to the HSD calculations statistical model is also used in terms of microcanonical, canonical and grand canonical ensembles. Further a study of the system size event-by-event fluctuations causing rapidity forward-backward correlations in relativistic heavy-ion collisions is presented. The HSD simulations reveal strong forward-backward correlations and reproduce the main qualitative features of the STAR data in A+A collisions at RHIC energies. It has been shown that strong forward-backward correlations arise due to an averaging over many different events that belong to one centrality bin. An optimization of the experimental selection of centrality classes is presented, which is relevant for the program of the NA61 collaboration at CERN, the low-energy program at RHIC, as well as future experiments at FAIR.
Quantum chromodynamics predicts the existence of a phase transition from hadronic to quark-gluon matter when temperature and pressure are sufficiently high. Colliding heavy nuclei at ultra-relativistic speeds allows to deposit large amounts of energy in a small volume of space, and is the only available experimental mean to produce the extreme conditions necessary to obtain the deconfined state. Numerous models and ideas were developed in the last decades to study heavy ion physics and understand the properties of extremely heated and compressed nuclear matter. With the ever increasing energy available in the center of mass frame (and thus number of particles produced) and the development of large acceptance detectors, it has become possible to study the fluctuations of physical quantities on an event-by-event basis, and access thermodynamical properties not present in particle spectra. The characteristics of the highly excited matter produced, e.g. thermalization, effect of resonance decay. . . can be investigated by fluctuation analyses. In fact, fluctuations are good indicators for a phase transition and a plethora of fluctuation probes have been proposed to pin down the existence and the properties of the QGP. We study various fluctuation quantities within the Ultra-relativistic Quantum Molecular Dynamics UrQMD and the quantum Molecular Dynamics qMD models. UrQMD is based on hadron and string degrees of freedom and allows to disentangle purely hadronic effects. In contrast, the qMD model includes an explicit transition from quark to hadronic matter and can serve to test adequate probes of the initial QGP state. We show that the qMD model can reasonably reproduce various experimental particles rapidity distributions and transverse mass spectra in wide energy range. Within the frame of the dynamical recombination procedure used in qMD, we study the enhancement of protons over pions (p/π) ratio in the intermediate pt range (1.5 < pt < 2.5). We show that qMD can reproduce the large p/π ≈ 1 observed experimentally at RHIC energies at hadronization. However, the subsequent decay of resonances makes the ratio fall to values incompatible with experimental data. We thus conclude that resonance decay might have a drastic influence on this observable in the quark recombination picture. Charged particles multiplicity fluctuations measured at SPS by the NA49 collaboration are enhanced in midperipheral events for Pb+Pb collisions at Elab = 160 AGeV. This feature is not reproduce by hadron-string transport approaches, which show a flat centrality dependence, within the proper experimental acceptance and with the proper centrality selection procedure. However, we show that the behavior of multiplicity fluctuations in transport codes is similar to the experimental result in full 4π acceptance. We identify the centrality selection procedure as the reason for the enhanced particle multiplicity fluctuations in midperipheral reactions and argue that it can be used to distinguish between different scenarios of particle productions. We show that experimental data might indicate a strong mixing of projectile and target related production sources. Strangeness over entropy K/π and baryon number over entropy p/π ratio fluctuations have been measured by the NA49 experiment in the SPS energy range, from Elab = 20 AGeV up to Elab = 160 AGeV. We investigate the sensitivity of this observable to kinematical cuts and discuss the influence of resonance decay. We find the dynamical p/π ratio fluctuations to increase with beam energy, in agreement with the measured data points. On the contrary, the dynamical K/π ratio fluctuations are essential flat as a function of centrality and depend only weakly on the kinematical cuts applied. Our results are in line with the simulations performed earlier by the NA49 collaboration in their detector acceptance filter. Finally, we focus on the correlations and fluctuations of conserved charges. It was proposed that these fluctuations are sensitive to the fractional charge carried by the quarks in the initial QGP stage and survive the whole course of heavy ion reactions. A crucial point is the influence of hadronization that may relax the initial QGP fluctuation/correlation signals to their hadronic values. We use the quark Molecular Dynamics qMD model to disentangle the effect of recombination-hadronization on charged particles ratio fluctuations, charge transfer fluctuations, baryon number-strangeness correlation coefficient and various ratios of susceptibilities (i.e. correlations over fluctuations). We find that the dynamical recombination procedure implemented in the qMD model destroys all studied initial QGP fluctuations and correlations and might ex- plain why no signal of a phase transition based on event-by-event fluctuations was found in the experimental data until now.