Refine
Year of publication
Document Type
- Doctoral Thesis (593) (remove)
Has Fulltext
- yes (593)
Is part of the Bibliography
- no (593) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (593) (remove)
Mit der COLTRIMS-Technik können immer kompliziertere Reaktionen untersucht werden, dabei steigt aber die Zahl der zu detektierenden Reaktionsfragmente. Der Nachweis von Ionen ist üblicherweise gut möglich, da die entsprechenden Flugzeiten groß sind im Vergleich zur Totzeit der benutzten Detektoren. Elektronen hingegen sind sehr leicht und erreichen den Detektor innerhalb von wenigen 10 ns. Aktuelle Detektoren erlauben aber nur den Nachweis weniger Elektronen und es werden somit neue Detektoren benötigt, um alle Teilchen nachzuweisen. Ziel dieser Arbeit war es also, einen Detektor zu entwickeln, der dies erreicht.
Zu Beginn dieser Monografie wird die COLTRIMS-Technik vorgestellt. Die Experimente mit dieser Messmethode finden hauptsächlich mit einer Laufzeitanode statt. Diese stößt aber bei dem Nachweis von mehreren Teilchen an ihre Grenzen und manche Experimente können nur unvollständig analysiert werden.
Damit ein neuer Detektor entwickelt werden kann, muss erst verstanden werden, wie die zu detektierenden Teilchen/Signale entstehen und wie ihre Eigenschaften sind. Aus diesem Grund wird das Sekundärteilchen-erzeugende MCP ausführlich vorgestellt.
Weiterhin gibt diese Arbeit einen umfassenden Überblick über bereits realisierte Anoden. Verschiedene Repräsentanten der fünf Anodenarten (Flächen-, Streifen-/Pixel-, Laufzeit-, Kamera-, sowie Halbleiter-Anode) werden vorgestellt und bewertet.
Mit diesem Wissen konnten drei Ansätze für neue Anoden entwickelt, designt, produziert, getestet und bewertet werden. Alle neu entwickelten Anoden benutzen Leiterplatinen als Basis und werden in derselben Vakuumkammer getestet. Auch wenn die Detektionsprinzipien der drei getesteten Detektoren unterschiedlich sind, so verläuft die Auskopplung, Verarbeitung und Digitalisierung der Signale nach dem gleichen Schema. Außerdem wurden im Rahmen dieser Arbeit diverse Algorithmen entwickelt und programmiert, mit deren Hilfe die Signalauswertung und Positionsbestimmung erfolgt.
Das dritte Kapitel beschreibt die neu entwickelte Draht-Harfen-Anode. Dieser Detektor besteht aus vielen kurzen Drähten die parallel auf Rahmen aus Leiterplatinen gespannt werden. Aus dieser Anode ließ sich im Rahmen dieser Arbeit aber kein funktionsfähiger Detektor entwickeln und es wird empfohlen, diesen Ansatz nicht weiterzuverfolgen.
Im Kapitel über die Pixel-Anode mit Streifenauslese wird ein Ansatz vorgestellt, bei dem die Elektronenwolke von einem Muster aus leitenden Rauten absorbiert wird. Es wurde ein funktionsfähiger Detektor mit MAMA-Verschaltung realisiert. Die aktive Fläche ist mit einem Durchmesser von 50 mm aber zu klein. Eine große Variante der Anode ist in der realisierten Form aber nicht als Detektor geeignet.
Als dritter neuer Detektor wird die Streifen-Laufzeit-Anode beschrieben. Diese besteht aus einem rechteckigen Muster von Pixeln, die in einer Richtung über eine Zeitverzögerung ausgelesen werden. Dieser Ansatz ist sehr vielversprechend und es ließen sich nicht nur einzelne Teilchen nachweisen, sondern auch beim Aufbruch eines D2+-Moleküls konnten beide Fragmente gemessen werden.
Das letzte Kapitel befasst sich mit weiteren Konzepten, die als Detektor realisiert werden könnten.
Im Rahmen des Programms zur Intensitätserhöhung am Universal Linear Accelerator UNILAC für das Element Uran hat sich die Forderung nach einer Ionenquelle ergeben, die einen intensiven, hochbrillianten Ionenstrahl aus vierfach geladenen Uranionen bereitstellen kann. Ziel war es, im Zusammenspiel von Ionenquelle, Nachbeschleunigungssystem und Niederenergiestrahlführung einen Strahlstrom von mindestens 15 emA U4+ am Eingang des RFQ-Beschleunigers bereitzustellen. Die vorliegende Arbeit befaßt sich mit den Optimierungen und den experimentellen Untersuchungen an der Vakuumbogenionenquelle VARIS für den Uranbetrieb, welche schließlich ihre Leistungsfähigkeit an der Beschleunigeranlage der GSI erfolgreich unter Beweis gestellt hat. Der erste Teil dieser Arbeit widmet sich der Theorie der Vakuumbogenentladung unter besonderer Berücksichtigung der Erzeugung von U4+. Die Generierung von U4+ erfolgt dabei zu einem Teil im dichten Kathodenspotplasma, wo das Ionisationspotential von 31 auf 21 eV herabgesetzt ist, U4+ also bei vergleichsweise niedrigen Elektronenenergien erzeugt werden kann. Der U4+-Anteil beträgt jedoch nur 30 %. Die Erzeugung eines höheren Anteils an U4+ ist geknüpft an zusätzlich Ionisationsvorgänge im expandierenden Zwischenelektrodenplasma, für welches eine neuartige Theorie (MHD Ansatz) angegeben werden konnte. Für die Vakuumbogenentladung im axialen Magnetfeld konnte eine Erhöhung der Elektronentemperatur vorhersagt werden, die für eine höhere Ionisationsrate für U4+ verantwortlich ist. Für die Elektronentemperatur wurde bei einer magnetischen Flußdichte von 40 mT ein Wert von 10 eV vorhergesagt, welcher experimentell bestätigt werden konnte. Zieht man zudem die berechneten Wirkungsquerschnitte für die Ein- und Mehrfachionisation heran, so konnte aus den Wirkungsquerschnitten vorausgesagt werden, daß für die Produktion eines hohen Anteils an U4+ eine Elektronenenergie von zirka 50 eV für die Generierung von U4+ aus U3+ erforderlich ist. Im weiteren wurde ausgeführt, wie ein Extraktionssystem ausgelegt sein muß, welches den Forderungen nach einem Gesamtstrom von 140 mA entspricht oder diesen übertrifft. Das Erreichen dieses Stroms ist im Einlochextraktionssystem mit Schwierigkeiten verbunden (große Emissionsfläche, langes Extraktionssystem, Extraktionsspannung zirka 180 kV). Aus diesen Gründen ist die Entscheidung zugunsten eines Extraktionssystem mit 13 Öffnungen mit einem Durchmesser von jeweils 3 mm gefallen. Die Gesamtemissionsfläche aller Aperturen liegt bei 0,92 cm2. Zur Bestimmung der Strahlformierung einer Öffnung im Extraktionssystem ist das Strahlsimulationsprogramm KOBRA3INP unter Berücksichtigung einer experimentell gut zugänglichen Feldstärke von 11 kV/mm bei einem Aspektverhältnis von 0,5 genutzt worden. Es ergab sich ein minimaler Divergenzwinkel von etwa 55 mrad, die unnormierte effektive Emittanz geht mit steigender Stromdichte asymptotisch einem Wert von 65p mm mrad entgegen. Für das Extraktionssystem (13 Öffnungen) kann die unnormierte effektive Emittanz zu 610p mm mrad abgeschätzt werden. Die Stromdichte, welche der Plasmagenerator bereitstellen muß, beträgt etwa 1600 A/m2. Die Extraktionsspannung liegt bei 32 kV, welche, ebenso wie die Stromdichte, experimentell erreicht wurde. Bei den experimentellen Untersuchungen wurde zunächst untersucht, inwieweit die Impedanz des Vakuumbogenplasmas gesteigert werden kann. Ziel war es, eine möglichst hohe Plasmaimpedanz und damit eine hohe Bogenspannung zu erhalten, wodurch die erreichbare Elektronenenergie vergrößert wird (Regelung der Bogenspannung durch die Plasmaimpedanz). Es ist gezeigt worden, daß die Impedanz vor allem durch eine geeignete Magnetfeldkonfiguration erhöht werden kann (axiales Feld). Ebenso sind die Geometrie der Ionenquelle (Abstand Kathode-Anode 15 mm, Anodenöffnung 15 mm) und die verwendeten Materialien (Anode aus Edelstahl, kleiner Sputterkoeffizient und Sekundärelektronenaus97 löse) entscheidend, wobei zugunsten eines zuverlässigen Zündverhaltens der Ionenquelle die Entscheidung für eine Anodenöffnung von 15 mm statt 25 mm gefallen ist. So erreicht man für eine magnetische Flußdichte von 120 mT bei einem Bogenstrom von 700 A eine Bogenspannung von 54 V, wodurch die Erzeugung bis zu sechsfach geladenen Uranionen möglich wird. Um grundlegende Eigenschaften des Vakuumbogenplasmas zu bestimmen und das theoretische Modell zur Erzeugung von U4+ zu überprüfen, wurden die Ionen- und Elektronenenergieverteilung im Plasma gemessen ...
Die hier vorliegende Arbeit stellt die experimentelle Bestimmung des Verhältnisses R der totalen Wirkungsquerschnitte von Doppel- zu Einfachionisation von Helium vor. Die Ionisation wurde durch Photonen der Energie von etwa 8 keV und 58 keV induziert. In diesem Energiebereich ist die Ionisation sowohl durch die Absorption eines Photons wie auch durch die Compton-Streuung möglich. Die genutzten Photonenenergien erlaubten, den asymptotischen Hochenergiebereich beider Prozesse zu untersuchen. Mit Hilfe der verwandten Methode der Rückstoßionen-Impulsspektroskopie (hier in der neuesten Generation COLTRIMS, nach COLd Target Recoil Ion Momentum Spectroscopy) konnten Photoabsorption und Compton-Streuung erstmals experimentell voneinander getrennt werden. Sie ermöglichte ebenfalls eine gegenüber anderen Meßmethoden deutlich gesteigerte Genauigkeit der Werte R. Die Kinematik der auslaufenden Teilchen unterscheidet sich in beiden Prozessen: In der Absorption überträgt das Photon seine volle Energie auf die Targetelektronen. Deren Impuls im auslaufenden Kanal ist groß gegenüber dem des einlaufenden Photons und muß vom Ion kompensiert werden. Dagegen findet die Streuung des Photons am Elektron statt, das Ion nimmt dabei die Rolle eines Zuschauers ein. Es besitzt im auslaufenden Kanal nur einen geringen Impuls. Die so wohlseparierten Strukturen in der Rückstoßionen-Impulsverteilung erlauben die Trennung beider Prozesse durch COLTRIMS. Das Resultat zur Photoabsorption im Hochenergielimit von Rph = (1.72 ± 0.12) % konnte erstmalig die theoretischen Vorhersagen dieses Wertes verifizieren. Der Wert von Rc = (1.22 ± 0.06) % bei etwa 8.8 keV bestätigt die Rechnung von Andersson und Burgdörfer (Phys. Rev. A50, R2810 (1994)). Das Ergebnis von Rc = (0.84 +0.08-0.11) % bei 58 keV stimmt mit dem für die Compton-Streuung vorhergesagten asymptotischen Grenzwert überein.
Viele mikroskopische Vorgänge in Festkörpern und molekularen Verbindungen sind verbunden mit Änderungen ihres Magnetisierungszustandes. Dies macht den Einsatz externer Magnetfeldsensoren interessant, die sich über wohlbekannte Effekte kalibrieren ließen und dann im Messeinsatz quantitative Aussagen liefern können. Nun laufen viele der interessanten magnetischen Vorgänge in besagten Materialien auf sehr schnellen Zeitskalen im Piko- und Subpikosekundenbereich ab. Kein etablierter Magnetfeldsensor kann diese Anforderung leisten. Im Rahmen dieser Arbeit wurde eine systematische Untersuchung verschiedener Ansätze zum Bau ultraschneller Magnetfelddetektoren durchgeführt. Ein Teil der Arbeit beschäftigt sich mit dem Potential photokonduktiver Ringantennen als Emitter und Detektor für ultraschnelle Magnetfelder. Ein alternativer Ansatz zur Messung transienter Magnetfelder besteht in der Verwendung magnetooptischer Sensoren, wie sie in verschiedenen Anwendungen, in denen keine Zeitauflösung gefordert wird, bereits zum Einsatz kommen (z. B. in der Faradaymikroskopie). Es wird eine für ultraschnelle Magnetooptik vielversprechende Materialklasse als Sensormaterial vorgestellt: die DMS-Systeme. Das sind magnetisch dotierte Verbindungshalbleiter, die in der Umgebung ihrer exzitonischen Resonanzen gewaltige Verdetkonstanten aufweisen. Parallel zu den DMS-Systemen wird das Verhalten eines dotierten Eisengranats untersucht, der als Ferrimagnet völlig andere Voraussetzungen als Messsensor bietet. Darüber hinaus werden verschiedene experimentelle Techniken zur Messung magnetooptischer Phänomene vorgestellt und ihre Vor- und Nachteile ausführlich diskutiert. Es wird ein Verfahren entwickelt, das trotz des Einsatzes der hochempfindlichen Differenzdetektion eine gewisse spektrale Auflösung gewährleistet und deshalb den Betrieb der DMS-Systeme als magnetooptische Sensoren erst ermöglicht. Es werden für die verschiedenen Messmethoden und magnetooptischen Materialien die Grenzen der Nachweisempfindlichkeit analysiert und ihre Eignung als schnelle Detektoren untersucht. Die verschiedenen Vor- und Nachteile der beiden Sensorsubstanzen wird anhand der gemessenen magnetischen Transienten detailliert analysiert. Anschließend wird das Optimierungspotenzial der beiden Materialklassen hinsichtlich ihrer chemischen Zusammensetzung ausgearbeitet und dargestellt.
Die opto-elektronische Erzeugung intensiver Terahertz-Pulse unter Verwendung von Verstärkerlaser-Systemen stellt eine leistungsfähige und im wissenschaftlichen Umfeld etablierte Technik dar. Es ist anzunehmen, dass diese Technik in Zukunft auch für kommerzielle Anwendungen eingesetzt werden wird. (Z.B. entwickelt die Firma Nikon, Japan ein Echtzeit- Bildgebungssystem mit opto-elektronisch erzeugter Terahertz-Strahlung basierend auf einem Verstärkerlaser.) In dieser Arbeit werden gängige und neuartige opto-elektronische Terahertz-Emitter für Verstärkerlaser theoretisch und experimentell untersucht. Zur experimentellen Untersuchung wurde die Methode der elektro-optischen Detektion, welche in der Arbeit ausführlich vorgestellt wird, verwendet. Dabei wird insbesondere die spektrale Detektorempfindlichkeit dargestellt und eine Methode zur Durchführung kalibrierter Messungen vorgestellt, welche auch für die Verwendung mit Verstärkerlasern geeignet ist. Zu den untersuchten bekannten Emittern gehört der vor ca. 10 Jahren erstmals vorgestellte groß- flächige GaAs-Emitter mit externem Feld. Obwohl dieser Emitter in der Literatur bereits ausführlich untersucht wurde, werden in der vorliegende Arbeit über den Stand der Literatur hinausgehende neue Aspekte wie die Feldabschirmung auf Grund von Ladungsträgerverschiebung und die Abhängigkeit der erzeugten THz-Feldstärke bzw. der THz-Pulsenergie von der Emitterfläche diskutiert. Zudem erfolgt die Behandlung dieses Emitters erstmals vollständig quantitativ, wobei eine gute Übereinstimmung mit den experimentellen Daten erreicht wird. Der zweite in der Arbeit untersuchte Emitter ist der großflächige ZnTe-Emitter. Die elektro-optische Erzeugung von THz-Strahlung in ZnTe-Kristallen mit hoch-repetierlichen Kurzpuls-Lasersystemen ist langjährig bekannt. Die Verwendung großflächiger ZnTe-Kristalle in Verbindung mit Verstärkerlasern wurde allerdings in Rahmen dieser Arbeit erstmals demonstriert. Vor dem Hintergrund der demonstrierten hervorragenden Eigenschaften dieses Emitters ist dieses besonders erstaunlich. Der Hauptteil der Arbeit beschäftigt sich mit der neuartigen Erzeugung von THz-Pulsen in laser-generierten Plasmen. Dabei wurden zwei Methoden untersucht. Die erste Methode, welche im Rahmen dieser Arbeit erstmals realisiert wurde, basiert auf einer Vorspannung des Plasmas mit einem externen elektrischem Feld. Die Methode ist vergleichsweise wenig effektiv, stellt aber eine gute Möglichkeit zur Überprüfung der in der Arbeit entwickelten Modelle für die THz-Emission dar. Die zweite Methode, die erstmals von Cook et al. im Jahre 2000 demonstriert wurde, basiert auf einer "optischen Vorspannung" des Plasmas mittels der Überlagerung des Laserpulses der Fundamentalfrequenz mit einem phasensynchronen Laserpuls der zweiten Harmonischen. Die ausführliche experimentelle und theoretische Untersuchung dieser Methode beinhaltet eine quantitative Modellierung der zu erwartenden Ergebnisse auf Basis des von Cook et al. vorgestellten phänomenologischen Modells, welches auf zeitunabhängigen Nichtlinearitäten dritter Ordnung im Plasma oder in der Luft beruht. Die in dieser Arbeit vorgestellte quantitative Analyse legt die Schlussfolgerung nahe, dass das phänomenologische Modell von Cook et al. in der vorliegenden Form in Frage gestellt werden muss. Daher wurde im Rahmen der Arbeit ein einfaches Modell zur Erklärung der mikroskopischen Ursache der Nichtlinearität entwickelt. Dieses Modell beinhaltet die Kopplung der Nichtlinearität mit dem lokalen Ionisierungsprozess und damit formal auch eine explizite Zeitabhängigkeit der Nichtlinearität im Plasma. Die quantitative Modellierung der makroskopischen THz-Emission auf Basis des mikroskopischen Bildes der Generations-Nichtlinearitäten zeigt, dass das Modell die experimentellen Befunde zufriedenstellend beschreiben kann. Die Arbeit schließt mit einem Vergleich der untersuchten Emitter in Bezug auf spektrale Eigenschaften, Effizienz und Sättigungsverhalten. Bei der Darstellung des Sättigungsverhaltens wird anhand der in der Arbeit entwickelten Modelle versucht die Entwicklung der erzeugten THz-Feldamplituden für Laserpulsenergien von bis zu 50 mJ vorauszusagen. Diese Abschätzung lässt vermuten, dass der Plasma-Emitter für Laserpulsenergien von 10mJ und mehr das Potential hat, deutlich höhere THz-Feldamplituden zu erzeugen als alle gängigen Standardemitter. Entsprechende Experimente in diesem Laserpuls-Energiebereich sind am Front-End des PHELIX-Lasers der GSI (Gesellschaft für Schwerionenforschung) in Darmstadt im Rahmen der Fortführung der Forschungsarbeiten geplant.
Die vorliegende Arbeit präsentiert die Ergebnisse der Erzeugung und Diagnostik eines HF-Plasmas in einem magnetischen Quadrupolfeld. Einen Schwerpunkt bildete dabei der Einfluss des magnetischen Quadrupolfeldes auf die Plasmaparameter Elektronentemperatur Te und Elektronendichte ne. Die Extraktion eines Ionenstrahls bietet die Möglichkeit, Zusammenhänge zwischen den erreichten Strahlparametern und den physikalischen Eigenschaften des HF-Plasmas herzustellen. Zudem wird eine Korrelation zwischen der Geometrie der Entladung, der erreichbaren Plasmaparameter und der eingespeisten HF-Leistung aufgezeigt werden. Zunächst wurde die Elektronentemperatur in Abhängigkeit vom eingestellten Gasdruck und von der Stromstärke in den Feldspulen des magnetischen Quadrupols vermessen. Die Emissionsspektroskopie bot sich hierbei als nicht invasive Diagnostik an. Eine umfangreiche Messreihe ergab schließlich ein Profil der Elektronentemperatur, als Funktion der variablen Parameter Gasdruck und Erregerstromstärke. Die Elektronentemperatur im Plasma lag dabei im Bereich zwischen 3eV ohne Magnetfeld bis maximal 11eV mit magnetischem Einschluss. Hierbei zeigten sich einige, auf den ersten Blick überraschende Ergebnisse. So ergab sich ein lokales Maximum der Elektronentemperatur von 11eV bei einem Gasdruck von 1Pa und einer Flussdichte von 11mT. Als physikalische Ursache konnte die Kombination aus zwei resonanten Heizmechanismen identifiziert werden. Sowohl die stochastische Heizung als auch die lokale Anwesenheit von Zyklotronresonanzbedingungen führten zu einer starken Erhöhung der Elektronentemperatur. Ferner konnte experimentell nachgewiesen werden, dass die charakteristischen Eigenschaften des Quadrupolfeldes, das Entstehen dieser Heizmechanismen in einem engen Parameterbereich begünstigte. In diesem Zusammenhang ist die Ausprägung einer Gyroresonanzzone im HF-Plasma erwähnenswert, deren Ausdehnung mit dem Erregerstrom in den Feldspulen des Quadrupols skaliert und die einen maßgeblichen Einfluss auf die Ausprägung hochenergetischer Elektronen hat. Neben der Diagnostik stand auch die Extraktion eines Ionenstrahls im Vordergrund. Das Potential des Gesamtsystems, als Ionenquelle zu fungieren wurde dabei experimentell verifiziert. Spezifische Strahlstromdichten von 8mA/cm²kW konnten dabei erreicht werden. Es ergab sich hierdurch auch die Möglichkeit, einen Zusammenhang zwischen der Elektronendichte im Plasma und der eingespeisten HF-Leistung herzustellen. Die Ergebnisse dienten anschließen dazu, den Einschluss des Plasmas im magnetischen Quadrupolfeld zu quantifizieren. Beim Betrieb des Plasmagenerators ohne Magnetfeld wurden Elektronendichten von 3 . 1016m-3 erzielt. Mit fokussierendem Quadrupolfeld konnte eine lokale Steigerung der Elektronendichte um den Faktor 10 auf 3 . 1017m-3 dokumentiert werden, was die theoretischen Studien von C. Christiansen und J. Jacoby [Chr99], zu den fokussierenden Eigenschaften eines magnetischen Quadrupols, bestätigte. Große Sorgfalt war bei der Konzeption der HF-Einspeisung erforderlich. Da für Entladungsplasmen ein im hohen Maß nichtlinearer Zusammenhang, zwischen den Plasmaparametern und der eingespeisten HF-Leistung besteht, erwies sich die Entwicklung einer HF-Einkopplung als besondere Herausforderung. Hier zeigte sich die Plasmadiagnostik als unverzichtbares Hilfsmittel, um theoretische Vorhersagen und experimentellen Befund in Einklang zu bringen. Als limitierende Rahmenbedingungen erwiesen sich hier die Abmessungen des Quadrupols. In der vorliegenden Arbeit konnte dokumentiert werden, wie die geometrischen Einschränkungen die Auswahl der HF-Einkopplung bestimmten. Das zur Untersuchung des magnetischen Plasmaeinschlusses verwendete Glasrohr, mit einer verhältnismäßig großen Oberfläche und einem vergleichsweise kleinem Volumen, war für eine kapazitive HF-Einkopplung wesentlich besser geeignet als für die ursprünglich antizipierte induktive Plasmaanregung. Die physikalischen Zusammenhänge zwischen den erreichbaren Plasmaparametern, der verwendeten Koppelmethode, der erzielbaren Stromstärke des Ionenstrahls und den Abmessungen des Entladungsgefäßes, konnten durch eine umfassende Analyse aufgeklärt werden. Zudem wurde auch die Problematik des Zerstäubens von Elektrodenmaterial einer qualitativen Untersuchung unterzogen. Hier kristallisierten sich vor allen Dingen die hohen Randschichtpotentiale bei der verwendeten HF-Einkopplung, als physikalische Ursache für die Sputterrate heraus. Basieren auf den gewonnenen Erkenntnissen wurde eine Maßnahme zur Reduzierung der Sputterproblematik vorgenommen. Die Untersuchung des magnetisch eingeschlossenen Entladungsplasmas brachte Einsichten über die Zusammenhänge zwischen gewählter HF-Einkopplung, den Plasmaparametern und den Rahmenbedingungen der Entladungsgeometrie. Es ergeben sich hierdurch wichtige Erkenntnisse, die eine Aufskalierung des vorliegenden Aufbaus hin zu einer Hochstromionenquelle mit spezifischen Strahlstromdichten von 100mA/cm²kW ermöglichen. Ferner ist auch ein Einsatz der Konfiguration als Plasmatarget möglich, um Wechselwirkungen zwischen hochenergetischen Schwerionen und magnetisch fokussierten Entladungsplasmen zu untersuchen.
Im Rahmen der vorliegenden Arbeit wurden am Schwerionensynchrotron (SIS) der Gesellschaft für Schwerionenforschung/Darmstadt (GSI) Untersuchungen zur Produktion geladener K-Mesonen in Kohlenstoff induzierten Schwerionenreaktionen durchgeführt. Im Energiebereich von 1 bis 2 AGeV wurden dazu spektrale Verteilungen von Pionen, Kaonen und Antikaonen aus Kernreaktionen der Stoßsysteme C + C und C + Au unter verschiedenen Laborwinkelbereichen mit dem Kaon-Spektrometer (KaoS) aufgenommen. Da es sich um Kaonproduktion unterhalb der Nukleon-Nukleon-Schwelle handelt, spielen Eigenschaften der Kernmaterie eine Rolle, die Gegenstand dieser Arbeit sind. Sowohl für Kaonen als auch für Antikaonen wurde eine polare Anisotropie der Winkelverteilung festgestellt. Die unter verschiedenen Laborwinkelbereichen aufgenommenen K+- -Spektren decken im Schwerpunktsystem einen Winkelbereich von 60 Grad < Theta CM < 150 Grad ab und lassen sich gut durch eine Winkelverteilung der Form sigma inv alpha (1 + a2 cos exp 2 Theta CM) beschreiben. Im Rahmen der Meßgenauigkeit konnte keine Abhängigkeit der polaren Anisotropie von der kinetischen Energie der Kaonen und Antikaonen festgestellt werden. Es lässt sich jedoch zeigen, dass es von der Einschussenergie abhängig eine Winkeleinstellung gibt, bei der der totale Wirkungsquerschnitt vom Anisotropieparameter a2 unabhängig bestimmt werden kann, wenn die oben angegebene Parametrisierung der wahren Winkelverteilung genügt. Die Anregungsfunktion sigma K+- (E Beam) für Antikaonen ist steiler als die für Kaonen, jedoch lassen sich beide Produktionswirkungsquerschnitte als Funktion der Differenz aus der pro Nukleon normierten Gesamtenergie und der Energie an der NN-Schwelle durch sigma K alpha (mK + sqrt s - sqrt s th) beschreiben. Es konnte gezeigt werden, dass sich dieses identische Verhalten der derart auf die Excess-Energie korrigierten Kaon- und Antikaonproduktion jedoch nicht nur in den totalen Wirkungsquerschnitten, sondern auch in der Form der spektralen Verteilungen widerspiegelt. Ebenso scheinen die pro Partizipant normierten K+- -Multiplizitäten bei gleicher Excess-Energie gleichermaßen stark von der Größe des Stoßsystems abzuhängen. Das etwa um einen Faktor 10 erhöhte K-/K+-Verhältnis im Vergleich zur K+- -Produktion in Proton-Proton-Stößen konnte nicht durch triviale Mediumeffekte wie Absorption oder sequentielle Mehrfachstöße erklärt werden. Dies kann als Hinweis auf eine eventuelle Modifikation der effektiven K+- -Massen in dichter Materie verstanden werden, wie sie die theoretische Hadronenphysik auf der Basis von QCD und chiraler Störungstheorie vorhersagt. Das benutzte relativistische RBUU-Modell kann die gemessenen Kaon- und Antikaonverteilungen nur unter der Annahme solcher Massenmodifikationen erklären. Die K- -Massenmodifikation hat interessante Konsequenzen für die Astrophysik und stellt somit eine Verbindung zu einem weiteren faszinierenden Teilgebiet der modernen Physik dar. Aufgrund der K- -Massenmodifikation erwarten G. E. Brown und H. A. Bethe ein Kaonkondensat in Neutronensternen ab einer Dichte von rho ~ 3 rho 0. Dies limitiert die Masse von Neutronensternen auf etwa 1.5 M ?. Für Supernovaüberreste von mehr als 1.5 M ?. erwarten sie die Bildung von schwarzen Löchern. Für das asymmetrische Stoßsystem 12C + 197 Au kann das Schwerpunktsystem nur berechnet werden, wenn z. B. mit dem geometrischen Modell mittlere Projektil- und Targetpartizipantenanzahlen (< A Projectile part >= 6 bzw. < A Target part >= 16 ) angenommen werden. Die damit ermittelten Wirkungsquerschnitte deuten auf eine stärkere polare Anisotropie als für das 12C + 12C-System hin. Wird aus der in symmetrischen Stößen gemessenen Abhängigkeit der K+- -Produktion von der Systemgröße die Anzahl der Partizipanten im 12C + 197Au-System ermittelt, so stimmt diese für K+ mit den Vorhersagen des geometrischen Modells in etwa überein, für K- werden hingegen nur halbsoviel Partizipanten ermittelt. Dies deutet auf eine starke K- -Absorption in der Targetspektatormaterie hin. Abschließend sei noch angemerk, dass die KaoS-Kollaboration bereits weitere Messungen zur K+- -Produktion in den Stoßsystemen Ni+Ni und Au+Au sowie in asymmetrische, protoninduzierten p + A Reaktionen durchgefüuhrt hat. Nach dem innerhalb der nächsten zwei Jahre zu erwartenden Abschluss der Analyse dieser Daten liegt somit eine systematische Studie der K+- -Produktion unterhalb der NN-Schwelle vor, die einen maßgeblichen Beitrag zum Studium der Eigenschaften von Hadronen in dichter Kernmaterie und zum Verhalten von Kernmaterie unter extremen Bedingungen liefern wird.
In this thesis, we opened the door towards a novel estimation theory for homogeneous vectors and have taken several steps into this new and uncharted territory. Present state of the art for homogeneous estimation problems treats such vectors p 2 Pn as unit vectors embedded in Rn+1 and approximates the unit hypersphere by a tangent plane (which is a n-dimensional real space, thus having the same number of degrees of freedom as Pn). This approach allows to use known and established methods from real space (e.g. the variational approach which leads to the FNS algorithm), but it only works well for small errors and has several drawbacks: • The unit sphere is a two-sheeted covering space of the projective space. Embedding approaches cannot model this fact and therefore can cause a degradation of estimation quality. • Linearization breaks down if distributions are not highly concentrated (e.g. if data configurations approach degenerate situations). • While estimation in tangential planes is possible with little error, the characterization of uncertainties with covariance matrices is much more problematic. Covariance matrices are not suited for modelling axial uncertainties if distributions are not concentrated. Therefore, we linked approaches from directional statistics and estimation theory together. (Homogeneous) TLS estimation could be identified as central model for homogeneous estimation and links to axial statistics were established. In the first chapters, a unified estimation theory for the point data and axial data was developed. In contrast to present approaches, we identified axial data as a specific data model (and not just as directional data with symmetric probability density function); this led to the development of novel terms like axial mean vectors, axial variances and axial expectation values. Like a tunnel which is constructed from both ends simultaneously, we also drilled from the parameter estimation side towards directional/axial statistics in the second part. The presentation of parameter estimation given in this thesis deviates strongly from all known textbooks by presenting homogeneous estimation problems as a distinguished class of problems which calls for different estimation tools. Using the results from the first part, the TLS solution can be interpreted as the weighted anti-mean vector of an axial sample. This link allows to use our results from axial statistics; for instance, the certainty of the anti-mode (i.e. of the TLS solution!) can be described with a weighted Bingham distribution (see (3.91)). While present approaches are only interested in the eigenvector of the some matrix, we can now exploit the whole mean scatter matrix to describe TLS solution and its certainty. Algorithms like FNS, HEIV or renormalization were presented in a common context and linked to each other. One central result is that all iterative homogeneous estimation algorithms essentially minimize a series of evolving Rayleigh coefficients which corresponds to a series of (converging?) cost functions. Statistical optimization is only possible if we clearly identify every step as what it exactly is. For instance, the vague statement “solving Xp ... 0” means nothing but setting ˆp := arg minp pTXp pT p . We identified the most complex scenario for which closed form optimal solutions are possible (in terms of axial statistics: the type-I matrix weighted model). The IETLS approach which is developed in this thesis then solves general type-II matrix weighted problems with an iterative solution of a series of type-I matrix weighted problems. This approach also allows to built converging schemes including robust and/or constrained estimation – in contrast to other approaches which can have severe convergence problems even without such extensions if error levels are not low. Chapter 6 then is another big step forward. We presented the theoretical background of homogeneous estimation by introducing novel concepts like singular vector unbiasedness of random matrices and solved the problem of optimal estimation for correlated data. For instance, these results could be used for better estimation of local image orientation / optical flow (see section 7.2). At the end of this thesis, simulations and experiments for a few computer vision applications were presented; besides orientation estimation, especially the results for robust and constrained estimation for fundamental matrices is impressive. The novel algorithms are applicable for a lot of other applications not presented here, for instance camera calibration, factorization algorithm formulti-view structure from motion, or conic fitting. The fact that this work paved the way for a lot of further research is certainly a good sign.
This work ties in with the investigation of the intermediate valent states and valence fluctuations in certain europium based intermetallic systems. Valence fluctuations are a property of the electronic system of a compound that is possibly accompanied by structural effects, which, in some cases, are quite noticable. By assuming how the changes in the electronic system and in the crystal lattice are connected, valence _uctuations of europium are believed to be a possible probe for the theory of quantum critical elasticity, which is investigated on by the SFB TRR 288 (Frankfurt, Mainz, Karlsruhe, Bochum, Dresden).
Here, the proceedings in growing single crystals of di_erent compounds related to this _eld of research are reported. This includes the ThCr2Si2 (122) type compounds EuPd2Si2 as well as the doping series EuPd2(Si1-xGex)2, the Europium based ternary Phosphides EuFe2P2, EuCo2P2, EuNi2P2 and EuRu2P2, and attempts to grow compounds of a derived 1144 structure by ordered substitution of half the Europium, EuKRu4P4.
The largest part of this work focusses on the EuPd2Si2 system, which exhibits intermediate valent europium and a temperature dependent transition between two di_erent intermediate valent states of europium. Crystals of this system were grown using the Czochralski method with a levitating melt and an europium excess flux after a two step prereaction process. Also, explorations of a PdSi-rich flux and external flux methods are reported. Ten Czochralski grown experiments, in six generations iteratevely seeded by the previous generation, were prepared.
Thermodynamical and structural analyses of the crystals located the transition between the di_erent intermediate valent states of europium between 140K and 165 K, transitioning from a high temperature Eu2.3+ state to a low temperature Eu2.7+ state, and classified it as a second order transition. To this transition a lattice anomaly of the a-parameter collapsing about 2% is connected, while the c-parameter remains largely unaffected. Large differences between individual samples can be explained by combining thermodynamical and structural analyses with compositional analysis, revealing the valence transition temperature as strongly dependent on the sample composition and Pd-Si site interchanges.
Searching to change the character of the valence transition to first order, silicon was substituted by germanium to introduce negative pressure. Germanium substituted samples of EuPd2(Si1-xGex)2 were grown using the Czochralski method with the optimized parameters from the growth experiments for the undoped compound. Samples were prepared with a nominal substitution of x = 0.05, x = 0.10, x = 0.15, x = 0.20 (twice) and x = 0.30. For the EuPd2(Si1-xGex)2 system, a phase diagram for the europium valence states is derived from chemical and thermodynamical characterizations.
n ternary europium phosphides EuT2P2, the position of the compounds in the generalized phase diagram and the question of long range magnetic order or valence transition appear connected to an isostructural transition of the tetragonal crystal structure, drastically decreasing the length of the c-parameter while establishing covalent bonds between phosphorus atoms of different interlayers of the structure, the so called ‚collapse‘. While EuFe2P2, EuT2P2 and EuCo2P2 display both long range magnetic order and a non-collapsed crystal structure, EuNi2P2 shows both a valence transition between two intermediate valent states at a characteristic temperature of 36K - accompanied by a small lattice anomaly of the a-parameter shrinking about 0.2% - and a collapsed crystal structure. Samples of EuFe2P2, EuCo2P2 and EuNi2P2 were grown in tin flux and using solid-solid sintering approaches.
Single crystals of EuFe2P2, EuCo2P2 and EuRu2P2 were investigated at ESRF in Grenoble with single crystal X-ray di_ractometry on a pressure range up to 15GPa and at temperatures down to 15K to investigate the nature of the structural transitions in the compounds. While in EuCo2P2 the structural transition occurs as a transition of first order at all temperatures (e.g. at 2GPa for 15 K), in EuFe2P2 and EuRu2P2 the structural collapse evolves over a broad pressure range up to 8GPa and as a transition of second order troughout the temperature ranges, albeit seeming to sharpen at lower temperatures. From the crystallographic data, elastic constants of the compounds could be derived, revealing EuFe2P2 and EuRu2P2 as unexpectedly elastic materials.
In order to probe the structural collapse at more accessible pressures, crystals with a sturcture derived from the 122 structure, but with ordered 50% substitution of europium and hence altering the symmetry from I4/mmm to P4/mmm in a 1144 structure, were exploratively pursued. Different experiments to obtain EuAT4P4 (with A = K, Rb, Cs and T = Fe, Ru) from binary or ternary prereactants or directly from the elements remained largely unsuccessful.
Event-by-event fluctuations of the particle yield ratios in heavy-ion collisions at 20 - 158 AGeV
(2010)
Non-statistical event-by-event fluctuations are considered as an important signal for the critical endpoint of the QCD phase diagram. Event-by-event fluctuations of different observables are thus investigated in detail in current experiments but are also an important observable to be studied at the future CBM experiment at FAIR. In this work we present the energy and centrality dependence of event-by-event fluctuations of particle yield ratios measured by the NA49 experiment in Pb+Pb collisions at 20 - 158 AGeV. Systematic studies of the influence of the dE/dx resolution on the particle identification and the centrality bin size were performed. Results can be compared to event-by-event fluctuations measured by NA49 for different observables such as <pt> or the mean charged particle multiplicity. Main results of these studies are an increase of absolute value of the dynamical particle ratio fluctuations with decreasing centrality for all considered ratios, saturation of the K/Pi and K/p ratio fluctuations for peripheral Pb + Pb collisions at 158A GeV and scaling of the energy and centrality dependences of the p/Pi ratio fluctuations with NpNPi. The measured energy and centrality dependences of the K/Pi and K/p ratio fluctuations scale with NK in a different way. The saturation of the mentioned ratios fluctuations was attributed to the development of pronounced spike at zero in the eventwise ratio distributions, which, as was shown by Monte Carlo simulations, influence the measured fluctuations in the very peripheral Pb + Pb collisions at 158A GeV. In future, the CBM experiment at FAIR will investigate the intermediate region of the QCD phase diagram in great detail searching for the first order phase transition line and the expected critical endpoint. It is therefore important to closely investigate its sensitivity towards particle ratio fluctuations in Au+Au collisions at 10-45 AGeV beam energy. Detailed simulation studies will be presented. As an outcome of these feasibility studies we conclude that the CBM experiment will be able to provide high quality data on the subject of the event-by-event flucutations of particle yield ratios with sensitivity in the order of 1%.
In this thesis, we study the properties of excitations in the systems of interacting fermions. These excitations can be bosonic such as collective modes which we handle in the first part of this thesis or fermionic like quasi particles and quasi holes. One of the important points, to investigate the excitations is their damping which corresponds to their life-time in the system. This thesis consists of two parts, where in both parts, we use the field-theoretical methods to examine the problem.
Gegenstand dieser Arbeit sind Eigenschaften angeregter hadronischer Materie sowie physikalische Systeme, in denen diese Materie auftritt bzw. produziert wird. Die Beschreibung der stark wechselwirkenden Materie erfolgt in einem hadronischen, chiral-symmetrischen SU(3)L x SU(3)R Modell, welches die Saturierungseigenschaften von Kernmaterie und die Eigenschaften von Atomkernen reproduziert. Die Untersuchung heißer und dichter unendlicher hadronischor Materie zeigt, dass das vom Modell vorhergesagte Phasendiagramm stark von den Kopplungen der Baryonenresonanzen abhängt. Für kalte hadronische Materie ergibt die Einbeziehung des Baryonendekupletts und die Freiheit in deren Vektorkopplungen eine sehr große Bandbreite an verschiedenen Zustandsgleichungen. Für heiße hadronische Materie mit verschwindendem baryochemischen Potential zeigt sich ebenfalls eine starke Abhängigkeit der Eigenschaften hadronischer Materie von der Ankopplung der baryonischen Resonanzen. Es werden drei verschiedene Parametrisierungen betrachtet. Das resultierende Phasenübergangsverhalten variiert von einem "Crossover" über einen schwachen, zu einem doppelten Phasenübergang erster Ordnung. Es zeigt sich jedoch, dass die beobachteten Eigenschaften von Neutronensternen die Unbestimmtheit bzgl. der Vektorkopplung dieser Freiheitsgrade und damit der Zustandsgleichung deutlich verringern. Das Raum-Zeit Verhalten relativistischer Schwerionenkollisionen bei SPS- und RHIC-Energien wird mittels einer hydrodynamischen Simulation unter Benutzung der chiralen Zustandsgleichungen untersucht. Dabei spiegelt sich das unterschiedliche Phasenübergangsverhalten deutlich im Ausfrierverhalten der hadronischen Materie wider. Die im chiralen Modell berechneten Teilchenzahlverhältnisse werden mit den aus Schwerionenkollisionen von AGS- bis RHIC-Energien erhaltenen experimentellen Daten verglichen. Dabei zeigt sich, dass die verschiedenen Parametersätze des chiralen Modells und die Rechnungen für ein nichtwechselwirkendes, ideales Hadronengas eine ähnlich gute Beschreibung der gemessenen Weite liefern. Die deduzierten Ausfrierwerte für die Temperatur sind sensitiv auf das Phasenübergangsverhalten und liegen unterhalb der jeweiligen kritischen Temperatur. Die vorhergesagten Ausfriermassen sind in allen Parametrisierungen sehr ähnlich mit Abweichungen bis zu 15% von den entsprechenden Vakuumwerten. Die Untersuchung der Eigenschaften von Vektormesonen in dichter Materie erfolgt in der Mittleren-Feld- und in der HartreeNäherung. Hierbei zeigt sich eine signifikante Reduzierung der Teilchenmassen durch Vakuumpolarisationseffekte.
Understanding the hadron spectrum is one of the primary goals of non-perturbative QCD. Many predictions have experimentally been confirmed, others still remain under experimental investigation. Of particular interest is how gluonic excitations give rise to states with constituent glue. One class of such states are hybrid mesons that are predicted by theoretical models and Lattice QCD calculations. Searching for and understanding the nature of these states is a primary physics goal of the GlueX experiment at the CEBAF accelerator at Jefferson Lab. A search for a JPC = 1−− hybrid meson candidate, the Y(2175), in φ(1020)π+π+ and φ(1020)f0(980) channels in photoproduction on a proton target has been conducted. A first measurement of non-resonant φ(1020)π+π+ and φ(1020)f0(980) total cross sections in photoproduction has been performed. An upper limit on the resonance production cross section for the Y (2175) → φ(1020)π+π+ and Y (2175) → φ(1020)f0(980) channels are estimated. Since the analysis essentially depends on the quality of the charged kaon identification, also an optimization of particle identification through an improvement of the energy loss estimation in the central drift chamber by a truncated mean method has been investigated.
The Large Hadron Collider (LHC) is the biggest and most powerful particle accelerator in the world, designed to collide two proton beams with particle momentum of 7 TeV/c each. The stored energy of 362MJ in each beam is sufficient to melt 500 kg of copper or to evaporate about 300 litre of water. An accidental release of even a small fraction of the beam energy can cause severe damage to accelerator equipment. Reliable machine protection systems are necessary to safely operate the accelerator complex. To design a machine protection system, it is essential to know the damage potential of the stored beam and the consequences in case of a failure. One (catastrophic) failure would be, if the entire beam is lost in the aperture due to a problem with the beam dumping system.
This thesis presents the simulation studies, results of a benchmarking experiment, and detailed target investigation, for this failure case. In the experiment, solid copper cylinders were irradiated with the 440GeV proton beam delivered by the Super Proton Synchrotron (SPS) at the High Radiation to Materials (HiRadMat) facility at CERN. The experiment confirmed the existence of the so-called hydrodynamic tunneling phenomenon for the first time. Detailed numerical simulations for particle-matter interaction with FLUKA, and with the two-dimensional hydrodynamic code, BIG2, were carried out. Excellent agreement was found between the experimental and the simulation results that validate predictions for the 7TeV beam of the LHC. The hydrodynamic tunneling effect is of considerable importance for the design of machine protection systems for accelerators with high stored beam energy. In addition, this thesis presents the first studies of the damage potential with beam parameters of the Future Circular Collider (FCC).
To detect beam losses due to fast failures it is essential to have fast beam instrumentation. Diamond based particle detectors are able to detect beam losses within a nanosecond time scale. Specially designed diamond detectors were used in the experiment mentioned above. Their efficiency and response has been studied for the first time over 5 orders of bunch intensity with electrons at the Beam Test Facility (BTF) at INFN, Frascati, Italy. The results of these measurements are discussed in this thesis. Furthermore an overview of the applications of diamond based particle detectors in damage experiments and for LHC operation is presented.
A novel experimental approach for studying exotic transitions in few-electron high-Z ions was developed. In this approach, few-electron ions with selectively produced single K-shell holes are used for the investigation of the transition modes that follow the decay of the excited ions. The feasibility of the developed approach was confirmed by an experimental study of the production of low-lying excited states in He-like uranium, produced by K-shell ionization of initially Li-like species. It was found that K-shell ionization is a very selective process that leads to the production of only two excited states, namely the 1s2s 21S0 and 1s2s 23S1. This high level of selectivity stays undisturbed by the rearrangement processes. These experimental findings can be explained using perturbation theory and an independent-particle model, and are a result of the very different impact parameter dependencies of K-shell ionization and L- intrashell excitation. The L-shell electron can be assumed to stay passive in the collision, whereas the K-shell electron is ionized. It was stressed that the current result might directly be applied to accurate studies of the two-photon decay in He-like ions. Up to now, the experimental challenge in conventional 2E1 experiments has been the photon-photon coincidence technique, which is required to separate the true 2E1 events from the x-ray background associated with single photon transitions. In contrast, by exploiting K-shell ionization, the spectral distribution of the two-photon decay could be obtained simply by a measurement of the photon emission, using only a single x-ray detector in coincidence with projectile ionization. One further particular advantage arises from the fact that the 1s2p 3P0 state is not populated, and does not contribute to the continuum distribution of the two-photon emission. At high Z, this state also undergoes a two-photon E1M1 decay, which would be indistinguishable from the 2E1 decay of the 1s2s 1S0. The first measurement of the two-photon energy distribution from the decay of 1s2s 1S0 level in He-like tin was performed by adopting the technique developed in this thesis. In this technique, excited He-like heavy ions were formed by K-shell ionization of initially Li-like species in collisions with a low-Z gas target, and x-ray spectra following the decay of the He-like ions were measured in coincidence with the up-charged tin ions. The observed intense production of the 2E1 transitions, and a very high level of selectivity, make this process particularly suited for the study of the two-photon continuum, and thus for a detailed investigation of the structure of high-Z He-like systems. The method allowed for a background-free measurement of the distribution of the two-photon decay (21S0 -> 11S0) in He-like tin. The measured distribution could also be discriminated from that of other He-like ions, and confirmed, for the first time, the fully relativistic calculations. In addition, the feasibility of the method was confirmed by studying another exotic transition, namely the two-electron one-photon transition (TEOP) in Li-like high-Z ions. An experimental investigation of the radiative decay modes of the 1s2s2 state in Li-like heavy ions has been started. In the first dedicated beam time at the ESR, selective population of this state via K-shell ionization of initially Be-like species was achieved. The x-rays produced in this process were measured by a multitude of x-ray detectors, each placed under different observation angles with respect to the ion beam direction. The spectra associated with projectile electron loss consist (in all cases) of one single x-ray transition, which was attributed to the TEOP decay to the 1s2 2p1/2 level, possibly contaminated by the M1 decay to the 1s22s. Thus it was proven that, by adopting the developed approach, one can indeed produce the desired initial state. This makes this method perfectly suited for studies of TEOP transitions in high-Z systems. An extension of this study, by the inclusion of an electron spectrometer, would also allow for measurements of the autoionization channel, which would provide complete information on the various decay modes of the 1s2s2 state.
The 35 neutron deficient nuclides known as the p nuclei are sysnthesized mainly in the so-called γ process. Taking place in explosive supernova events, the existing seed distribution from prior nucleosynthesis is altered by photodisintegration reactions of the types (γ,n), (γ,p) and (γ,α).
The bulk of reaction rates needed in network calculations of the γ process are predicted by the Hauser-Feshbach Model. When using this theory, the largest uncertainties stem from the interaction between charged particles and nuclei described by optical model potentials.
An improvement of these potentials can be achieved by comparison to measured cross section data. However, because of the low energies of interest for nuclear astrophysics and the resulting low cross sections, suitable data are scarce.
This thesis extends the corresponding database by measurement of the reactions 165Ho(α, n), 166Er(α, n), 169Tm(p,n) and 175Lu(p,n) using the activation technique. While not particularly important for the γ process, the selected (α,n) and (p,n) reactions exhibit nearly exclusive sensitivity to the α- or proton-nucleus potential, respectively. Therefore, the results presented here are well suited to test and improve the predictive power of currently available parameterizations of these potentials
In summary, the cooled heavy-ion beams of the ESR storage ring offer excellent experimental conditions for a precise study of the effects of QED in the groundstate of high-Z one- and two-electron ions. This has been demonstrated within the series of experiments conducted at the electron cooler device as well as at the gasjet target. In this work we have used a recently developed experimental approach to obtain the first direct measurement of the two-electron contributions to the ground state binding energy of helium-like uranium. By employing our method, all one-electron contributions to the binding energy such as finite-nuclear size corrections and the one-electron self energy cancel out completely. Note, this is a distinctive feature of this particular kind of QED test and is in contrast to all other tests of bound state QED for high-Z ions such as 1s Lamb shift (in one-electron systems), g-factor of bound electrons, or hyperfine splitting. Compared to former investigations conducted at the superEBIT in Livermore we could already substantially improve the statistical accuracy and extend studies to the higher-Z regime. Moreover, our result has reached a sensitivity on specific two-electron QED contributions. Our value agrees with the theoretical predictions within the experimental uncertainty. Similar to the superEBIT experiment possible sources of systematic errors are essentially eliminated and the final result is limited only by counting statistics. For the case of the 1s Lamb shift in hydrogen-like uranium, the achieved accuracy of +- 4.2 eV is a substantial improvement by a factor of 3 compared to the most precise value up to now [44] (see Fig. 5.6). Our result already provides a test of the first-order QED contributions at the 1.5% level and only a slight improvement is required in order to achieve a sensitivity to QED contributions beyond first-order SE and VP.
Es wird ein effektives Modell zur Berücksichtigung einer Minimalen Länge in der Quantenfeldtheorie vorgestellt. Im Falle der Existenz Großer Extradimensionen kann dies zu überprüfbaren Modifikationen verschiedener Experimente führen. Es werden verschiedene Phänomene wie z.B. der Casimir-Effekt, Neutrino-Nukleon-Reaktionen oder Neutrinooszillationen diskutiert.
In der vorliegenden Arbeit wurde die Ionisation von Atomen und Molekülen in starken Laserfeldern experimentell untersucht. Hierbei kam die COLTRIMS-Technik zur koinzidenten Messung der Impulse aller aus einem Ionisationsereignis stammender Ionen und Elektronen zum Einsatz. Unter Mitwirkung des Autors wurde ein COLTRIMS-Reaktionsmikroskop umgebaut und mit einem neuen Spektrometer sowie einer atomaren Wasserstoffquelle ausgestattet. Des Weiteren entstand ein interferometrischer Aufbau zur Erzeugung von Zwei-Farben-Feldern. Aus jedem der vorgestellten Experimente konnten Informationen über die elektronische Wellenfunktion an der Grenze zum klassisch verbotenen Bereich gewonnen werden. Dies geschah sowohl im Hinblick auf die Amplitude, als auch auf die Phase der Wellenfunktion. Mit dem Wasserstoffatom (Kapitel 9), dem Wasserstoffmolekül (Kapitel 10) und dem Argondimer (Kapitel 11) wurden drei Systeme unterschiedlicher Komplexität gewählt.
The Standard Model is one of the greatest successes of modern theoretical physics. Itl describes the physics of elementary particles by means of three forces, the electro-magnetisc, the weak and the strong interactions. The electro-magnetic and the weak interaction are rather well understood in comparison to the strong interaction.
The latest is as fundamental as the others, it is responsible for the formation of all hadrons which are classified into mesons and baryons. Well-known examples of the former is the pion and of the latter is the proton and the neutron, which form the nucleus of every atom. This fundamental force is believed to be described by the Quantum Chromodynamics (QCD) theory. According to this theory, hadrons are not elementary particles but are composed of quarks and gluons. The latter are the vector particles of the force and so are bosons of spin 1 and the former constitute the matter and are fermions with spin 1/2. To describe the interaction a new quantum number had to be introduced: the color charge which exists in three different types (blue, green and red). The name has not been chosen arbitrary as elements created from three quarks of different colors are colorless in the same way that mixing the three primary colors leads to white. However, experimentally no colored structure has ever been observed. The quarks and the gluons seem to be confined in colorless hadrons. This property of QCD is called confinement and results from a large coupling constant at low energy (or large distance). For high energy (or small distance), the perturbative analysis of QCD permits to establish the coupling constant to be small and quarks and gluons are almost free. This property is called asymptotic freedom. The possibility for QCD to describe both behaviors is one of its amazing characteristics. However, both phenomena are not well understood and one needs a method to study both the pertubative and the confining regime.
The only known method which fulfills the above criteria is Lattice QCD and more generally Lattice Quantum Field Theory (LQFT). It consists of a discretization of the spacetime and a formulation of QCD on a four-dimensional Euclidean spacetime grid of spacing a. In this way, the theory is naturally regularized and mathematically well-defined. On the other hand, the path integral formalism allows the theory to be treated as a Statistical Mechanics system which can be evaluated via a Markov chain Monte-Carlo algorithm. This method was first suggested by Wilson in 1974 [1] and shortly after Creutz performed the first numerical simulations of Yang-Mills theory [2] using a heath-bath Monte-Carlo algorithm. It appears that this method is extremely demanding in computational power. In its early days the method was criticized as the only feasible simulations involved non-physical values such as extremely large quark masses, large lattice spacing a and no dynamical quarks. With the progress of the computers and the appearance of the super-computer, the studies have come close to the physical point. But one still needs to deal with discrete space time and finite volume. Several techniques have been developed to estimate the infinite volume limit and the continuum limit. The smaller the lattice spacing and the larger the volume, the better the extrapolation to continuum and infinite volume limits is. The simulations are still very expensive and for the moment a typical length of the box is L ≈ 4fm and a ≈ 0.08fm. However, it has been realized simulating pure Yang-Mills theory and other lower dimensional models that the topology is freezing at small a [3]. It was also observed recently on full QCD simulations [4,5].
The typical lattice spacing for which this problem appears in QCD is a ≈ 0.05fm but this value depends on the quark mass used and on the algorithm. The freezing of topology leads to results which differ from physical results. Solving this issue is important for the future of LQCD [6]. Recently several methods to overcome the problem have been suggested, one of the most popular is the used of open boundary conditions [7] but this promising method has still its own issues, mainly the breaking of translation invariance.
Bei den Projekten wie der Europäischen und der Amerikanischen Spallationsneutronenquelle aber auch den geplanten aktuellen Großprojekten wie dem Upgrade von CERN oder ISIS werden negative Ionen benötigt. Bei solchen Anlagen werden am Ende des üblichen linearen Beschleunigers Speicherringe eingesetzt, die den Teilchenstrom akkumulieren und danach longitudinal komprimieren. Durch die Verwendung eines Strahls aus negativen Ionen kann die Injektion in den Speicherring wesentlich vereinfacht werden. In der vorliegenden Dissertation wurde die Extraktion und der Transport von negativen Wasserstoffionen für den ersten Abschnitt eines Linearbeschleunigers, bestehend aus Quelle, Extraktion und niederenergetischem Strahltransport (LEBT), sowohl experimentell als auch theoretisch untersucht. In dieser Sektion wird der grundlegende Strahlstrom und die Strahlqualität eines Linearbeschleunigers definiert. Eine komplette Untersuchung dieses Abschnitts lag bis dato für negative Ionen nicht vor. Um die Unterschiede aufzudecken und die einflußnehmenden Größen zu bewerten, mußten alle Experimente sowohl mit positiven als auch mit negativen Ionen durchgeführt werden. In allen Sektionen führen verschiedene Faktoren zu Strahlstromverlusten und Qualitätsverschlechterung, sprich Emittanzvergrößerung. Im Zuge dieser Arbeit wurde eine Quelle für negative Ionen entwickelt und gebaut und eine neue Methode zur Produktionssteigerung von negativen Ionen entwickelt. Die Innenwand der Plasmakammer der Ionenquelle wurde mit dem Edelmetallkatalysator Platin beschichtet. Die Plasmazusammensetzung innerhalb der Quelle verlagerte sich dadurch auf 80–90% H3 , 5-10% H2 und nur noch ein geringer Anteil an Protonen. Dieser hohe molekulare Anteil war über eine große Spanne aller Plasmaparameter stabil und führt zu einer drastischen Produktionssteigerung von angeregtem H2 und H- . Zur Formierung des Ionenstrahls wurde von mir ein sogenannter stromtoleranten Extraktor entwickelt. Trotz einer Veränderung des extrahierten Stroms um den Faktor 5 kommt es mit diesem Extraktor zu keinem nennenswerten Emittanzwachstum. Dieser eignet sich allgemein für die Extraktion gepulster Ionenstrahlen, im Besonderen aber für die Extraktion von negativen Ionen, da hierbei gleichzeitig Elektronen mit extrahiert werden. Dieser meist hohe Strahlanteil aus hochenergetischen Elektronen muß vor dem Einschuß der negativen Ionen in den RFQ durch ein geeignetes System aus dem Strahl ausgelenkt und abgeführt werden. Grundlagen, Entwicklung und Einflüsse dieser sogenannten Dumpingsysteme werden in Kap. 5 beschrieben. Für die Realisierung einer Niederenergietransportstrecke für negative Ionen stehen die beiden Möglichkeiten des magnetischen LEBT (Kap. 6) und des elektrostatischen LEBT (Kap. 7) zu Verfügung. Mit verschiedenen Meßaufbauten werden im anschließenden Kap. 8 die in den vorigen Kapiteln aufgeführten relevanten Größen der Erzeugung, der Extraktion und des Transport experimentell untersucht. Zusätzlich zu den bekannten klassischen Analyseverfahren kommen im Rahmen dieser Arbeit entwickelte optische Meßmethoden zum Einsatz, mit deren Hilfe man Plasmatemperatur und Plasmaverteilung innerhalb der Ionenquelle bestimmen kann. Mit Hilfe der Untersuchungen gelang es, die Unterschiede zwischen der Extraktion von negativen Ionen und von positiven Ionen aufzuzeigen und mit Hilfe der experimentellen Beobachtungen ein neues Modell für die Extraktion von negativen Ionen zu entwickeln. Mit der vorliegenden Arbeit wurde zudem gezeigt: - Der extrahierbare negative Strom ist hauptsächlich abhängig vom Diffusionsprozeß der Teilchen durch einen positiven Potentialwall innerhalb der Ionenquelle. - Durch Kompensation der magnetischen Felder in der Extraktionsregion wird die Emittanz reduziert und der Strom gesteigert. - Der beobachtete planare Plasmameniskus wird maßgeblich durch die rückfließenden Restgasionen beeinflußt. - Der Transport der negativen Ionen mit einer magnetischen LEBT stellt kein wesentliches Problem dar, da eine hinreichende Anzahl an positiven Restgasionen für den raumladungs-kompensierten Transport vorliegt.
High resolution gamma spectroscopy with sophisticated detector arrays significantly contributes to nuclear structure physics. The Advanced Gamma Tracking Array (AGATA) combines gamma tracking and pulse shape analysis to achieve an efficiency and quality of the spectra that could not be reached with spectrometers of the previous generation. Tracking of the photons interacting in the detector requires a precise knowledge of the individual interaction positions. The task of the pulse shape analysis is to provide a position resolution of better than $5mm$ FWHM, a value that could not be achieved by segmentation of the detector alone. As the signals induced on the electrodes of the detectors depends on the position of interaction, the charge pulses can be used to infer the interaction position. To be able to handle high rates, algorithms that are used have to be optimized to be able to process the data in real-time. Pulse shape analysis is the most involved part of the real-time processing and requires further improvement. This work is dealing with optimizations and improvements of pulse shape analysis algorithms. The Grid Search algorithm localizes the interaction position by comparing the measured pulse shape with precomputed shapes in a database to find the best fit. Two linear filters based on orthogonal transformations have been compared and it could be concluded that the one based on a singular value decomposition of the pulse shapes works best. It speeds up the pulse shape analysis by a factor of roughly $2-3$ (depending on how it is combined with the other modifications). Further, a new method to exclude most signals from the database as best fit has been developed based on the principle of lateration. Most interaction positions can be excluded by means of a fast check and for single interactions on average only $34.8\%$ of all signals from the database have to be compared to the measured one. The overhead introduced by the method is negligible and the reduced number of comparisons almost direclty translates into increased efficiency of the algorithm. A similar method could also be applied for double interactions. Two or more interactions taking place in the same segment require special treatment as the measured signals cannot be directly compared to signals from the database. A new method to calculate the figure of merit that quantifies the fit in case of a double interaction has been introduced. Compared to the unmodified algorithm the new method finds the best fit for double interactions roughly two orders of magnitude faster. Actually, the time required to localize double interactions is almost the same as for single interactions. Apart from optimizing the algorithm, also the achievable position resolution was investigated. It strongly varies inside the volume of the detector and it crucially depends on the shape of all signals in the database and the amplitude of the noise present in the measured signals. As a first step towards a precise analytic expression for the position resolution, an estimate for the probability to find the correct position has been derived.
Heavy-ion collisions at ultra-relativistic energies allow access to the Quark-Gluon Plasma, the deconfined phase of the strong interaction, a state which is believed to have existed fractions of seconds after the big bang. Two-particle correlations at small relative momenta, and particularly their dependence on pair transverse mass, are distinctly sensitive to the reaction dynamics of the fireball created in heavy-ion collisions.
Being the heaviest system to extract a size of the particle emitting source, proton-lambda correlations extend the studied range in pair transverse mass and are therefore well suited to explore the dynamical behavior of the matter created in Pb-Pb collisions at the Large Hadron Collider. The centrality dependence of the extracted source radii affirms the expectations of a larger source for more central collisions. Source radii were attained over a span of more than 0.9 GeV/c2 in mean pair transverse mass with a source radius extracted for a mean transverse mass as high as 2.18 GeV/c2. The source radii decrease with increasing pair transverse mass, as expected in a hydrodynamical picture. The comparison with radii obtained from other particle species exhibits the clear breaking of an elsewhere proposed scaling behavior of source radii with mean pair transverse mass for all particle species.
Gamma-gamma correlations possibly allow to look past the barrier of kinetic freeze-out. Additionally, they bear the potential to solve the puzzling observation in heavy-ion collisions of an excess of photons with a large temperature-like inverse slope parameter on the one hand and an elliptic flow coefficient of photons comparable to the one of hadrons on the other hand. A striking signal in the two-photon correlation function is observed; however it seems likely to not be of quantum statistical origin. A path for further studies is laid out.
In this thesis, we presented the theoretical description of the magnetic properties of various frustrated spin systems. Especially in search of exotic states, such as quantum spin liquids, magnetically frustrated systems have been subject of intense research within the last four decades. Relating experimental observations in real materials with theoretical models that capture those exotic magnetic phenomena has been one of the great challenges within the field of magnetism in condensed matter.
In order to build such a bridge between experimental observations and theoretical models, we followed two complementary strategies in this thesis. One strategy was based on first principles methods that enable the theoretical prediction of electronic properties of real materials without further experimental input than the crystal structure. Based on these predictions, low-energy models that describe magnetic interactions can be extracted and, through further theoretical modelling, can be compared to experimental observations. The second strategy was to establish low-energy models through comparison of data from experiments, such as inelastic neutron scattering intensities, with calculated predictions based on a variety of plausible magnetic models guided by microscopic insights. Both approaches allow to relate theoretical magnetic models with real materials and may provide guidance for the design of new frustrated materials or the investigation of promising models related to exotic magnetic states.
By combining two unique facilities at the Gesellschaft fuer Schwerionenforschung (GSI), the Fragment Separator (FRS) and the Experimental Storage Ring (ESR), the first direct measurement of a proton capture reaction of stored radioactive isotopes was accomplished. The combination of well-defined ion energy, an ultra-thin internal gas target, and the ability to adjust the beam energy in the storage ring enables precise, energy-differentiated measurements of the (p,gamma) cross sections. The new setup provides a sensitive method for measuring (p,gamma) reactions relevant for nucleosynthesis processes in supernovae, which are among the most violent explosions in the universe and are not yet well understood. The cross sections of the 118Te(p,gamma) and 124Xe(p,gamma) reactions were measured
at energies of astrophysical interest. The heavy ions were stored with energies of 6 MeV/nucleon and 7 MeV/nucleon and interacted with a hydrogen gas-jet target.
The produced proton-capture products were detected with a double-sided silicon strip detector. The radiative recombination process of the fully stripped ions and electrons from the hydrogen target was used as a luminosity monitor.
Additionally, post-processing nucleosynthesis simulations within the NuGrid [1] research platform have been performed. The impact of the new experimental results on the p-process nucleosynthesis around 124Xe and 118Te in a core-collapse supernova was investigated. The successful measurement of the proton capture cross sections of radioactive isotopes rises the motivation to proceed with experiments in lower energy regions.
[1] M. Pignatari and F. Herwig, “The nugrid research platform: A comprehensive simulation approach for nuclear astrophysics,” Nuclear Physics News, vol. 22, no. 4, pp. 18–23, 2012.
Das Ziel der Untersuchung von ultra-relativistischen Schwerionenkollisionen ist die Suche nach dem Quark Gluon Plasma (QGP), einem Zustand hochdichter stark wechselwirkender Materie in dem der Einschluss von Quarks und Gluonen in Hadronen aufgehoben ist. Die bisher gewonnenen experimentellen Hinweise deuten daraufhin,daß in Schwerionenkollisionen bei den derzeit höchsten zur Verfügung stehenden Energien von 158 GeV/Nukleon in Pb+Pb Reaktionen am CERN-SPS die Rahmenbedingungen für einen Phasenübergang von hadronischer Materie zu einer partonischen Phaseerfüllt sind. Die exakte Phasenstruktur stark wechselwirkender Materie hingegen ist derzeit noch nicht vollständig verstanden. Da inklusive hadronische Observablen und "penetrierende Proben" nicht direkt sensitiv auf die Existenz und Natur des Phasenübergangs sind, wurde die Analyse von Einzelereignis-"event-by-event"-Fluktuationenvorgeschlagen. Das Fluktuationsverhalten von Einzelereignis-Observablen sollte direkt sensitiv auf die Natur des zu beobachtenden Phasenübergangssein. In dieser Arbeit wurden Fluktuationen in der "chemischen" Zusammensetzung der Teilchenquelle untersucht und erste Ergebnisse werden präsentiert.
The current thesis is devoted to a systematic study of fluctuations and correlations in heavy-ion collisions, which might be considered as probes for the phase transition and the critical point in the phase diagram, within the Hadron-String- Dynamics (HSD) microscopic transport approach. This is a powerful tool to study nucleus-nucleus collisions and allows to completely simulate experimental collisions on an event-by-event basis. Thus, the transport model has been used to study fluctuations and correlations including the influence of experimental acceptance as well as centrality, system size and collision energy. The comparison to experimental data can separate the effects induced by a phase transition since there is no phase transition in the HSD version used here. Firstly the centrality dependence of multiplicity fluctuations has been studied. Different centrality selections have been performed in the analysis in correspondence to the experimental situation. For the fixed target experiment NA49 events with fixed numbers of the projectile participants have been studied while in the collider experiment PHENIX centrality classes of events have been defined by the multiplicity in certain phase space region. A decrease of participant number fluctuations (and thus volume fluctuations) in more central collisions for both experiments has been obtained. Another area of this work addresses to transport model calculations of multiplicity fluctuations in nucleus-nucleus collisions as a function of colliding energy and system size. This study is in full correspondence to the experimental program of the NA61 Collaboration at the SPS. Central C+C, S+S, In+In, and Pb+Pb nuclear collisions at Elab = 10, 20, 30, 40, 80, 158 AGeV have been investigated. The expected enhanced fluctuations - attributed to the critical point and phase transition - can be observed experimentally on top of a monotonic and smooth ‘hadronic background’. These findings should be helpful for the optimal choice of collision systems and collision energies for the experimental search of the QCD critical point. Other observables are fluctuations of ratios of hadrons (e.g. pions, kaons, protons, etc.) which are not so much affected by volume fluctuations. In particular HSD results for the kaon-to-pion ratio fluctuations, which has been regarded as promising observable for a long time, are presented from low SPS energies up to high energies at RHIC. In addition to the HSD calculations statistical model is also used in terms of microcanonical, canonical and grand canonical ensembles. Further a study of the system size event-by-event fluctuations causing rapidity forward-backward correlations in relativistic heavy-ion collisions is presented. The HSD simulations reveal strong forward-backward correlations and reproduce the main qualitative features of the STAR data in A+A collisions at RHIC energies. It has been shown that strong forward-backward correlations arise due to an averaging over many different events that belong to one centrality bin. An optimization of the experimental selection of centrality classes is presented, which is relevant for the program of the NA61 collaboration at CERN, the low-energy program at RHIC, as well as future experiments at FAIR.
Quantum chromodynamics predicts the existence of a phase transition from hadronic to quark-gluon matter when temperature and pressure are sufficiently high. Colliding heavy nuclei at ultra-relativistic speeds allows to deposit large amounts of energy in a small volume of space, and is the only available experimental mean to produce the extreme conditions necessary to obtain the deconfined state. Numerous models and ideas were developed in the last decades to study heavy ion physics and understand the properties of extremely heated and compressed nuclear matter. With the ever increasing energy available in the center of mass frame (and thus number of particles produced) and the development of large acceptance detectors, it has become possible to study the fluctuations of physical quantities on an event-by-event basis, and access thermodynamical properties not present in particle spectra. The characteristics of the highly excited matter produced, e.g. thermalization, effect of resonance decay. . . can be investigated by fluctuation analyses. In fact, fluctuations are good indicators for a phase transition and a plethora of fluctuation probes have been proposed to pin down the existence and the properties of the QGP. We study various fluctuation quantities within the Ultra-relativistic Quantum Molecular Dynamics UrQMD and the quantum Molecular Dynamics qMD models. UrQMD is based on hadron and string degrees of freedom and allows to disentangle purely hadronic effects. In contrast, the qMD model includes an explicit transition from quark to hadronic matter and can serve to test adequate probes of the initial QGP state. We show that the qMD model can reasonably reproduce various experimental particles rapidity distributions and transverse mass spectra in wide energy range. Within the frame of the dynamical recombination procedure used in qMD, we study the enhancement of protons over pions (p/π) ratio in the intermediate pt range (1.5 < pt < 2.5). We show that qMD can reproduce the large p/π ≈ 1 observed experimentally at RHIC energies at hadronization. However, the subsequent decay of resonances makes the ratio fall to values incompatible with experimental data. We thus conclude that resonance decay might have a drastic influence on this observable in the quark recombination picture. Charged particles multiplicity fluctuations measured at SPS by the NA49 collaboration are enhanced in midperipheral events for Pb+Pb collisions at Elab = 160 AGeV. This feature is not reproduce by hadron-string transport approaches, which show a flat centrality dependence, within the proper experimental acceptance and with the proper centrality selection procedure. However, we show that the behavior of multiplicity fluctuations in transport codes is similar to the experimental result in full 4π acceptance. We identify the centrality selection procedure as the reason for the enhanced particle multiplicity fluctuations in midperipheral reactions and argue that it can be used to distinguish between different scenarios of particle productions. We show that experimental data might indicate a strong mixing of projectile and target related production sources. Strangeness over entropy K/π and baryon number over entropy p/π ratio fluctuations have been measured by the NA49 experiment in the SPS energy range, from Elab = 20 AGeV up to Elab = 160 AGeV. We investigate the sensitivity of this observable to kinematical cuts and discuss the influence of resonance decay. We find the dynamical p/π ratio fluctuations to increase with beam energy, in agreement with the measured data points. On the contrary, the dynamical K/π ratio fluctuations are essential flat as a function of centrality and depend only weakly on the kinematical cuts applied. Our results are in line with the simulations performed earlier by the NA49 collaboration in their detector acceptance filter. Finally, we focus on the correlations and fluctuations of conserved charges. It was proposed that these fluctuations are sensitive to the fractional charge carried by the quarks in the initial QGP stage and survive the whole course of heavy ion reactions. A crucial point is the influence of hadronization that may relax the initial QGP fluctuation/correlation signals to their hadronic values. We use the quark Molecular Dynamics qMD model to disentangle the effect of recombination-hadronization on charged particles ratio fluctuations, charge transfer fluctuations, baryon number-strangeness correlation coefficient and various ratios of susceptibilities (i.e. correlations over fluctuations). We find that the dynamical recombination procedure implemented in the qMD model destroys all studied initial QGP fluctuations and correlations and might ex- plain why no signal of a phase transition based on event-by-event fluctuations was found in the experimental data until now.
This thesis aims to investigate the properties of hadronic matter by analyzing fluctuations of conserved charges. A transport model (SMASH) is used for these studies to achieve this. The first part of this thesis focuses on examining transport coefficients, specifically the diffusion coefficients of conserved charges and the shear viscosity. The second part investigates equal-time correlations of particle numbers in the form of cumulants. The last chapter studies different aspects of the isobar collision systems Ru and Zr.
As a first step, the hadronic medium and interactions between its constituents are introduced, and simultaneously, their impact on transport coefficients is investigated. The methodology is verified by comparing the results of SMASH with Chapman-Enskog calculations, followed by examining 3-to-1 multi-particle reactions, revealing their influence on shear viscosity and electrical diffusion. The analysis of the full hadron gas considers angle-dependent cross-sections and additional elastic cross-sections via the AQM description, showing significant impacts on transport coefficients. The dependency on the number of degrees of freedom is explored, with noticeable effects on diffusion coefficients but a smaller influence on the shear viscosity. At non-zero baryon chemical potential, the diffusion coefficients are strongly influenced, while the shear viscosity remains unaffected. Overall, the study underscores the importance of individual cross-sections and the modeling of interactions on transport coefficients.
The following chapter explores fluctuations of conserved charges, crucial for understanding phase transitions in heavy-ion collision from the quark-gluon plasma to the hadronic phase. Using SMASH, the impact of global charge conservation on particle number cumulants in subvolumes of boxes simulating infinite matter is studied. Comparisons with simpler systems highlights the influence of hadronic interactions on cumulants, especially via charge annihilation processes and the results from SMASH shows agreement with analytical calculations. Calculations at finite baryon chemical potential reveals a transition from a Poisson to Skellam distribution within the net proton cumulants. It is shown that an unfolding procedure to obtain the net baryon fluctuations from the net proton ones deviates from the actual net baryon result, particularly in larger volumes. Finally, net proton correlations at vanishing baryon chemical potential align with ALICE measurements and the net proton cumulants are unaffected by deuteron formation.
In the next step, the goal is to investigate critical fluctuations in the hadronic medium. Therefore, the hadronic system is initialized with critical equilibrium fluctuations by coupling the hadron resonance gas with the 3D Ising model. The single-particle probability distributions are derived from the principle of maximum entropy. Evolving these distributions in SMASH, their development in an expanding sphere adjusted to experimental conditions can be analyzed. It reveals resonance decay and formations as the primary source that affects the particle cumulants. Because of isospin randomization processes, critical fluctuations are better preserved in net nucleon numbers. However, for the strongest coupling investigated in this work, correlations of the critical field are still present in the final state of the evolution in the net proton fluctuations. Examining cumulant dependence on rapidity windows shows a non-monotonic trend.
In the third part, collisions involving the isobars Ru and Zr are studied at a center-of-mass energy of 200 GeV. Initially, SMASH is used to study the initial conditions to hydrodynamical simulations, emphasizing the importance of the nuclear structure of isobars on the geometry of the collision area. It is found that the deformation parameters notably influence the initial state. Correlations between nucleon-nucleon pairs on eccentricity fluctuations yield no significant effect. Subsequently, the hydrodynamic model vHLLE evolves the previously explored initial conditions and for the transition between the hydrodynamic and kinetic descriptions, the Cooper-Frye formula is used. Usage of the canonical ensemble ensures the exact conservation of the conserved charges B, Q, and S. The neutron skin effect, which changes the charge distribution within Ru nuclei, is additionally considered. Fluctuations are assessed, revealing suppression in large rapidity windows due to global charge conservation. The hadronic phase modifies fluctuations of net pions, net kaons, and net protons via annihilation processes, yet fluctuations remain unaffected by the neutron skin effect.
Quasi-zweidimensionale organischen Ladungstransfersalze weisen gewisse Analogien zu den Hochtemperatur-Kupratsupraleitern (HTSL) auf. Zu nennen ist einerseits der ähnliche schichtartige Aufbau, wobei sich leitfähige und isolierende Ebenen abwechseln. Zum anderen liegt der antiferromagnetische Grundzustand in direkter Nachbarschaft zur Supraleitung und bei höheren Temperaturen wird ebenfalls die Entstehung einer Pseudo-Energielücke diskutiert. Im Gegensatz zu den HTSL können die elektronischen Eigenschaften der organischen Ladungstransfersalze jedoch leicht durch äußere Parameter wie hydrostatischen bzw. chemischen Druck - die Verwendung verschiedener Anionen X läßt sich in einem verallgemeinerten Phasendiagramm ebenfalls auf die Achse W/U abbilden, siehe Abschn. 4.2 - oder moderate Temperaturen beeinflußt werden. In den quasi-zweidimensionalen K-(BEDT-TTF)2X-Salzen ist bspw. ein moderater Druck p ~ 250 bar ausreichend, um das antiferromagnetisch-isolierende System (X=Cu[N(CN)2]Cl) auf die metallische Seite des Phasendiagramms zu verschieben, wobei dann im Grundzustand Supraleitung auftritt (Tc ~ 12,8 K). Eine Dotierung wie bei den HTSL und die damit einhergehende unerwünschte Unordnung ist nicht notwendig um einen Isolator-Metall-übergang zu induzieren. Demnach sind die experimentellen Anforderungen im Vergleich zu anderen stark korrelierten Elektronensystemen auf relativ einfache Weise zu realisieren. Auch das macht die organischen Ladungstransfersalze zu idealen Modellsystemen, um fundamentale Konzepte der theoretischen Festkörperphysik zu studieren, wovon einige bislang lediglich von akademischem Interesse waren. Erstmalig wird in dieser Arbeit die Fluktuationsspektroskopie als experimentelle Methode angewendet, um die Dynamik des TT-Elektronensystems in den quasi-zweidimensionalen organischen Ladungstransfersalzen K-(BEDT-TTF)2X bei niedrigen Frequenzen zu studieren. Ziel ist es, Informationen über die Temperatur-, Druck- und Magnetfeld-Abhängigkeit der spektralen Leistungsdichte des Widerstandsrauschens und damit über die Dynamik der Ladungsfluktuationen zu gewinnen. Insbesondere in der Nähe korrelationsgetriebener Ordnungsphänomene spielt die Dynamik der Ladungsträger eine entscheidende Rolle. Auch die Kopplung des elektronischen Systems an bestimmte strukturelle Anregungen hat Einfluß auf das Widerstandsrauschen. Zu Beginn wird eine kurze Einführung in die Signalanalyse gegeben und daran anschließend werden verschiedene Arten des Rauschens in Festkörpern dargestellt (Kap. 1). Einige der für diese Arbeit relevanten Ordnungsphänomene werden in Kap. 2 in knapper Form eingeführt, wobei auf die dynamischen Eigenschaften in der Nähe eines Glasübergangs etwas ausführlicher eingegangen wird. Nach der Vorstellung der eingesetzten Meßmethoden, des Versuchsaufbaus und der Probenkontaktierung (Kap. 3) werden die experimentellen Ergebnisse an den K-(BEDT-TTF)2X-Salzen in Kap. 4 ausführlich diskutiert.
In einer Gabor-Linse wird durch ein axiales magnetisches Feld und ein longitudinales Potential ein so genanntes nichtneutrales Plasma (NNP) stabil eingeschlossen. Das elektrische Feld der Ladungsträgerwolke wirkt fokussierend auf Ionenstrahlen, die das Linsenvolumen passieren. Dieses Konzept, das D. Gabor 1946 vorstellte, wurde hinsichtlich seiner Eignung zur Ionenstrahlfokussierung seit den 1970-er Jahren untersucht, denn Gabor-Linsen ermöglichen eine elektrostatische Fokussierung erster Ordnung bei gleichzeitiger Raumladungskompensation im gesamten Transportkanal und haben damit einen großen Vorteil gegenüber den konventionellen Linsensystemen. Hauptsächlich zwei Gründe sprachen jedoch nach den meisten Experimenten gegen einen Einsatz dieses Linsentyps in Beschleunigern: Die erreichte Einschlusseffizienz und die Abbildungseigenschaften der eingeschlossenen Raumladungswolke blieben weit hinter den Erwartungen zurück. Erst ein geändertes Konzept zur Befüllung der Linse mit Elektronen und ein parallel zu den Experimenten entwickeltes numerisches Verfahren zur Bestimmung der Plasmaparameter ermöglichte die Entwicklung eines Linsensystems, das die Vorteile gegenüber konventionellen Ionenoptiken sichtbar werden ließ In der vorliegenden Arbeit wird neben der theoretischen Beschreibung des Plasmaeinschlusses der Aufbau und die Funktionsweise einer Gabor-Linse dargestellt. Experimentelle Befunde zur Strahlinjektion in einen RFQ unter Verwendung einer LEBT-Sektion, bestehend aus zwei Gabor-Linsen werden präsentiert. Nach der Beschleunigung des Ionenstrahles durch einen RFQ auf eine Energie von etwa 440 keV sollten Transportexperimente zeigen, ob eine neu entwickelte Hochfeld Gabor-Linse (HGL) zur Fokussierung dieses Strahles eingesetzt werden kann. Die Strahlenergie ist dabei mit der vergleichbar, die im HIF-Projekt (Heavy Ion Fusion) für die Injektion des Bi1+-Strahles in die erste Beschleunigerstruktur geplant ist. Insbesondere war bei den Experimenten mit dem durch den RFQ beschleunigten Strahl die Einschlusseffizienz bezüglich der Elektronendichte in der HGL von Interesse und auch das Verhalten des NNP bei der Fokussierung eines gepulsten Ionenstrahles.
Mit der vorliegenden Arbeit wurden zu ersten Mal die seit mehreren Jahren vorhergesagten dynamischen Aufbruchsmechanismen - der direkte, der sequentielle und der asynchrone Zerfall - in mehratomigen Molekülen kinematisch vollständig untersucht. Experimentell wurde hierfür ein Kohlenstoffdioxid-(CO2)-Molekül in langsamen Ion-Molekül Stößen dreifach ionisiert, indem die Elektronen des Targets von den langsamen, hochgeladenen Projektilionen (Ar8+-Ionen) eingefangen wurden. Die Untersuchung des Zerfalls des CO2-Ions in die einfach geladenen ionischen Fragmente C+ + O+ + O+ zeigte, dass bei diesem Zerfall das Projektilion vornehmlich einen positiven Ladungszustand von q = 6 und nicht den zunächst erwarteten Ladungszustand q = 5 aufweist. Dies ist darauf zurückzuführen, dass die eingefangenen Elektronen oftmals elektronisch hoch angeregte Zustände im Projektil populieren und demnach im weiteren Verlauf über Autoionisationsprozesse dieses auch wieder verlassen können. Ähnliche Autoionisationsprozesse können auch im Target ablaufen, treten dort jedoch mit einer geringeren Wahrscheinlichkeit auf, da der Wirkungsquerschnitt für Autoionisationsprozesse im Target um einen Faktor 1,3 kleiner ist als für Autoionisationen im Projektil. Zusätzlich zeigte die Untersuchung der Stoßdynamik, dass der dreifache Elektroneneinfang primär bei einer parallelen Orientierung der Molekülachse zur Projektilstrahlachse auftritt. Eine weitere Abhängigkeit der Stoßdynamik zum Beispiel vom Stoßparameter beziehungsweise vom Streuwinkel konnte nicht beobachtet werden. Durch die koinzidente Messung aller vier Reaktionsteilchen konnte der Kanal Ar8+ + CO2 --> Ar6+ + C+ + O+ + O+ eindeutig bestimmt werden und die Reaktionsdynamik des CO2-Ions nach dem Stoß analysiert werden. Dabei tritt deutlich der direkte Aufbruch hervor, bei welchem die drei einfach geladenen Ionen sich rein aufgrund ihrer Coulombkräfte voneinander abstoßen. Bei einer solchen Coulombexplosion bleibt dem Molekülion kaum Zeit, um eine molekulare Schwingung zu vollführen. Neben diesem schnellen Zerfall konnten aber auch jene Zerfälle beobachtet werden, bei denen das Molekülion zuerst molekular schwingt und dann zu einem späteren Zeitpunkt in die ionischen Fragmente zerfällt. Dieser letztere Zerfallsprozess gehört zu den sogenannten asynchronen Zerfallsmechanismen. Er stellt einen Zwischenprozess zwischen dem reinen 1-Stufen-Prozess wie dem direkten Aufbruch und dem reinen 2-Stufen-Prozess dar. Bei solchen sequentiellen 2-Stufen Prozessen fragmentiert das CO2-Molekül im ersten Schritt in ein O+- und ein CO2+-Ion. Im zweiten Schritt dissoziiert dann das CO2+-Fragment, nachdem es nahezu keine Wirkung der Coulombkräfte des ersten Sauerstoffions mehr spürt, in ein C+- und ein O+-Ion. Durch die Darstellung der Schwerpunktsimpulse der Fragmente in Dalitz- und Newton-Diagrammen ist es mit dieser Arbeit erstmals gelungen diesen sequentiellen Prozess experimentell eindeutig nachzuweisen. In der weiteren Analyse konnte gezeigt werden, dass über die im System deponierte Energie, welche über die kinetische Energie der Fragmente bestimmt wird, die verschiedenen Reaktionsmechanismen direkt kontrolliert werden können. Speziell bei Energien unterhalb von 20 eV wurde gezeigt, dass es keine Potentialflächen gibt, die über einen direkten bzw. simultanen Aufbruch zu dem Endzustand C+ + O+ + O+ führen. Bei mehratomigen Molekülen erweist sich das Treffen detaillierter Aussagen über mögliche Dissoziationskanäle ohne die genaue Kenntnis der Lage der Potentialflächen und den Übergängen zwischen diesen als äußerst schwierig. Selbst bei genauer Kenntnis der Lage und Form der Potentialflächen, ist es aufgrund der hohen Dichten innerhalb der Übergangsbereiche der Potentialflächen nahezu unmöglich, den Verlauf der Dissoziationskanäle zu verfolgen. Mit dieser Arbeit ist es gelungen, die verschiedenen Reaktionskanäle ohne die Existenz von Energiepotentialflächen eindeutig zu identifizieren. Außerdem konnte gezeigt werden, dass die Energie, die während des Stoßes im Molekül deponiert wird, eine Schlüsselgröße darstellt, mit welcher die Fragmentationskanäle direkt kontrolliert werden können.
The brain is a large complex system which is remarkably good at maintaining stability under a wide range of input patterns and intensities. In addition, such a stable dynamical state is able to sustain essential functions, including the encoding of information about the external environment and storing memories. In order to succeed in these challenging tasks, neural circuits rely on a variety of plasticity mechanisms that act as self-organizational rules and regulate their dynamics. Based on toy models of self-organized criticality, this stable state has been proposed to be a phase transition point, poised between distinct types of unhealthy dynamics, in what has become known as the critical brain hypothesis. It is not yet known, however, if and how self-organization could drive biological neural networks towards a critical state while maintaining or improving their learning and memory functions.
Here, we investigate the emergence of criticality signatures in the form of neuronal avalanches due to self-organizational plasticity rules in a recurrent neural network. We show that power-law distributions of events, widely observed in experiments, arise from a combination of biologically inspired synaptic and homeostatic plasticity but are highly dependent on the external drive. Additionally, we describe how learning abilities and fading memory emerge and are improved by the same self-organizational processes. We finally propose an application of these enhanced functions, focusing on sequence and simple language learning tasks.
Taken together, our results suggest that the same self-organizational processes can be responsible for improving the brain’s spatio-temporal learning abilities and memory capacity while also giving rise to criticality signatures under particular input conditions, thus proposing a novel link between such abilities and neuronal avalanches. Although criticality was not verified, the detailed study of self-organization towards critical dynamics further elucidates its potential emergence and functions in the brain.
Cryo-electron tomography (CET) is a unique technique to visualize biological objects under near-to-native conditions at near-atomic resolution. CET provides three-dimensional (3D) snapshots of the cellular proteome, in which the spatial relations between macromolecular complexes in their near native cellular context can be explored. Due to the limitation of the electron dose applicable on biological samples, the achievable resolution of a tomogram is restricted to a few nanometers, higher resolution can be achieved by averaging of structures occurring in multiples. For this purpose, computational techniques such as template matching, sub-tomogram averaging and classification are essential for a meaningful processing of CET data.
This thesis introduces the techniques of template matching and sub-tomogram averaging and their applications on real biological data sets. Subsequently, the problem of reference bias, which restricts the applicability of those techniques, is addressed. Two methods that estimate the reference bias in Fourier and real space are demonstrated. The real space method, which we have named the “M-free” score, provides a reliable estimation of the reference bias, which gives access to the reliability of the template matching or sub-tomogram averaging process. Thus, the “M-free” score makes those approaches more applicable to structural biology. Furthermore, a classification algorithm based on Neural Networks (NN) called “KerDenSOM3D” is introduced, which is implemented in 3D and compensates for the missing-wedge. This approach helps extracting different structural states of macromolecular complexes or increasing the class purity of data sets by eliminating outliers. A comprehensive comparison with other classification methods shows superior performance of KerDenSOM3D.
The present thesis is primarily concerned with the application of the functional renormalization group (FRG) to spin systems. In the first part, we study the critical regime close to the Berezinskii-Kosterlitz-Thouless (BKT) transition in several systems. Our starting point is the dual-vortex representation of the two-dimensional XY model, which is obtained by applying a dual transformation to the Villain model. In order to deal with the integer-valued field corresponding to the dual vortices, we apply the lattice FRG formalism developed by Machado and Dupuis [Phys. Rev. E 82, 041128 (2010)]. Using a Litim regulator in momentum space with the initial condition of isolated lattice sites, we then recover the Kosterlitz-Thouless renormalization group equations for the rescaled vortex fugacity and the dimensionless temperature. In addition to our previously published approach based on the vertex expansion [Phys. Rev. E 96, 042107 (2017)], we also present an alternative derivation within the derivative expansion. We then generalize our approach to the O(2) model and to the strongly anisotropic XXZ model, which enables us to show that weak amplitude fluctuations as well as weak out-of-plane fluctuations do not change the universal properties of the BKT transition.
In the second part of this thesis, we develop a new FRG approach to quantum spin systems. In contrast to previous works, our spin functional renormalization group (SFRG) does not rely on a mapping to bosonic or fermionic fields, but instead deals directly with the spin operators. Most importantly, we show that the generating functional of the irreducible vertices obeys an exact renormalization group equation, which resembles the Wetterich equation of a bosonic system. As a consequence, the non-trivial structure of the su(2) algebra is fully taken into account by the initial condition of the renormalization group flow. Our method is motivated by the spin-diagrammatic approach to quantum spin system that was developed more than half a century ago in a seminal work by Vaks, Larkin, and Pikin (VLP) [Sov. Phys. JETP 26, 188 (1968)]. By embedding their ideas in the language of the modern renormalization group, we avoid the complicated diagrammatic rules while at the same time allowing for novel approximation schemes. As a demonstration, we explicitly show how VLP's results for the leading corrections to the free energy and to the longitudinal polarization function of a ferromagnetic Heisenberg model can be recovered within the SFRG. Furthermore, we apply our method to the spin-S Ising model as well as to the spin-S quantum Heisenberg model, which allows us to calculate the critical temperature for both a ferromagnetic and an antiferromagnetic exchange interaction. Finally, we present a new hybrid formulation of the SFRG, which combines features of both the pure and the Hubbard-Stratonovich SFRG that were published recently [Phys. Rev. B 99, 060403(R) (2019)].
This thesis is concerned with the investigation of static and dynamic properties of quantum Heisenberg paramagnets in the absence of a magnetic field and therefore for vanishing magnetization. For this purpose a new formulation of the spin functional renormalization group (SFRG) is employed. The first manifestations of the SFRG were developed by Krieg and Kopietz, motivated by the FRG approach to ordinary field theories and the older works of Vaks, Larkin and Pikin on diagrammatic methods for spin operators.
The main idea is to study quantum spin systems by considering the evolution of correlation functions under a continuous deformation of the interaction between magnetic moments, starting from a solvable limit. This leads to nonperturbative results for quantities like the spin-spin correlation function. After a basic introduction to the phenomena and concomitant problems discussed in this thesis, a detailed description of the SFRG method in its initial formulation is given in the second chapter. We start with the generating functional of connected imaginary-time spin-correlation functions GΛ [h], for which an exact flow equation is derived. A particular issue, already pointed out by Krieg and Kopietz, arises here, namely the singular non-interacting limit of its subtracted Legendre transform ΓΛ [m]. As a consequence the initial condition of that functional does not have a proper series expansion in powers of m. This prevents us from working directly within a pure one-particle irreducible (1-PI) parametrization of the correlation functions, as is often done in the context of field theories. Thus motivated, we develop a workaround explicitly tailored to paramagnets, which provides us with a functional that has a well-behaved Legendre transform. The new approach is based on a different treatment of fluctuations at zero and finite frequencies, analogous to a previous hybrid formulation for the symmetry-broken phase. Certain properties, considered to be highly relevant for isotropic paramagnets, as well as previous observations, already made in the study of simpler spin systems like the Ising model, serve as additional justifications for choosing this construction.
In the third chapter our new method is assessed by calculating the dynamic susceptibility G(k, iω) and thus the dynamic structure factor S(k, ω) in the symmetric phase. For this purpose an approximate integral equation for the dynamic polarization function Π̃(k, iω) was derived. This equation results from a truncation of the hierarchy of flow equations and contains static quantities, that are assumed to be known from another source. Our first application is the high-temperature limit T → ∞ in d ≤ 3 dimensions. Salient features, believed to be part of the spin dynamics in isotropic Heisenberg magnets are also exhibited by our solution, like (anomalous) diffusion in a suitable hydrodynamic limit. Moreover we obtain the same order of magnitude for the diffusion coefficient D as in experiments and other theoretical calculations. Other aspects do not entirely agree with previous approaches.
Afterwards we continue by investigating systems close to the critical point Tc. Dynamic scaling forms for Π̃(k, iω) and S(k, ω), which, like spin diffusion, are postulated on the basis of quite general physical arguments, are reproduced. Agreement of the line-shapes 2with neutron scattering experiments at T = Tc is found to be satisfying, with deviations for ω → 0, that may be attributed to the simplicity of the approximation, like at infinite temperature.
Finally, we focus our attention on the thermodynamic properties of isotropic Heisenberg paramagnets by calculating the static susceptibility G(k). For this purpose we employ simple truncation schemes of the flow equations for the static self-energy ΣΛ (k) and four-spin vertex ΓΛ , together with a basic ansatz for the dynamic polarization Π̃(k, iω) in quantum systems. As a result we obtain transition temperatures Tc of three-dimensional nonfrustrated magnets within an accuracy of 5 percent compared to established benchmark values from Quantum Monte Carlo and high temperature expansion series. We conclude this chapter by giving an outlook on the application of our method to frustrated systems, which may require a combined non-trivial calculation of static and dynamic properties.
Ende der 70ger Jahre, fünf Jahre nach der Einführung des ersten kommerziellen, medizinischen Computertomographen wurde die Tomographie am Los Alamos Scientific Laboratory zum ersten Mal für die Diagnose von Teilchenstrahlen angewendet. Bei der Tomographie wird aus eindimensionalen Projektionen, sogenannten Profilen, welche in möglichst vielen Winkeln um ein Objekt herum aufgenommen werden, ein zweidimensionales Abbild der Dichteverteilung (Slice oder Scheibe) approximiert. Dies ist möglich durch das bereits 1917 von Johann Radon eingeführte Fourier-Scheiben-Theorem. In der Theorie kann die zwei-dimensionale Dichteverteilung exakt ermittelt werden, wenn Projektionen mit einer unendlich feinen Auflösung über unendlich viele Winkel um ein Objekt herum in die Rekonstruktion einbezogen werden. Durch die Rekonstruktion vieler Scheiben kann ein drei-dimensionales Abbild der Dichteverteilung in einem Objekt, in diesem Fall einem Ionenstrahl, berechnet werden, sofern dieses nicht optisch dicht ist.
Die Profile in der nicht-invasiven Strahldiagnose entstehen durch CCD-Kameraaufnahmen von strahlinduzierter Fluoreszenz, welche durch den Einlass von Restgas hervorgerufen wird. Es sind aber auch Profile, welche aus anderen Methoden gewonnen werden (z.B. Gittermessungen) denkbar. An Orten mit hoher Energie ist jedoch eine nicht-invasive Form der Profilaufnahme sowohl für die Qualität des Strahls, wie auch den Schutz der Messgeräte unabdingbar.
In den letzten 40 Jahren wurden im Bereich der Strahltomographie viele wichtige Fortschritte erzielt:
1. Anfangs standen nur sehr wenige Profile zur Verfügung, so dass die Methode der gefilterten Rückprojektion(FBP), welche sich direkt aus dem Fourier-Scheiben-Theorem ableitet und welches auch in der Medizin verwendet wird, nicht angewendet werden kann. Um dieses Problem zu lösen wurden iterative Methoden wie die Algebraische Rekonstruktion (ART) und die Methode der Maximalen Entropie (MEM) für die Strahltomographie erschlossen, so dass auch mit sehr geringer Profilanzahl eine Rücktransformation möglich wurde.
2. Neben der Ortsraumtomographie wurde die Phasenraumtomografie entwickelt, so dass mittlerweile eine Rekonstruktion des sechs-dimensionalen Phasenraumes möglich ist, mit welchem ein Ionenstrahl in seiner Gesamtheit beschrieben werden kann.
3. Die Projektionen wurden lange Zeit durch Aufnahmen von mehreren festen Anschlüssen aus gewonnen (Multi-Port-Technik). Auf diese Weise ist die Anzahl der möglichen Projektionen sehr begrenzt. So entwickelte man später eine Methode welche den Strahl mit Hilfe von Quadrupolen dreht (Quad-Scan-Technik), so dass auf diese Weise von einem Anschluss aus viele Projektionen gemessen werden konnten, so dass sogar die FBP angewendet werden konnte.
4. Die meisten Bestrebungen zielten darauf ab, die Tomographie für eine nicht-invasive Emittanzmessmethode zu nutzen, welches bis heute aufgrund der großen und noch immer zunehmenden Energien in modernen Beschleunigern ein wichtiges Problem ist. Um die Tomographie zur Emittanzmessung zu verwenden, führt man eine Rekonstruktion des Phasenraumes durch. Das Problem ist, dass hierfür das a priori Wissen über die Strahltransportmatrix in die Tomographie mit einfließt, die berechnete Strahltransportmatrix
jedoch nicht mit dem tatsächlichen Strahltransport übereinstimmt, da dieser bei hohen Energien durch auftretende Raumladung nicht-linear verändert wird. Hierzu wurden gute Fortschritte in der Abschätzung der tatsächlichen Transportmatrix gemacht um die Phasenraumtomographie trotzdem mit hinreichend gutem Ergebnis durchführen zu können.
Trotz all dieser Fortschritte und Entwicklungen ist die Tomographie bis heute keine weitverbreitete Methode in der Strahldiagnose. Der Grund ist, dass das Einrichten einer Tomografie eine komplexe Abfolge etlicher Entscheidungen und weitgestreutes Wissen aus vielen unterschiedlichen Bereichen erfordert, dieser nicht zu unterschätzende Mehraufwand jedoch auch durch einen signifikanten Nutzen gerechtfertigt sein muss. Der große Nutzen der Tomographie für die Strahldiagnose und Untersuchung der Strahldynamik ist bis heute allerdings weitgehend unerkannt und weiterhin reduziert auf die Entwicklung einer nicht-invasiven Methode für die Emittanzbestimmung. Ein zweites Hindernis stellte bisher auch die Diskrepanz zwischen Genauigkeit und Platzaufwand dar (hohe Genauigkeit durch viele Projektionen mit Quad-Scan-Technik auf mehreren Metern oder niedrige Genauigkeit durch wenig Projektionen mit Multi-Port-Technik auf weniger als einem Meter). Die Tomografie kann großen Nutzen leisten für die Online-Überwachung wichtiger Maschineneparameter im Strahlbetrieb (Monitoring) als auch für detaillierte Analysen zur Strahldynamik (Modellierung) weit über die Implementierung einer nicht-invasiven Emittanzmessmethode hinaus.
Um dies zu gewährleisten Bedarf es Zweierlei. Zum einen muss die Diskrepanz zwischen Genauigkeit und Platzaufwand aufgehoben werden. Hierzu wurde im Rahmen dieser Arbeit eine rotierbare Vakuumkammer entwickelt die nach dem Vorbild medizinischer Tomographen in mehr als 5000 Winkelschritten um den Strahl herum fahren kann, dabei ein Vakuum von mindestens 10-7mbar aufrecht erhält und einen Platzbedarf von weniger als 400 mm in der Strahlstrecke einnimmt. Zum anderen muss die Implementierung der Tomografie durch eine Angabe von schematischen Schritten und Entscheidungen vereinfacht werden. Eine Strahltomographie muss immer auf ihren jeweiligen Zweck hin implementiert werden, da Einzelelemente der Tomografie wie beispielsweise Messvorrichtung und dadurch die Profilanzahl, zu verwendender Tomographiealgorithmus, zu bestimmende Parameter sich je nach Einsatz unterscheiden können. Jedoch können die dazu nötigen Entscheidungen in ein Schema eingeordnet werden, welches die Implementierung der Tomographie vereinfacht und beschleunigt. Hierzu wurde in dieser Arbeit eine Diagnosepipeline und ein Entscheidungsschema eingeführt, sowie die Implementierung nach diesem Schema am Beispiel einer Strahltomographie für die Frankfurter Neutronenquelle (FRANZ) demonstriert und die entsprechenden Fragen und Entscheidungen diskutiert. Es wird gezeigt, wie sich aus den Messdaten über die Aufbereitung der Daten durch die Tomografie die erforderlichen Standardstrahlparameter für ein Monitoring gewinnen lassen. Zusätzlich wird ein Ebenen-Modell eingeführt, über welches nicht-Standardparameter oder neu modellierte Strahlparameter für detaillierte Analysen der Strahldynamik über die Standardparameter hinaus entwickelt werden können. Diese Arbeit soll ein grundlegendes Konzept für die routinemäßige Implementierung der Tomographie in der Strahldiagnose zur Verfügung stellen. Für die Verwendung zum Monitoring im Strahlbetrieb muss die Bestimmung von Standardparametern noch wesentlich im Zeitaufwand verbessert werden. Die Verwendung der Phasenraumtomographie benötigt noch eine Idee um den arcustangensförmigen Verlauf der berechneten Phasenraumrotationswinkel mit der Forderung der FBP nach äquidistanten Projektionswinkeln verträglicher zu machen.
In den Neurowissenschaften führt die Erforschung des vegetativen Nervensystem (VNS) immer noch ein Schattendasein. Einer der wichtigsten Teile des VNS, der Hirnstamm, ist dabei besonders schlecht erforscht, obwohl er die Steuerzentren für Herzschlag, Blutdruckregulation, Atmung, Verdauung, und viele weitere lebenswichtige Funktionen beherbergt. Ein wichtiger Grund für diesen Umstand ist, dass die funktionelle Kernspintomographie (fMRT) sich in ihrer bisherigen Form nur bedingt für Messungen im Hirnstamm eignet. Ziel dieser Arbeit war es daher, neue Ansätze zur fMRT-Messung vegetativer Zentren im menschlichen Hirnstamm zu entwickeln. Nach einer Einführung in die Neuroanatomie sowie die physikalischen und physiologischen Grundlagen der strukturellen und funktionellen MRT werden im mittleren Teil der Arbeit die Entwicklung sowie der Test neuer Ansätze zur Hirnstamm-fMRT beschrieben. Dabei untersucht der Autor zunächst, welche grundlegenden Probleme einer konventionellen fMRT-Messung im Hirnstamm entgegenstehen. Es stellt sich heraus, dass alle hirnstamm-spezifischen Störquellen direkt oder indirekt auf den Herzschlag zurückzuführen sind. Aus den vorhandenen Ansätzen zur Korrektur solcher Störungen wird die Herzschlag-Taktung ausgewählt. Bei diesem Verfahren erfolgt die Aufnahme der fMRT-Bilder zeitlich gekoppelt an dem Herzschlag des Probanden, um sämtliche kardiogenen Rauschquellen zu unterdrücken. Anstelle des häufig verwendeten, aber statistisch problematischen Guimaraes-Verfahrens zur Korrektur der durch die Herzfrequenzvariabilität bedingten Schwankungen des MR-Signals wird in der vorliegenden Arbeit der die sog. Dual-Echo-Bildgebung verwendet. Dabei wird die konventionelle EPI-Sequenz (echo-planar imaging) dahingehend erweitert, dass pro Bild anstelle eines Echos zwei aufgenommen werden. Durch Quotientenbildung der beiden Bilder kann so der fluktuierende Teil des Signals entfernt werden. Beim Vergleich verschiedener Varianten der Quotientenbildung stellt sich ein neu entwickelter, exponentieller Ansatz als überlegen heraus. Danach werden die Auswirkungen verschiedener Methoden der Bewegungskorrektur und Schichtorientierung verglichen, um das Optimum für Messungen im Hirnstamm zu ermitteln. Nach Tests des neuen Verfahrens an verschiedenen fMRT-Datensätzen werden Empfehlungen für die Kombination der verschiedenen Parameter gegeben. Es zeigt sich, dass die Standardabweichung der fMRT-Bilder mit der neuen Methode im unteren Hirnstamm um 13% - 33% reduziert werden kann. Ein Sensitivitätstest an motorischen Hirnstammkernen, welche durch ein motorisches Paradigma aktiviert werden, zeigt, dass die jeweiligen Kerne in 85% - 95% der Fälle eindeutig identifiziert werden können. Im dritten Teil der Arbeit erfolgt die Anwendung der neuen Methode auf die Messung von Aktivierungen vegetativer Zentren. Hier wird als unkonventionellen Stimulus des vegetativen Nervensystems die Akupunktur verwendet. Dies geschieht u.a. mit der Zielsetzung, zur Aufdeckung des noch immer unbekannten Wirkmechanismus dieser Therapieform beizutragen. Als Akupunkturpunkt wird Pc6 am Handgelenk gewählt, da die Studienlage eindeutig dessen Effektivität bei der Behandlung von Übelkeit und Erbrechen sowie eine Beeinflussung der Magen-Peristaltik zeigt und die neuralen Zentren hierfür größtenteils im Hirnstamm lokalisiert sind. Der Autor stellt daher die Hypothese auf, dass die Akupunkturwirkung in diesem Fall über den Vagusnerv und dessen Hirnstammkern, den Nucleus dorsalis nervi vagi, vermittelt wird. Vor der Überprüfung dieser Hypothese erfolgt zunächst eine Methodenkritik der bisherigen Akupunktur-fMRT-Forschung. Anhand einer Gruppe von Studien, welche über Aktivierungen der Sehrinde bei Akupunktur visuell relevanter Punkte berichten, weist der Autor eine Reihe methodischer Probleme nach. Anhand einer eigenen Studie kann er mittels Independent Component Analysis (ICA) zeigen, dass die von den bisherigen Studien berichteten, visuellen Aktivierungen höchstwahrscheinlich nicht auf die Wirkung der Akupunktur zurückzuführen sind. Um einige der Probleme dieser Studien zu umgehen, entwickelt der Autor ein neues psychophysikalisches Verfahren, bei dem die Probanden während der Akupunktur kontinuierlich die Stärke der Nadelempfindung („DeQi“) auf einer visuellen Analogskala bewerten. Mit Hilfe dieses Verfahrens gelingt schließlich der Nachweis einer Hirnstamm-Aktivierung unter Akupunktur-Stimulation, deren Lokalisation mit der des Nucleus dorsalis nervi vagi vereinbar ist. Dies bestätigt die ursprüngliche Hypothese und zeigt gleichzeitig die Eignung des neuen Verfahrens für die Bildgebung vegetativer Hirnstammzentren.
The main purpose of the Transition Radiation Detector (TRD) located in the central barrel of ALICE (A Large Ion Collider Experiment) is electron identification for separation from pions at momenta pt > 1 GeV/c, since in this momentum range the measurements of the specific energy loss (dE/dx) of the Time Projection Chamber (TPC) is no longer sufficient. Furthermore, it provides a fast trigger for high transverse momentum charged particles (pt > 3 GeV/c) and makes a significant contribution to the optimization of the tracking of reaction products in heavy-ion collisions. Its whole setup comprises 18 supermodules out of which 13 are presently operational and mounted cylindrically around the beam axis of the Large Hadron Collider (LHC). A supermodule contains either 30 or 24 chambers, each consisting of a radiator for transition radiation creation, a drift and an amplifying region followed by the read-out electronics. In total, the TRD is an array of 522 chambers operated with about 28 m3 of a Xe-CO2 [85-15%] gas mixture. During the work of this thesis, the testing, commissioning, operation and maintenance of detector parts, the gas system and its online quality monitor, improvements on the detector control user-interface and studies about a new pre-trigger module for data read-out have been accomplished. The TRD gas system mixes, distributes and circulates the operational gas mixture through the detector. Its overall optimization has been achieved by minimizing gas leakage, surveying, controlling, maintaining and continuously improving it as well as designing and carrying out upgrades. Gas quality monitors of the type \GOOFIE" (Gas prOportional cOunter For drIfting Electrons) can be used in gaseous detectors as on-line monitors of the electron drift velocity, gain and gas properties. One of these devices has been implemented within the TRD gas system, while another one surveys the gas of the TPC. Both devices had to be adapted to the specific needs of the detectors, were under constant surveillance and control, and needed to be further developed on both hardware and software side. To improve the operation of the TRD, modifications on its DCS software (Detector Control System) used for monitoring, controlling, operating, regulating and configuring of hardware and computing devices have been carried out. The DCS is designed to enable an operator to interact with equipment through user interfaces that display the information from the system. The main focus of this work was laid on the optimization of the usability and design of the user interface. The front-end electronics of the TRD require an early start signal (\pre-trigger") from the fast forward detectors or the Time-Of-Flight detector during the running periods. The realization of a new hardware concept for the read-out of the TRD pre-trigger system has been studied and first tests were performed. This new module called PIMDDL (Pre-trigger Interface Module Detector Data Link) is meant to acquire all data necessary to simulate and predict the full pre-trigger functionality, and to verify its proper operation. Furthermore, it shall provide all functionalities of the so-called Control Box Bottom as well as keep the functionalities of the already existing PIM (Pre-trigger Interface Module) in order to combine and replace these two modules in the future.
In den vergangen Jahren wurde erkannt, dass eine Quantenfeldtheorie (QFT) namens Quantenchromodynamik (QCD) die richtige Theorie der starken Wechselwirkungen ist. QCD beschreibt erfolgreich die starken Wechselwirkungen, die Quarks zu Nukleonen und Nukleonen zu Atomkernen zusammenbinden. Jedoch ist die theoretische Beschreibung vieler Phänomene der starken Wechselwirkung aufgrund des starken Kopplungsverhaltens bei niedrigen Energien schwierig. Stoßexperimente mit Schwerionen sind ein möglicher Weg, um die charakteristischen Phänomene und Eigenschaften der QCD-Materie zu untersuchen. In Stoßexperimenten mit Schwerionen werden schwere (d.h. große) Atomkerne aufeinander geschossen, beispielsweise Gold (am RHIC) oder Blei (am CERN, LHC), mit einer ultrarelativistischen Energie √s im Schwerpunktsystem. Auf diese Art ist es möglich, eine große Menge von Materie mit hoher Energiedichte hervorzubringen. Das Ziel von Schwerionenkollisionen ist die Erzeugung und Charakterisierung einer makroskopischen Phase von freien Quarks und Gluonen im lokalen thermischen Gleichgewicht. Ein solcher Aggregatzustand kann neue Informationen über das QCD-Phasendiagramm und den QCD-Phasenübergang liefern. Man nimmt an, dass ein solcher Übergang stattfand, als sich die Materie des frühen Universums von einem Plasma aus Quarks und Gluonen (QGP) in ein Gas von Hadronen umwandelte...
A powerful technique to distinguish the enantiomers of a chiral molecule is the Coulomb Explosion Imaging (CEI). This technique allows us to determine the handedness of a single molecule. In CEI, the molecule becomes charged by losing many electrons in a very short period of time by interacting with the light. The repulsion forces between the positive charged particles of the molecule leads the molecule to break into parts-fragments. By measuring the three vector momentum of (at least) four fragments, the handedness observable can be determined. In this thesis, CEI is induced by absorption of a single high energy photon, which creates an inner-shell hole (K shell) of the molecule. The subsequent cascade of Auger decays lead to fragmentation. We decided to work with the formic acid molecule in this thesis. Two different experiments were conducted. The first experiment focused on exciting electrons to different energy states, while the second experiment focused on extracting directly a photoelectron to the continuum and measure the angular distribution of the photoelectron in the molecular frame. The primary goal was to search for chiral signal in a pure achiral planar molecule under the previous electron processes. The results of these findings were further implemented to two more molecules.
In der hier vorliegenden Arbeit wurden Fragen der atomaren Korrelation sowie Verschränkung untersucht und ein Beobachtungsfenster geöffnet, durch welches es möglich ist, Einblick in die Grundzustandswellenfunktion von Helium zu erhalten. Der Elektronentransfer (Pq++He->P(q-1)++He+) in schnellen Ion-Atom-Stößen findet im Bereich des Überlapps der Wellenfunktionen des gebundenen Anfangs- und Endzustandes statt [JOpp28a, MMcD70]. Daher kann diese Reaktion besonders selektiv an der Grundzustandswellenfunktion angreifen. Die bei der Transferionisation (Pq++He->P(q-1)++He2++e-) zusätzlich stattfindende Ionisation involviert auch das zweite Elektron. Dadurch ist es möglich die komplexe Vielteilchendynamik zu untersuchen und wie später in dieser Arbeit gezeigt wird, unter bestimmten Bedingungen auch sensitiv auf die Anfangszustandskorrelation zu sein! Die Messungen wurden mit H+-, He+- und He2+-Projektilen bei Einschussenergien von 40 - 630 keV/u (1,25 < vP < 5,02 a. u.) durchgeführt. Durch den Elektronentransferprozess wird auch die Vermessung des Endzustandes, den Impulsen, aller drei Teilchen (Projektil, Elektron und He2+-Rückstoßion) erleichtert. Durch das umgeladene, dann neutrale, Projektil werden zusätzlich die Post-Collision-Effekte minimiert. Zur experimentellen Untersuchung kommt die seit Jahren etablierte Technologie des Reaktionsmikroskops (COLTRIMS, COLd Target Recoil Ion Momentum Spectroscopy) zum Einsatz [HSch89, RDoe00a, JUll03], die sich durch eine 4¼-Impulsakzeptanz für alle emittierten Teilchen auszeichnet. Nach Kreuzung der Projektilionen mit einem kalten und wohl lokalisierten Gasstrahl werden die umgeladenen Projektile detektiert. Die im Überlappbereich entstehenden Elektronen und Ionen werden mittels elektrischer und magnetischer Felder ebenfalls auf orts- und zeitauflösenden Detektoren projiziert. Anhand des Auftreffortes und der Flugzeit können die dreidimensionalen Impulsvektoren eindeutig rekonstruiert werden. Je nach Energie Projektile dominieren unterschiedliche atomare Reaktionsmechanismen. Entsprechend sind es zwei Fragenkomplexe, denen sich diese Arbeit hauptsächlich widmet: - Was ist die Reaktionsdynamik? Welche Mechanismen tragen zur Reaktion bei und wie hängen diese von Projektilladung und -energie ab? - Lässt sich die Grundzustandswellenfkt. mit dieser Technik abbilden? Die erzielten Ergebnisse sehen wie folgt aus: - Im Bereich langsamer Stöße (vP <= vB;e) wird der Stoßprozess in einem quasimolekularen Bild beschrieben (Sattelpunktionisation). Hier konnten im Wesentlichen die experimentellen Ergebnisse von Schmidt zum symmetrischen Stoßsystems He2+/He [LSch00] bestätigt und zu höheren Projektilgeschwindigkeiten fortgeschrieben werden (60 keV/u). Für die Stoßsysteme He+/He und H+/He wurden sehr ähnliche Emissionsstrukturen im Impulsraum gefunden. - Bei allen untersuchten Projektilenergien und Stoßsystemen wurde eine vom Elektroneneinfang unabhängige Stoßionisation durch Wechselwirkung mit dem Projektil (Binary Encounter, BE) gefunden. Die Erwartung, dass der Targetkern nur Beobachter der Ionisation ist, wurden eindeutig widerlegt und die Abweichungen als Folge von Korrelationseffekten gedeutet. - Speziell für das Stoßsystem He+/He bei 60 keV/u wurden sehr viele im Geschwindigkeitsraum um vP verteilte Elektronen beobachtet und einem Dreistufenprozess zugeschrieben: Zuerst erfolgt die Ionisation des Projektils und anschließend ein resonanter Zweielektroneneinfang. - Wird ein Elektron sehr schnell entfernt, wie durch den Elektroneneinfang bei hohen Projektilgeschwindigkeiten (vP ¸ 3 a. u.) findet die Ionisation sehr häufig durch Shake-off [TAbe67] statt. Die Elektronen wurden entgegen der Strahlrichtung emittiert, zu negativen Longitudinalimpulsen. Darüberhinaus wurde kein Unterschied zwischen den verschiedenen Projektilen beobachtet. Da für den Shake-off-Prozess unter den hier realisierten Bedingungen das Projektil nicht mit dem emittierten Elektron wechselwirkte, spiegelt die Elektronenimpulsverteilung direkt den, durch den Elektroneneinfang präparierten Anteil, der Grundzustandswellenfunktion wider [AGod04, MSch05]. Theoretische Rechnungen bestätigen, dass die rückwärtige Elektronenemission nur durch die stark korrelierten nicht-s2-Anteile im Heliumgrundzustand zu erklären ist. Diese Beimischungen höherer Drehimpulse von weniger als 2 % konnten entgegen der verbreiteten Lehrmeinung zum ersten Mal experimentell nachgewiesen und vermessen werden.
We consider the theory of high temperature superconductivity from the viewpoint of a strongly correlated electron system. In particular, we discuss Gutzwiller projected wave functions, which incorporate strong correlations by prohibiting double occupancy in orbitals with strong on-site repulsion. After a general overview on high temperature superconductivity, we discuss Anderson’s resonating valence bond (RVB) picture and its implementation by renormalized mean field theory (RMFT) and variational Monte Carlo (VMC) techniques. In the following, we present a detailed review on RMFT and VMC results with emphasis on our recent contributions. Especially, we are interested in spectral features of Gutzwiller-Bogoliubov quasiparticles obtained by extending VMC and RMFT techniques to excited states. We explicitly illustrate this method to determine the quasiparticle weight and provide a comparison with angle resolved photoemission spectroscopy (ARPES) and scanning tunneling microscopy (STM). We conclude by summarizing recent successes and by discussing open questions, which must be solved for a thorough understanding of high temperature superconductivity by Gutzwiller projected wave functions.
HADES : ein Dielektronenspekrometer hoher Akzeptanz für relativistische Schwerionenkollisionen
(1995)
Das Dielektronenspektrometer HADES (High Acceptance Dielectron Spectrometer) wird gegenwärtig am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) aufgebaut. Die Spektroskopie von Elektron-Positron-Paaren (Dielektronen) aus Kern-Kern-Kollisonen mit Projektilenergien von 1 bis 2 GeV/Nukleon verspricht einen Einblick in die Eigenschaften von Hadronen bei Dichten, die das Dreifache von normaler Kerndichte erreichen. Es wird erwartet, daß sich die Massenverteilung der unterhalb der Schwelle erzeugten leichten Vektormesonen rho. omega und phi anhand ihres Zerfalls in Dielektronen experimentell untersuchen läßt. Die Beobachtung von Massenänderungen kann Hinweise auf die Restauration der im Vakuum gebrochenen chiralen Symmetrie geben. Die Eigenschaften des Spektrometers wurden in der vorliegenden Arbeit mit Simulationsrechnungen (GEANT) untersucht und optimiert. Zur Leptonenidentifizierung dient ein ortsempfindlicher Cerenkov-Zähler (RICH1) mit Gasradiator, azimutal symmetrischem Spiegel und V-Photonendetektor. Durch die geometrische Anordnung des RICH und mit sechs supraleitenden Spulen in toroidaler Anordung erreicht HADES eine Polarwinkelakzeptanz von 18 bis 85 Grad. Die Feldverteilung ist der kinematischen Impulsverteilung angepaßt und garantiert Feldfreiheit im RICH. Je ein Paar Minidriftkammern vor und hinter dem Magnetfeldbereich messen die Trajektorie zur anschließenden Rekonstruktion von Impuls, Winkel und Vertex. Zuletzt passieren die Teilchen META, eine Detektorkombination von Szintillatoren und Schauerdetektor. Aus der Multiplizität geladener Teilchen in den Szintillatoren werden zentrale Kollisionen für den Trigger der ersten Stufe selektiert. Den Trigger der zweiten Stufe definieren zwei erkannte Ringe im RICH, die jeweils einem Elektronensignal in META zuzuordnen sind. HADES ist ein Experiment der zweiten Generation. Die Messungen mit dem Dileptonenspektrometer DLS am BEVALAC (Berkeley, USA) ergaben nur für leichte Stoßsysteme e+e- -Spektren guter Statistik. HADES besitzt mit 35% die hundertfache geometrische e+e- - Akzeptanz des DLS. Darüber hinaus können mit einer Massenauflösung von weniger als 1% (DLS 12%) die e+e- -Beiträge von omega- und rho-Meson getrennt werden. Es ist für die Anforderungen von Au+Au-Kollisionen bei hohen Kollisionsraten von 106 pro Sekunde konzipiert. Bei einer Anzahl von bis zu 170 Protonen und 20 geladenen Pionen sowie mehr als 0.1 e+e- -Paaren durch den pi 0-Zerfall werden pro zentralerKollision etwa 10 exp 6 Dielektronen aus dem rho- oder omega-Zerfall erwartet. Leptonen, die aus dem Zerfall verschiedener pi 0-Mesonen stammen, bilden kombinatorische e+e- -Paare, die auch im e+e- -Massenbereich der Vektormesonen beitragen können. Durch Rekonstruktion und durch Methoden der Untergrunderkennung wird der e+e- -Untergrund um nahezu zwei Größenordnungen unterdrückt, während die Effizienz für echte Dielektronen etwa 55% beträgt. Die Leptonen des verbleibenden Untergrunds stammen zu mehr als 50% aus dem pi-0-Dalitz-Zerfall und zu etwa 40% aus externer Paarkonversion von ..-Quanten des Zerfalls pi 0.. , wobei Konversionsprozesse im Radiatorgas und im Target zu gleichen Teilen beitragen. pi 0-Dalitz-Zerfall überwiegt im kombinatorischen Massenspektrum bis 500 MeV/c2 ; oberhalb von 500 MeV/c2 dominiert externe Paarkonversion.
The first measurement of the fluctuation of the kaon-to-proton ratio in relativistic heavy-ion collisions is presented. This thesis details the analysis procedure for identifying kaons and protons using the NA49 experiment at CERN-SPS and discusses the results in the context of the current state of the field.
In this thesis, Hanbury-Brown-Twiss (HBT) interferometry is used together with the Ultrarelativistic Quantum Molecular Dynamics (UrQMD) to analyse the time and space structure of heavy-ion collisions.
The first chapter after the introduction gives an overview of the different types of models used in the field of heavy-ion collisions and a introduction of the UrQMD model in more detail. The next chapter explains the basics of Hanbury-Brown-Twiss correlations, including azimuthally sensitive HBT (asHBT).
Results section:
4. Charged Multiplicities from UrQMD
5. Formation time via HBT from pp collisions at LHC
6. HBT analysis of Pb+Pb collisions at LHC energies
7. HBT scaling with particle multiplicity
8. Compressibility from event-by-event HBT
9. Tilt in non-central collisions
10. Shape analysis of strongly-interacting systems
11. Measuring a twisted emission geometry
This thesis covers the standard integrated HBT analyses, extracting the Pratt-Bertsch radii, at LHC energies. The analyses at these energies showed a too soft expansion in UrQMD probably related to the absence of a partonic phase in UrQMD. The most promising results in this thesis at these energies are the restriction of the formation time to a value smaller than 0.8 fm/c and furthermore, the results from the asHBT analyses. In simulations of non-central heavy-ion collisions at energies of Elab= 6, 8 and 30 AGeV the validity of the formulae to calculate the tilt angle via asHBT has been checked numerically, even for the case of non-Gaussian, flowing sources. On this basis has been developed and test in the course of this thesis that allows to measure a scale dependent tilt angle experimentally. The signal should be strongest at FAIR energies.
Experimente zum radiativen Elektroneneinfang (REC, Radiative Electron Capture), der Zeitumkehrung der Photoionisation, wie er in Stößen hochgeladener, relativistischer Schwerionen mit leichten Gasatomen auftritt, ermöglicht einen einzigartigen Zugang zum Studium der Photonen-Materie-Wechselwirkung im Bereich extrem starker Coulombfeldern. So ist die REC-Strahlung im relativistischen Bereich zum einen geprägt durch das Auftreten von höheren elektrischen und magnetischen Multipolordnungen und zum anderen durch starke Retardierungseffekte. In Folge dessen wurde der REC-Prozeß in den vergangen Jahren sehr detailliert untersucht, wobei sich die experimentelle und theoretische Forschung auf die Emissionscharakteristik der REC-Photonen konzentrierte, wie z.B. auf Untersuchungen von Winkelverteilungen und Linienprofilen. Mittlerweile kann der REC-Prozeß als ein - selbst für die schwersten Ionen - wohlverstandener Effekt angesehen werden. Allerdings entzog sich den Experimenten bislang eine zur Beschreibung der Photonenmission wesentlich Größe, näamlich die Polarisation der Strahlung. Die lineare Polarisation der REC-Strahlung, wie sie in Stößen zwischen leichten Atomen und den schwersten, hochgeladenen Ionen vorhergesagt wird, war der Gegenstand der vorliegende Arbeit, in der es erstmals gelang, die diese für den konkreten Fall des Einfangs in die K-Schale von nackten Uranionen nachzuweisen und im Detail zu untersuchen. Die hierzu notwendigen experimentellen Untersuchungen erfolgten am Speicherring ESR der GSI-Darmstadt für das Stoßsystem U92+ -> N2 und für Projektilenergien, die im Bereich zwischen 98 und 400 MeV/u lagen. Besonders hervorzuheben ist der Einsatz eines segmentierten Germaniumdetektors, der speziell für den Nachweis linear polarisierter Strahlung im Energiebereich oberhalb 100 keV entwickelte wurde. Die lineare Polarisation der Strahlung wurde hierbei durch eine Analyse der Comptonstreuung innerhalb des Detektors gewonnen. Die durch eine präzise Analyse der Comptonstreuverteilungen gewonnenen Daten zeigen eine ausgeprägte lineare Polarisierung der REC-Strahlung in der Streuebene, die zudem eine starke Abhängigkeit als Funktion der Stoßenergie und des Beobachtungwinkels aufweist. Der detaillierte Vergleich mit nicht-relativistischen und relativistischen Vorhersagen ermöglichte darüberhinaus den Nachweis für das Auftreten starker relativistischer Effekte, die sich allerdings depolarisierend auswirken. Das Experiment wurde am internen Target des ESR-Speicherrings durchgeführt, wobei der Photonennachweis mittels mehrerer Ge(i)-Detektoren erfolgte, die die Ionen-Target-Wechselwirkungszone unter Beobachtungswinkeln zwischen nahe Null und 150 Grad einsahen. Alle Photonendetektoren wurden in Koinizidenz mit einem Teilchendetektor betrieben, um so die volle Charakteristik des REC-Prozesses zu erfassen, also den Einfang eines Targetelektrons in die nackten Uranionen (U92+) unter Emission eines Photons. Für den Polarisationsnachweis entscheidend war der Einsatz eines Germanium-Pixel-Detektors, der abwechselnd unter den Winkeln von 60 und 90 Grad betrieben wurde. Dieser Detektor verfügt über eine 4x4 Pixelmatrix (Pixelgröße: 7x7 mm), wobei die elektronische Information jedes Pixels (Energiesignale und schnelle Zeitsignale) separat registriert und aufgezeichnet wurde. Hierdurch war es möglich Ereignisse, die koinzident in zwei Pixeln erfolgten, zu detektieren und zu analysieren. Dies ist die eigentliche Voraussetzung für den Nachweis der linearen Polarisation bei hohen Photonenenergien, bei dem die Abhängigkeit des differenziellen Wirkungsquerschnitts für Comptonstreuung von der linearen Polarisation der einfallenden Photonen ausgenutzt wird (siehe Klein-Nishina Formel Eq. 2.7). Der Nachweis der Comptonstreuung erfolgt hierbei durch die Detektion des Compton-Rückstoßelektrons (deltaE) und des gestreuten Comptonphotons (hw'), die jeweils separat, aber koinzident in zwei unterschiedlichen Segmenten des Detektors nachgewiesen werden. Hier sei betont, dass für Germanium bereits ab Photonenenergien von ca. 160 keV die Absorption der Strahlung durch den Compton-Effekt über die Photoabsorption dominiert und somit das Ausnutzen des Compton-Effekts prinzipiell eine sehr effektive Technik ist. Der Auswertung der Datenfkam wesentlich zugute, dass der Germanium-Detektor über eine im Vergleich zu Szintillations- oder Gaszählern gute Energieauflösung von ca. 1.8 keV bei 122 keV verfügt. Somit kann durch Bilden der Summenenergie hw = hw' + deltaE für koinzidente Ereignisse die Energie des einfallenden Photons (hw) rekonstruieren werden und als zwingende Bedingung dafür herangezogen werden, dass es sich bei dem Ereignis im Detektor um ein Compton-Event gehandelt hat. Für den Fall linearer Polarisation ist eine wesentliche Aussage der Klein-Nishina-Formel, dass die maximale Intensität für die Compton gestreuten Photonen senkrecht zur Polarisationsebene zu erwarten ist. Tatsächlich zeigen bereits die während des Experiments aufgenommenen Rohdaten für den Fall der untersuchten REC-Strahlung, die durch den Einfang in die K-Schale des Projektils entsteht, dass es sich hierbei um eine stark polarisierte Strahlung handelt, wobei eine erhöhte Intensität für Comptonstreuung senkrecht zur Stoßebene (für den REC-Prozeß definiert durch die Ionenstrahlachse und den Impuls des REC-Photons) festgestellt wurde (vgl. Fig. 7.3). Zur genauen qualitativen Analyse der Meßdaten wurden alle möglichen Pixelkombinationen der (4x4) Detektorgeometrie ausgewertet, wobei jedoch koinzidente Ereignisse benachbarter Segmente ausgeschlossen wurden, um den hier vorhandenenen Einfluß elektronischer Übersprecher zu eliminieren. Zudem erfolgte die Analyse der Daten unter Berücksichtigung verschiedenster Effekte, die einen Einfluß auf die Nachweiseffizienzen für die Compton gestreuten Photonen haben könnten. An prominenter Stelle ist hier die Korrektur zu nennen, die durch die Detektordicke von 1,5 cm und der Pixelgröße von 7x7 cm2 hervorgerufen wird. Zu betonen ist hier, dass für die Auswertung nur relative Effizienzen eine Rolle spielen und so der Einfluß systematischer Fehler, hervorgerufen durch Effizienzkorrekturen, stark reduziert werden konnte (für eine so gewonnene, vollständige Compton-Streuverteilung sei auf Abbildung 9.1 verwiesen, in der die Intensitätsverteilung für Compton-Streuung dargestellt ist). Es sei auch hervorgehoben, dass der Nachweis der Polarisation durch Messungen von vollständigen Compton-Intensitätverteilung im Detektor erfolgte, was das hier diskutierte Experiment wesentlich von konventionellen Polarisationsexperimenten für harte Röntgen- und gamma-Strahlung unterscheidet. Üblicherweise wird in diesen Experimenten die Comptonstreuung ausschließlich in der Reaktionsebene und senkrecht dazu nachgewiesen. Generell weisen die in der vorliegenden Arbeit gewonnen Compton-Streuverteilungen für den K-REC-Prozeß ein ausgeprägtes Maxium senkrecht zur Reaktionsebene auf und bestätigen somit den bereits aus den Rohdaten abgeleiteten Befund, dass die Polarisationsebene der KREC Strahlung in der Reaktionsebene des Stosses liegt. In der Tat kann dieser Befund für alle Energien und Beobachtungswinkel bestätigt werden, die in dem hier diskutierten Experiment verwendet wurden. Hier sei zudem darauf hingewiesen, dass es durch die Erfassung der vollständigen Compton-Streuverteilung möglich war, die Orientierung der Polarisationsebene in Bezug auf die Stoßebene mit hoher Präzision zu erfassen. So konnte z.B. bei der Stossenergie von 400 MeV/u und dem Winkel von 90 Grad, die Orientierung der Comptonstreuverteilung in Bezug auf die Stoßebene zu ph=90 Grad bestimmt werden. Dieser Befund könnte für die Planung zukünftiger Experimente zum Nachweis polarisierter Ionenstrahlen entscheidend sein, da eine Abweichung von der ph = 90 Grad Symmetrie nur durch das Vorhandensein polarisierter Teilchen erklärt werden kann. Dieser Effekt, der in neuesten theoretischen Behandlungen im Detail untersucht wurde, stellt gleichsam einen neuen Zugang zur Bestimmung des Polarisationsgrads der Projektile dar. Hierdurch wird die Stärke der hier angewandten Technik verdeutlicht, die auf dem Einsatz eines ortsempfindlichen Germanium-Pixel- Detektors beruht. Die Bestimmung des genauen Polarisationsgrades für die K-REC-Strahlung erfolgte durch eine X2-Anpassung der Klein-Nishina-Formel an die experimentellen Daten. Die hieraus resultierenden Daten zeigen für alle Strahlenergien und Beobachtungsgwinkel eine starke Polarisation von etwa 80%, wobei die experimentelle Unsicherheit im 10% Bereich liegt. Letztere ist im wesentlichen auf die statistische Genauigkeit zurückzuführen. Die Daten wurden zudem eingehend mit theoretischen Vorhersagen verglichen. Die Theorie stützt sich auf eine vollständige relativistische Beschreibung des REC-Prozesses unter Verwendung exakter Wellenfunktionen für das Kontinuum und den 1s Zustand in wasserstoffartigem Uran. Typischer weise mußten bei den Rechnungen sowohl elektrische wie auch magnetische Multipolterme bis hin zu L=20 verwendet werden, um Konvergenz zu erreichen. Der Vergleich zeigt eine hervorragende Übereinstimmung zwischen Experiment und Theorie. Zudem verdeutlicht der Vergleich mit der ebenfalls diskutierten Vorhersage der nicht-relativistischen Dipolnäherung die Bedeutung relativistischer Effekte (vor allem das Auftreten höherer elektrischer und magnetischer Multipole), die für die Emission der REC-Strahlung bei hohen, relativistischen Energien und hohem Z charakteristisch sind. Offensichtlich wirken sich diese Effekte stark depolarisierend aus. Dass in der Tat eine Zunahme der depolarisierenden Effekte mit einer Zunahme der Strahlenergie verbunden ist, wird auch durch die Daten dokumentiert, die für den Beobachtungswinkel von 60 Grad als Funktion des Projektilenergie untersucht wurden. Die in der vorliegenden Arbeit gewonnenen Resultate für die Polarisation der REC-Strahlung ebenso wie die neuartige Experimenttechnik, die hierbei zum Einsatz kam, lassen für die nahe Zukunft eine Serie von weiteren Polarisations-Experimenten erwarten. Hierbei könnte der REC-Strahlung und deren Polarisation als Mittel zur Diagnostik und zum Nachweis des Polarisationsgrades gespeicherter Ionenstrahlen eine Schlüsselrolle zukommen. Als Detektorsysteme werden hierzu zwei-dimensionale Germanium- und Silizium-Streifen-Detektoren zum Einsatz kommen bzw. Kombinationen aus zweidimensionalen Silizium- und Germanium-Detektoren, sogenannte Compton-Teleskope. Diese Compton-Polarimeter, die gegenwärtig für neue Experimentvorhaben am ESR-Speicherring entwickelt werden, verfügen über eine wesentlich verbesserte Ortsauflösung (z.B. 1x1 mm2) und somit über eine wesentlich gesteigerte Nachweiseffizienz für die Comptonstreuung (ein bis zwei Größenordnungen). Hierdurch sollte es möglich sein, den für Polarisationexerperimente zugänglichen Energiebereich wesentlich auszudehnen, sodass selbst die charakteristische Strahlung der Schwerionen (ca. 50 bis 100 keV) für solche Experimente zugänglich wird.
The high energy loss of heavy ions in matter as well as the small angular scattering makes heavy ion beams an excellent tool to produce almost cylindrical and homogeneously excited volumes in matter. This aspect can be used to pump short wavelength lasers. In an experiment performed at the GSI (Gesellschaft für Schwerionenforschung, Darmstadt, Germany) ion accelerator facility in December 2005 the well-known KrF* excimer laser was pumped with an intense high energy uranium beam. Pulses of an uranium beam with initial particle energy of 250 MeV per nucleon, provided by heavy-ion-synchrotron SIS-18, were delivered to the HHT-target station and then stopped inside a gas laser cell. The maximum beam intensity reached in the experiment was 2,5·109 particles per pulse, which resulted in 34 J/g specific energy deposited in the laser gas. By applying electron cooling and a bunch compression technique at SIS-18, the beam pulses were compressed down to 110 ns (FWHM). A mixture of an excimer laser premix gas (95,5% Kr + 0,5% F2) and a buffer gas (Ar 4.8) was used as the laser gas in proportions of 35/65 and 60/40, respectively. The gas pressure inside the laser cell was varied in the range of 1,2÷2 bar in continues flow mode. The experimental setup consisted of a 1 m long stainless steel tube with a number of diagnostic viewports and two mirror adjustment units. The optical cavity was formed by a flat, Alcoated mirror at the beam entrance and a second dielectrically coated, highly reflective mirror with 3 m radius of curvature at a distance of 1,3 m. A beam of heavy ions has been used to pump a short wavelength gas laser for the first time. Laser effect on the KrF* laser transition (λ = 248 nm) has been successfully demonstrated. Laser threshold for this specific setup was reached with a beam intensity of 1,2·109 particles per pulse. Laser action has been clearly proofed by the following methods: appearance of the laser line, spectral narrowing of the laser line, temporal narrowing of the laser signal, non-linear response of the laser output intensity on the pumping power, and cavity disalignment effect. An energy of the laser pulse of about 2 mJ was measured for an ion beam intensity of 2·109 particles per pulse. The time delay of the onset of the laser emission with respect to the pumping pulse was measured as a function of ion beam intensity. The dependence of spontaneous emission spectra on the gas pressure in a range of 1,3÷2 bar was observed and the optimal gas pressure for laser experiments in the sense of laser efficiency was concluded. As a next step in studying short wavelength lasers pumped with heavy ion beams it is planned to reduce the laser wavelength down to the VUV region of the spectrum, and to proceed to the excimer lasers of the pure rare gases: Xe2 * (λ = 172 nm), Kr2 * (λ = 146 nm), Ar2 * (λ = 126 nm), Ne2 * (λ = 83 nm) and He2 * (λ = 80 nm). We believe that the use of heavy ion beams as a pumping source may lead to new pumping schemes on the higher lying level transitions and considerably shorter wavelengths (XUV and X-ray spectral region), which rely on the high cross sections for multiple ionization of the target species.