Institutes
Refine
Year of publication
Document Type
- Article (407)
- Doctoral Thesis (223)
- Preprint (43)
- Conference Proceeding (17)
- Master's Thesis (12)
- Bachelor Thesis (9)
- Contribution to a Periodical (9)
- Book (5)
- Habilitation (3)
- Other (1)
Has Fulltext
- yes (731)
Is part of the Bibliography
- no (731) (remove)
Keywords
- Relativistic heavy-ion collisions (7)
- ALICE (5)
- Black holes (5)
- FEBID (5)
- Heavy-ion collisions (5)
- LHC (5)
- Toroidales Magnetfeld (5)
- Equation of state (4)
- Fluctuations (4)
- HADES (4)
Institute
With the increasing energies and intensities of heavy-ion accelerator facilities, the problem of an excessive activation of the accelerator components caused by beam losses becomes more and more important. Numerical experiments using Monte Carlo transport codes are performed in order to assess the levels of activation. The heavy-ion versions of the codes were released approximately a decade ago, therefore the verification is needed to be sure that they give reasonable results. Present work is focused on obtaining the experimental data on activation of the targets by heavy-ion beams. Several experiments were performed at GSI Helmholtzzentrum für Schwerionenforschung. The interaction of nitrogen, argon and uranium beams with aluminum targets, as well as interaction of nitrogen and argon beams with copper targets was studied. After the irradiation of the targets by different ion beams from the SIS18 synchrotron at GSI, the γ-spectroscopy analysis was done: the γ-spectra of the residual activity were measured, the radioactive nuclides were identified, their amount and depth distribution were detected. The obtained experimental results were compared with the results of the Monte Carlo simulations using FLUKA, MARS and SHIELD. The discrepancies and agreements between experiment and simulations are pointed out. The origin of discrepancies is discussed. Obtained results allow for a better verification of the Monte Carlo transport codes, and also provide information for their further development. The necessity of the activation studies for accelerator applications is discussed. The limits of applicability of the heavy-ion beam-loss criteria were studied using the FLUKA code. FLUKA-simulations were done to determine the most preferable from the radiation protection point of view materials for use in accelerator components.
Infrared spectroscopy in combination with a specially developed attenuated total reflection (ATR) flow cell and multivariate analysis was used for the quantitative analysis of beer and other beverages. IR spectra of samples were obtained in the range from below 1000 cm-1 to 4000 cm-1 and subjected to a multivariate analysis based on calibration sets with laboratory reference standards. In the case of beer, this calibration set included 240 beer samples spanning the entire range of ethanol content, extract and CO2. Based on this calibration, an infrared and UV/Vis spectroscopy-based sensor for the quick and quantitative quality control of beer was developed and subjected to extensive tests in breweries. This sensor meets and exceeds all requirements from brewers for the routine control in the production and bottling. Its use for other beverages, for example wine, juices or apple wine, requires only another set of calibration data for the specific beverage.
One-photon and multi-photon absorption, spontaneous and stimulated photon emission, resonance Raman scattering and electron transfer are important molecular processes that commonly involve combined vibrational-electronic (vibronic) transitions. The corresponding vibronic transition profiles in the energy domain are usually determined by Franck-Condon factors (FCFs), the squared norm of overlap integrals between vibrational wavefunctions of different electronic states. FC profiles are typically highly congested for large molecular systems and the spectra usually become not well-resolvable at elevated temperatures. The (theoretical) analyses of such spectra are even more difficult when vibrational mode mixing (Duschinsky) effects are significant, because contributions from different modes are in general not separable, even within the harmonic approximation. A few decades ago Doktorov, Malkin and Man'ko [1979 J. Mol. Spectrosc. 77, 178] developed a coherent state-based generating function approach and exploited the dynamical symmetry of vibrational Hamiltonians for the Duschinsky relation to describe FC transitions at zero Kelvin. Recently, the present authors extended the method to incorporate thermal, single vibronic level, non-Condon and multi-photon effects in energy, time and probability density domains for the efficient calculation and interpretation of vibronic spectra. Herein, recent developments and corresponding generating functions are presented for single vibronic levels related to fluorescence, resonance Raman scattering and anharmonic transition.
Using a microscopic transport model we investigate the evolution of conical structures originating from the supersonic projectile moving through the hot matter of ultrarelativistic particles. Using different scenarios for the interaction between projectile and matter, and different transport properties of the matter, we study the formation and structure of Mach cones. Especially, a dependence of the Mach cone angle on the details and rate of the energy deposition from projectile to the matter is investigated. Furthermore, the two-particle correlations extracted from the numerical calculations are compared to an analytical approximation. We find that the propagation of a high energetic particle through the matter does not lead to the appearance of a double peak structure as observed in the ultrarelativistic heavy-ion collision experiments. The reason is the strongly forward-peaked energy and momentum deposition in the head shock region. In addition, by adjusting the cross section we investigate the influence of the viscosity to the structure of Mach cones. A clear and unavoidable smearing of the profile depending on a finite ratio of shear viscosity to entropy density is clearly visible.
We show from first principles the emergence of classical Boltzmann equations from relativistic nonequilibrium quantum field theory as described by the Kadanoff–Baym equations. Our method applies to a generic quantum field, coupled to a collection of background fields and sources, in a homogeneous and isotropic spacetime. The analysis is based on analytical solutions to the full Kadanoff–Baym equations, using the WKB approximation. This is in contrast to previous derivations of kinetic equations that rely on similar physical assumptions, but obtain approximate equations of motion from a gradient expansion in momentum space. We show that the system follows a generalized Boltzmann equation whenever the WKB approximation holds. The generalized Boltzmann equation, which includes off-shell transport, is valid far from equilibrium and in a time dependent background, such as the expanding universe.
Driven by the loss of energy, isolated rotating neutron stars (pulsars) are gradually slowing down to lower frequencies, which increases the tremendous compression of the matter inside of them. This increase in compression changes both the global properties of rotating neutron stars as well as their hadronic core compositions. Both effects may register themselves observationally in the thermal evolution of such stars, as demonstrated in this Letter. The rotation-driven particle process which we consider here is the direct Urca (DU) process, which is known to become operative in neutron stars if the number of protons in the stellar core exceeds a critical limit of around 11% to 15%. We find that neutron stars spinning down from moderately high rotation rates of a few hundred Hertz may be creating just the right conditions where the DU process becomes operative, leading to an observable effect (enhanced cooling) in the temperature evolution of such neutron stars. As it turns out, the rotation-driven DU process could explain the unusual temperature evolution observed for the neutron star in Cas A, provided the mass of this neutron star lies in the range of 1.5 to 1.9M⊙ and its rotational frequency at birth was between 40 (400 Hz) and 70% (800 Hz) of the Kepler (mass shedding) frequency, respectively.
In der vorliegenden Arbeit wurden mikroskopische Studien zur Äquilibrierung von partonischer und hadronischer Materie im Rahmen einer Nichtgleichgewichts-Transporttheorie durchgeführt, die sowohl hadronische als partonische Freiheitsgrade enthält und den Übergang zwischen beiden Phasen dynamisch beschreibt. Des Weiteren wurden die thermischen Eigenschaften des Gleichgewichtszustandes der stark wechselwirkenden Materie untersucht, insbesondere Fluktuationen in der Teilchenzahl wie auch höhere Momente von Observablen und deren Verhältnisse. Besonderes Interesse galt dabei den Transportkoeffizienten wie Scher- und Volumenviskosität sowie der elektrischen Leitfähigkeit.
Die Methode der Nichtgleichgewichts-Green'schen Funktionen - initiiert von Schwinger sowie Kadanoff und Baym - wurde vorgestellt um hochenergetische Kern-Kern Kollisionen zu beschreiben. Weiterhin wurde der Schwinger-Keldysh Formalismus benutzt um im Sinne einer Zweiteilchen-irrediziblen Näherung (2PI) die Dynamik von 'resummierten' Propagatoren und Kopplungen in konsistenter Weise zu beschreiben. Des Weiterhin wurden generalisierte Transportgleichungen auf der Basis der Kadanoff-Baym Gleichungen (in Phasenraumdarstellung) abgeleitet und ein Testteilchenverfahren zur Lösung dieser Gleichungen vorgestellt. Damit wurde der formale Rahmen der Parton-Hadron-String Dynamik (PHSD) abgesteckt.
Das PHSD Transportmodell wurde sodann für die Lösung der expliziten Fragestellungen in dieser Arbeit verwendet. Die 'Eingangsgrößen' des Modells wurden in Kapitel 3 aufgeführt. Weiterhin wurde aufgezeigt, dass das Transportmodell alle Phasen einer relativistischen Schwerionenkollision konsistent beschreibt, d.h. angefangen von den primären harten Stoßprozessen und der Bildung von 'Strings' zur Formierung einer partonischen Phase, den Wechselwirkungen in dieser Phase sowie die
dynamische Beschreibung der Hadronisierung. Weiterhin enthält das Modell zudem die hadronischen Endzustandswechselwirkungen bis zum Ausfrieren der hadronischen Freiheitsgrade bei geringer Dichte. ...
In this thesis, Hanbury-Brown-Twiss (HBT) interferometry is used together with the Ultrarelativistic Quantum Molecular Dynamics (UrQMD) to analyse the time and space structure of heavy-ion collisions.
The first chapter after the introduction gives an overview of the different types of models used in the field of heavy-ion collisions and a introduction of the UrQMD model in more detail. The next chapter explains the basics of Hanbury-Brown-Twiss correlations, including azimuthally sensitive HBT (asHBT).
Results section:
4. Charged Multiplicities from UrQMD
5. Formation time via HBT from pp collisions at LHC
6. HBT analysis of Pb+Pb collisions at LHC energies
7. HBT scaling with particle multiplicity
8. Compressibility from event-by-event HBT
9. Tilt in non-central collisions
10. Shape analysis of strongly-interacting systems
11. Measuring a twisted emission geometry
This thesis covers the standard integrated HBT analyses, extracting the Pratt-Bertsch radii, at LHC energies. The analyses at these energies showed a too soft expansion in UrQMD probably related to the absence of a partonic phase in UrQMD. The most promising results in this thesis at these energies are the restriction of the formation time to a value smaller than 0.8 fm/c and furthermore, the results from the asHBT analyses. In simulations of non-central heavy-ion collisions at energies of Elab= 6, 8 and 30 AGeV the validity of the formulae to calculate the tilt angle via asHBT has been checked numerically, even for the case of non-Gaussian, flowing sources. On this basis has been developed and test in the course of this thesis that allows to measure a scale dependent tilt angle experimentally. The signal should be strongest at FAIR energies.
Diese Dissertation stellt die systematische Einbeziehung von Eichkorrekturen in die Theorie der thermischen Leptogenese vor, welche eine Erklärung für die Frage nach dem Ursprung der Materie in unserem Universum bereitstellt.
Geht man vom weithin anerkannten Urknallmodell aus, so müsste hierbei zu gleichen Teilen Materie sowie Antimaterie entstanden sein. Aufgrund von Annihilationsprozessen sollte demnach die gesamte Materie zerstrahlt sein und ein leeres Universum zurückbleiben. Da dies aber nicht der Fall ist, stellt sich die Frage, wie das Ungleichgewicht zwischen Materie und Antimaterie entstehen konnte. Der Wert der Asymmetrie lässt sich mit Hilfe von Experimenten sehr genau bestimmen. Für eine systematische theoretische Beschreibung dieser Problematik stellte A. Sacharow drei Bedingungen auf: 1. die Verletzung der Baryonenzahl, 2. die Verletzung der Invarianz von Ladungskonjugation C sowie der Zusammensetzung von Ladungskonjugation und Parität CP sowie 3. eine Abweichung vom thermischen Gleichgewicht.
Da das Urknallmodell und das Standardmodell der Teilchenphysik nicht in der Lage sind, diese Asymmetrie zu beschreiben, beschäftigt sich die vorliegende Dissertation mit der Theorie der thermischen Leptogenese, welche statt von einer ursprünglichen Baryonenasymmetrie von einer Leptonenasymmetrie ausgeht. Zu einem späteren Zeitpunkt wird diese dann mittels Sphaleron-Prozesse, welche die Baryonenzahl verletzen, in eine Baryonenasymmetrie übertragen. Hierzu werden neue Teilchen zum Standardmodell hinzugefügt: schwere Majorana-Neutrinos. Diese zerfallen im thermischen Nichtgleichgewicht CP-verletzend in die bekannten Standardmodell-Leptonen und Higgs-Teilchen.
In dieser Arbeit wird eine hierarchische Anordnung der drei schweren Neutrinomassen betrachtet. Dies hat zur Folge, dass zwei der drei Majorana-Neutrinos ausintegriert werden können und eine effektive Theorie aufgestellt werden kann. Dieses Modell wird auch vanilla leptogenesis genannt und im Folgenden verwendet.
Die Dissertation ist wie folgt gegliedert. Die einleitenden Betrachtungen sind Gegenstand der Kapitel 1 und 2. Dort werden weiterhin andere Modelle zur Lösung des Problems der Baryonenasymmetrie kurz vorgestellt. Die thermische Leptogenese wird eingeführt und der See-saw-Mechanismus sowie die CP-Asymmetrie genauer beschrieben. Am Ende des Kapitels wird der klassische Ansatz für Leptogenese über Boltzmann Gleichungen präsentiert.
In Kapitel 3 werden die Grundlagen für Quantenfeldtheorien im Nichtgleichgewicht eingeführt. Die wichtigsten Definitionen im Falle des thermischen Gleichgewichts werden gegeben, anschließend findet sich die Verallgemeinerung auf Nichtgleichgewichtszustände. Die Bewegungsgleichungen, die sogenannten Kadanoff-Baym-Gleichungen, werden im Folgenden sowohl für skalare Teilchen als auch für Fermionen gelöst.
Kapitel 4 stellt die Notwendigkeit der Einbeziehung von Eichkorrekturen im Kontext der thermischen Leptogenese vor. Durch die Definition einer Leptonenzahlmatrix lässt sich die Asymmetrie durch die Kadanoff-Baym Gleichung für Leptonen umschreiben. Da der Vergleich von Boltzmann und Kadanoff-Baym Gleichungen im letzten Teil dieses Kapitels Unterschiede im Zeitverhalten zeigt, werden im Kadanoff-Baym Ansatz thermische Standardmodell-Breiten des Higgsfeldes und der Leptonen per Hand eingeführt. Mit dieser naiven Erweiterung erhält man ein gleiches Verhalten für die Leptonenzahlmatrix, lokal in der Zeit wie die Lösung der Boltzmann Gleichung. Eine systematische Einführung von Standardmodellkorrekturen für thermische Leptogenese ist daher unumgänglich, weshalb im Rahmen der vorliegenden Dissertation von Grund auf Eichkorrekturen der Diagramme, die zur Asymmetrie führen, berücksichtigt werden.
Die vier für diese Arbeit wichtigen Skalenbereich bedingen zwei Resummationsschemata, Hard Thermal Loop (HTL) und Collinear Thermal Loop (CTL), welche in Kapitel 5 vorgestellt werden. Dies führt schließlich auf zwei Differenzialgleichungen für die Berechnung der thermischen Produktionsrate des Majorana-Neutrinos, welche in Kapitel 6 numerisch weiter ausgewertet werden.
In Kapitel 7 erfolgt zunächst eine naive Berechnung aller eichkorrigierter 3-Schleifen-Diagramme, die zu den beiden die Asymmetrie verursachenden Diagrammen gehören. Da eine einfache Berechnung der 3-Schleifen-Diagramme nicht ausreicht, wird an dieser Stelle ein neues, zylindrisches Diagramm eingeführt, welches alle wichtigen Beiträge, insbesondere die HTL- und CTL-resummierten, enthält. Am Ende des Kapitels findet sich der erste geschlossene Ausdruck für die eichkorrigierte Leptonenzahlmatrix in führender Ordnung in allen Kopplungen.
Abschließend gibt es eine kurze Zusammenfassung und einen Ausblick in Kapitel 8. In dieser Dissertation findet sich zum ersten Mal ein systematischer Zugang zur Berücksichtigung aller Eichwechselwirkungen in der Theorie der thermischen Leptogenese. Ein geschlossener Ausdruck für die eichkorrigierte Leptonenasymmetrie konnte vorgestellt werden.
Heterodyne array receivers are employed in radio astronomy to reduce the observing time needed for mapping extended sources. One of the main factors limiting the amount of pixels in terahertz receivers is the difficulty of generating a sufficient amount of local oscillator power. Another challenge is efficient diplexing and coupling of local oscillator and signal power to the detectors. These problems are attacked in this dissertation by proposing the application of two vacuum electronic terahertz amplifier types for the amplification of the LO-signal and by introducing a new method for finding the defects in a quasioptical diplexer.
A traveling wave tube (TWT) design based on a square helix slow wave structure (SWS) at 825 GHz is introduced. It exhibits a simulated small-signal gain of 18.3 dB and a 3-dB bandwidth of 69 GHz. In order to generate LO-power at even higher frequencies, the operation of an 850-GHz square helix TWT as a frequency doubler has been studied. A simulated conversion efficiency of 7% to 1700 GHz, comparable with the state-of-art solid-state doublers, has been achieved for an input power of 25 mW.
The other amplifier type discussed in this work is a 1-THz cascade backward wave amplifier based on a double corrugated waveguide SWS. Specifically, three input/output coupler types between a rectangular waveguide and the SWS are presented. The structures have been realized with microfabrication, and the results of loss measurements at 1 THz will be shown.
Diplexing of the LO- and signal beams is often performed with a Martin-Puplett interferometer. Misalignment and deformation of the quasioptical components causes the polarization state of the output signal to be incorrect, which leads to coupling losses. A ray-tracing program has been developed for studying the influence of such defects. The measurement results of the diplexer of a multi-pixel terahertz receiver operated at the APEX telescope have been analyzed with the program, and the results are presented. The program allows the quasioptical configuration of the diplexer to be corrected in order to obtain higher receiver sensitivity.
Das Gehirn ist die wohl komplexeste Struktur auf Erden, die der Mensch erforscht. Es besteht aus einem riesigen Netzwerk von Nervenzellen, welches in der Lage ist eingehende sensorische Informationen zu verarbeiten um daraus eine sinnvolle Repräsentation der Umgebung zu erstellen. Außerdem koordiniert es die Aktionen des Organismus um mit der Umgebung zu interagieren. Das Gehirn hat die bemerkenswerte Fähigkeit sowohl Informationen zu speichern als auch sich ständig an ändernde Bedingungen anzupassen, und zwar über die gesamte Lebensdauer. Dies ist essentiell für Mensch oder Tier um sich zu entwickeln und zu lernen. Die Grundlage für diesen lebenslangen Lernprozess ist die Plastizität des Gehirns, welche das riesige Netzwerk von Neuronen ständig anpasst und neu verbindet. Die Veränderungen an den synaptischen Verbindungen und der intrinsischen Erregbarkeit jedes Neurons finden durch selbstorganisierte Mechanismen statt und optimieren das Verhalten des Organismus als Ganzes. Das Phänomen der neuronalen Plastizität beschäftigt die Neurowissenschaften und anderen Disziplinen bereits über mehrere Jahrzehnte. Dabei beschreibt die intrinsische Plastizität die ständige Anpassung der Erregbarkeit eines Neurons um einen ausbalancierten, homöostatischen Arbeitsbereich zu gewährleisten. Aber besonders die synaptische Plastizität, welche die Änderungen in der Stärke bestehender Verbindungen bezeichnet, wurde unter vielen verschiedenen Bedingungen erforscht und erwies sich mit jeder neuen Studie als immer komplexer. Sie wird durch ein komplexes Zusammenspiel von biophysikalischen Mechanismen induziert und hängt von verschiedenen Faktoren wie der Frequenz der Aktionspotentiale, deren Timing und dem Membranpotential ab und zeigt außerdem eine metaplastische Abhängigkeit von vergangenen Ereignissen. Letztlich beeinflusst die synaptische Plastizität die Signalverarbeitung und Berechnung einzelner Neuronen und der neuronalen Netzwerke.
Der Schwerpunkt dieser Arbeit ist es das Verständnis der biologischen Mechanismen und deren Folgen, die zu den beobachteten Plastizitätsphänomene führen, durch eine stärker vereinheitlichte Theorie voranzutreiben.Dazu stelle ich zwei funktionale Ziele für neuronale Plastizität auf, leite Lernregeln aus diesen ab und analysiere deren Konsequenzen und Vorhersagen.
Kapitel 3 untersucht die Unterscheidbarkeit der Populationsaktivität in Netzwerken als funktionales Ziel für neuronale Plastizität. Die Hypothese ist dabei, dass gerade in rekurrenten aber auch in vorwärtsgekoppelten Netzwerken die Populationsaktivität als Repräsentation der Eingangssignale optimiert werden kann, wenn ähnliche Eingangssignale eine möglichst unterschiedliche Repräsentation haben und dadurch für die nachfolgende Verarbeitung besser unterscheidbar sind. Das funktionale Ziel ist daher diese Unterscheidbarkeit durch Veränderungen an den Verbindungsstärke und der Erregbarkeit der Neuronen mithilfe von lokalen selbst-organisierten Lernregeln zu maximieren. Aus diesem funktionale Ziel lassen sich eine Reihe von Standard-Lernenregeln für künstliche neuronale Netze gemeinsam abzuleiten.
Kapitel 4 wendet einen ähnlichen funktionalen Ansatz auf ein komplexeres, biophysikalisches Neuronenmodell an. Das Ziel ist eine spärliche, stark asymmetrische Verteilung der synaptischen Stärke, wie sie auch bereits mehrfach experimentell gefunden wurde, durch lokale, synaptische Lernregeln zu maximieren. Aus diesem funktionalen Ansatz können alle wichtigen Phänomene der synaptischen Plastizität erklärt werden. Simulationen der Lernregel in einem realistischen Neuronmodell mit voller Morphologie erklären die Daten von timing-, raten- und spannungsabhängigen Plastizitätsprotokollen. Die Lernregel hat auch eine intrinsische Abhängigkeit von der Position der Synapse, welche mit den experimentellen Ergebnissen übereinstimmt. Darüber hinaus kann die Lernregel ohne zusätzliche Annahmen metaplastische Phänomene erklären. Dabei sagt der Ansatz eine neue Form der Metaplastizität voraus, welche die timing-abhängige Plastizität beeinflusst. Die formulierte Lernregel führt zu zwei neuartigen Vereinheitlichungen für synaptische Plastizität: Erstens zeigt sie, dass die verschiedenen Phänomene der synaptischen Plastizität als Folge eines einzigen funktionalen Ziels verstanden werden können. Und zweitens überbrückt der Ansatz die Lücke zwischen der funktionalen und mechanistische Beschreibungsweise. Das vorgeschlagene funktionale Ziel führt zu einer Lernregel mit biophysikalischer Formulierung, welche mit etablierten Theorien der biologischen Mechanismen in Verbindung gebracht werden kann. Außerdem kann das Ziel einer spärlichen Verteilung der synaptischen Stärke als Beitrag zu einer energieeffizienten synaptischen Signalübertragung und optimierten Codierung interpretiert werden.
Die Dissertation betrachtet zunächst die Anatomie der Lautentstehung und die Historie von Untersuchungen zu Sprechtraktakustik (u.a. Ibn Sina, Hook, Mical, Kratzenstein, Kempelen, Faber, Wheatstone, Helmholz, Riesz, Dunn, Chiba, Kajiyama, Kelly, Lochbaum, Saito, Itakura, Burg ) und geht insbesondere auf das Rohrmodell zu Beschreibung der Vokaltraktakustik ein.
Mittels Finiter-Differenzen wird die Aksutik der Sprechens dann dreidimensional beschrieben, und die zuätzlich auftretenden Effekte betrachtet. Fur die sich beim Sprechen schnell bewegende Mundhöhle wird ein Verfahren entwickelt und untersucht, mittels Sprachsignalen durch inverse Filterung und MRT-Aufnahmen die räumliche Konfiguration zu bestimmen. Für den Nasaltrakt wurden dreidimensional abbildende Verfahren aus der medizinischen Diagnostik verglichen (MRT und CT), und anhand eines Computer-Tomographischen Datensatzes die akustischen Vorgänge dreidimensional bestimmt.
In this work the main emphasis is put on the investigation of relativistic shock waves and Mach cones in hot and dense matter using the microscopic transport model BAMPS, based on the relativistic Boltzmann equation. Using this kinetic approach we study the complete transition from ideal-fluid behavior to free streaming. This includes shock-wave formation in a simplified (1+1)-dimensional setup as well as the investigation of Mach-cone formation induced by supersonic projectiles and/or jets in (2+1)- and (3+1)-dimensional static and expanding systems. We further address the question whether jet-medium interactions inducing Mach cones can contribute to a double-peak structure observed in two-particle correlations in heavy-ion collision experiments. Furthermore, BAMPS is used as a benchmark to compare kinetic theory to several relativistic hydrodynamic theories in order to verify their accuracy and to find their limitations.
Die Schwerpunkte dieser Arbeit sind elektrische, stationäre und zeitaufgelöste Transportmessungen an EuB6 sowie die Weiterentwicklung von Messmethoden und Analyseverfahren der Fluktuationsspektroskopie. Durch die Verwendung von
modernen Computern und Datenerfassungskarten konnten die Messmethoden effektiver eingesetzt werden.
Die ersten beiden Kapitel stellen die Grundlagen dar, die für diese Arbeit von Bedeutung sind. Der erste Teil dieser Arbeit wurde der Weiterentwicklung der bereits bekannten Messmethoden unter Verwendung einer schnellen Datenerfassungskarte gewidmet. Im Gegensatz zur Verwendung eines Signalanalysators bietet die Karte die Möglichkeit, auf die Rohdaten im Zeitraum zuzugreifen und sie anschließend mit einer selbst programmierten Software auszuwerten. Die technischen Methoden und der Aufbau der Software wurden in den Kapiteln 3 und 4 vorgestellt. Durch das Ersetzen des Signalanalysators kann bis zu 50% der Messzeit eingespart werden.
Durch die Code-Erweiterung kann bereits nach zwei hintereinander gemessenen Spektren vorläufig bei tiefen Frequenzen ausgewertet und somit frühzeitig entschieden werden, ob eine längere Messzeit aussichtsreich ist. Außerdem wird durch Verwendung der Code-Erweiterung eine sehr viel höhere Spektrendichte (Anzahl von Messpunkten) erreicht. Da im Gegensatz zum Signalanalysator alle gemessenen Spektren gespeichert werden, können in jeder Messung die Spektren auf ihre Korrelation (Korrelationskoeffizient und Zweites Spektrum) hin untersucht werden, ohne zusätzliche Messzeit zu benötigen.
Der zweite Teil dieser Arbeit befasst sich mit den elektrischen Transporteigenschaften von EuB6 und dem Verständnis der Kopplung zwischen Ladungs- und magnetischen Freiheitsgraden. Mittels Widerstands- und nichtlinearer Transportmessungen sowie Fluktuationsspektroskopie wurden Hypothesen von anderen Wissenschaftlern systematisch verifiziert, sowie neue, weiterführende Erkenntnisse gewonnen.
Direkte experimentelle Hinweise für die Phasenseparation sowie das Auftreten von Perkolation aus Transportmessungen fehlten bisher. In dieser Arbeit wurden daher systematisch die elektrischen Transportseigenschaften des Systems in Abhängigkeit von der Temperatur und vom Magnetfeld untersucht. Mittels Fluktuationsspektroskopie konnte erstmals ein direkter Hinweis auf perkolatives Verhalten in den Transporteigenschaften beobachtet werden. Ein starkes nichtlineares Transportsignal (dritter harmonischer Widerstand, DHW) im Bereich von TMI und TC ist eine Signatur einer räumlich inhomogenen Stromverteilung auf der Mikroskala und ein weiterer deutlicher Hinweis auf magnetisch induzierte elektronische Phasenseparation. Insbesondere tritt nichtlinearer Transport bei H = 0 im FM Bereich auf und kann im PM-Bereich bei T > TMI durch externe Magnetfelder induziert werden.
Spin waves in yttrium-iron garnet has been the subject of research for decades. Recently the report of Bose-Einstein condensation at room temperature has brought these experiments back into focus. Due to the small mass of quasiparticles compared to atoms for example, the condensation temperature can be much higher. With spin-wave quasiparticles, so-called magnons, even room temperature can be reached by externally injecting magnons. But also possible applications in information technologies are of interest. Using excitations as carriers for information instead of charges delivers a much more efficient way of processing data. Basic logical operations have already been realized. Finally the wavelength of spin waves which can be decreased to nanoscale, gives the opportunity to further miniaturize devices for receiving signals for example in smartphones.
For all of these purposes the magnon system is driven far out of equilibrium. In order to get a better fundamental understanding, we concentrate in the main part of this thesis on the nonequilibrium aspect of magnon experiments and investigate their thermalization process. In this context we develop formalisms which are of general interest and which can be adopted to many different kinds of systems.
A milestone in describing gases out of equilibrium was the Boltzmann equation discovered by Ludwig Boltzmann in 1872. In this thesis extensions to the Boltzmann equation with improved approximations are derived. For the application to yttrium-iron garnet we describe the thermalization process after magnons were excited by an external microwave field.
First we consider the Bose-Einstein condensation phenomena. A special property of thin films of yttrium-iron garnet is that the dispersion of magnons has its minimum at finite wave vectors which leads to an interesting behavior of the condensate. We investigate the spatial structure of the condensate using the Gross-Pitaevskii equation and find that the magnons can not condensate only at the energy minimum but that also higher Fourier modes have to be occupied macroscopically. In principle this can lead to a localization on a lattice in real space.
Next we use functional renormalization group methods to go beyond the perturbation theory expressions in the Boltzmann equation. It is a difficult task to find a suitable cutoff scheme which fits to the constraints of nonequilibrium, namely causality and the fluctuation-dissipation theorem when approaching equilibrium. Therefore the cutoff scheme we developed for bosons in the context of our considerations is of general interest for the functional renormalization group. In certain approximations we obtain a system of differential equations which have a similar transition rate structure to the Boltzmann equation. We consider a model of two kinds of free bosons of which one type of boson acts as a thermal bath to the other one. Taking a suitable initial state we can use our formalism to describe the dynamics of magnons such that an enhanced occupation of the ground state is achieved. Numerical results are in good agreement with experimental data.
Finally we extend our model to consider also the pumping process and the decrease of the magnon particle number till thermal equilibrium is reached again. Additional terms which explicitly break the U(1)-symmetry make it necessary to also extend the theory from which a kinetic equation can be deduced. These extensions are complicated and we therefore restrict ourselves to perturbation theory only. Because of the weak interactions in yttrium-iron garnet this provides already good results.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
Studies on the focusing performance of a Gabor lens depending on nonneutral plasma properties
(2013)
The concept of the Gabor lens goes back to an idea by Dennis Gabor, who proposed a magnetron-type trap as an effective diverging lens for electron beams (collecting lens for positive ion beams).
Electrons confined inside the lens volume by orthogonal magnetic and electric fields, create an electric space charge field that causes a radial symmetric focusing force on an ion beam passing through the lens volume.
Since the beginning of the 1990s, a new design of this lens type as well as numerical models to describe the confined plasma cloud have been developed at the Institute for Applied Physics (IAP, Johann Wolfgang Goethe-University Frankfurt).
Thanks to an improved understanding of the plasma confinement as a function of the external fields, two lenses have successfully been tested for low beam currents and remain in operation.
In the scope of this work, the performance of a prototype Gabor lens for the transport of intense, i.e. space charge dominated ion beams, was investigated at the High Current Test Injector (HOSTI) of GSI Helmholtzzentrum für Schwerionenforschung GmbH for the first time.
To ensure an optimal focusing performance of the Gabor lens a homogeneous and stable electron confinement is required. Therefore, new non-interceptive diagnostic methods were developed to investigate the parameters and state of the confined nonneutral plasma column as a function of the external fields.
An essential part of the studies was the time-resolved diagnostic of an occurring plasma instability and the determination of the electron temperature via optical spectroscopy. The latter necessitated the detailed investigation of atomic excitation as well as the measurement of optical-emission cross sections.
A comparison of the results from both experiments i.e. the beam transport measurements at GSI and the diagnostic experiments performed at IAP concerning the plasma state, gave first indications of possible interaction processes between the nonneutral plasma and the ion beam.
Das Ziel der vorliegenden Arbeit war, die systematischen Anfangsverluste im SIS18 zu minimieren. Das SIS18 soll als Injektor für das SIS100 in der neuen geplanten FAIR-Anlage eingesetzt werden und dafür die Strahlintensität erhöht werden. Eine wesentliche Rolle spielen das dynamische Vakuum im SIS18 und die anfänglichen Strahlverluste, verursacht durch Multiturn-Injektions- (MTI) oder HF-Einfangsverluste. Um den dynamischen Restgasdruck im SIS18 zu stabilisieren, müssen diese systematischen Anfangsverluste minimiert werden. Strahlteilchen, welche auf der Vakuumkammerwand verloren gehen, führen durch ionenstimulierte Desorption zu einem lokalen Druckanstieg. Dies wiederum erhöht die Wahrscheinlichkeit für Stöße zwischen Restgasteilchen und Strahlionen, wodurch diese umgeladen werden können und nach einem dispersiven Element (Dipol) auf der Vakuumkammer verloren gehen. Dies produziert einen weiteren lokalen Druckanstieg und verursacht eine massive Erhöhung der Umladungsraten. Eine Möglichkeit, die anfänglichen Verluste zu minimieren bzw. zu kontrollieren, ist die MTI-Verluste auf den Transferkanal (TK) zu verlagern, da dort ein Druckanstieg den umlaufenden Strahl im SIS18 nicht stört. Im Transferkanal werden die Strahlränder mit Hilfe von Schlitzen beschnitten und somit eine scharf definierte Phasenraumfläche erzeugt. ...
In der nuklearen Astrophysik sind Experimente mit hochgeladenen Radionukliden von großer Bedeutung. Diese exotischen Nuklide können in Schwerionenbeschleunigeranlagen hergestellt und in Speicherringen gespeichert werden. Momentan existieren weltweit zwei Anlagen, die solche Experimente ermöglichen: das GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt und das Institut für moderne Physik (IMP) in Lanzhou, China. Da die Ausbeute dieser Nuklide gering ist, werden zerstörungsfreie Nachweismethoden in den Speicherringen verwendet. Diese machen von den Methoden der Spektralanalyse Gebrauch. Nicht nur die geringe Ausbeute, sondern auch die kurze Lebensdauer dieser Nuklide stellen hohe Anforderungen an die Sensitivität und Geschwindigkeit dieser Detektoren.
Eine übliche Methode ist die Verwendung kapazitiver Schottky-Sonden. Eine solche Sonde ist seit 1991 an der GSI im Speicherring ESR im Einsatz. Um die Empfindlichkeit zu erhöhen, kann man Mikrowellenkavitäten als resonante Pickups verwenden. Die von den Teilchen induzierten elektromagnetischen Felder können resonante Moden im Resonator anregen. Die Geometrie des Pickups und das verwendete Material spielen eine wesentliche Rolle in der Gestaltung der Feldbilder. Die resultierenden Signale, auch Schottky Signale genannt, werden mittels einer Antenne ausgekoppelt und anschliessend an einen Spektrumanalysator angeschlossen. Für die Analyse der gespeicherten Daten können verschiedene Methoden der Spektralschätzung wie z.B. das Multi-Taper angewendet werden. Nachdem eine externe Kalibrierung durchgeführt worden ist, kann das Pickup auch als ein Stromsensor verwendet werden.
Diese Arbeit befasst sich mit der Theorie, dem Aufbau und ersten Anwendungen eines neuen resonanten Pickups, das im Jahr 2010 in den Speicherring ESR eingebaut und in mehreren Experimenten erfolgreich eingesetzt wurde. Ein ähnliches Pickup wurde im Jahr 2011 in den CSRe im IMP Lanzhou eingebaut. Einzelne Schwerionen mit 400 MeV pro Nukleon wurden erfolgreich mit dem GSI-Pickup nachgewiesen. Das Pickup wird regelmässig in Speicherringexperimenten eingesetzt. Ähnliche Experimente sind für CSRe in Lanzhou geplant.
Bei der Ionenstrahltherapie bestimmt die Energie der Ionen die Eindringtiefe in das Gewebe und damit die Lage des Braggpeaks, in dem der größte Teil der Ionisationsenergie deponiert wird.
Um die gewünschte Dosis möglichst genau im Tumor zu lokalisieren, müssen in den aufeinanderfolgenden Extraktionen die gewünschten unterschiedlichen Energien möglichst genau sein.
In der Beschleunigungsphase werden die Magnetfelder der Magnete im Synchrotron bis zum vorgegebenen Exktraktionswert hochgefahren. Dieser bestimmt zusammen mit der Synchrotronfrequenz die Strahlenergie. Während und insbesondere am Ende dieser Phase, Rampe genannt, sollte das Magnetfeld daher sehr genau dem berechneten Sollwert folgen, um Strahlverluste zu minimieren und die geforderte Strahlqualität zu erreichen.
In der zeitlichen Steuerung der Magnetströme müssen magnetische Effekte, die hauptsächlich im Eisen der Magnete auftreten, wie Wirbelströme und die Hysterese berücksichtigt werden, da sie das Feld verfälschen und damit den Strahl in unerwünschter Weise beeinflussen. Die während der Rampe entstehenden Wirbelströme stören das Magnetfeld, so dass bisher vor der Extraktion des Strahls eine Wartezeit eingeführt wurde, bis die Wirbelströme abgeklungen waren.
Bei beliebig wählbaren Abfolgen der vordefinierten Zyklen kommt es durch die Hysterese des Eisens zu unterschiedlichen Remanenzfeldern, die das Magnetfeld verändern. Um dem vorzubeugen, durchliefen die Magnete eine vordefinierte Hystereseschleife. Ist die geforderte Energie des Strahls erreicht, wird das Magnetfeld konstant gehalten und die Teilchen aus dem Synchrotron extrahiert. Der Rest der Hystereseschleife wurde am Ende des Zyklus durchlaufen.
Die im Rahmen dieser Dissertation entwickelte dynamische Magnetfeldregelung misst das integrale Magnetfeld sehr genau und korrigiert die Feldfehler. Das integrale Magnetfeld folgt damit jederzeit seiner Vorgabe, unabhängig von den dynamischen Störeffekten. Die Wirbelströme und die Hysterese sind zwar immer noch vorhanden, die dadurch verursachten Feldfehler können aber durch eine Rückkopplung auf den Strom des Magneten korrigiert werden.
Es werden verschiedene Verfahren zur Messung der Magnetfelder untersucht. Am besten eignet sich für die dynamische Magnetfeldregelung die Kombination aus einer Hallsonden- und einer Induktionsspulenmessung. Die Messung muss das integrale Magnetfeld des Magneten BL, also das gesamte Feld entlang des Strahlwegs, bestimmen. Die Induktionsspule, oder Pickupspule, liegt deshalb entlang des Strahlrohrs im Magneten und liefert eine Spannung in Abhängigkeit von der Änderung des magnetischen Flusses. Durch die Integration dieser Spannung erhält man das integrale Feld des Magneten. Die Messung wird mit einer Hallsondenmessung zu Beginn des Beschleunigerzyklus auf einen absoluten Messwert geeicht.
Der Hauptteil dieser Arbeit beschäftigt sich mit der Entwicklung des sogenannten HIT Integrators, der die Integration der Pickupspulenspannung übernimmt. Bisher verfügbare Integratoren konnten die notwendigen Anforderungen an Genauigkeit, Echtzeitfähigkeit, automatische Kalibrierung, ständige Messbereitschaft, Temperaturunabhängigkeit und hohe Verfügbarkeit nicht erfüllen. Der neu entwickelte HIT Integrator wurde diesen Anforderungen entsprechend entwickelt. Der Integrator mit dem neuartigen Konzept der gleichzeitigen Messung und Kalibrierung in Echtzeit ist als Patent angemeldet worden. Neben der Entwicklung und Verwirklichung des Gesamtkonzepts war die numerische Integration des stark verrauschten Pickupspulensignals und die sofortige Umsetzung des integralen Werts in ein Steuersignal für die Dipolmagnetstromgeräte eine besondere technische Herausforderung.
Die elektronischen Schaltungen für die dynamische Magnetfeldregelung sind in der Baugruppe des HIT Integrators zusammengefasst. Die Ansteuerung der Hallsonde mit einer temperaturkompensierten Stromquelle, der Signalaufbereitung und Analog-Digital-Wandlung, sowie der Integrator und der Regler bilden eine technische Einheit.
Der HIT Integrator ist speziell für den Einsatz im bestehenden Beschleunigerkontrollsystem und den Magnetnetzgeräten entwickelt worden.
Die Regler der Magnetnetzgeräte wurden so verändert, dass sie einen Zusatzsollwert verarbeiten können, der auf den berechneten Sollwert der Datenversorgung addiert wird.
Die Magnetfeldregelung wurde in den Therapiebeschleuniger integriert, dazu wurde die Datenversorgung und das Kontrollsystem angepasst. Die Magnetfeldregelung stellt ein neues Gerät im Beschleuniger dar, das in die Netzgeräte der Synchrotronmagnete eingebaut worden ist. Die Datenversorgung dieser Geräte beinhaltet u.a. eine neue Methode der Kalibrierung.
Es konnte durch Messungen gezeigt werden, dass die Magnetfeldregelung mit hoher Genauigkeit funktioniert. Es wird eine Genauigkeit von besser als 10^{-4} des maximalen Feldes von 1.5 T erreicht, also weniger als 150uT, der dreifachen Stärke des Erdmagnetfelds. Vor allem die Bestrahlungszeit mit Protonen und die Bestrahlung bei niedrigen Energien profitiert von der Magnetfeldregelung, da hier das Extraktionsniveau der Magnete relativ gering ist und das Durchlaufen der vordefinierten Hystereseschleife prozentual mehr Zeit im Zyklus in Anspruch nimmt. Durch den Wegfall dieser Phase wird daher pro Zyklus mehr Zeit eingespart. Die Messungen zeigen, dass im Beschleunigerzyklus trotz der fehlenden Wartezeiten, die bis zu 24% betragen, eine gleichbleibend gute Strahlqualität erreicht wird. Dies wurde mit Vergleichsmessungen gezeigt, bei denen der Strahl mit und ohne Feldregelung vermessen wurde. Untersucht wurde eine große Stichprobenmenge aus dem Parameterraum, gegeben durch zwei Ionensorten mit jeweils 255 Strahlenergien, 10 verschiedenen Teilchenraten und 4 Strahlbreiten. Außerdem wurde die Energie des Strahls nachgemessen.
Für die Einführung in den Therapiebetrieb musste eine Impactanalyse gemacht werden, die mögliche Auswirkungen des neuen Verfahrens behandelt. Das Risiko für Patienten, Mitarbeiter und Dritte darf durch die Magnetfeldregelung nicht erhöht werden. Daraus entstand auch die Forderung nach einem redundanten System, das Fehler erkennt und die Bestrahlung abbricht.
Die mittlere Leistungsaufnahme des Beschleunigers des Heidelberger Ionenstrahltherapiezentrums liegt bei etwa 1 MW, bei einem Jahresenergieverbrauch von 8 GWh mit Kosten von etwa 1 Million Euro. Dies entspricht einer deutschen Kleinstadt mit 10000 Einwohnern. Die Verkürzung der Zykluszeiten wirkt sich direkt auf die Bestrahlungszeit und auf die Energiekosten aus. Würde man die Anlage durch die Zeiteinsparungen kürzer betreiben, würde man etwa 2 GWh pro Jahr sparen, was die Stromkosten um etwa 250000 Euro reduziert.
Zusätzlich zu den eingesparten Kosten wird auch die Bestrahlungszeit kürzer und damit auch die Zeit, die der Patient bei der Behandlung fixiert wird. Die Behandlung für die Patienten wird angenehmer. Man kann aber auch durch die eingesparte Bestrahlungszeit pro Patient entsprechend mehr Patienten behandeln. Das heißt man kann an Stelle von 700 Patienten im Jahr 910 Patienten mit einem Tumor behandeln. Dieser für die Patienten willkommene Effekt bedeutet auf der anderen Seite für HIT aber auch Mehreinnahmen von 4.2 Millionen Euro im Jahr.
Das Konzept der Magnetfeldregelung kann auch an anderen Beschleunigeranlagen zum Einsatz kommen. Dazu müssen die Magnete mit den Sonden bestückt werden und die Magnetnetzgeräte einen Eingang für einen Zusatzsollwert bekommen. Das Beschleunigerkontrollsystem kann erweitert werden, damit es einen Sollwert mit allen notwendigen Kalibrierungen berechnen kann. Der HIT Integrator wird dann als eigenständiges Gerät in das Kontrollsystem eingebunden.