Refine
Year of publication
- 2021 (308) (remove)
Document Type
- Article (146)
- Preprint (116)
- Doctoral Thesis (27)
- Conference Proceeding (9)
- Contribution to a Periodical (5)
- Bachelor Thesis (3)
- Master's Thesis (2)
Has Fulltext
- yes (308)
Is part of the Bibliography
- no (308) (remove)
Keywords
Institute
- Physik (308) (remove)
The physical processes behind the production of light nuclei in heavy ion collisions are unclear. The successful theoretical description of experimental yields by thermal models conflicts with the very small binding energies of the observed states, being fragile in such a hot and dense environment. Other available ideas are delayed production via coalescence, or a cooling of the system after the chemical freeze-out according to a Saha equation, or a ‘quench’ instead of a thermal freeze-out. A recently derived prescription of an (interacting) Hagedorn gas is applied to consolidate the above pictures. The tabulation of decay rates of Hagedorn states into light nuclei allows to calculate yields usually inaccessible due to very poor Monte Carlo statistics. Decay yields of stable hadrons and light nuclei are calculated. While the scale-free decays of Hagedorn states alone are not compatible with the experimental data, a thermalized hadron and Hagedorn state gas is able to describe the experimental data. Applying a cooling of the system according to a Saha-equation with conservation of nucleon and anti-nucleon numbers leads to (nearly) temperature independent yields, thus a production of the light nuclei at temperatures much lower than the chemical freeze-out temperature is compatible with experimental data and with the statistical hadronization model.
During RUN3 (2021-2023) of the Large Hadron Collider, the Time Projection Chamber (TPC) of ALICE will be operated with quadruple stacks of Gas Electron Multipliers (GEMs). This technology will allow to overcome the rate limitation due to the gated operation of the Multi-Wire Proportional Chambers (MWPCs) used in RUN1 (2009-2013) and RUN2 (2015-2018).
As part of the Upgrade project, long-term irradiation tests, so called "ageing tests", have been carried out. A test setup with a detector using a quadruple stack of 10x10cm2 GEMs was built and operated in Ar-CO2 and Ne-CO2-N2 gas mixtures. The detector performance such as gas gain and energy resolution were monitored continuously. In addition, outgassing tests of materials used for the assembly process of the upgraded TPC were performed. To reach the expected dose of the GEM-based TPC, the detector was operated at much higher gains than the TPC. It was found, that the GEMs could keep their performance within the projected lifetime of the TPC. Most of the tested materials showed no negative impact on the detector. For the tested epoxy adhesive no certain conclusion could be drawn.
At much higher doses than expected for the upgraded TPC, a new phenomenon was observed, which changed the hole geometry of the GEMs and led to a degradation of the energy resolution. Even though its occurrence is not expected during the lifetime of the GEM-based TPC, simulations were carried out to study this effect more systematically. The simulations confirmed, that a change of the hole geometries of the GEMs, lead to an increase of the local gain variation, which results in a decrease of the energy resolution.
Furthermore the effect of methane as quench gas on GEMs was studied, even though this gas is not foreseen to be used in the TPC. From ageing tests with single-wire proportional counters it is well known that hydrocarbons are produced in the plasma of the avalanches, which cover the electrodes and lead to a degradation of the detector performance. Even though GEMs have a quite different geometry, the ageing tests showed, that also this technology tends to methane-induced ageing. A loss of gas gain as well as a degradation of the energy resolution due to deposits on the electrodes was monitored. A qualitative and quantitative comparison between ageing in GEMs and proportional counters was performed.
The main focus of research in the field of high-energy heavy-ion physics is the study of the quark-gluon plasma (QGP). Topic of the present work is the measurement of electron-positron pairs (dielectrons), which grant direct access to some of the key properties of this state of matter, since after their formation they leave the hot and dense medium without significant interaction. In particular, the measurement of the initial QGP temperature is considered a "holy grail" of heavy-ion physics. Therefore, in addition to the analysis of existing data, a feasibility study has been conducted to determine to which extent this goal would be achievable by upgrading the ALICE experiment at CERN.
Dielectrons are produced during all stages of a heavy-ion collision, with their invariant mass reflecting the amount of energy available at the time of their formation. Dielectrons of highest mass are thus produced in the initial scatterings of the colliding nuclei by quark-antiquark annihilation. Correlated electron-positron pairs can also emerge from the decay chains of early-produced pairs of heavy-flavour (HF) particles. During the QGP stage and at the beginning of the hadronic phase, the system emits thermal radiation in the form of photons and dielectrons, which carry information about the medium temperature to the observer. In the final stage of the collision, decays of light-flavour (LF) hadrons produce additional contributions to the dielectron spectrum.
The present work is based on early data from the ALICE experiment recorded from lead-lead collisions at a center-of-mass energy of 2.76 TeV. Due to the limited amount of data, a focus is placed on achieving high efficiencies throughout the analysis. To this end, a special electron identification strategy is developed and a custom track selection applied, together resulting in a tenfold increase in pair efficiency. The dielectron spectrum is evaluated on a statistical basis, using a pair prefilter, which is optimized based on two signal quality criteria, to reduce the fraction of electrons and positrons from unwanted sources at minimum signal loss. In addition, an artifact of the track reconstruction is exploited to suppress pairs from photon conversions and to correct the dielectron yield for a contribution from different-conversion pairs. The main signal uncertainty is extracted from the deviation between results of 20 analysis settings and amounts to 20% in most of the studied kinematic range.
For comparison with the analysis results, a hadronic cocktail consisting of the LF and HF contributions is simulated, which can reasonably well describe the measured dielectron production, with a hint of an enhancement at low invariant mass. Two approaches to model the in-medium modification of the heavy-flavour are followed, resulting in up to 50% suppression, which creates some additional space for a thermal contribution at intermediate mass.
For a complete comparison between experimental data and theoretical expectation, two model calculations are consulted. The Thermal Fireball Model provides predictions for thermal dielectron radiation from the QGP and hadron gas. The data tends to be better described with these additional thermal contributions. For a comparison with a prediction by the UrQMD model, the HF component of the cocktail is subtracted from the data. This results in better agreement if the HF suppression by in-medium effects is taken into account.
The feasibility study in this work has served as a physical motivation for the ALICE upgrade for LHC Run 3. The precision with which the early temperature of the QGP can be determined via dielectrons is chosen as key observable. A multitude of individual contributions are merged into a fully modeled dielectron analysis. The resulting signal-to-background ratio represents some of the expected systematic uncertainties, while from the significance combined with the planned number of lead-lead collisions a realistic "measurement" with statistical fluctuations around the expected dielectron signal is generated using a Poisson sampling technique. Since the HF yield exceeds the QGP thermal radiation by about an order of magnitude, an additional analysis step exploiting the enhanced track reconstruction is introduced to reduce its contribution by up to a factor of five. The resulting reduction in pair efficiency is overcompensated by an up to hundred times higher collision rate. The entire cocktail is then subtracted from the sampled data to isolate the thermal excess yield. The final analysis of this spectrum shows that the inverse slope of the model prediction, which depends directly on the QGP temperature, can be reproduced within statistical and systematic uncertainties of about 10%.
The promising results of this study have contributed on the one hand to the realization of the ALICE upgrade and to a design decision for the new Inner Tracking System, and at the same time represent exciting predictions for upcoming measurements.
Das Feld der Hochenergie-Schwerionenforschung hat sich der Untersuchung des Quark-Gluon-Plasmas (QGP) gewidmet. Ein QGP ist ein sehr heißer und dichter Materiezustand, der kurz nach dem Urknall für einige Mikrosekunden das Universum füllte. Unter diesen extremen Bedingungen sind die fundamentalen Bausteine der Materie, die Quarks und Gluonen, quasi frei, also nicht in Hadronen eingeschlossen, wie es unter normalen Bedingungen der Fall ist. Hadronen sind Teilchen, die aus Quarks und Gluonen bestehen. Die bekanntesten Hadronen sind Protonen und Neutronen, die Bestandteile von Atomkernen, aus denen, zusammen mit Elektronen, die gesamte bekannte Materie aufgebaut ist.
Um ein QGP im Labor zu erzeugen, lässt man ultrarelativistische schwere Ionen, wie zum Beispiel Pb-208-Kerne, aufeinander prallen. Dies geschieht am CERN, dem größten Kernforschungszentrum der Welt. Der Teilchenbeschleuniger, welcher Protonen und Pb-Kerne beschleunigt und zur Kollision bringt, heißt Large Hadron Collider (LHC) und ist mit 27 km Umfang der größte der Welt. Bei einer einzigen Pb-Pb Kollision am LHC werden mehrere Tausend Teilchen und Antiteilchen erzeugt. Das dedizierte Experiment zur Untersuchung von Schwerionenkollisionen am LHC ist ALICE. ALICE ist mit mehreren Teilchendetektoren ausgerüstet, die es ermöglichen, tausende Teilchen gleichzeitig zu messen und zu identifizieren.
Unter den produzierten Teilchen befinden sich auch leichte Atomkerne, wenngleich diese nur sehr selten erzeugt werden. Die Anzahl der produzierten Teilchen pro Teilchensorte hängt nämlich von deren Masse ab. In Pb-Pb Kollisionen am LHC sinkt die Anzahl der produzierten (Anti)kerne exponentiell um einen Faktor 1/330 bei Hinzufügen jedes weiteren Nukleons. Die Menge an produzierten Teilchen pro Spezies stellt Informationen über den Produktionsmechanismus beim Übergang vom QGP zum Hadrongas zur Verfügung. Hierbei sind leichte (Anti)kerne von besonderem Interesse, da sie vergleichsweise groß sind und ihre Bindungsenergie bis zu zwei Größenordnungen kleiner ist als die Temperaturen, die bei der Erzeugung der Hadronen vorherrschen. Es ist bis heute noch nicht verstanden, wie leichte (Anti)kerne bei diesen Bedingungen erzeugt werden und überleben können.
Für diese Arbeit wurden ca. 270 Millionen Pb-Pb Kollisionen bei einer Schwerpunktsenergie von 5,02 TeV, die von ALICE im November 2018 aufgezeichnet wurden, analysiert. Es wurde die Produktion von (Anti)triton und (Anti)alpha untersucht. Wegen ihrer großen Masse werden beide Kerne sehr selten produziert, bei weitem nicht bei jeder Kollision. Antialpha ist der schwerste Antikern, der jemals gemessen wurde. Aufgrund dieser Seltenheit ist die Größe des zur Verfügung stehenden Datensatzes entscheidend. Es war möglich, das erste jemals gemessene Antialpha-Transversalimpulsspektrum zu extrahieren. Auch für (Anti)triton und Alpha wurden Transversalimpulsspektren bestimmt.
Die Ergebnisse wurden mit theoretischen Modellen und anderen ALICE Messungen verglichen.
Am Ende wird in einem Ausblick auf das kürzlich durchgeführte Upgrade der ALICE Spurendriftkammer (TPC) eingegangen. In der nächsten, bald startenden Datennahmeperiode wird der LHC seine Kollisionsrate erheblich erhöhen, was es ermöglichen wird, mehr als 100 mal so viele Daten wie bisher aufzuzeichnen. Hiervon werden die in dieser Arbeit beschriebenen (Anti)triton- und (Anti)alpha-Analysen beachtlich profitieren. Um mit den erheblich höheren Kollisionsraten zurecht zu kommen, mussten einige Detektoren, unter anderem die TPC, maßgeblich erneuert werden. In den ersten beiden Datennahmeperioden wurde die TPC mit Vieldrahtproportionalkammern betrieben. Diese sind allerdings viel zu langsam für die geplanten Kollisionsraten. Deshalb wurden sie im Jahr 2019, während einer langen Betriebspause des LHC, durch Quadrupel-GEM (Gas Electron Multiplier) Folien basierte Auslesekammern ersetzt, welche eine kontinuierliche Auslese der TPC ermöglichen. Da es sich um die erste jemals gebaute GEM TPC im Großformat handelt, war ein umfangreiches Forschungs- und Entwicklungs- (F&E) Programm notwendig, um die GEM Auslesekammern zu charakterisieren und zu testen. Im Rahmen dieses F&E Programms wurden am Anfang dieser Promotion systematische Messungen an einer kleinen Test TPC mit Quadrupel-GEM Auslese, die extra zu diesem Zweck gebaut worden war, durchgeführt. Hierbei wurde der Rückfluss der bei der Gasverstärkung erzeugten Ionen in das Driftvolumen der TPC und die Energieauflösung mit verschiedenen GEM Folien Typen und unterschiedlicher Anordnung gemessen. Das Ziel war, möglichst kleine Ionenrückflüsse bei möglichst guter Energieauflösung zu erreichen. Hierbei musste ein Kompromiss gefunden werden, da die beiden Größen sich gegenläufig verhalten. Es war jedoch möglich, mit mehreren GEM Konfigurationen Spannungseinstellungen zu identifizieren, bei denen beide Größen den gewünschten Anforderungen entsprachen.
The thermal fit to preliminary HADES data of Au+Au collisions at sNN=2.4 GeV shows two degenerate solutions at T≈50 MeV and T≈70 MeV. The analysis of the same particle yields in a transport simulation of the UrQMD model yields the same features, i.e. two distinct temperatures for the chemical freeze-out. While both solutions yield the same number of hadrons after resonance decays, the feeddown contribution is very different for both cases. This highlights that two systems with different chemical composition can yield the same multiplicities after resonance decays. The nature of these two minima is further investigated by studying the time-dependent particle yields and extracted thermodynamic properties of the UrQMD model. It is confirmed, that the evolution of the high temperature solution resembles cooling and expansion of a hot and dense fireball. The low temperature solution displays an unphysical evolution: heating and compression of matter with a decrease of entropy. These results imply that the thermal model analysis of systems produced in low energy nuclear collisions is ambiguous but can be interpreted by taking also the time evolution and resonance contributions into account.
Die vorliegende Arbeit präsentiert Forschungsarbeiten basierend auf nanoskopischen Oberflächenmessungen an plasmonischen Metaoberflächen und zweidimensionalen Materialien, insbesondere dem halbleitenden Übergangsmetal-Dichalcogenid (TMDC) WS_2. Die Thesis ist in sieben Kapitel untergegliedert. Die Einleitung vermittelt einen Überblick über die treibenden Kräfte hinter der Forschung im Bereich der Nanophotonik an zweidimensionalen Materialsystemen. Die Untersuchung der Licht-Materie-Wechselwirkung an dünnen Materialgrenzflächen zieht sich als roter Faden durch die gesamte Arbeit.
Das zweite Kapitel beschreibt den experimentellen Aufbau, der für die Durchführung der nanoskopischen Messungen in dieser Arbeit implementiert wurde. Es werden theoretische Grundlagen, das Messprinzip und die Implementierung des optischen Rasternahfeldmikroskops (s-SNOM) skizziert. Außerdem wird ein Strom-Spannungs-Rasterkraftmikroskop (c-AFM) im Kontaktmodus genutzt, um elektrische Ströme auf mikroskopischen zweidimensionalen TMDC-Terrassen zu messen. In den darauffolgenden vier Kapiteln werden die Beiträge dieser Arbeit zur Untersuchung der Licht-Materie-Wechselwirkung auf der Nanoskala aus verschiedenen Perspektiven vorgestellt. Jedes Kapitel enthält eine kurze Einleitung, einen Theorieteil, Messdaten oder Simulationsergebnisse sowie eine Analyse; vervollständigt durch einen Schlussteil.
Die zentrale Arbeit an einer metallischen Metaoberfläche aus elliptischen Goldscheiben wird in Kapitel 3 vorgestellt. Der zugehörige Theorieteil führt in das Konzept von Oberflächen-Plasmon-Polaritonen (SPP) ein, das für den Forschungsbereich der Plasmonik im Allgemeinen wesentlich ist. Verschiedene Methoden zur Berechnung der Dispersionsrelation dieser Oberflächenmoden an ein- und mehrschichtigen Grenzflächen werden auf die untersuchte Metaoberflächenprobe angewendet. Das Modell sagt drei verschiedene Moden voraus, die sich an der Grenzfläche ausbreiten. Eine teil-gebundene ins Substrat abstrahlende Oberflächenmode sowie zwei vergrabene stark gebundene anisotrope Moden. Eine auf der Probe platzierte Nanokugel aus Silizium wird als radiale Anregungsquelle verwendet.
Der Vergleich mit s-SNOM-Nahfeldbildern zeigt, dass nur die schwach gebundene geführte Modenresonanz ausreichend angeregt wurde, um durch s-SNOM-Bildgebung nachgewiesen werden zu können. Die schwache Oberflächenbindung erklärt die scheinbar isotrope Ausbreitung auf der anisotropen Oberfläche. Die Beobachtung der verbleibenden stark eingegrenzten anisotropen vergrabenen Moden würde eine verbesserte tiefenempfindliche Auflösung des Systems erfordern, die im Prinzip für Schichtdicken von 20 nm möglich sein sollte. Darüber hinaus wirft die Beobachtung die Frage auf, ob die durch Impuls- und Modenvolumenanpassung der Nanokugel gegebene Anregungseffizienz einen ausreichenden Anregungsquerschnitt erzeugt, um nachweisbare vergrabene SPP-Moden zu erzeugen.
In Kapitel 4 wird die Idee der Visualisierung vergrabener elektrischer Felder mit s-SNOM fortgesetzt. Hier wird es auf die Untersuchung von WS_2 angewendet, einem zweidimensionalen TMDC-Material, welches Photolumineszenz zeigt. Durch die Strukturierung des Galliumphosphid-Substrats unter der hängenden Monolage, die von einer dünnen Schicht aus hBN getragen wird, wird die Photolumineszenzausbeute um den Faktor 10 erhöht. Dies wird durch den Entwurf einer lateralen DBR-Mikrokavität mit zusätzlich optimierter vertikaler Tiefe erreicht, die in das Substrat geätzt wurde.
Die hochauflösende Abbildung der elektrischen Feldverteilung im Resonator wird durch den Einsatz von s-SNOM ermöglicht, um die Verbesserung der Einkopplung durch diese beiden Ansätze zu bewerten. Es konnte festgestellt werden, dass die laterale Struktur überwiegend zur verstärkten Photolumineszenzausbeute beiträgt, während für die Einkopplung keine offensichtliche Verstärkung auf die vertikale Strukturoptimierung zurückgeführt werden konnte.
Das zweidimensionale Material WS_2 wird in Kapitel 5 erneut mit Hilfe von c-AFM untersucht. Unterschiedlich dicke Multilagen auf Graphen und Gold dienen als Tunnelbarrieren für vertikale Ströme zwischen Substrat und leitender c-AFM-Messpitze. Die Daten können mit einem Fowler-Nordheim-Modell mit Parametern für die Tunnelbreite und Schottky-Barrierenhöhen der beiden Grenzflächen erklärt werden. Die Messungen zeigen jedoch eine schwache Reproduzierbarkeit, was eine detailliertere Zusammenfassung der relevanten Fehlerquellen erfordert. In der Schlussfolgerung des Kapitels werden mehrere Schlüsselaspekte vorgeschlagen, die bei künftigen Messungen berücksichtigt werden sollten. Entscheidend ist, dass c-AFM sehr empfindlich auf die Adsorption von Wasserfilmen an der Probenoberfläche reagiert, worunter WS_2-Oberflächen unter Umgebungsbedingungen leiden...
In this paper, we present an experimental and theoretical study of excitation processes for the heaviest stable helium-like ion, that is, He-like uranium occurring in relativistic collisions with hydrogen and argon targets. In particular, we concentrate on angular distributions of the characteristic Kα radiation following the K → L excitation of He-like uranium. We pay special attention to the magnetic sub-level population of the excited 1s2lj states, which is directly related to the angular distribution of the characteristic Kα radiation. We show that the experimental data can be well described by calculations taking into account the excitation by the target nucleus as well as by the target electrons. Moreover, we demonstrate for the first time an important influence of the electron-impact excitation process on the angular distributions of the Kα radiation produced by excitation of He-like uranium in collisions with different targets.
Scanning Hall probe microscopy is attractive for minimally invasive characterization of magnetic thin films and nanostructures by measurement of the emanating magnetic stray field. Established sensor probes operating at room temperature employ highly miniaturized spin-valve elements or semimetals, such as Bi. As the sensor layer structures are fabricated by patterning of planar thin films, their adaption to custom-made sensor probe geometries is highly challenging or impossible. Here we show how nanogranular ferromagnetic Hall devices fabricated by the direct-write method of focused electron beam induced deposition (FEBID) can be tailor-made for any given probe geometry. Furthermore, we demonstrate how the magnetic stray field sensitivity can be optimized in situ directly after direct-write nanofabrication of the sensor element. First proof-of-principle results on the use of this novel scanning Hall sensor are shown.
Diese Arbeit beschäftigt sich mit der Wasserkühlung einer normalleitenden CH-Kavität. Insbesondere stellt sich die Frage, ob die im CST Thermal Steady State Solver simulierten Temperaturen mit Messungen während High Power Tests übereinstimmen. Zusätzlich interessiert, inwiefern die Temperatur über die dissipierte Leistung aus dem CST Eigenmode Solver und dem gemessenen Volumenstrom im Kanal abgeschätzt werden kann. In dem Kontext wird auch geklärt, ob die Reihenschaltung der Mantelkanäle den Kühlanforderungen genügt.
Neben Volumenstrom- und Druckmessungen an den in Reihe und parallelgeschalteten Kanälen werden die Leistungs- und Temperaturwerte der Konditionierung in sämtlichen Simulationen aufgegriffen. Indem die Kavität in einzelne Sektionen unterteilt wird und in diesen die dissipierte Leistung mit dem Eigenmode Solver simuliert wird, die ein Kühlkanal abführt, werden die Temperaturerhöhungen direkt berechnet und verglichen.
Zusammengefasst hat sich der Durchfluss in kritischen Bauteilen wie den Stützen durch die Reihenschaltung der Mantelkanäle erhöht und wird damit empfohlen. Es werden die simulierten Temperaturverteilungen gezeigt. Die Näherung über den Eigenmode Solver liefert erneut für die thermisch belasteten Bauteile wie die Stützen präzise Vorhersagen.
Abschließend werden Erfahrungen aus dem Institut in dieser Arbeit zusammengetragen und die Verwendung des Steady State Solver freigegeben.
In dieser Bachelorarbeit werden verschiedene Methoden zur Bestimmung der Betriebsfrequenz von CH-Kavitäten untersucht. Aufgrund der geometrisch komplexen Form der Beschleunigungsstruktur, können die Eigenfrequenzen nicht mithilfe von analytischen Methoden bestimmt werden. Üblicherweise werden die Eigenfrequenzen, ihre Ladungsund Stromdichten, sowie die elektromagnetischen Felder über numerische Methoden der Computational Electromagnetics (CEM) ermittelt. Die CEM ist eine junge Disziplin, deren Performanz und Anwendungsgebiete in den letzten 20 Jahren rapide gewachsen sind. Hauptverantwortlich hierfür ist zum einen das exponentielle Wachstum der Rechenleitung bei gleichbleibenden Kosten, zum anderen die Entwicklung und Verbesserung der Algorithmen. Bis zum Ende des letzten Jahrhunderts wurden elektronische Komponenten hauptsächlich dadurch entwickelt, indem Prototypen angefertigt und analysiert wurden. Diese zeitaufwendige und kostspielige Herangehensweise ist heutzutage nahezu vollständig durch CEM-Simulationen ersetzt worden. Die Hauptmethoden der CEM sind die Finite-Differenzen-Methode (FDM), die Momenten-Methode (MoM) und die Finite-Elemente-Methode (FEM). Für die Bestimmung der Eigenwerte und Eigenvektoren der Beschleunigungsstrukturen eignet sich aufgrund der Stabilität von diesen Dreien am besten die Methode der finiten Elemente. Da die FEM ein rechen- und speicherintensives Verfahren ist, wurde in dieser Arbeit nach einer schnelleren Methode gesucht, um die Betriebsfrequenz von CH-Kavitäten zu bestimmen. Hierfür wurden 84 CH-Kavitäten mithilfe von CST Studio Suite erstellt und simuliert. Es handelt sich hierbei um vier Grundtypen, drei wurden bei einer fixierten Sollfrequenz von 300 MHz konstruiert; die Sollfrequenz des vierten Grundtyps betrug 175 MHz. Die Teilchengeschwindigkeit wurde jeweils in 0,01er-Schrtitten von 0,05 c bis 0,25 c variiert. Aus den Untersuchungen der EM-Felder wurde anschließend ein semi-analytisches Modell entwickelt, das aufgrund der Geometrie der CH-Kavität die Betriebsfrequenz liefern soll.