Refine
Year of publication
Document Type
- Doctoral Thesis (593) (remove)
Has Fulltext
- yes (593)
Is part of the Bibliography
- no (593) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (593) (remove)
Die vorliegende Arbeit beschreibt die Erzeugung und Charakterisierung verschiedenartiger piezoresistiver Dünnschichten für die Druck- und Dehnungssensorik bei hohen Temperaturen, die mittels Sputterdeposition abgeschieden werden:
- metallische Schichten aus Chrom mit Verunreinigungen aus Sauerstoff, Stickstoff oder Platin,
- granulare Keramik-Metall-Schichten (Cermets), mit Platin oder Nickel als Metallkomponente und Aluminiumoxid (Al2O3) oder Bornitrid (BN) als Keramikkomponente.
Beide Schichttypen können mit geeigneten Beschichtungsparametern erhebliche piezoresistive Effekte aufweisen, also einen Widerstands-Dehnungs-Effekt, der den von typischen Metallschichten um ein Mehrfaches übersteigt. Der Effekt wird quantifiziert durch den k-Faktor, der die relative Änderung des Widerstands R auf die relative Änderung der Länge l, d.h. die Dehnung ε=Δl/l, bezieht: k=ΔR/(R ε).
In Beschichtungsreihen werden die Schichtzusammensetzung und die Depositionsbedingungen variiert und die Auswirkungen auf den elektrischen Widerstand, dessen Temperaturkoeffizienten (TKR), sowie den k-Faktor untersucht. Die k-Faktoren der chrombasierten Schichten liegen bei 10 bis 20 mit um null einstellbarem TKR. Die Cermet-Schichten erreichen je nach Material k-Faktoren von 7 bis über 70 mit meist stark negativen TKR von mehreren -0,1 %/K.
Die Chrom- und Chrom-Stickstoff-Schichten erweisen sich als geeignete Sensorschichten für Membran-Drucksensoren. Daher wird eine Reihe von Sensoren mit Wheatstone-Messbrücken erzeugt und charakterisiert. Sie zeigen den hohen k-Faktoren entsprechende hohe Signalspannen. Die guten Sensoreigenschaften bleiben auch bei hohen Temperaturen bis 230 °C erhalten.
Nach den ersten Untersuchungen bei Dehnungen bis maximal 0,1 % wird zusätzlich das Verhalten der Schichten bei höheren Dehnungen bis 1,4 % untersucht. Es zeigt sich vorwiegend ein lineares Widerstands-Dehnungs-Verhalten. Die Leiterbahnen der spröden chrombasierten Schichten werden bei Dehnungen um 0,7 % jedoch durch Risse zerstört, die sich von den Rändern der Schicht her ausbreiten.
Die Platin-Aluminiumoxid-Schicht zeigt einen enorm großen, nichtlinearen Widerstands-Dehnungs-Effekt, der auf Risse zurückgeführt werden kann, die sich nach einigen Belastungszyklen reproduzierbar öffnen und schließen.
Tieftemperaturmessungen von 2 bis 300 K zeigen Widerstandsminima der Chrom-Stickstoff-Schichten; Magnetwiderstandsmessungen deuten jedoch nicht auf den Kondo-Effekt hin.
Die Cermet-Schichten zeigen thermisch aktivierte Leitfähigkeit.
Ausgewählte Schichten werden bei Temperaturen bis 420 °C (693 K) charakterisiert. Die chrombasierten Schichten haben bei hohen Temperaturen stabile Widerstände, zeigen jedoch stark nichtlineare Temperaturverläufe von Widerstand und k-Faktor. Oberhalb einer gewissen Temperatur verschwindet der piezoresistive Effekt, kehrt jedoch beim Abkühlen zurück. Die Verläufe lassen sich durch die Schichtzusammensetzung und auch durch Temperaturbehandlungen modifizieren.
Die Platin-Aluminiumoxid-Schicht ist ebenfalls temperaturstabil und zeigt geringe Änderungen des k-Faktors im Temperaturverlauf. Platin-Bornitrid zeigt große, reversible Widerstandsänderungen bei höheren Temperaturen, die auf mögliche Gaseinlagerungen hindeuten.
Aus den experimentellen Ergebnissen lassen sich die Ursachen der Piezoresistivität ableiten: Die chrombasierten Schichten bilden, wie in der Literatur vielfach beschrieben, unterhalb einer Ordnungstemperatur einen Spindichtewellen-Antiferromagnetismus aus. Dieser Zustand führt zu einem zusätzlichen Widerstandsbeitrag, der die beschriebenen Nichtlinearitäten der Widerstands-Temperatur-Verläufe verursacht und zudem empfindlich auf mechanische Dehnung reagiert und so zu erhöhten k-Faktoren führt.
Die Piezoresistivität der Cermet-Schichten resultiert aus der granularen Struktur, in der Ladungsträger zwischen Metallpartikeln tunneln. Mit exponentiell vom Partikelabstand abhängigen Widerständen der Tunnelübergänge resultieren hohe k-Faktoren. Mithilfe von Modellbetrachtungen, in denen Gleichungen für Tunnelwiderstände auf granulare Systeme angewendet werden, werden die experimentellen Ergebnisse diskutiert. Die Ergebnisse deuten darauf hin, dass sich die Eigenschaften der Keramik vorrangig auf den Betrag der k-Faktoren auswirken und die Eigenschaften des Metalls vor allem den TKR beeinflussen.
Die vorliegende Arbeit präsentiert Forschungsarbeiten basierend auf nanoskopischen Oberflächenmessungen an plasmonischen Metaoberflächen und zweidimensionalen Materialien, insbesondere dem halbleitenden Übergangsmetal-Dichalcogenid (TMDC) WS_2. Die Thesis ist in sieben Kapitel untergegliedert. Die Einleitung vermittelt einen Überblick über die treibenden Kräfte hinter der Forschung im Bereich der Nanophotonik an zweidimensionalen Materialsystemen. Die Untersuchung der Licht-Materie-Wechselwirkung an dünnen Materialgrenzflächen zieht sich als roter Faden durch die gesamte Arbeit.
Das zweite Kapitel beschreibt den experimentellen Aufbau, der für die Durchführung der nanoskopischen Messungen in dieser Arbeit implementiert wurde. Es werden theoretische Grundlagen, das Messprinzip und die Implementierung des optischen Rasternahfeldmikroskops (s-SNOM) skizziert. Außerdem wird ein Strom-Spannungs-Rasterkraftmikroskop (c-AFM) im Kontaktmodus genutzt, um elektrische Ströme auf mikroskopischen zweidimensionalen TMDC-Terrassen zu messen. In den darauffolgenden vier Kapiteln werden die Beiträge dieser Arbeit zur Untersuchung der Licht-Materie-Wechselwirkung auf der Nanoskala aus verschiedenen Perspektiven vorgestellt. Jedes Kapitel enthält eine kurze Einleitung, einen Theorieteil, Messdaten oder Simulationsergebnisse sowie eine Analyse; vervollständigt durch einen Schlussteil.
Die zentrale Arbeit an einer metallischen Metaoberfläche aus elliptischen Goldscheiben wird in Kapitel 3 vorgestellt. Der zugehörige Theorieteil führt in das Konzept von Oberflächen-Plasmon-Polaritonen (SPP) ein, das für den Forschungsbereich der Plasmonik im Allgemeinen wesentlich ist. Verschiedene Methoden zur Berechnung der Dispersionsrelation dieser Oberflächenmoden an ein- und mehrschichtigen Grenzflächen werden auf die untersuchte Metaoberflächenprobe angewendet. Das Modell sagt drei verschiedene Moden voraus, die sich an der Grenzfläche ausbreiten. Eine teil-gebundene ins Substrat abstrahlende Oberflächenmode sowie zwei vergrabene stark gebundene anisotrope Moden. Eine auf der Probe platzierte Nanokugel aus Silizium wird als radiale Anregungsquelle verwendet.
Der Vergleich mit s-SNOM-Nahfeldbildern zeigt, dass nur die schwach gebundene geführte Modenresonanz ausreichend angeregt wurde, um durch s-SNOM-Bildgebung nachgewiesen werden zu können. Die schwache Oberflächenbindung erklärt die scheinbar isotrope Ausbreitung auf der anisotropen Oberfläche. Die Beobachtung der verbleibenden stark eingegrenzten anisotropen vergrabenen Moden würde eine verbesserte tiefenempfindliche Auflösung des Systems erfordern, die im Prinzip für Schichtdicken von 20 nm möglich sein sollte. Darüber hinaus wirft die Beobachtung die Frage auf, ob die durch Impuls- und Modenvolumenanpassung der Nanokugel gegebene Anregungseffizienz einen ausreichenden Anregungsquerschnitt erzeugt, um nachweisbare vergrabene SPP-Moden zu erzeugen.
In Kapitel 4 wird die Idee der Visualisierung vergrabener elektrischer Felder mit s-SNOM fortgesetzt. Hier wird es auf die Untersuchung von WS_2 angewendet, einem zweidimensionalen TMDC-Material, welches Photolumineszenz zeigt. Durch die Strukturierung des Galliumphosphid-Substrats unter der hängenden Monolage, die von einer dünnen Schicht aus hBN getragen wird, wird die Photolumineszenzausbeute um den Faktor 10 erhöht. Dies wird durch den Entwurf einer lateralen DBR-Mikrokavität mit zusätzlich optimierter vertikaler Tiefe erreicht, die in das Substrat geätzt wurde.
Die hochauflösende Abbildung der elektrischen Feldverteilung im Resonator wird durch den Einsatz von s-SNOM ermöglicht, um die Verbesserung der Einkopplung durch diese beiden Ansätze zu bewerten. Es konnte festgestellt werden, dass die laterale Struktur überwiegend zur verstärkten Photolumineszenzausbeute beiträgt, während für die Einkopplung keine offensichtliche Verstärkung auf die vertikale Strukturoptimierung zurückgeführt werden konnte.
Das zweidimensionale Material WS_2 wird in Kapitel 5 erneut mit Hilfe von c-AFM untersucht. Unterschiedlich dicke Multilagen auf Graphen und Gold dienen als Tunnelbarrieren für vertikale Ströme zwischen Substrat und leitender c-AFM-Messpitze. Die Daten können mit einem Fowler-Nordheim-Modell mit Parametern für die Tunnelbreite und Schottky-Barrierenhöhen der beiden Grenzflächen erklärt werden. Die Messungen zeigen jedoch eine schwache Reproduzierbarkeit, was eine detailliertere Zusammenfassung der relevanten Fehlerquellen erfordert. In der Schlussfolgerung des Kapitels werden mehrere Schlüsselaspekte vorgeschlagen, die bei künftigen Messungen berücksichtigt werden sollten. Entscheidend ist, dass c-AFM sehr empfindlich auf die Adsorption von Wasserfilmen an der Probenoberfläche reagiert, worunter WS_2-Oberflächen unter Umgebungsbedingungen leiden...
This thesis investigates the development of early cognition in infancy using neural network models. Fundamental events in visual perception such as caused motion, occlusion, object permanence, tracking of moving objects behind occluders, object unity perception and sequence learning are modeled in a unifying computational framework while staying close to experimental data in developmental psychology of infancy. In the first project, the development of causality and occlusion perception in infancy is modeled using a simple, three-layered, recurrent network trained with error backpropagation to predict future inputs (Elman network). The model unifies two infant studies on causality and occlusion perception. Subsequently, in the second project, the established framework is extended to a larger prediction network that models the development of object unity, object permanence and occlusion perception in infancy. It is shown that these different phenomena can be unified into a single theoretical framework thereby explaining experimental data from 14 infant studies. The framework shows that these developmental phenomena can be explained by accurately representing and predicting statistical regularities in the visual environment. The models assume (1) different neuronal populations processing different motion directions of visual stimuli in the visual cortex of the newborn infant which are supported by neuroscientific evidence and (2) available learning algorithms that are guided by the goal of predicting future events. Specifically, the models demonstrate that no innate force notions, motion analysis modules, common motion detectors, specific perceptual rules or abilities to "reason" about entities which have been widely postulated in the developmental literature are necessary for the explanation of the discussed phenomena. Since the prediction of future events turned out to be fruitful for theoretical explanation of various developmental phenomena and a guideline for learning in infancy, the third model addresses the development of visual expectations themselves. A self-organising, fully recurrent neural network model that forms internal representations of input sequences and maps them onto eye movements is proposed. The reinforcement learning architecture (RLA) of the model learns to perform anticipatory eye movements as observed in a range of infant studies. The model suggests that the goal of maximizing the looking time at interesting stimuli guides infants' looking behavior thereby explaining the occurrence and development of anticipatory eye movements and reaction times. In contrast to classical neural network modelling approaches in the developmental literature, the model uses local learning rules and contains several biologically plausible elements like excitatory and inhibitory spiking neurons, spike-timing dependent plasticity (STDP), intrinsic plasticity (IP) and synaptic scaling. It is also novel from the technical point of view as it uses a dynamic recurrent reservoir shaped by various plasticity mechanisms and combines it with reinforcement learning. The model accounts for twelve experimental studies and predicts among others anticipatory behavior for arbitrary sequences and facilitated reacquisition of already learned sequences. All models emphasize the development of the perception of the discussed phenomena thereby addressing the questions of how and why this developmental change takes place - questions that are difficult to be assessed experimentally. Despite the diversity of the discussed phenomena all three projects rely on the same principle: the prediction of future events. This principle suggests that cognitive development in infancy may largely be guided by building internal models and representations of the visual environment and using those models to predict its future development.
The stellar nucleosynthesis of elements heavier than iron can primarily be attributed to neutron capture reactions in the s and r process. While the s process is considered to be well understood with regards to the stellar sites, phases and conditions where it occurs, nucleosynthesis networks still need accurate neutron capture cross sections
with low uncertainties as input parameters. Their quantitative outputs for the isotopic abundances produced in the s process, coupled with the observable solar abundances, can be used to indirectly infer the expected r process abundances. The two stable gallium isotopes, 69Ga and 71Ga, have been shown in sensitivity studies to have considerable impact on the weak s process in massive stars. The available experimental data, mostly derived from neutron activation measurements for quasi-stellar neutron spectra at kBT = 25 keV, show disagreements up to a factor of three.
Determining the differential neutron capture cross section can provide input data for the whole range of astrophysically relevant energies. To that end, a neutron time of flight experimental campaign at the n_TOF facility at CERN was performed for three months, using isotopically enriched samples of both isotopes. The data taken at the EAR1 experimental area covered a wide neutron energy range from thermal to several hundred keV. The respective differential and spectrum averaged neutron capture cross sections for 69Ga and 71Ga were determined in this thesis. They show good agreement with the evaluated cross sections for 71Ga, but reproduce the deviations from the evaluated data that other, more recent activation measurements showed for 69Ga.
Neutron stars are unique laboratories for the investigation of the high density properties of bulk matter. In this work, the astrophysical constraints for a phase transition from hadronic matter to deconfined quark matter are examined thoroughly. A scheme for relating known astrophysical observables such as mass, radius and tidal deformability to the parameter space of such a transition is devised and applied to the set of data currently available.
In order to span a wide parameter space, a highly parameterizable relativistic mean field equation in compliance with chiral effective field theory results is used, where the stiffness of the equation of state can be varied via the effective mass at saturation density. The phase transitions are modelled using a Maxwell construction and assumed to be of first order, with a constant speed of sound quark matter model. The resulting equations of state are analyzed and divided into four categories, which can be used to constrain the parameter space that allows phase transition. It is highlighted, that a subset of this parameter space would even be detectable without the need of higher precision measurements. A phase transition at high densities is shown to be particularly promising in this regard. Finally, the groundwork is laid to apply the equation of state used in this work for supernova or merger simulations, by extending it to non-zero temperatures.
Für das bessere Verständnis der Nukleosynthese der schweren Elemente im s-Prozess wurde im Rahmen dieser Arbeit die Messung zur Bestimmung der Neutroneneinfangsreaktion von 83Kr durchgeführt. Als Messinstrument wurde DANCE am LANL verwendet, ein 4pi-Kalorimeter zur Detektion der entstehenden g-Kaskaden bei (n,g)-Reaktionen. Darüber hinaus wurden außerdem noch Proben mit 85Kr und 86Kr vermessen.
Die Herausforderung an diesem Experiment bestand vor allem in der Probenherstellung. Das Edelgas Kr erforderte eine Neukonstruktion der normalerweise bei DANCE verwendeten Probenhalterung. Das Hauptaugenmerk lag auf der Maximierung der Kr-Exposition durch den Neutronenstrahl. Im Gegenzug wurde versucht das umgebende Material nach Möglichkeit keinen Neutronen auszusetzen. Für die Isotope 83,86Kr wurden Hochdruckgaskugeln verwendet, die an der Goethe-Universität Frankfurt gefüllt und in eine der neuen Probenhalterungen eingesetzt wurden. Zur Beachtung des bei der Messung entstehenden Untergrundes wurde eine Messung mit baugleicher Probenhalterung und leerer Gaskugel durchgeführt. Da bereits kleine Mengen 85Kr eine hohe Radioaktivität aufweisen, wurde eine in einen Stahlzylinder eingeschweißte, existierende Quelle verwendet.
Bei der Analyse zu 86Kr wurde schnell eine zu starke Verunreinigung der Kr-Probe mit Xe offensichtlich, einen signifikanten Anteil des Spektrums ausmachte. Aus diesem Grund kam es vor allem zu Problemen den korrekten Untergrund von den 86Kr Messdaten zu subtrahieren. Die weitere Bestimmung inklusive Streukorrekturen, Normierung anhand des Flussmonitors und DICEBOX/GEANT3 Effizienzbestimmung lieferte zwar einen energieabhängigen Wirkungsquerschnitt, dieser zeigte allerdings große Abweichungen von den evaluierten ENDF/B-VII.1 Daten, was besonders ersichtlich in der deutlichsten 86Kr Resonanz bei 5515 eV zu erkennen war. Aus diesem Grund konnte aus den Messdaten kein MACS extrahiert werden.
Bei einer Untersuchung der Aktivität der 85Kr-Probe mit Hilfe der einzelnen BaF2-Detektoren in der DANCE Kugel zeigte sich zunächst eine um fast einen Faktor vier geringere Aktivität als vom Hersteller angegeben. Auch bei der weiteren Analyse traten massive Untergrundprobleme auf. Die Form des Stahlzylinders, in dem das Kr-Gasgemisch eingeschweißt war, konnte aufgrund seiner Form nur schwer im Strahlrohr untergebracht werden. Beim Experiment selbst zeigte sich dann, dass Teile der Halterung vom Neutronenstrahl getroffen wurden, was einen Untergrund mit sehr hohem Q-Wert erzeugte, der nicht durch ein Esum Fenster entfernt werden konnte. Durch eine Beschädigung der Halterung mit der Probe kam es darüber hinaus zu Abweichungen mit der verwendeten Leerhalterung. All das führte trotz einer langen Messzeit von fast 18 d dazu, dass nur ein sehr schwaches Signal von der eigentlichen Kr-Probe zu erkennen war. Es wurde eine mögliche 85Kr Resonanz bei 675 eV gefunden, allerdings ist die endgültige Zuordnung aufgrund der nicht eindeutigen Untergrundsituation äußerst schwierig. Im Vorfeld des Kr-Experimentes wurde eine Messung von RbCl an DANCE durchgeführt, da ursprünglich zu erwarten war, dass bereits ein Teil des 85Kr zu 85Rb zerfallen war. Durch diese Messung sollte dieser Anteil leicht von der späteren Messung zu subtrahieren sein. Allerdings trat ein unerwartetes Problem während der Datenaufnahme auf. Die Verbindung der DAQ Boards wurde getrennt, wodurch ca. 3/4 der Detektoren nicht mehr zeitsynchron liefen. Im Zuge dieser Arbeit wurde eine Rekonstruktion dieser Daten angestrebt. Durch Modifikationen am FARE Code, der zur Auswertung verwendet wurde, konnte Flugzeitspektren für jeden Beschleunigerpuls erzeugt werden. Es zeigte sich zunächst ein offensichtlicher Trend einer Verschiebung der getrennten Boards zu späteren Zeiten. Durch mehrere Fits an die Abweichungsverteilung und anschließende Korrektur konnte zunächst ein Spektrum wiederhergestellt werden, das vergleichbar mit den unbeschädigten Daten war. Bei einer detaillierten Analyse dieser neu gewonnen Daten zeigte sich jedoch eine Nichtlinearität in der Zeitverschiebung. Dies resultierte letztlich in einer Korrektur des Spektrums, allerdings nicht in einem Koinzidenzfenster von 10 ns, das für eine Wirkungsquerschnittsanalyse notwendig ist. Es wurde geschlussfolgert, dass durch die geringe Statistik in den einzelnen Flugzeitspektren solch eine Genauigkeit nicht zu erreichen ist.
Die Messung des Neutroneneinfangsquerschnitts von 83Kr konnte im Zuge dieser Arbeit erfolgreich durchgeführt werden. Es wurden zwei Messungen mit verschiedenen Strömen kombiniert. Eine Messung mit 40 µA wurde durchgeführt, um Pile-Up in der größten Resonanz bei 28 eV zu reduzieren. Die zweite Messung diente dann dem Sammeln von ausreichend Statistik in den nicht resonanten Bereichen. Die eingesetzte Leerkugel erlaubte eine saubere Subtraktion des Untergrundes von Probenhalterung, Gaskugel und Umgebung. Für die Skalierung der Messergebnisse wurde eine weitere Messung mit einer 5000 Å dicken Goldfolie durchgeführt. Zur Bestimmung der Detektoreffizienz konnten zunächst die durch den Neutroneneinfang entstandenen Abregungskaskaden der 84Kr Kerne mit DICEBOX modelliert werden. Diese Kaskaden wurden dann anschließend in GEANT3 Simulationen verwendet, um die Effizienz bestimmen zu können. Mit diesen Methoden erhielt man die Maxwell-gemittelten Wirkungsquerschnitte von kT = 5 keV - 100 keV. Bei der für den s-Prozess wichtigen Temperatur von kT = 30 keV wurde der Querschnitt bestimmt zu: MACS (30 keV) = (256,6 +- 14,2 (stat) +- 18,1(sys)) mb.
Dieser Wert ist in guter Übereinstimmung mit dem in der KADoNIS v0.3 Datenbank angegebenen Wert von MACS;KADoNIS (30 keV) = (243 +- 15) mb. Mit den so gewonnenen Wirkungsquerschnitten wurden außerdem die Reaktionsraten berechnet. Bei den anschließenden Netzwerkrechnungen mit dem Programm NETZ wurden die Auswirkungen der in dieser Arbeit gewonnenen Wirkungsquerschnitte im Vergleich zu den KADoNIS v0.3 Werten betrachtet. Dabei zeigte sich eine leicht erhöhte Produktion der stabilen Isotope 84Kr, 86Kr, 85Rb und 87Rb, sowie eine leichte Unterproduktion der stabilen Isotope 86-88Sr in der Hauptkomponente des s-Prozess. Ein ähnliches Bild zeigte sich in der He-Brennphase der schwachen Komponente. Der in dieser Arbeit gemessene Wirkungsquerschnitt bei hohen Temperaturen ist geringer als der in KADoNIS v0.3 angegebene, weswegen es bei der Simulation mit NETZ zu einer stark erhöhten Produktion von 83Kr in der C-Brennphase kommt.
Die Entstehung der Elemente im Universum wird auf eine Vielzahl von Prozessen zurückgeführt, die sowohl in Urknall - als auch in stellaren Szenarien angesiedelt werden. Die Kenntnis der dort ablaufenden Reaktionen und deren Raten ermöglicht es die zugrundeliegenden Modelle einzugrenzen und somit genauere Aussagen über die Plausibilität der Szenarien zu treffen. Ein Teil dieser Prozesse stützt sich auf Neutroneneinfänge an Atomkernen, wodurch die Massezahl des Ausgangskerns erhöht wird.
Die Aktivierungsmethode ermöglicht die Bestimmung der Wahrscheinlichkeit eines Neutroneneinfangs, sofern der Zielkern eine detektierbare Radioaktivität aufweist. Die experimentelle Untersuchung einer Reaktion mit einem kurzlebigen Produktkern ist eine besondere Herausforderung, da bei langen Aktivierungen zwar viele Einfänge stattfinden, die meisten Produktkerne jedoch schon während der Aktivierung zerfallen. Ein probates Mittel um genügend Zerfälle des Produktkerns beobachten zu können ist die zyklische Aktivierung, wobei die Probe in mehrfachen Wiederholungen kurz bestrahlt und ausgezählt wird.
Im Rahmen dieser Arbeit wurden zwei verschiedene Anwendungen der zyklischen Aktivierung behandelt.
Eine vom Paul Scherrer Institut Villigen bereitgestellte Probe von 10Be wurde am TRIGA Reaktor der Johannes Gutenberg - Universität Mainz mit Neutronen aktiviert. Über die Cadmiumdifferenzmethode konnte der thermische und der epithermische Anteil der Neutronen separiert werden und dadurch sowohl der thermische Wirkungsquerschnitt als auch das Resonanzintegral für die Reaktion 10Be(n,γ)11Be bestimmt werden.
Am Institut für Kernphysik der Goethe Universität Frankfurt wurde mit einem Van - de - Graaff - Beschleuniger über die 7Li(p,n)7Be Reaktion ein quasistellares Neutronenspektrum mit kBT ≈ 25 keV erzeugt. Für die zyklische Aktivierung von Proben wurde die Infrastruktur in Form einer automatisiert ablaufenden Vorrichtung zur Bestrahlung und Auszählung geplant und umgesetzt. In diesem Rahmen wurden die über das Spektrum gemittelten Neutroneneinfangsquerschnitte für verschiedene Reaktionen bestimmt. Für 19F(n,γ)20F konnte der Gesamteinfangsquerschnitt bestimmt werden. Für die Reaktion 45Sc(n,γ)46Sc wurde der partielle Wirkungsquerschnitt in den 142,5 keV Isomerzustand gemessen. Aus der 115In(n,γ)116In Reaktion konnten die partiellen Querschnitte in die Isomerzustände bei 289,7 keV, 127,3 keV sowie den Grundzustand bestimmt werden.
Außerdem wurde mit einer Hafniumprobe die partiellen Einfangsquerschnitte in den 1147,4 keV Isomerzustand von 178Hf und in den 375 keV Isomerzustand von 179Hf gemessen.
Transmembrane proteins play crucial roles in biological systems as active or passive channels and receptors. Experimentally only few structures could be determined so far. Gaining structural insights enables besides a general understanding of biological mechanisms also further processing such as in drug design. Due to the lack of experimental data, reliable theoretical predictions would be of high value. However, for the same reason, missing data, the knowledge-based class of prediction methods that is well established for soluble proteins can not be applied. The goal of predicting transmembrane protein structures with ab initio methods demands locating the free energy minimum. Main difficulties here are, first, the computational costs of explicitly calculating all involved interactions and, second, providing an algorithm that is capable of finding the minimum within an extremely complex and rugged energy landscape. We have developed promising energy functions that describe the interactions of amino acids on a residue level, reducing computational costs while still containing most information on the atomistic level. We have also found a way to describe the interaction of the residues with its surrounding in a realistic manner by distinguishing residues exposed to the environment from those buried within helices using a sphere algorithm. The sphere algorithm can also be applied for a different purpose: one can measure how densely sidechains are packed for certain helical conformations, and thereby get an estimate of the sidechain entropy. In addition, overcrowding effects can be identified which are not well-described by the energy functions due to the pairwise calculation. To determine the absolute free energy minimum, we assume the helices to be located on an equidistance grid with slightly larger distances than to be expected. Optimizing the helices on the grid provides a starting point that should enable common minimizing algorithms, gradient-based or not, to find the absolute minimum beyond the grid. To simulate the dynamics of the helices on large time scales, we split them into rigid body dynamics and internal dynamics in terms of the dihedrals. The former one is well-known with its inherent problem of numerical drift and plenty of approaches to it, among which we have chosen the quaternions to represent the rotation of the rigid bodies. The latter one requires a detailed analysis of the torque size exerted on the dihedrals caused by the forces acting on the residues.
Nichtgleichgewichtsdynamik des chiralen Phasenübergangs in relativistischen Kern-Kern-Kollisionen
(2005)
In meiner Dissertation "Nichtgleichgewichtsdynamik des chiralen Phasenübergangs bei endlichen Temperaturen und Dichten" untersuche ich das Verhalten von stark wechselwirkender Materie bei hohen Temperaturen und Baryonendichten. Diese Form der Materie untersucht man mit Hilfe von Kern-Kern-Kollisionen an großen Beschleunigern am SPS in Genf (Schweiz) und am RHIC in Brookhaven (USA). Die Quantenchromodynamik (QCD) ist bis heute der beste Kandidat für die Theorie der starken Wechselwirkung und sollte daher die verschiedenen Phasen bei allen Baryonendichten und Temperaturen beschreiben. In der Praxis läßt die QCD sich bisher allerdings nur in einigen Grenzfällen, bei denen eine Störungstheoretische Beschreibung möglich ist, lösen. Daher ist es notwendig, bei endlichen Temperaturen und Baryonendichten effektive Modelle zu entwickeln, welche dann nur den grundlegenden Eigenschaften der QCD Rechnung tragen. Untersuchungen haben ergeben, daß die QCD zwei unterschiedliche Phasenübergänge beinhaltet. Zum einen den sogenannten Deconfinement-Phasenübergang von Kernmaterie zu einem asymptotisch freien Zustand, dem Quark Gluon Plasma, und zum anderen den chiralen Phasenübergang von massiven zu masselosen Teilchen. Gittereichtheoretische Rechnungen haben darüber hinaus gezeigt, daß es im Phasendiagramm einen kritischen Punkt und es Phasenübergänge erster Ordnung und sogenannte Crossover-übergänge gibt. In meiner Arbeit habe ich ein Modell verwendet und weiterentwickelt mit dem es möglich ist, den sogenannten {\em chiralen Phasenübergang} im Nichtgleichgewicht zu untersuchen. Dabei betrachte ich den übergang von masselosen (bei hohen Temperaturen und Baryonendichten) zu massiven Quarks (bei niedrigen Temperaturen und Baryonendichten). Der Schwerpunkt meiner Arbeit liegt auf den Nichtgleichgewichtseffekten des chiralen Phasenübergangs. Solche Nichtgleichgewichtseffekte sind zum Beispiel der Siedeverzug, wie man ihn manchmal beim Kochen von Wasser in einem Reagenzglas vorfindet. Auch hier wird die zeitliche Entwicklung des Systems durch Nichtgleichgewichtseffekte stark verändert, das Wasser kocht nicht einfach nur, sondern es verdampft schlagartig. Ziel meiner Arbeit ist es nun, den Einfluß von Nichtgleichgewichtseffekten auf den chiralen Phasenübergang in Kern-Kern-Kollisionen und insbesondere den Einfluß des kritischen Punktes zu untersuchen. Um mehr über den Phasenübergang im Nichtgleichgewicht herauszufinden, bietet es sich an, Fluktuationen bestimmter thermodynamischer Größen und ihren Einfluß auf Observablen zu untersuchen. Hierzu werden Fluktuationen in die Anfangsbedingungen der numerischen Simulationen eingefügt und untersucht, wie sich jeweils die zeitliche Entwicklung des Systems verhält. Zunächst habe ich die zeitliche Entwicklung der Fluktuationen in Abhängigkeit von der anfänglichen Systemgröße untersucht. Für ein unendliches System würde man am kritischen Punkt eine divergierende Korrelationslänge der Fluktuationen erwarten. Bei einer Kern-Kern-Kollision ist die Größe des Systems hingegen endlich und das System expandiert sehr schnell. Meine Ergebnisse zeigen, daß für alle untersuchten Systemgrößen die Korrelationslänge maximal 2-3 mal so groß wie die anfängliche Korrelationslänge wurde. Es ist daher zweifelhaft, ob dieser Effekt in Kern-Kern-Kollisionen gemessen werden kann. \\ Daher habe ich im weiteren untersucht, wie sich die anfänglichen Fluktuationen des Ordnungsparameters auf die Entwicklung der Energie- und Baryonendichte des Systems auswirken. Die Ergebnisse zeigen, wie Inhomogenitäten von Energie- und Baryonendichte durch die Anwesenheit von verschiedenen Phasenübergängen beeinflußt werden. Während die Inhomogenitäten der Energiedichte sich nur wenig unterscheiden, zeigt sich bei der Baryonendichte ein anderes Verhalten. Für Phasenüberänge erster Ordnung sind die Inhomogenitäten deutlich höher als für Crossover-übergänge. Dies könnte sich unter anderem in der relativen Häufigkeit bestimmter Teilchenspezies wie der Kaonen und Pionen bemerkbar machen.
Diese Arbeit beschreibt wie mit physikalischen Methoden die Glukosekonzentration gemessen werden kann. Die Infrarot-Spektroskopie bietet eine Möglichkeit da die Energie der meisten Molekülschwingungen Photonenenergien im infraroten Spektralbereich entspricht. Hier zeigen Glukosemoleküle charakteristische Absorptionsspektren, die mit spektroskopischen Methoden gemessen werden. Um nicht invasiv zu messen, wurde eine photoakustische Messmethode gewählt. Die Grundidee ist, dass die durch Licht angeregten Moleküle ihre Anregungsenergie teilweise in Form von Wärme abgeben. Da die anregende Strahlung intensitätsmoduliert ist, wird auch die Wärmeentwicklung periodisch verlaufen wodurch periodische Volumenänderungen hervorgerufen werden, die eine Druckwelle erzeugen, die sich durch empfindliche Mikrofone oder Schallwandler erfassen lässt. So kann im MIR auf Grund der hohen Spezifizität, der Glukosegehalt mit sehr hoher Genauigkeit bestimmt werden. Die Wellenlänge der Glukoseabsorptionsbanden im MIR Bereich sind im Wesentlichen gekoppelte C=O Streck- und O–H Biegeschwingungen. Im MIR-Bereich zeigen Spektren zwischen 8,3µm bis 11,1µm fünf glukoserelevanten Banden. Der photoakustische Effekt wird durch die Rosencwaig-Gersho Theorie beschrieben. Die Absorption des Lichtes in der Probe bewirkt eine Temperaturerhöhung, die als Wärme an Umgebung abgegeben wird. Da das eingestrahlte Licht gepulst ist, wird auch die Wärme periodisch abgegeben. Durch die Absorption eines Laserpulses in der Haut entsteht ein Temperaturgradient, die abhängig vom Absorptionskoeffizienten und der Glukosekonzentration ist. Der führt zu einer Diffusion von Wärme im Absorptionsvolumen. Die Hautoberfläche und damit eine dünne Luftschicht über der Hautoberfläche werden durch die Diffusionswärme periodisch mit der Modulationsfrequenz der Laser aufgeheizt, was als Druckschwankungen in Messkammer mit Mikrofon detektiert wird. Im Mitteinfrarot geben Quantenkaskadenlaser die beste Lichtquelle, wegen ihre gute Strahlqualität und hohe optische Leistung. Die verwendete photoakustische(PA) Resonanzzelle ist nach dem Prinzip des Helmholtz-Resonators konzipiert. Der Vorteil des Verstärkungsverhaltens einer resonanten PA-Zelle kann unter Umständen durch Verwendung Volumenreduzierten und mit empfindlichen Mikrofonen ausgestatteten nicht-resonanten PA-Zelle erreicht werde. Zum Erfassung der PA Signale wird eine Kombination aus einen Analog-Digital Wandlerkarte verwendet, die eine gemeinsame Zeitbasis mit der synchronen Lasersteuerung und der Datenerfassung liefert und phasenechte Fourieranalyse der photoakustischen Signale ermöglicht. Es wurde ein Modellsystem entwickelt um photoakustischen Glukosemessungen in vitro zu testen. Dieses „Phantommodell“ besteht aus einer dünnen Polymermembran befestigt in eine Gefäß von nur paar ml Volumen die mit verschiedenen Glukosekonzentrationen gefüllt wurde. Die modulierte Laserstrahlung passiert die Messzelle und dringt durch die Folie in die wässerige Glukoselösung ein. Das Folienmaterial und Dicke wurde so gewählt, dass keineAbsorption im verwendeten MIR-Bereich entsteht. Als Lösung für die jeweiligen Glukosekonzentrationen wurde ein Wasser-Albumin Gemisch verwendet mit einen 10%igen Albuminanteil, die verwendet wurde, um den Proteingehalt der Haut zu imitieren und zu zeigen, dass Eiweiß keinen Störeinfluss im Glukosefingerprintbereich hat. Messungen wurden bei steigenden und fallenden Glukosekonzentration durchgeführt damit gezeigt könnte, dass das Messsignal in der PA- Zelle nicht von der Lufterwärmung in der Zelle stammt, sondern vom PA-Signale der Glukose. Die Glukoseschwankungen in der extrazellulären Flüssigkeit der Epidermis spiegeln die Glukoseschwankungen im Blut gut wider, bei einer Messung am Arm entsteht eine Verzögerung von paar Minuten. Im Daumenballenbereich findet aufgrund der guten Durchblutung ein schneller Austausch der Glukosekonzentration der von uns gemessenen interstitiellen Flüssigkeit mit der Blutzuckerkonzentration statt. Deshalb wurden die in-vivo Messungen am Daumenballen durchgeführt. Das Stratum spinosum ist für uns von Bedeutung, da dies das interstitielle Wasser enthält, in dem der Glukosegehalt mit dem Glukosegehalt im Blut gut übereinstimmt. Die photoakustische Messmethode wird nicht-invasiv durchgeführt. Probanden wird Zucker verabreichet und danach in Abständen von 5 Minuten der Blutzucker konventionell bestimmt und gleichzeitig mittels der photoakustischen Messung am Daumenballen durchgeführt. Mit diesen Daten kann die Korrelation zwischen beiden Methoden bestimmt werden. In vielen in vivo Messreihen zeigen sich bereits in direkter Korrelation zu invasiv genommenen Blutzuckerwerten Korrelationskoeffizienten bis zu R=0,8 und eine damit deutliche Evidenz für einen glukoserelevanten Effekt. Trotz der versprechenden Ergebnisse wird deutlich, dass weitere Entwicklungen notwendig sind, damit das System zu einer direkten Konkurrenz zu der vorhandenen invasiven Meßsystemen werden kann.
Mit immer komplexeren Experimenten erhöhen sich die Anforderungen an die Detektoren und diese Arbeit ist ein neuer Beitrag für eine weiterentwickelte technologische Lösung. In der vorliegenden Dissertation wurde eine nichtinvasive optische Strahldiagnose für intensive Ionenstrahlen in starken Magnetfeldern entwickelt. Das optische System besteht aus miniaturisierten Einplatinen CMOS-Kameras. Sowohl die hardwareseitige Entwicklung als auch die softwareseitige Implementierung der Algorithmen zur Kamerakalibrierung, Netzwerksteuerung und Strahlrekonstruktion wurden in dieser Arbeit entwickelt. Die Leistungsstärke dieses neuartigen Diagnosesystems wurde dann experimentell an einem Teststand demonstriert. Dabei wurde das optische System ins Vakuumstrahlrohr eingebettet. Ein Wasserstoffionenstrahl mit einer Energie von 7keV bis 10keV und einem Strahlstrom bis 1mA wurde in einer Stickstoffatmosphäre bis 1E-5 mbar untersucht. Dabei wurde der Ionenstrahl entlang des Strahlrohres des Toroidsegmentmagnetes mit einer Bogenlänge von 680mm mit einem xy-Kamerasystem beobachtet.
Der Strahlschwerpunkt und die Breite des Strahlprofils wurden im Ortsraum rekonstruiert. Die analytisch berechnete und in anderen Arbeiten simulierte Gyrationsbewegung sowie der RxB-Drift des Strahlschwerpunktes konnte experimentell bestätigt werden.
This thesis deals with several aspects of non-perturbative calculations in low-dimensional quantum field theories. It is split into two main parts:
The first part focuses on method development and testing. Using exactly integrable QFTs in zero spacetime dimensions as toy models, the need for non-perturbative methods in QFT is demonstrated. In particular, we focus on the functional renormalization group (FRG) as a non-perturbative exact method and present a novel fluid-dynamic reformulation of certain FRG flow equations. This framework and the application of numerical schemes from the field of computational fluid dynamics (CFD) to the FRG is tested and benchmarked against exact results for correlation functions. We also draw several conclusions for the qualitative understanding and interpretation of renormalization group (RG) flows from this fluid-dynamic reformulation and discuss the generalization of our findings to realistic higher-dimensional QFTs.
The topics discussed in the second part are also manifold. In general, the second part of this thesis deals with the Gross-Neveu (GN) model, which is a prototype of a relativistic QFT. Even though being a model in two spacetime dimensions, it shares many features of realistic models and theories for high-energy particle physics, but also emerges as a limiting case from systems in solid state physics. Especially, it is interesting to study the model at non-vanishing temperatures and densities, thus, its thermodynamic properties and phase structure.
First, we use this model to test and apply our findings of the first part of this thesis in a realistic environment. We analyze how the fluid-dynamic aspects of the FRG realize themselves in the RG flow of a full-fledged QFT and how we profit from this numeric framework in actual calculations. Thereby, however, we also aim at answering a long-standing question: Is there still symmetry breaking and condensation at non-zero temperatures in the GN model, if one relaxes the commonly used approximation of an infinite number of fermion species and works with a finite number of fermions? In short: Is matter (in the GN model) in a single spatial dimension at non-zero temperature always gas-like?
In general, we also use the GN model to learn about the correct description of QFTs at non-zero temperatures and densities. This is of utmost relevance for model calculations in low-energy quan- tum chromodynamics (QCD) or other QFTs in medium and we draw several conclusions for the requirements for stable calculations at non-zero chemical potential.
The present work deals with photoionization in the realm of the absorption of one single photon. The formal treatment of one-photon ionization usually employs a semi-classical approach, where the electron’s initial and final states are described as quantum-mechanical wave functions but the photon is treated as a classical electromagnetic wave. In the calculation of photoionization cross sections with this semi-classical method, there is an often used approximation which is called the electric dipole approximation. Mathematically, the application of the dipole approximation corresponds to truncating the series expansion of an exponential after the leading term. Physically, this means neglecting the linear photon momentum and the spatial dependence of the light field. The dipole approximation is valid if the wavelength of the light is much larger than the spatial extent of the target and if the photon momentum is small compared to the momenta of the reaction products, which is generally the case for photon energies short above the electron binding energy.
For the present work, we experimentally investigated nondipolar photoionization, i.e., one-photon ionization at high photon energies where the dipole approximation breaks down. In our experiments, we irradiated single atoms and molecules with such high-energetic photons and measured the three-dimensional momentum distributions of the reaction fragments to uncover the effects of the linear photon momentum and the spatially-dependent light field on photoionization. Our observations allow the first profound insight into photoionization that reveals all photon properties, i.e., photon energy, spin, linear momentum, and the speed of light. Hopefully, our efforts make a constructive contribution to the understanding and the further exploration of light-matter interaction.
Nonequilibrium phase transitions in chiral fluid dynamics including dissipation and fluctuation
(2011)
Chiral fluid dynamics combines the fluid dynamic expansion of a hot and dense plasma created in a heavy-ion collision with the explicit propagation of fluctuations at the chiral phase transition of quantum chromodynamics. From systems in equilibrium long-range fluctuations are expected at a conjectured critical point. Heavy-ion collisions are, however, finite in size and time and very dynamic. It is thus likely that nonequilibrium effects diminish the signal of a critical point. They can, however, stimulate phenomena at a first order phase transitions, like nucleation and spinodal decomposition. Both of phase transition scenarios are investigated in this work. Based on the linear sigma model with constituent quarks a consistent quantum field theoretical approach using the two-particle irreducible effective action is developed to derive both, the local equilibrium properties of the expanding quark fluid and the damping and noise terms in the Langevin equation of the order parameter of the phase transition, the sigma field. Within this formalism it is possible to obtain a conserved energy-momentum tensor of the coupled system. It describes the energy dissipation from the sigma field to the heat bath during relaxation. Within this model we investigate nonequilibrium phenomena in a scenario with a critical point and a first order phase transition. We observe long relaxation times at the phase transition, phase coexistence at the first order phase transition and critical slowing down at the critical point. We find a substantial supercooling in a first order phase transition in our model and due to the energy-momentum exchange also reheating is present. While at the critical point the correlation length increases slightly we find an enhanced intensity of nonequilibrium fluctuations at the first order phase transition, which leads to an increased production of sigma mesons.
In this work a nonlinear evolution of pure states of a finite dimensional quantum system is introduced, in particular a Riccati evolution equation.
It is shown how this class of dynamics is actually a Hamiltonian dynamics in the complex projective space.
In this projective space it is shown that there is a nonlinear superposition rule, consistent with its linear counterpart in the Hilbert space. As an example, the developed nonlinear formalism is applied to the semiclassical Jaynes–Cummings model.
Later, it is shown that there is an inherent nonlinear evolution in the dynamics of the so-called generalized coherent states.
To show this, the fact that in quantum mechanics it is possible to immerse a ''classical'' manifold into the Hilbert space is employed, such that one may parametrize the time-dependence of the wave function through the variation of parameters in the classical manifold.
The immersion allows to consider the so-called principle of analogy, i.e. using the procedures and structures available from the classical setting to employ them in the quantum setting.
Finally, it is introduced the contact Hamiltonian mechanics, an extension of symplectic Hamiltonian mechanics, and it is showed that it is a natural candidate for a geometric description of non-dissipative and dissipative systems.
This thesis presents experimental studies of proton capture and fragmentation reactions with heavy-ion storage rings. In one experiment, the 96Ru(p, γ)97Rh cross sections near the Gamow window have been measured at the ESR of GSI. In the other experiment, the measurement of the fragmentation yields has been carried out at the CSRe of IMP.
It is essential to determine the cross sections of (γ, p) or (p, γ) reactions for p-process network calculations. However, only very few of the required cross sections have been measured and thus most of them rely solely on Hauser-Feshbach model predictions. The predictions of the model have always very large uncertainties because of the not well-known input parameters. These parameters can be constrained by experiments. Compared to the traditional activation technique, a novel method using a storage ring has been developed to measure the cross sections of (p, γ) reactions in inverse kinematics.
This proton capture experiment has been performed at the ESR, where the circulating 96Ru44+ ions interacted with a hydrogen gas target at 9, 10 and 11 MeV/u. The nuclear reaction products of (p, p), (p, α), (p, n) and (p, γ) reactions were registered by position sensitive detectors. A Geant4 simulation code has been developed to distinguish the (p, γ) reaction products unambiguously from the background reactions. In this work, a relative normalization method has been utilized to accurately determine the cross sections of the (p, γ) reaction. The 96Ru(p, γ)97Rh cross section in the Gamow window of the p process is sensitive to two parameters, i.e., the γ-ray strength function and the optical model potential, while it is mainly sensitive to the γ-ray strength function in the energy region of our experiment. Therefore, our experimental (p, γ) cross sections near 10 MeV/u have been used to directly constrain the γ-ray strength function used in the model. Furthermore, the proton potential has also been constrained by combining our results with additional experimental data for this reaction in the lower energy region. The constrained model has been used to calculate the reaction rate over a wide temperature range, which is an extremely important input for astrophysical calculations.
The yields of fragments produced by 78Kr fragmentation reactions have been measured at the CSRe for the Tz = −1/2 and Tz = 1/2 nuclei along or close to the paths of αp- and rp-processes. The measured yields present a significant odd-even staggering effect for Tz = −1/2 nuclides but they are small for Tz = 1/2 nuclides.
The magnitude of this effect for four consecutive yields has been quantified using a third-order difference formula. It is found that the largest odd-even staggering is reached near the closed shells Z = 20 and Z = 28. Our experimental results could also compared with the data from other experiments with different projectile-target combinations. All these experimental data strongly support the closed shells Z = 20 and Z = 28 for the Tz = −1/2 nuclei.
Most of the elements heavier than iron are produced through neutron capture reactions in the s- and r -process. The overall path of the s-process is well understood and can be accurately reproduced in network simulations. However, there are still some neutron capture reactions of unstable nuclei involved in the s-process, which were not yet measured due to the difficulty in producing suitable targets. In those cases, theoretical models have to be used to estimate the missing cross section.
One example is the branching point nucleus 86Rb, whose neutron capture cross section cannot be directly measured due to its short half life of 18.86 days. It is, however, also possible to measure its inverse, the 87Rb(g,n) reaction in order to obtain the 86Rb(n,g) cross section through the principle of detailed balance.
Natural rubidium was irradiated with a quasi-monoenergetic photon beam in the energy range between 10.7 MeV and 16 MeV in order to investigate the photo-dissociation cross section of 87Rb. The results are presented in this thesis. Not only the total cross section of 87Rb(g,n), but also the partial production cross section of the ground and isomeric state of 84Rb through the 85Rb(g,n) reaction was measured.
Not all isotopes can be reached via neutron capture reaction, and are therefore bypassed by the s- and r -process. These 35 proton-rich isotopes are called p-nuclei and are produced in the γ-process by a chain of photo-disintegration reactions in Type II supernovae. Network calculations of Type II supernova show that the γ-process can explain the production of most p-nuclei, but some – especially 92/94Mo and 96/98Ru – are heavily underproduced. While this could be the result of deficiencies in the corresponding stellar models or insufficient knowledge of the involved reaction rates, it is also possible that the missing p-nuclei are synthesized in other production scenarios.
An alternative scenario for 92Mo is the production via a chain of proton capture reactions in Type Ia supernovae. One important reaction in this chain is the 90Zr(p,g) reaction. The reaction cross section was already measured several times, but the results were inconclusive. In the present work, the 90 Zr(p,g) reaction was measured using the in-beam gamma-ray spectroscopy technique and the discrepancies between the data sets could be largely explained.
Das Funneling-Prinzip ist für Großprojekte wie SNS und IFMIF zur Erzeugung hoher Strahlströme bei hoher Brillanz von großem Interesse und bietet die Möglichkeit der Strahlstromerhöhung bei gleichbleibender Emittanz. Das Frankfurter Funneling-Experiment ist ein skalierter Aufbau einer ersten Funneling-Stufe von HIDIF. Hauptbestandteile des Experimentes sind zwei Multicusp-Ionenquellen, ein Zwei-Strahl-RFQ-Beschleuniger, ein Einzellen- und ein Mehrzellen-Deflektor sowie eine Emittanzmeßanlage. Das Zusammenführen zweier Ionenstrahlen nach dem Funneling-Prinzip konnte am IAP im Jahr 2000 erstmalig realisiert werden. Allerdings war aufgrund der unmodulierten End-Elektroden des RFQ-Beschleunigers der Strahlradius und die Emittanz bereits bei Eintritt in den Deflektor viel zu groß. Die dadurch aufgetretenen Strahlverluste an den Elektroden führten also nicht zu der gewünschten Strahlstromverdoppelung. Daraufhin wurden die letzten Elektrodenstücke der beiden Beschleuniger gegen modulierte Elektroden ausgetauscht. Der Fokus der Ionenstrahlen wird nun mittels eines sogenannten 3D-Matchings in den Strahlkreuzungspunkt gelegt. Experimente mit den neuen RFQ-End-Elektroden und dem überarbeiteten Mehrzellen- Deflektor stehen noch aus. Die vorliegende Arbeit entstand als theoretischer Teil im Rahmen des Frankfurter Funneling-Experimentes. Es sind zahlreiche Simulationsrechnungen zum bestehenden experimentellen Aufbau durchgeführt worden, die in Auszügen in Kapitel 7 dargestellt wurden. Weiterhin wurde die Teilchendynamik und die Raumladung in Deflektoren, das Emittanzwachstums während des Funnelings, der Einfiuß der inhomogenen Felder bei verschiedenen Deflektorgeometrien ausführlich untersucht und ausgewertet (Kapitel 8). Für diese Aufgaben sind einerseits neue Programme für eine dreidimensionale Deflektorsimulation und andererseits Software zur Auswertung mit graphischer Darstellung geschrieben worden. Diese wurden in Kapitel 6 vorgestellt. Die für diese Arbeit entwickelten Programme ermöglichen die Berechnung der Potential- und Feldverteilungen in elektrischen Hochfrequenz-Funneling-Deflektoren sowie die Simulation des Funnelingprozesses zweier Ionenstrahlen. Ferner sind diverse Auswertemethoden in tabellarischer oder graphischer Form wie Strahlverlauf, Emittanzebenen, Dichteverteilungen und Verlustgraphen verfügbar. Damit sind umfangreiche Simulationen und Auswertungen bezüglich des Deflektordesigns und der Strahldynamik sowie Optimierungen solcher Systeme möglich. Der Einfluß der Raumladungskräfte und der inhomogenen Felder auf den Funnelingprozeß konnten in Kapitel 8 gezeigt werden. Für den im Experiment verwendeten Mehrzellen-Deflektor sollten folgende Strahlparameter eingehalten werden: der Strahlradius in der x-y-Ebene sollte vor Eintritt in den Deflektor kleiner als 0.5 cm sein, die Energiebreite deltaW < +- 2% und die Phasenbreite deltaPhi < +- 30° betragen. Ansonsten treten Teilchenverluste durch Elektrodenkontakt auf oder der Bunch wird in longitudinaler Richtung zu groß, so daß die Möglichkeit besteht, das eine Überlappung der Bunche stattfindet. Mit der vorliegenden Arbeit sind Programme zur detaillierten Berechnung und Analyse von Funneling-Systemen entwickelt worden. Zukünftige Aufgaben sind neben der Untersuchung der Randfelder in Deflektoren die Minimierung des Emittanzwachstums durch die inhomogenen Felder. Nach ersten Strahltests und Funnelingergebnissen ist zu entscheiden, ob eine Matching-Sektion zwischen RFQ-Beschleuniger und Funneling-Deflektor zur weiteren Strahlanpassung eingebracht werden muss.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
The putative effects of dark matter are most easily explained by a collisionless fluid on cosmological scales and by Modified Newtonian Dynamics (MOND) on galactic scales. Hybrid MOND dark matter models combine the successes of dark matter on cosmological scales and those of MOND on galactic scales. An example of such a model is superfluid dark matter (SFDM) which postulates that this differing behavior with scale is caused by a single underlying substance with two phases. In this thesis, I highlight successful observational tests of SFDM regarding strong lensing and the Milky Way rotation curve. I also discuss three problems due to the double role of the aforementioned single underlying substance and show how these may be avoided. Finally, I introduce a novel Cherenkov radiation constraint for hybrid MOND dark matter models. This constraint is different from standard modified gravity Cherenkov radiation constraints because such hybrid models allow even non-relativistic objects like stars to emit Cherenkov radiation.
Different numerical approaches and algorithms arising in the context of modelling of cellular tissue evolution are discussed in this thesis. Being suited in particular to off-lattice agent-based models, the numerical tool of three-dimensional weighted kinetic and dynamic Delaunay triangulations is introduced and discussed for its applicability to adjacency detection. As there exists no implementation of a code that incorporates all necessary features for tissue modelling, algorithms for incremental insertion or deletion of points in Delaunay triangulations and the restoration of the Delaunay property for triangulations of moving point sets are introduced. In addition, the numerical solution of reaction-diffusion equations and their connection to agent-based cell tissue simulations is discussed. In order to demonstrate the applicability of the numerical algorithms, biological problems are studied for different model systems: For multicellular tumour spheroids, the weighted Delaunay triangulation provides a great advantage for adjacency detection, but due to the large cell numbers the model used for the cell-cell interaction has to be simplified to allow for a numerical solution. The agent-based model reproduces macroscopic experimental signatures, but some parameters cannot be fixed with the data available. A much simpler, but in key properties analogous, continuum model based on reaction-diffusion equations is likewise capable of reproducing the experimental data. Both modelling approaches make differing predictions on non-quantified experimental signatures. In the case of the epidermis, a smaller system is considered which enables a more complete treatment of the equations of motion. In particular, a control mechanism of cell proliferation is analysed. Simple assumptions suffice to explain the flow equilibrium observed in the epidermis. In addition, the effect of adhesion on the survival chances of cancerous cells is studied. For some regions in parameter space, stochastic effects may completely alter the outcome. The findings stress the need of establishing a defined experimental model to fix the unknown model parameters and to rule out further models.
The implementation of pump-probe experiments with ultrashort laser pulses enables the study of dynamical processes in atoms or molecules, which may provide a deeper inside in their physical origin. The application of this method to systems as nitrous oxide, which is not only a simple example for polyatomic molecules but which also plays a crucial role in the greenhouse effect, promises interesting and beneficial findings. This thesis presents, on the one hand, the technical extension of an existing experimental setup for high-harmonic generation (HHG) and ultra-fast laser physics by an extreme ultraviolet (XUV) spectrometer for the in-situ observation of the harmonic spectrum during ongoing measurements. The present setup enables the production of short laser pulse trains in the XUV spectral range with durations of a few hundred attoseconds (1 as = 10^−18 s) via HHG and supports to perform XUV-IR pump-probe experiments using the infrared (IR) driving field with durations of a few femtoseconds. Moreover, a reaction microscope is implemented, which enables the coincident detection of several charged particles emerging from an ionization or dissociation process and to reconstruct their full 3-D-momentum vectors. With this technique it is possible to perform time-resolved momentum spectroscopy of few-particle quantum systems. Here, the design and the calibration of the XUV spectrometer is presented as well as a first application to the analysis of experimental data by providing information on the produced photon energies. On the other hand, the results of an XUV-pump IR-probe measurement on nitrous oxide (N2O) are discussed. With the broad harmonic spectrum (∼ 17 − 45 eV) it is possible to address several states of the singly and doubly ionized cation. One reaction channel is the single ionization into a stable state of N2O+. Here, the coincidently measured photoelectron energies allow the observation of sidebands, which served to estimate the pulse durations of the involved XUV pulse trains as well as of the fundamental IR pulses. Additionally, single ionization of nitrous oxide can lead to a dissociation into a charged and a neutral fragment. The four respective dissociation channels are compared by presenting their branching ratios, kinetic energy release (KER) distributions and their dependencies on the time delay between pump and probe pulse. In the production of the dication, there are two competitive processes: direct double ionization considering photon energies above the double-ionization threshold, and autoionization of singly ionized and excited molecules in the case of photon energies near the double-ionization threshold. In both cases, the ionization leads to a Coulomb explosion into two charged fragments, where the N − N bond or the N − O bond may dissociate. The influence of the IR-probe field on the ionization yield and the KER was investigated for both dissociation channels and compared. In addition, the corresponding photoelectron energy spectra are presented, which show indications for autoionizing states being involved, and their dependence on the delay and the KER of the respective ions is analyzed.
Navigating a complex environment is assumed to require stable cortical representations of environmental stimuli. Previous experimental studies, however, show substantial ongoing remodeling at the level of synaptic connections, even under behaviorally and environmentally stable conditions. It remains unclear, how these changes affect sensory representations on the level of neuronal populations during basal conditions and how learning influences these dynamics.
Our approach is a joint effort between the analysis of experimental data and theory. We analyze chronic neuronal population activity data – acquired by out collaborators in Mainz – to describe population activity dynamics during basal dynamics and during learning (fear conditioning). The data analysis is complemented by the analysis of a circuit model investigating the link between a neural network’s activity and changes in its underlying structure.
Using chronic two-photon imaging data recorded in awake mouse auditory cortex, we reproduce previous findings that responses of neuronal populations to short complex sounds typically cluster into a near discrete set of possible responses. This means that different stimuli evoke basically the same response and are thus grouped together into one of a small set of possible response modes. The near discrete set of response modes can be utilized as a sensitive and robust means to detect and track changes in population activity over time. Doing so we find that sound representations are subject to a significant ongoing remodeling across the time span of days under basal conditions. Auditory cued fear conditioning introduces a bias into these ongoing dynamics, resulting in a differential generalization both on the level of neuronal populations and on the behavioral level. This means that sounds that are perceived similar to the conditioned stimulus (CS+) show an increased co-mapping to the same response mode the CS+ is mapped to. This differential generalization is also observed in animal behavior, where sounds similar to the CS+ result in the same freezing behavior as the CS+, whereas dissimilar sounds do not. These observations could provide a potential mechanism of stimulus generalization, which is one of the most common phenomena associated with post-traumatic stress disorder, on the level of neuronal populations.
To investigate how the aforementioned changes in neuronal population activity are linked to changes in the underlying synaptic connectivity, we devised a circuit model of excitatory and inhibitory neurons. We studied this firing rate model to investigate the effect of gradual changes in the network’s connectivity on its activity. Apart from an input dominated uni-stable regime (one response per stimulus independent of the network) and a network dominated uni-stable regime (one response per network independent of the stimulus), we also find a multi-stable regime for strong recurrent connectivity and a high ratio of inhibition to excitation. In this regime the model reproduces properties of neural population activity in mouse auditory cortex, including sparse activity, a broad distribution of firing rates, and clustering of stimuli into a near discrete set of response modes. This clustering in the multi-stable regime means that, not only can identical stimuli evoke different responses, depending on the network’s initial condition, but different stimuli can also evoke the same response.
Applying gradual drift to the network connectivity we find periods of stable responses, interrupted by abrupt transitions altering the stimulus response mapping. We study the mechanism underlying these transitions by analyzing changes in the fixed points of this network model, employing a method to numerically find all the fixed points of the system. We find that such abrupt transitions typically cannot be explained by the mere displacement of existing fixed points, but involve qualitative changes in the fixed point structure in the vicinity of the response trajectory. We conclude that gradual synaptic drift can lead to abrupt transitions in stimulus responses and that qualitative changes in the network’s fixed point topology underlie such transitions.
In summary we find that cortical networks display ongoing representational drift under basal conditions that is biased towards a differential generalization during fear conditioning. A circuit model is able to reproduce key characteristics of auditory cortex, including a clustering of stimulus responses into a near discrete set of response modes. Implementing synaptic drift into this model leads to periods of stable responses interrupted by abrupt transitions towards new responses.
In this thesis hard probes are studied in the partonic transport model BAMPS (Boltzmann Approach to MultiParton Scatterings). Employing Monte Carlo techniques, this model describes the 3+1 dimensional evolution of the quark gluon plasma phase in ultra-relativistic heavy-ion collisions by propagating all particles in space and time and carrying out their collisions according to the Boltzmann equation. Since hard probes are produced in hard processes with a large momentum transfer, the value of the running coupling is small and their interactions should be describable within perturbative QCD (pQCD). This work focuses on open heavy flavor, but also addresses the suppression of light parton jets, in particular to highlight differences due to the mass. For light partons, radiative processes are the dominant contribution to their energy loss. For heavy quarks, we show that also binary interactions with a running coupling and an improved Debye screening matched to hard-thermal-loop calculations play an important role. Furthermore, the impact of the mass in radiative interactions, prominently named the dead cone effect, and the interplay with the Landau-Pomeranchuk-Migdal (LPM) effect are studied in great detail. Since the transport model BAMPS has access to all medium properties and the space time information of heavy quarks, it is the ideal tool to study the dissociation and regeneration of J/psi mesons, which is also investigated in this thesis.
A synchrotron is a particular type of cyclic particle accelerator and the first accelerator concept to enable the construction of large-scale facilities [10], such as the largest particle accelerator in the world, the 27-kilometre-circumference Large Hadron Collider (LHC) by CERN near Geneva, Switzerland, the European Synchrotron Radiation Facility (ESRF) in Grenoble, France for the synchrotron radiation, the superconducting, heavy ion synchrotron SIS100 under construction for the FAIR facility at GSI, Darmstadt, Germany and so on. Unlike a cyclotron, which can accelerate particles starting at low kinetic energy, a synchrotron needs a pre-acceleration facility to accelerate particles to an appropriate initial value before synchrotron injection. A pre-acceleration can be realized by a chain of other accelerator structures like a linac, a microtron in case of electrons, for example, Proton and ion injectors Linac 4 and Linac 3 for the LHC, UNLAC as the injector for the SIS18 in GSI and in future the SIS18 as injector for the SIS100. The linac is a commonly used injector for the ion synchrotron and consists of some key components. The three main parts of a linac are: An ion source creating the particles, a buncher system or an RFQ followed by the main drift tube accelerator DTL. In order to meet the energy and the beam current requirement of a synchrotron injector linac, its cost is a remarkable percentage of the total facility costs.
However, the normal conducting linac operation at cryogenic temperatures can be a promising solution in improving the efficiency and reducing the costs of a linac. Synchrotron injectors operate at very low duty factor with beam pulse lengths in 1 micros to 100 micros range, as most of the time is needed to perform the synchrotron cycle. Superconducting linacs are not convenient, as they cannot efficiently operate at low duty factor and high beam currents.
The cryogenic operation of ion linacs is discussed and investigated at IAP in Frankfurt since around 2012 [1, 37]. The motivation was to develop very compact synchrotron injectors at reduced overall linac costs per MV of acceleration voltage. As the needed beam currents for new facilities are increasing as well, the new technology will also allow an efficient realization of higher injector linac energies, which is needed in that case. Operating normal conducting structures at cryogenic temperature exploits the significantly higher conductivity of copper at temperatures of liquid nitrogen and below. On the other hand, the anomalous skin effect reduces the gain in shunt impedance quite a bit[25, 31, 9]. Some intense studies and experiments were performed recently, which are encouraging with respect to increased field levels at linac operation temperatures between 30 K and 70 K [17, 24, 4, 23, 5, 8]. While these studies are motivated by applications in electron acceleration at GHz-frequencies, the aim of this paper is to find applications in the 100 to 700 MHz range, typical for proton and ion acceleration. At these frequencies, a higher impact in saving RF power is expected due to the larger skin depth, which is proportional to the frequency to the power of negative half with respect to the normal skin effect. On the other hand, it is assumed that the improvement in maximum surface field levels will be similar to what was demonstrated already for electron accelerator cavities. This should allow to find a good compromise between reduced RF power needs for achieving a given accelerator voltage and a reduced total linac length to save building costs.
A very important point is the temperature stability of the cavity surface during the RF pulse. This is of increasing importance the lower the operating temperature is chosen: the temperature dependence of the electric conductivity in copper gets rather strong below 80 K, as long as the RRR - value of the copper is adequate. It is very clear, that this technology is suited for low duty cycle operated cavities only - with RF pulse lengths below one millisecond. At longer pulses the cavity surface will be heated within the pulse to temperatures, where the conductivity advantage is reduced substantially. These conditions fit very well to synchrotron injectors or to pulsed beam power applications.
H – Mode structures of the IH – and of the CH – type are well-known to have rather small cavity diameters at a given operating frequency. Moreover, they can achieve effective acceleration voltage gains above 10 MV/m even at low beam energies, and already at room temperature operation[29]. With the new techniques of 3d – printing of stainless steel and copper components one can reduce cavity sizes even further – making the realization of complex cooling channels much easier.
Another topic are copper components in superconducting cavities – like power couplers. It is of great importance to know exactly the thermal losses at these surfaces, which can’t be cooled efficiently in an easy way.
In the framework of the LHC Injectors Upgrade Project (LIU), the CERN Proton Synchrotron Booster (PSB) went through major upgrades resulting in new effects to study, challenges to overcome and new parameter regimes to explore. To assess the achievable beam brightness limit of the machine, a series of experimental and computational studies in the transverse planes were performed. In particular, the new injection scheme induces optics perturbations that are strongly enhanced near the half-integer resonance. In this thesis, methods for dynamically measuring and correcting these perturbations and their impact on the beam performance will be presented. Additionally, the quality of the transverse beam distributions and strategies for improvement will be addressed. Finally, the space charge effects when dynamically crossing the half-integer resonance will be characterized. The results of these studies and their broader significance beyond the PSB will be discussed.
Classical light microscopy is one of the main tools for science to study small things. Microscopes and their technology and optics have been developed and improved over centuries, however their resolution is ultimately restricted physically by the diffraction of light based on its wave nature described by Maxwell’s equations. Hence, the nanoworld – often characterized by sub-100-nm structural sizes – is not accessible with classical far-field optics (apart from special x-ray laser concepts) since its lateral resolution scales with the wavelength.
It was not until the 20th century that various technologies emerged to circumvent the diffraction limit, including so-called near-field microscopy. Although conceptually based on Maxwell’s long known equations, it took a long time for the scientific community to recognize its powerful opportunities and the first embodiments of near-field microscopes were developed. One representative of them is the scattering-type Scanning Near-field Optical Microscope (s-SNOM). It is a Scanning Probe Microscope (SPM) that enables imaging and spectroscopy at visible light frequencies down to even radio waves with a sub-100-nm resolution regardless of the wavelength used. This work also reflects this wide spectral range as it contains applications from near-infrared light down to deep THz/GHz radiation.
This thesis is subdivided into two parts. First, new experimental capabilities for the s-SNOM are demonstrated and evaluated in a more technical manner. Second, among other things, these capabilities are used to study various transport phenomena in solids, as already indicated in the title.
On the technical side, preliminary studies on the suitability of the qPlus sensor – a novel scanning probe technology – for near-field microscopy are presented.
The scanning head incorporating the qPlus sensor–named TRIBUS – is originally intended and built for ultra-high vacuum, low temperature, and high resolution applications. These are desirable environments and properties for sensitive nearfield measurements as well. However, since its design was not planned for near-field measurements, several special technical and optical aspects have to be taken into account, among others the scanning tip design and a spring suspended measurement head.
In addition, in this thesis field-effect transistors are used as THz detectors in an s-SNOM for the first time. Although THz s-SNOM is already an emerging technology, it still suffers from the requirements of sophisticated and specialized infrastructure on both the detector and laser side. Field-effect transistors offer an alternative that is flexible, cost-efficient, room-temperature operating, and easy to handle. Here, their suitability for s-SNOM measurements, which in general require very sensitive and fast detectors, is evaluated.
In the scientific part of this thesis, electromagnetic surface waves on silver nanowires and the conductivity/charge carrier density in silicon are investigated. Both are completely different concepts of transport phenomena, but this already shows the general versatility of the s-SNOM as it can enter both fields. Silver nanowires are analysed by means of near-infrared radiation. Their plasmonic behaviour in this spectral region is studied complementing other simulations and studies in literature performed on them using for example far-field optics.
Furthermore, the surface wave imaging ability of the s-SNOM in the near-infrared regime is thoroughly investigated in this thesis. Mapping surface waves in the mid-infrared regime is widespread in the community, however for much smaller wavelengths there are several important aspects to be considered additionally, such as the smaller focal spot size.
After that, doped and photo-excited silicon substrates are investigated. As the characteristic frequencies of charge carriers in semiconductors – described by the plasma frequency and the Drude model – are within the THz range, the THz s-SNOM is very well suited to probe their behaviour and to reveal contrasts, which has already been shown qualitatively by numerous literature reports. Here, the photo-excitation enables to set and tune the charge carrier density continuously.
Furthermore, the analysis of all silicon samples focuses on a quantitative extraction of the charge carrier densities and doping levels ...
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
In this work the preparation of organic donor-acceptor thin films was studied. A chamber for organic molecular beam deposition was designed and integrated into an existing deposition system for metallic thin films. Furthermore, the deposition system was extended by a load-lock with integrated bake-out function, a chamber for the deposition of metallic contacts via stencil mask technique and a sputtering chamber. For the sublimation of the organic compounds several effusion cells were designed. The evaporation characteristic and the temperature profile within the cells was studied. Additionally, a simulation program was developed, which calculates the evaporation characteristics of different cell types. The following processes were integrated: evaporation of particles, migration on the cell walls and collisions in the gas phase. It is also possible to consider a temperature gradient within the cell. All processes can be studied separately and their relative strength can be varied. To verify the simulation results several evaporation experiments with different cell types were employed. The thickness profile of the prepared thin films was measured position-dependently. The results are in good agreement with the simulation. Furthermore, the simulation program was extended to the field of electron beam induced deposition (EBID). The second part of this work deals with the preparation and characterization of organic thin films. The focus hereby lies on the charge transfer salt (BEDT-TTF)(TCNQ), which has three known structure variants. Thin films were prepared by different methods of co-evaporation and were studied with optical microscopy, X-ray diffraction and energy dispersive X-ray spectroscopy (EDX).The formation of the monoclinic phase of (BEDT-TTF)(TCNQ) could be shown. As a last part tunnel structures were prepared as first thin film devices and measured in a He4 cryostat.
This work deals with the use of dielectrics with high permeability, so-called high-k dielectrics in organic thin-film field-effect transistors (FETs). The central part was the preparation of the high-k dielectric and its implementation in transistors, in which organic semiconductors were used as active layer. A field-effect transistor can be used to measure the charge carrier mobility. Employing high-k dielectrics the carrier concentration in the active layer can be greatly increased. In this way, high charge carrier concentrations in organic layers can be achieved without chemical doping. As high-k dielectric strontium titanate (STO) was selected. It is also available as a niobium-doped and therefore conducting substrate material. Thus, one has an ideal substrate for the growth of the dielectric layer in conjunction with a substrate which acts as gate electrode. As the organic semiconductor the small molecules pentacene and copper phthalocyanine (CuPc) were sublimated, as electrical contacts gold was used. As a key part of this work an ultra high vacuum chamber system was constructed for in situ preparation of field effect transistors. For the deposition of the organic thin films a molecular beam deposition chamber was built, including a manipulator and effusion cells as evaporation sources. For the preparation of the dielectric a sputtering chamber was set-up. Another chamber was used in conjunction with an effusion cell for the deposition of the gold contacts. For the structured deposition of the different layers in the devices a shadow mask system was implemented. Movable masks could be positioned by means of a wobble stick onto the sample carriers. The system thus allowed for the use of masks in all chambers. The different thin films required in the transistor structure were first individually prepared and characterized. For the characterization primarily X-ray diffraction and optical microscopy were used. The growth of pentacene was analyzed on aplha-AlO substrates. With X-ray diffraction the (00l) reflections of the thin film phase were observed. In growth studies of CuPc aplha-AlO and STO substrates were used. With X-ray diffraction the aplha-phase was detected. With increasing substrate temperature an increase in crystallinity, but also an increase in surface roughness was observed. The sputtering of STO as a high-k dielectric was studied and optimized. Simultaneously, a high deposition rate, a smooth film surface and good crystallinity of the layer were required. As the most important parameters the substrate temperature, pressure and sputtering power were identified. Argon and oxygen were employed as sputtering gases, as substrate MgO was used. The films showed in comparison to crystalline STO a distortion to larger lattice constants. The degree of distortion decreased with increasing chamber pressure, on the other hand, deposition rate decreased with increasing chamber pressure as well. By combining the individual deposition processes FETs in bottom-gate geometry were prepared. The first step was always sputtering of the STO dielectric on niobium-doped STO substrates. Subsequently, the electrodes and the organic layer were deposited. For comparison transistors on silicon substrates with silicon dioxide (SiO2) as the dielectric were prepared. To study the transistor properties a measurement setup was build. A dielectric constant of about 190 for the STO in the transistors was achieved. The transistors with CuPc as active layer showed p-type conduction behavior. The transistors with STO as dielectric had a much stronger response than those with SiO2. They reached mobilities of 2E-4 cm2/Vs at very low applied voltages of 3V. It could thus be demonstrated that STO is suitable as a dielectric for organic FETs, and that through the use of high-k dielectrics high charge carrier densities can be achieved.
Next-generation DIRC detectors, like the PANDA Barrel DIRC, with improved optical designs and better spatial and timing resolution, require correspondingly advanced reconstruction and PID methods. The investigation of the PID performance of two DIRC counters and the evaluation of the reconstruction and PID algorithms form the core of this thesis. Several reconstruction and PID approaches were developed, optimized, and tested using hadronic beam particles, experimental physics events, and Geant simulations. The near-final design of the PANDA Barrel DIRC was evaluated with a prototype in the T9 beamline at CERN in 2018. The analysis finds excellent agreement between the experimental data and the Geant simulations for all reconstruction algorithms. The best PID performance of up to $5.2 \pm 0.2$ s.d. $\pi$/K separation at 3.5 GeV/c, was obtained with a time imaging PID method. The PANDA Barrel DIRC simulation, as well as the reconstruction and PID algorithms, were evaluated using experimental data from the GlueX DIRC as part of the FAIR Phase-0 program. The performance validation was carried out using physics events of the GlueX experiment and simulations. The initial analysis results of the commissioning dataset show a $\pi$/K separation power of up to 3 s.d. at a momentum of 3.0-3.5 GeV/c, obtained using a geometric reconstruction algorithm.
Conclusion Scale Integration Based on the results of spike-field coherence, the underlying process of shortterm memory seems to involve networks of different sizes within and, most probably, beyond prefrontal cortex. Spikes, which were generated by single neurons, cooperate with local field potentials, which were the slower fluctuations of the environment. Although differences among behavioral conditions appear to be based on rather few instances of phase-locked spikes, the task-related effects on spike-field coherence are highly reliable and cannot be explained by chance, as the comparison of results from experimental and simulated data shows. The differential locking of prefrontal neuron populations with two different frequency bands in their input signals suggests that neuronal activity underlying short-term memory in prefrontal cortex transiently engages cortical circuits on different spatial scales, probably in order to coordinate distributed processes. NeuroXidence method and Synchronizedfiring Based on the results of the calibration datasets, for bi- and multi-variate cases, the extension of NeuroXidence remains its sensitivity and reliability of detecting coordinate firing events for different processes. Based on this extension of NeuroXidence, we demonstrated that in monkey’s prefrontal cortex during short-term memory task, encoding and maintenance of the information rely on the formation of neuronal assemblies characterized by precise and reliable synchronization of spiking activity on a millisecond time scale, which is consistent with the results from spike-spike coherence. The task and performance dependent modulation of synchrony reflects the dynamic formation of group of neurons has large effect on short-term-memory.
Nanocarbon structures, such as fullerenes and nanotubes, have generated considerable interest and research, due to their unique properties and potential applications. In this thesis, we present a study of the phase transition properties of nanocarbon clusters,in particular, we pay special consideration to fullerenes. The work presented in this thesis is largely theoretical and computational in nature, employing as a tool, molecular dynamics simulations to probe the dynamic stability of fullerenes and associated nanocarbon structures such as graphenes and nanotubes.
In this work we investigate phenomenological aspects of an anisotropic quark-gluon plasma. In the first part of this thesis, we formulate phenomenologicalmodels that take into account the momentumspace anisotropy of the system developed during the expansion of the fireball at early-times. By including the proper-time dependence of the parton hard momentum scale, phard(), and the plasma anisotropy parameter, Xi, the proposed models allow us to interpolate from 0+1 pre-equilibrated expansion at early-times to 0+1 ideal hydrodynamics at late times. We study dilepton production as a valuable observable to experimentally determine the isotropization time of the system as well as the degree of anisotropy developed at early-times. We generalize our interpolating models to include the rapidity dependence of phard and consider its impact on forward dileptons. Next, we discuss how to constrain the onset of hydrodynamics by demanding two requirements of the solutions to the equations of motion of viscous hydrodynamics. We show this explicitly for 0+1 dimensional 2nd-order conformal viscous hydrodynamics and find that the initial conditions are non-trivially constrained. Finally, we demonstrate how to match the initial conditions for 0+1 dimensional viscous hydrodynamics from pre-equilibrated expansion. We analyze the dependence of the entropy production on the pre-equilibrium phase and discuss limitations of the standard definitions of the non-equilibrium entropy in kinetic theory.
Within this thesis, an experimental study of the photo double ionization (PDI) and the simultaneous ionization-excitation is performed for lithium in different initial states Li (1s22l) (l = s, p). The excess energy of the linearly polarized VUV-light is between 4 and 12 eV above the PDI-threshold. Three forefront technologies are combined: a magneto-optical trap (MOT) for lithium generating an ultra-cold and, by means of optical pumping, a state-prepared target; a reaction microscope (ReMi), enabling the momentum resolved detection of all reaction fragments with high-resolution and the free-electron laser in Hamburg (FLASH), providing an unprecedented brilliant photon beam at favourable time structure to access small cross sections. Close to threshold the total as well as differential PDI cross sections are observed to critically depend on the excitation level and the symmetry of the initial state. For the excited state Li (1s22p) the PDI dynamics strongly depends on the alignment of the 2p-orbital with respect to the VUV-light polarization and, thus, from the population of the magnetic substates (mp = 0, ±1). This alignment sensitivity decreases for increasing excess energy and is completely absent for ionization-excitation. Time-dependent close-coupling calculations are able to reproduce the experimental total cross sections with deviations of at most 30%. All the experimental observations can be consistently understood in terms of the long range electron correlation among the continuum electrons which gives rise to their preferential back-to-back emission. This alignment effect, which is observed here for the first time, allows controlling the PDI dynamics through a purely geometrical modification of the target initial state without changing its internal energy.
In der vorliegenden Arbeit wird die Photodoppelionisation (PDI) von Helium (He) experimentell untersucht. Dazu wurde an der Synchrotronstrahlenquelle Advanced Light Source des Lawrence Berkeley National Laboratory (USA) der vollständig differentielle Wirkungsquerschnitt (FDCS) der PDI von He mit linear sowie mit links und rechts zirkular polarisiertem Licht bei den zwei Photon-Energien E_gamma = 179 eV und 529 eV gemessen. Dabei gelang erstmals eine Messung, bei der die Kontinuumsenergie der Fragmente wesentlich über der Bindungsenergie (79 eV) des Systems liegt. Aufgrund dieser hohen Energie lassen die gemessenen Winkel- und Energieverteilungen erstmals Rückschlüsse auf die Wechselwirkungsprozesse in der Ionisation zu. In allen bisherigen Messungen bei niedrigen Photon-Energien überdeckt der Einfluß der Elektron-Elektron-Wechselwirkung im Endzustand alle Spuren der seit langem theoretisch diskutierten Reaktionsmechanismen. Der FDCS der PDI von He wurde mit einer COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Apparatur gemessen. Hierbei wird das Gastarget durch eine adiabatische Expansion gekühlt und dann mit dem Photon-Strahl zum Überlapp gebracht. Die bei einer Reaktion freigesetzten Elektronen, deren Summenenergie sich zu E_sum = E_1 + E_2 = E_gamma - 79 eV berechnet (die Summenenergie der beiden Elektronen ist gleich der Überschußenergie E_exc), werden mit einer Energie bis zu E_1,2 = 60 eV durch ein elektrisches und magnetisches Feld im vollen Raumwinkel von 4 pi auf einem großen ortssensitiven Detektor abgebildet. Das elektrische Feld projiziert die kalten Rückstoßionen auf einen zweiten ortssensitiven Detektor. Aus der Flugzeit und dem Auftreffort werden der Ladungszustand und der Impuls der Teilchen ermittelt. Ergebnisse: Die Energieaufteilung auf die beiden Elektronen erfolgt asymmetrisch. Diese Asymmetrie ist bei der PDI 450 eV über der Doppelionisationsschwelle (79 eV) stärker ausgeprägt als bei E_exc = 100 eV. Langsame Elektronen werden generell isotrop zur Polarisation emittiert (beta = 0), während die 100 eV-Elektronen einen Anisotropie-Parameter von beta = 1,7 und die sehr schnellen 450 eV-Elektronen sogar eine Dipolverteilung (beta = 2) bzgl. der Polarisationsachse aufweisen. Eine asymmetrische Energieaufteilung zusammen mit einem Anisotropie-Parameter von beta = 2 für die 450 eV-Elektronen zeigt, daß bei der PDI 450 eV über der Schwelle ein Zwei-Stufen-Prozeß vorliegt, in dem das erste Elektron die Energie und den Drehimpuls des Photons aufnimmt. Das zweite Elektron gelangt dann durch den Shake-off oder den Two-Step-One-Mechanismus ins Kontinuum. Sowohl die Häufigkeitsverteilung der Zwischenwinkel der Elektronen als auch der Verlauf der Quadrate der geraden und der ungeraden Amplituden bei der PDI 450 eV über der Schwelle zeigen, daß sehr langsame Elektronen (2 eV) hauptsächlich durch den Shake-off-Mechanismus ins Kontinuum gelangen, während etwas schnellere 30 eV-Elektronen ihre Energie über einen (e,2e)-Stoß (Two-Step-One-Mechanismus) erhalten. Für 100 eV über der Schwelle zeigt sich, daß der Relativimpulsvektor der beiden Elektronen parallel zum Polarisationsvektor steht. Das bedeutet, daß die PDI von He 100 eV über der Schwelle nicht mehr im Gültigkeitsbereich der Wannier-Näherung liegt. Aufgrund der großen Geschwindigkeitsdifferenzen kann die PDI von Helium parallel zum Polarisationsvektor erfolgen. Der gegen den Zwischenwinkel varphi_12 der Elektronen aufgetragene normierte Zirkulare Dichroismus CD_n ist bei E_exc = 100 eV wesentlich stärker ausgeprägt als bei E_exc = 450 eV. Der Wert des Extremums ist für alle Energieaufteilungen - außer der symmetrischen - gleich. Für beide Überschußenergien findet man eine Abhängigkeit der varphi_12-Position des Extremums von der Energieaufteilung. Die Extreme entfernen sich mit zunehmender asymmetrischer Energieaufteilung von varphi_12=180°. Die experimentell gewonnenen Ergebnisse zu den vollständig differentiellen Wirkungsquerschnitten der PDI von He sowohl mit linear als auch mit links und rechts zirkular polarisiertem Licht bei 100 eV und 450 eV über der Doppelionisationsschwelle zeigen insgesamt gute Übereinstimmungen mit den Ergebnissen der convergent-close-coupling-Rechnungen von A. Kheifets und I. Bray.
Die vorliegende Arbeit bietet zunächst einen weiteren Beweis für die Existenz des neutralen Heliumdimers. Darüber hinaus konnten zwei verschiedene Prozesse identifiziert werden, über die die Absorbtion eines Photons zur Ionisation beider Atome des Dimers über sehr große Abstände führen kann. Oberhalb einer Photonenenergie von 65,4 eV konnte ein ICD Prozess beobachtet werden, der über Photoionisation mit gleichzeitiger Anregung von einem der beiden Atome realisiert wird. Bei 77,86 eV konnte ICD über elektronisch angeregte Zustände bis n=6 nachgewiesen werden. In der KER-Verteilung konnten zudem Strukturen gefunden werden, die auf Vibrationsanregungen im Zwischenzustand des Dimer-Ions schließen lassen. Eine vollständig quantenmechanische Rechnung von Sisourat et al. konnte dies schließlich hervorragend bestätigen. Es konnte also ein direkter Blick auf die Vibrationswellenfunktionen des Systems erlangt werden. In anderen Systemen ist dies in der Regel nicht möglich, da sich alle Zustände üblicherweise zu einer strukturlosen Verteilung überlagern. Weiterhin konnte gezeigt werden, dass sich die Winkelverteilungen von ICD- und Photoelektronen in verschiedenen Bereichen des KER mitunter stark voneinander unterscheiden. Dies konnte auf die unterschiedliche Besetzung von verschiedenen Potentialkurven zurückgeführt werden. Unterhalb der Photonenenergieschwelle zur Anregung und Ionisation eines Heliumatoms konnte ein weiterer, zweistufiger Ionisationsmechanismus gefunden werden. Hier wird zunächst durch Photoionisation ein Elektron aus einem der beiden Atome im Dimer freigesetzt. Dieses Photoelektron kann nun am neutralen Atom gestreut werden und dabei ausreichend viel Energie übertragen, um dieses ebenfalls zu ionisieren. Es konnte gezeigt werden, dass der Prozess einer Abhängigkeit von der Polarisation der Synchrotronstrahlung unterliegt, die man für Photoionisation erwarten würde. Die Energie- und Winkelverteilungen der Elektronen konnten daher mit vorangegangenen Elektronenstoß-Experimenten verglichen werden. Die gute Übereinstimmung mit diesen Daten rechtfertigt eine anschauliche Sichtweise des Prozesses als Analogon zum klassischen Billiard-Stoß. Der Two-Step-Prozess wurde bisher zwar schon in vielen Systemen als theoretisches Modell zur Doppelionisation beschrieben, allerdings konnten die einzelnen Unterprozesse bisher nicht gesondert gemessen werden. Die großen Abstände im Heliumdimer ermöglichen erstmals eine deutliche Trennung in Photoionisation an einem Atom und Elektronenstoß (e,2e) am Nachbaratom. Der Two-Step-Prozess konnte außerdem dazu verwendet werden, die ungewöhnliche Grundzustandswellenfunktion des Heliumdimers zu experimentell zu bestätigen. Eine Analyse des gemessenen KER konnte dabei deutliche Abweichungen zu einer klassischen Theorie aufzeigen. Erst eine vollständig quantenmechanische Rechnung des Übergangs von Sisourat et al. konnte die Messdaten beschreiben.
Im Rahmen dieser Dissertation wurde die Photophysik und die elektronische Struktur einer Klasse neuartiger Donator-Akzeptor-Ladungstransfer-Komplexe untersucht. Im Wesentlichen bestehen diese Verbindungen aus einem Ferrocen-Donator (Fc) und organischen Akzeptoren, die über B-N-Bindungen verbrückt sind, welche sich bei dieser Art von makromolekularen Systemen spontan bilden. Zentraler Gegenstand dieser Arbeit war die spektroskopische Untersuchung des Metall-zu-Ligand-Ladungstransfers (engl. Abkürzung: MLCT) im elektronischen Anregungszustand dieser kationischen Komplexverbindungen, die im Weiteren als „Fc-B-bpy“-Verbindungen bezeichnet werden. Die vorliegende Arbeit analysiert eine Vielzahl miteinander verwandter Fc-B-bpy-Derivate. Die Arbeit ist gegliedert in 1.) die Analyse der Absorptionsspektren vom UV- bis zum nahen Infrarot-Spektralbereich (250-1000 nm) von Lösungen, dotierten Polymer-Dünnfilmen und Einkristallen, 2.) die zeitaufgelöste optische Spektroskopie des angeregten Zustands auf der Pikosekunden-Zeitskala, 3.) die Analyse elektrochemischer Messungen an Lösungen, und 4.) die Auswertung quantenchemischer Berechnungen. Für die zeitaufgelösten Messungen wurde ein komplexes optisches Spektroskopie-System mit breitbandigen Femtosekunden-Pulsen sowie den entsprechenden zeitaufgelösten Detektionsmethoden (spektral gefilterte Weißlicht-Detektion) aufgebaut. Die Ergebnisse dieser Arbeit beweisen die Existenz eines MLCT-Übergangs mit fast vollständigem Übergang eines Fc-Donator-Elektrons zum B-bpy-Akzeptor bei optischer Anregung. Die vergleichenden Untersuchungen der spektroskopischen Eigenschaften verschiedener Derivate liefern wichtige Information für die Entwicklung neuartiger Derivate, einschließlich verwandter Polymere, mit verbesserten spektroskopischen Eigenschaften. Es wurden transiente Absorptionsmessungen bestimmter Fc-B-bpy-Derivate in Lösung nach gepulster Anregung der MLCT-Bande (bei 500 nm) über einen Zeitbereich von 0,1-1000 ps und einen Wellenlängenbereich von 460-760 nm vorgenommen. Aus den Messergebnissen geht hervor, dass die Relaxation aus dem angeregten MLCT-Zustand in den Grundzustand auf verschiedenen Zeitskalen geschehen kann, welche im Bereich zwischen ~18 und 900 ps liegen. Ein Vergleich verschiedener Derivate mit unterschiedlicher Flexibilität in der Konformation zeigt, dass die Starrheit der Bindungen zwischen Donatoren und Akzeptoren ein wesentlicher Faktor für die Lebensdauer des angeregten Zustands ist. Wenn die Akzeptorgruppen relativ frei rotieren können, ist es der Verbindung möglich, eine Geometrie einzunehmen, von der aus ein effizienter, strahlungsfreier Übergang in den Grundzustand erfolgen kann. Dieser Befund zeigt einen Weg auf, wie neuartige, verwandte Verbindungen mit größerer Lebensdauer das angeregten Zustands synthetisiert werden können, indem darauf geachtet wird, daß eine starre molekulare Architektur zwischen Donator und Akzeptor verwirklicht wird.
In der vorliegenden Arbeit wurden zeitaufgelöste optische und magneto-optische Untersuchungen an den halb-metallischen gemischtvalenten Manganatverbindungen La0.67Ca0.33MnO3 und Nd0.7Sr0.3MnO3 durchgeführt, die wichtige Informationen über die nach der optischen Anregung ablaufenden Relaxationsprozesse lieferten. Dabei wird das zu untersuchende Material mittels eines intensitätsstarken ultrakurzen Lichtpuls angeregt. Die dadurch erzeugten Änderungen in der komplexen dielektrischen Funktion der Probe tastet man mittels eines zweiten intensitätsschwächeren ultrakurzen Lichtpuls ab. Durch eine variable Weglängendifferenz zwischen den optischen Wegen des Anregeund des Abtastpulses erzeugt man eine variable Zeitverzögerung und kann damit die Änderungen in der dielektrischen Funktion zeitaufgelöst untersuchen....
For this thesis photon and pi0 spectra in Gold-Gold-collisions at an energy of sqrt(s_NN) = 62 GeV were measured using the STAR-experiment at RHIC. Heavy ion collisions allow to study strongly interacting matter under extreme condiditons in the laborartory. Nuclear matter is strongly compressed and heated. Theories predict in a system of strongy interacting matter at high temperature and pressure a phase transition from hadronic matter, in which quarks are bound into hadrons, to a plasma of free quarks and gluons (QGP). To study the properties of this created medium, a number of different observables is available. One possibility to determine the temperature of such a system, is to measure the photon emission from the medium. The experimental difficulty is that there are more mechanisms producing photons than just the thermal production. Photons are produced in hard scattering processes or can be the result of the interaction of hard partons with the medium. According to theoretical calculations the photon yield from hard processes exceeds the thermal production for transverse momenta above 3 GeV/c. Photons from hard processes and thermal photons are referred to as direct photons, because they are produced inside of the medium. The largest part of the photons below pt=3GeV/c, however, comes from electromagnetic decays of hadrons in the final state of the collision. The largest fraction comes from the pi0- and the eta-mesons. Their contribution to the photon spectra can be determined by measuring the spectra of these decaying particles and calculating the resulting, corresponding photon spectra. The experimental difficulty is to measure these spectra to an accuracy of a few percent because the decay photons make up about 90% of all photons in the relevant phase space region. The STAR-experiment provides different detectors to measure photons and pi0-mesons. The primary detector for this kind of measurement are the electromagnetic calorimeters. However, the analysis described in this thesis uses the time projection chamber (TPC). Because photons don't carry electric charge and the TPC is only sensitive to charged particles, a conversion of the photon into an electron-positron-pair is required. This happens inside the electromagnetic fields of the nuclei and the electrons in the atomic shell of the detector material in the experimental setup of STAR. The resulting electron and positron tracks are measrued in the TPC. In chapter 3 the reconstruction of conversions from the measured tracks is described. Chapter 4 discusses the efficiency of the measurement, which is determined with a Monte-Carlo-Method, and the uncertainties of the correction. Chapter 5 presents the results of the analysis. The data set, on which the analysis is based, consists of Gold-Gold-Collisions an a center of mass energy of sqrt(s_NN)=62GeV. The selection criteria for individual events during data taking and during the analysis are explained. The data set is divided into four centrality selection classes. The first result are the transverse momentum and rapidity spectra of inclusive photons for all four centralities and the whole data set. Pi0-spectra versus transverse momentum for the four centralities and the whole data set are also shown. The pi0-spectra are compared to the spectra of pi0-mesons measured by the PHENIX-Collaboration at the same energy and with pi0-spectra measured by STAR at full RHIC energy. In addition a comparison to charged pi+- and pi--spectra is shown, which were also measured by the STAR collaboration. It is attempted to extract the fraction of direct photons by dividing the spectra of inclusive photons by the spectra of simulated decay photons. In these simulations pi0- and eta-spectra are modeled based on the pi+- and pi--spectra. Studying the uncertainties of this procedure shows that the size of the uncertainties is of the same magnitude as the signal of direct photons. Also the systematic uncertainties of the pi+- and pi--spectra are similar. Therefore the measurement of direct photon spectra is not possible. In chapter 6 possibilities are described to reduce the large systematic uncertainties. In addition it is discussed, what could be done with an already existing data set at full RHIC energy and how the addition of a dedicated converter during a future data taking period could reduce the systematic errors. The result of this thesis are inklusive photon and pi0 spectra. The systematic uncertainties were extensively studied. It is described, which enhancements are necessary to provide the perspective for measuring direct photons in the area of 1 to 3 GeV/c transverse momentum.
This dissertation connects two independent fields of theoretical neuroscience: on the one hand, the self-organization of topographic connectivity patterns, and on the other hand, invariant object recognition, that is the recognition of objects independently of their various possible retinal representations (for example due to translations or scalings). The topographic representation is used in the presented approach, as a coordinate system, which then allows for the implementation of invariance transformations. Hence this study shows, that it is possible that the brain self-organizes before birth, so that it is able to invariantly recognize objects immediately after birth. Besides the core hypothesis that links prenatal work with object recognition, advancements in both fields themselves are also presented. In the beginning of the thesis, a novel analytically solvable probabilistic generative model for topographic maps is introduced. And at the end of the thesis, a model that integrates classical feature-based ideas with the normalization-based approach is presented. This bilinear model makes use of sparseness as well as slowness to implement "optimal" topographic representations. It is therefore a good candidate for hierarchical processing in the brain and for future research.
Precise intensity monitoring at CRYRING@ESR: on designing a Cryogenic Current Comparator for FAIR
(2023)
In the field of today’s beam intensity diagnostic there is a significant gap in the non-interceptive, calibrated measurement of the absolute intensity of continuous (unbunched) dc beams with current amplitudes below 1 μA. At the Facility for Antiproton and Ion Research (FAIR) low-intensity DC beams will occur during slow extraction from the synchrotrons as well as for coasting beams of highly-charged or exotic nuclei in the storage rings. The lack of adequate beam instrumentation limits the experimental program as well as the accuracy of experimental results.
The Cryogenic Current Comparator (CCC) can close the diagnostic gap with a high-precision dc current reading independent of ion-species and of beam parameters. However, the established detector design based on a core with high magnetic permeability and on a radial shield geometry has well-known weaknesses concerning magnetic shielding efficiency and intrinsic current noise. To eliminate these weaknesses, a novel coreless CCC with a co-axial shield was constructed and combined with a high-performance SQUID contributed by the Leibniz-Institute of Photonic Technology (Leibniz-IPHT Jena). The new axial CCC model was compared to a radial CCC with the established design provided by the Friedrich-Schiller-University Jena. According to numerical simulations prepared at TU Darmstadt and test measurements of the detectors in the laboratory, the new design offered a significant improvement of the shielding factor – from 75dB to 207dB at the required dimensions – and eliminated all noise contributions from the core material, promising an improved current resolution. Although the lower inductance of the pickup coil reduced the coupling to the beam significantly, the noise properties of the new CCC type were comparable to the classical version with a high-permeability core. However, the expected decrease of the low-frequency noise and thus an increase of the current resolution could not be observed at this stage of development.
Consequently, the classical CCC based on the radial shielding and high-permeability core had to be installed in CRYRING@ESR to provide best possible intensity measurements for the upcoming experimental campaign. In CRYRING the CCC was operated with beam currents between 1nA and 20μA and with different ion species (H, Ne, O, Pb, U). It was shown that the CCC provides a noise-limited current resolution of better than 3.2 nArms at a bandwidth of 200 kHz as well as a noise level below 40 pA/√Hz above 1 kHz. During the operation, the main noise sources of the accelerator environment had to be identified and suitable mitigation strategies were developed. Temperature and pressure fluctuations were suppressed with a newly-designed cryogenic support system based on a 70 l helium bath cryostat, developed and built in collaboration with the Institut für Luft- und Kältetechnik Dresden, in combination with a helium re-liquefier. The cryogenic operating time was restricted to around 7 days, which must be expanded significantly in the future. Digital filters were developed to remove the perturbations of the helium liquefier and of the neighboring dipole magnets. Given the promising results the CCC system can be considered as a prototype for future CCCs at FAIR.
Precise tune determination and split beam emittance reconstruction at the CERN PS synchrotron
(2023)
In accelerator physics, the need to improve the performance and better control the operating point of an accelerator has become, year after year, an increasingly important need in order to achieve higher energies and brightness, as well as point-like particle beams. If this involves increasingly advanced technological developments (in terms, for example, of materials for more intense superconducting magnets), it can not take place in the absence of targeted studies of linear and non-linear beam dynamics. In the context of this Ph.D. thesis in physics, linear and non-linear dynamics of charged particles in circular accelerators is the topic that will be discussed and treated in detail. In particular, the presentation and discussion of the results will be divided in two main topics: the need to know the physical properties of a proton beam; and the development of innovative methods to determine and study the accelerator’s working point. With regard to the first topic, an innovative procedure will be presented to determine the transverse size of the PS beam in the beam extraction phase. Among the different ways the extraction occurs at the PS, the analysed one is based on the transverse splitting of the beam by means of non-linear fields. Thus, the knowledge of the transverse beam size is not trivial since resonant linear and non-linear beam structures (namely, core and islands) arise and, for each of them, the beam size has to be quantified. This parameter is crucial for two main reasons: the accelerator that will receive the beam exiting the upstream accelerator may have restrictions (physical or magnetic) that involve a partial or total loss of the incoming beam; and any experiments located downstream of the considered accelerator may need a beam with a transversal size as constant as possible; consequently, its monitoring and control are essential. The second topic concerns the accurate determination of the working point of an accelerator, defined as the number of transverse oscillations the particle beam travels per unit of accelerator circumference, both horizontally and vertically. This quantity is called horizontal and vertical tune, respectively. Their knowledge is also crucial to understand whether the beam will be stable or unstable. In fact, not all tune values are acceptable, as there are particular values that bring the beam into resonance. In this configuration, the amplitude of the transverse oscillations of the particles increases in an uncontrolled manner and leads to the loss of all or part of the beam. Note that, in particular operating conditions, the resonant conditions are sought and desired to model, in a suitable way, the transversal shape of the beam, such as the above mentioned PS extraction scheme. It is even clearer how much the determination of the machine working point is essential to determine the operating conditions of an accelerator. In this context, several methods (also taken from the field of applied mathematics) to calculate the tune will be demonstrated and tested numerically on different types of synthetic signals. At the end of this description, the use of experimental data will allow to obtain the benchmark of a new method for the direct calculation of some characteristic quantities of non-linear beam dynamics (namely, the amplitude detuning, i.e. the variation of tune as a function of intensity of the perturbation provided to the beam.
In this work we study compact stars, i.e. neutron stars, as cosmic laboratories for the nuclear matter. With a mass of around 1 - 3 solar masses and a radius of around 10km, compact stars are very dense and, besides nucleons, can contain exotic matter such as hyperons or quark matter. The KaoS collaboration studied nuclear matter for densities up to 2-3 times saturation density by analysing kaon multiplicities from Au+Au and C+C collisions. The results show that nuclear matter in the corresponding density region is very compressible, with a compressibility of <200MeV. For such soft nuclear equations of state the maximum masses of neutron stars are ca. 1.8 - 1.9 solar masses, whereas the central densities are higher than 5 times nuclear saturation density and therefore point towards a possible phase transition to quark matter. If quark matter would be present in the interior of neutron stars, so-called hybrid stars, it could be produced already during their birth in supernova explosions. To study this we implement a quark matter phase transition in a hadronic equation of state which is used in supernova simulations. Supernova simulations of low and intermediate mass progenitors and two different bag constants show a collapse of the proto neutron star due to the softening of the equations of state in the quark-hadron mixed phase. The stiffening of the equation of state for pure quark matter halts the collapse and leads to the production of a second shock wave. The second shock wave is energetic enough to lead to an explosion of the star and produces a neutrino burst when passing the neutrinospheres. Furthermore, first studies of the longtime cooling of hybrid stars show, that colour superconductivity can significantly influence the cooling behaviour of hybrid stars, if all quarks form Cooper Pairs. For the so-called CSL phase (colour-spin locking) with pairing energies of several MeV, the cooling of the quark phase is suppressed and the hybrid star appears as a pure hadronic star.
This work focuses on the investigation of K+, K- and ϕ-meson production in Ag(1.58 A GeV)+Ag collisions. The energetically cheapest channel for direct K+ production in binary NN-collisions NN→NΛK+ lies at exactly this energy. For the remaining K- and ϕ-mesons, an excess energy of 0.31 GeV and 0.34 GeV in the centre of mass system has to be provided by the system. This makes these particles an excellent probe for effects inside the medium.
K+ and K- mesons can be reconstructed directly as they possess a cτ of approximately 3.7 m. Using the approximately 3 billion recorded Ag(1.58 A GeV)+Ag 0-30% most central collision events, all reconstructed K+ and K- within the detector acceptance are investigated for their kinematic properties and their particle production rates compared to a selection of existing models.
Das Feld der Hochenergie-Schwerionenforschung hat sich der Untersuchung des Quark-Gluon-Plasmas (QGP) gewidmet. Ein QGP ist ein sehr heißer und dichter Materiezustand, der kurz nach dem Urknall für einige Mikrosekunden das Universum füllte. Unter diesen extremen Bedingungen sind die fundamentalen Bausteine der Materie, die Quarks und Gluonen, quasi frei, also nicht in Hadronen eingeschlossen, wie es unter normalen Bedingungen der Fall ist. Hadronen sind Teilchen, die aus Quarks und Gluonen bestehen. Die bekanntesten Hadronen sind Protonen und Neutronen, die Bestandteile von Atomkernen, aus denen, zusammen mit Elektronen, die gesamte bekannte Materie aufgebaut ist.
Um ein QGP im Labor zu erzeugen, lässt man ultrarelativistische schwere Ionen, wie zum Beispiel Pb-208-Kerne, aufeinander prallen. Dies geschieht am CERN, dem größten Kernforschungszentrum der Welt. Der Teilchenbeschleuniger, welcher Protonen und Pb-Kerne beschleunigt und zur Kollision bringt, heißt Large Hadron Collider (LHC) und ist mit 27 km Umfang der größte der Welt. Bei einer einzigen Pb-Pb Kollision am LHC werden mehrere Tausend Teilchen und Antiteilchen erzeugt. Das dedizierte Experiment zur Untersuchung von Schwerionenkollisionen am LHC ist ALICE. ALICE ist mit mehreren Teilchendetektoren ausgerüstet, die es ermöglichen, tausende Teilchen gleichzeitig zu messen und zu identifizieren.
Unter den produzierten Teilchen befinden sich auch leichte Atomkerne, wenngleich diese nur sehr selten erzeugt werden. Die Anzahl der produzierten Teilchen pro Teilchensorte hängt nämlich von deren Masse ab. In Pb-Pb Kollisionen am LHC sinkt die Anzahl der produzierten (Anti)kerne exponentiell um einen Faktor 1/330 bei Hinzufügen jedes weiteren Nukleons. Die Menge an produzierten Teilchen pro Spezies stellt Informationen über den Produktionsmechanismus beim Übergang vom QGP zum Hadrongas zur Verfügung. Hierbei sind leichte (Anti)kerne von besonderem Interesse, da sie vergleichsweise groß sind und ihre Bindungsenergie bis zu zwei Größenordnungen kleiner ist als die Temperaturen, die bei der Erzeugung der Hadronen vorherrschen. Es ist bis heute noch nicht verstanden, wie leichte (Anti)kerne bei diesen Bedingungen erzeugt werden und überleben können.
Für diese Arbeit wurden ca. 270 Millionen Pb-Pb Kollisionen bei einer Schwerpunktsenergie von 5,02 TeV, die von ALICE im November 2018 aufgezeichnet wurden, analysiert. Es wurde die Produktion von (Anti)triton und (Anti)alpha untersucht. Wegen ihrer großen Masse werden beide Kerne sehr selten produziert, bei weitem nicht bei jeder Kollision. Antialpha ist der schwerste Antikern, der jemals gemessen wurde. Aufgrund dieser Seltenheit ist die Größe des zur Verfügung stehenden Datensatzes entscheidend. Es war möglich, das erste jemals gemessene Antialpha-Transversalimpulsspektrum zu extrahieren. Auch für (Anti)triton und Alpha wurden Transversalimpulsspektren bestimmt.
Die Ergebnisse wurden mit theoretischen Modellen und anderen ALICE Messungen verglichen.
Am Ende wird in einem Ausblick auf das kürzlich durchgeführte Upgrade der ALICE Spurendriftkammer (TPC) eingegangen. In der nächsten, bald startenden Datennahmeperiode wird der LHC seine Kollisionsrate erheblich erhöhen, was es ermöglichen wird, mehr als 100 mal so viele Daten wie bisher aufzuzeichnen. Hiervon werden die in dieser Arbeit beschriebenen (Anti)triton- und (Anti)alpha-Analysen beachtlich profitieren. Um mit den erheblich höheren Kollisionsraten zurecht zu kommen, mussten einige Detektoren, unter anderem die TPC, maßgeblich erneuert werden. In den ersten beiden Datennahmeperioden wurde die TPC mit Vieldrahtproportionalkammern betrieben. Diese sind allerdings viel zu langsam für die geplanten Kollisionsraten. Deshalb wurden sie im Jahr 2019, während einer langen Betriebspause des LHC, durch Quadrupel-GEM (Gas Electron Multiplier) Folien basierte Auslesekammern ersetzt, welche eine kontinuierliche Auslese der TPC ermöglichen. Da es sich um die erste jemals gebaute GEM TPC im Großformat handelt, war ein umfangreiches Forschungs- und Entwicklungs- (F&E) Programm notwendig, um die GEM Auslesekammern zu charakterisieren und zu testen. Im Rahmen dieses F&E Programms wurden am Anfang dieser Promotion systematische Messungen an einer kleinen Test TPC mit Quadrupel-GEM Auslese, die extra zu diesem Zweck gebaut worden war, durchgeführt. Hierbei wurde der Rückfluss der bei der Gasverstärkung erzeugten Ionen in das Driftvolumen der TPC und die Energieauflösung mit verschiedenen GEM Folien Typen und unterschiedlicher Anordnung gemessen. Das Ziel war, möglichst kleine Ionenrückflüsse bei möglichst guter Energieauflösung zu erreichen. Hierbei musste ein Kompromiss gefunden werden, da die beiden Größen sich gegenläufig verhalten. Es war jedoch möglich, mit mehreren GEM Konfigurationen Spannungseinstellungen zu identifizieren, bei denen beide Größen den gewünschten Anforderungen entsprachen.
Der Ursprung der Masse bekannter Teilchen und der Einschlu der Quarks in Hadronen ist einer der grundlegendsten Fragestellungen der modernen Physik. Die Kenntnis des Verhaltens von Kernmaterie unter extremen Bedingungen ist unabdingbar zum Verstandnis der Evolution des Universums und zur Theoriebildung von stellaren Objekten wie Neutronensternen und schwarzen Löchern. Einen experimentellen Zugang zur Untersuchung dieser Problematik stellt die Erzeugung heier und dichter Kernmaterie in ultrarelativistischen Schwerionenkollisionen dar. Hierzu untersucht das NA49 Experiment seit Herbst 1994 am 208-Pb-Strahl des CERN-SPS Pb+Pb Kollisionen bei 158 GeV pro Nukleon. Ein Schwerpunkt des Forschungsprogrammes liegt in der Untersuchung des Zustandes der Materie in der frühen Phase der Reaktion. Nach gegenwartem Stand der Theorie wird bei genugent hoher Energiedichte der Einschlu der Quarks in Hadronen aufgebrochen und ein Zustand der Materie erzeugt, in welchen die eektiven Freiheitsgrade von Hadronen und Hadronen-Resonanzen in die von Quarks und Gluonen übergehen - das sogenannte Quark-Gluon-Plasma (QGP). Die Honung ist nun, da sich die Formation eines solchen QGP im hadronischen Endzustand wiederspiegelt. Es wird erwartet, da die Seltsamkeitsproduktion in einem QGP sich in ihrer Rate und ihren Gleichgewichtswerten von der in einem hadronischen Feuerball-Szenario unterscheidet und sich somit als Signatur fur die Erzeugung eines GQP eignet. Von besonderen Interesse ist hier die Produktion von Hyperonen. Schwerpunkt dieser Arbeit ist die Untersuchung der Produktion von doppelt seltsamen geladenen -Hyperonen in zentralen Pb+Pb Kollisionen. Zu diesem Zweck wurden 58000 zentrale Pb+Pb Ereignisse der im Herbst 1995 aufgezeichneten Reaktionen untersucht. Die Analyse der Daten wurde auschlielich mit der zweiten Spurendriftkammer (VTPC2) durchgeführt. Zur Rekonstruktion der -Hyperonen muten Verfahren entwickelt werden, um die typischen Zerfalls-Topologien der doppelt seltsamen Hyperonen aus der Vielzahl von ca. 700 in der Vertex-TPC gemessenen geladenen Teilchenspuren herauszulösen. Aus den in der kombinatorischen Analyse rekonstruierten 720 und 138 + - Hyperonen konnten Spektren des Transversalimpulses und Rapiditatsverteilungen ermittelt werden. Die gewonnene Phasenraum-Akzeptanz fur die in der VTPC2 gemessenen und + - Hyperonen beträgt ....
Bei der Kollision ultra-relativistischer Schwerionen wird die Kernmaterie extrem verdichtet und erhitzt. Die dabei erzeugte Energiedichte könnte ausreichen, um für kurze Zeit in einem begrenzten Volumen ein Quark-Gluon-Plasma entstehen zu lassen. Dieser Zustand der Materie, bei dem die Quarks und Gluonen nicht mehr in Hadronen gebunden sind, lag möglicherweise innerhalb der ersten Millisekunde nach dem Urknall vor und wird im Inneren von schweren Neutronensternen erwartet. Das NA49-Experiment am SPS-Beschleuniger des CERN untersucht hauptsächlich die Produktion von Hadronen in ultra-relativistischen Blei-Blei-Kollisionen. Eine erhöhte Produktion seltsamer Teilchen ist eine der vorgeschlagenen Signaturen für das Auftreten eines Quark-Gluon-Plasmas. Neutrale seltsame Teilchen werden aus den Spuren ihrer geladenen Zerfallsprodukte, die diese in den großvolumigen Spurendriftkammern (TPC) des NA49-Experiments hinterlassen, rekonstruiert. Bei der Auslese der TPCs entstehen Datenmengen von ca. 8 TByte (8 x 10 exp 12 Byte) pro Strahlzeit. Diese riesigen Datenmengen und die aufwendige Spurrekonstruktion stellen hohe Anforderungen an die Software-Infrastruktur. Daher wurde zur Vereinfachung und Modularisierung der Software-Entwicklung eine Software-Entwicklungs- und Analyseumgebung konzipiert und implementiert. Sie basiert auf dem Client-Server-Prinzip und kann über ein heterogenes TCP/IPNetzwerk aus UNIX-Workstations verteilt werden. Der zentrale Bestandteil des Systems ist der Daten-Server, der Datenobjekte mit persistenten Relationen verwaltet und die Kommunikation mit den Clients zur Steuerung des Systems übernimmt. Programmierschnittstellen (API) für verschiedene Sprachen (C, FORTRAN, C++, Fortran90) erlauben eine einfache Entwicklung von Clients, beispielsweise für die Datenanalyse und -visualisierung. Für die Rekonstruktion neutraler seltsamer Teilchen wurden 93497 zentrale Blei-Blei-Ereignisse aus der Strahlzeit im Herbst 1995 analysiert. Aus den Rohdaten der zweiten Vertex-TPC (VTPC2), die zur Bestimmung der Impulse in einem Magnetfeld positioniert ist, wurden zunächst die Ladungs-Cluster und dann die Teilchenbahnen rekonstruiert. Mit diesen Spuren wurden anschließend die Zerfalls-Vertices von neutralen seltsamen Teilchen gesucht. Dabei wurde neben den tatsächlichen Vertices auch ein Untergrund von zufälligen Kombinationen gefunden. Das Verhältnis von Signal zu kombinatorischem Untergrund wurde durch die Anwendung von Qualitätskriterien optimiert. Die Phasenraumakzeptanz liegt für die drei untersuchten Teilchen Lambda, Antilambda und K 0 s in den Rapiditäts-Intervallen 2,9 < y lambda < 3,9, 3,0 < y antilambda < 3,8 und 3,25 <= yK < 4,05. Der verwendete Transversalimpuls-Bereich ist abhängig von der Teilchenspezies und dem betrachteten Rapiditätsintervall und liegt zwischen 0,6 GeV/c und 2,4 GeV/c. Die inversen Steigungsparameter der Transversalimpuls-Spektren sind rapiditätsabhängig. Im Rapiditätsintervall, das jeweils am nächsten an Midrapidity liegt, betragen sie T lambda = 281 +- 13 MeV, T antilambda = 308 +- 28 MeV und T K 0 s = 239 +- 9 MeV. Die beobachtete lineare Abhängigkeit der inversen Steigungsparameter von der Ruhemasse und die Überschreitung der Hagedornschen Grenztemperatur für ein ideales Hadronengas sind ein Indiz für die Existenz eines kollektiven transversalen Flusses. Im Rahmen eines hydrodynamischen Modells ergibt sich eine mittlere transversale Flußgeschwindigkeit <vT> ~ 0,65 c und eine Freeze-out-Temperatur T fo ~ 110 MeV. Während die Rapiditäts-Verteilungen für Antilamda und K 0 s bei Midrapidity ein deutliches Maximum aufweisen, zeigt die Rapiditäts-Verteilung der Lambda einen flachen Verlauf. Die Multiplizitäten im Rapiditätsintervall bei oder nahe Midrapidity betragen 19,2 +- 1,1 für Lambda, 3,2 +- 0,3 für Antilambda und 27,1 +- 1,8 für K 0 s . Aufgrund der in der Analyse verwendeten Qualitätskriterien kann angenommen werden, daß die Spektren von Lambda und Antilambda in erster Näherung frei von Lambda und Antilambda aus den Zerfällen mehrfach-seltsamer Baryonen sind. Aus dem Vergleich mit den Rapiditäts-Spektren, die von anderen NA49-Gruppen mit unterschiedlichen Analyseansätzen ermittelt wurden, konnte der systematische Fehler der Analyse auf etwa 20-30% abgeschätzt werden. Beim Vergleich der Rapiditäts-Spektren von verschiedenen Stoßsystemen bei der gleichen Energie besitzen die Lambda-Verteilungen für Schwefel-Schwefel- (S+S) und Blei-Blei-Stöße (Pb+Pb) die gleiche flache Form. Hingegen weist die p+p-Verteilung zwei deutliche Maxima auf. Die Rapiditäts-Verteilungen von K 0 s und Antilambda zeigen für alle drei Stoß-Systeme annähernd die gleiche Form. Während bei den Lambda- und K 0 s -Verteilungen die Teilchenausbeute beim Übergang von S+S zu Pb+Pb etwa mit der Anzahl der Partizipanten skaliert, ist der Anstieg bei den Antilambda nur halb so groß. Im Vergleich zu p+p nimmt die Produktion aller drei Spezies um etwa das Zweifache der Partizipanten-Anzahl zu. Die Lambda-Multiplizität bei Midrapidity wird durch Rechnungen des UrQMD-Modells sehr gut reproduziert. Allerdings scheint die Form des Lambda-Rapiditäts-Spektrums flacher als die des Modells zu sein. Bei den Antilambda - und K 0 s -Spektren wird die Form der Verteilung besser durch das Modell beschrieben, jedoch reproduziert es nicht die Gesamtmultiplizität. Während die K 0 s-Daten um 30% unter der UrQMD-Verteilung liegen, wird für die Antilambda nur ungefähr die Hälfte der tatsächlich gemessenen Multiplizität vorhergesagt. Eine Abschätzung für die Anzahl von s- und s-Quarks, die bei einem zentralen Blei-Blei-Stoß erzeugt werden, zeigt eine Übereinstimmung innerhalb der systematischen Fehler dieser Abschätzung und ist damit konsistent mit der erwarteten Erhaltung der Seltsamkeits-Quantenzahl. Das Antilambda/Lambda-Verhältnis bei Midrapidity beträgt 0,17 +- 0,02. Der Vergleich der Verhältnisse von seltsamen zu nicht-seltsamen Teilchen zeigt keinen signifikanten Unterschied zwischen Proton-Proton- und Proton-Kern-Stößen; beim Übergang zu S+S kommt es zu einer Erhöhung der Seltsamkeits-Produktion um etwa einen Faktor 2. In Blei-Blei-Kollisionen kommt es jedoch zu keiner weiteren Erhöhung. Mit steigender Anzahl der Partizipanten, die proportional zur Größe des Reaktionsvolumens ist, kommt es zu einer Sättigung der Strangeness-Produktion. Die Energieabhängigkeit der Strangeness-Produktion zeigt für Nukleon-Nukleon-Stöße (N+N) ein anderes Verhalten als für Kern-Kern-Kollisionen (A+A). Während sie für N+N-Stöße zwischen AGS- und SPS-Energien um einen Faktor 2 zunimmt, kommt es bei A+A-Kollsionen zu einer Sättigung auf dem AGS-Niveau. Dieser Unterschied kann durch eine Reduktion der Masse der Seltsamkeitsträger bei den A+A-Stößen erklärt werden, wie sie in einem Quark-Gluon-Plasma erwartet wird. Dies läßt vermuten, daß der Phasenübergang von einem Quark-Gluon-Plasma zu einem Hadronengas im Energiebereich zwischen AGS und SPS stattfindet.
Diese Arbeit untersucht die Produktion von Teilchen durch Vakuumpolarisation in Anwesenheit klassischer Felder. Eine unquantisierte Beschreibung des bosonischen Sektors einer Quantenfeldtheorie wird möglich, wenn dieser stark besetzt ist. Sind die Besetzungszahlen größer als eins, können Quantenprozesse als Korrekturen angesehen werden. Für die Fermionen gibt es wegen des Paulischen Prinzips kein solches Konzept. Situationen mit diesen starkbesetzten Feldern finden sich im Fall der Quantenchromodynamik (QCD) zum Beispiel in ultrarelativistischen Schwerionenkollisionen. Diese werden zur Zeit am Relativistic Heavy Ion Collider (RHIC) am Brookhaven National Laboratory durchgeführt und in Zukunft am Large Hadron Collider (LHC) am CERN untersucht werden. Diese hochbesetzten sind auch starke Felder. Damit können in Abwesenheit weiterer Skalen Prozesse mit unterschiedlich häufigen Kopplungen an das Hintergrundfeld nicht parametrisch unterschieden werden. Die dominanten Quanteneffekte werden durch Terme der klassischen Wirkung. die zweiter Ordnung in den Quantenfeldern sind, repräsentiert. Alle diesbezüglichen Informationen sind in den Propagatoren der entsprechenden Quanten enthalten. Wegen der starken Felder müssen hier die vollen Propagatoren im Hintergrundfeld benutzt werden. Bei schwacher Kopplung - in führender Ordnung in den Quanteneffekten - enthalten sie alle Details über die Streuung der Quantenteilchen am Feld und deren Produktion durch Vakuumpolarisation. Ohne weitere radiative Korrekturen, gibt es in der Quantenelektrodynamik die Produktion von Elektron-Positron-Paaren. Analog dazu werden in der QCD Quark-Antiquark-Paare produziert. Dort kommt aber wegen der Nichtlinearität des Feldtensors noch die Produktion von Paaren gluonischer Quantenfluktuationen hinzu. Die Quarks und Antiquarks sowie die gluonischen Quantenfluktuationen sind parametrisch nicht zu unterscheiden. Für Schwerionenkollisionen lassen sich Größen wie die anfängliche Energiedichte und die Zerfallszeit des hochdichten Regimes abschätzen. Es stellt sich nun die Frage, ob man bei Einschränkung auf diese Situationen eine der beiden Quantenspezies als unwichtig vernachlässigen kann. Im Bereich hoher Teilchenimpulse, läßt sich die Produktion störungstheoretisch beschreiben. Hier untersuche ich zunächst in der niedrigsten Ordnung der klassischen Wirkung die Produktionsprozesse der beiden Arten von Quanten bei Anwesenheit beliebiger Felder. Für die Aufteilung des Gluonenfeldes in seinen Erwartungswert und seine Fluktuationen wird die Hintergrundfeldmethode der QCD verwendet. Für den Spezialfall rein zeitabhängiger Felder werden die Produktionsraten für Parametersätze, wie sie für RHIC und LHC erwartet sind, angegeben. Es stellt sich heraus, daß auf perturbativem Niveau sowohl Situationen, in denen die Fermionen dominieren, als auch solche, in denen die gluonischen Quantenfluktuationen überwiegen' vorkommen. Im Fall der Gluonen könnte der stark besetzte niederengetische Bereich durch das klassische Feld und der hochenergetische schwächer besetzte durch eine perturbative Beschreibung hinreichend genähert sein. Da es für die Fermionen jedoch kein klassisches Feld gibt, bliebe ihr niederenergetischer Bereich vollkommen unbehandelt. Hier ist auf jeden Fall eine nichtperturbative Beschreibung notwendig. Diese kann auf dem vollen Fermionpropagator im Hintergrundfeld aufgebaut werden. Der bereits oben verwendete Spezialfall eines rein zeitabhängigen Feldes kann als Näherung eines boostinvarianten Szenarios in der zentralen Region der Schwerionenkollision gesehen werden. In Anwesenheit derartiger Felder wird hier der volle retardierte Propagator hergeleitet. Für den exakten Propagator und alle Näherungen wird das Impulsspektrum der produzierten Fermionen berechnet. Dabei stellt sich die sogenannte Abelsche Näherung als bester Kandidat neben der exakten Beschreibung heraus. Sie entspricht, im Gegensatz zur störungstheoretischen Näherung, bei der die Fermionen immer mir ihrem asymptotischen kinematischen Impuls propagiert werden, einer Propagation mit dem mittleren kanonischen Impuls, was die Verbesserung der Näherung erklärt. Mit den, durch die induzierten Strömen modifizierten Yang-Mills-Gleichungen, stellt die Arbeit das komplette Funktionensystem dar, daß benötigt wird, um eine selbstkonsistente Berechnung des klassischen Feldes mit perturbativ beschriebenen gluonischen Quantenfluktuationen und exakt berechneten Quarks und Antiquarks durchzuführen.
This work reports on the study of the projectile x-ray emission in relativistic ion-atom collisions. Excitation of K-shell in He-like uranium ions, electron capture into H-like uranium ions and Simultaneous ionization and excitation of initially He-like uranium ions have been studied using the experimental storage ring at GSI. Information about the population of the excited states for the H- and He-like uranium ions, can be obtained by measuring the angular distribution of the decay radiation. Since the Ly_alpha2 transition is isotropic, the intensities of the Ly_alpha1 and K_alpha transitions were normalized to the Ly_alpha2 line. For the K_alpha1 and K_alpha2 transitions originating from the excitation of the He-like uranium ions, no alignment was observed. In contrast, the Ly_alpha1 radiation from the simultaneous ionization-excitation process of the He-like uranium ions shows a clear alignment. It is shown that the alignment of Ly_alpha1 was obtained by the Alignment parameter A_20. The experimental value leads to the inclusion of a magnetic term in the interaction potential. It is interesting to note that in the case of the Ly_alpha1 emission the small M2 contribution added coherently to the E1 transition amplitudes enhances the anisotropy. The capture process of target electrons into the highly-charged heavy ions was studied using H-like uranium ions at an incident energy of 220 MeV/u, impinging on N2 gas-target. It was shown that, the strongly aligned electrons captured in 2p3/2 level will couple with the available 1s1/2 electron which shows no initial directional preference. The magnetic sub-state population of the 2p3/2 electron will be redistributed according to the coupling rules to the magnetic sub-states of the relevant two-electron states. Consequently, the 1^P1 and 3^P2 states are corresponding to the the strongly aligned 2p3/2 state. This leads to the large anisotropy in the corresponding individual ground state transitions contributing to the K_alpha1 emission. Due to the fact that the 1^P1 --> 1^S0 and 3^P2 --> 1^S0 transitions are experimentally not resolved, a more detailed analysis of the angular dependence of the K_alpha1 radiation is required. From the K_alpha1/K_alpha2 ratio, the current results show that the incoherent addition of the E1 and M2 transition components yield to an almost isotropic emission of the total K_alpha1. In contrast to the radiative electron capture, the experimental results for the K-shell single excitation of He-like uranium ions indicate that only the 1^P1 level contributes to the K_alpha1 transition. For this case, the anisotropy parameter beta_20 was found to be -0.20 + 0.03 which is similar to that one calculated for pure E1 transition. This work also reports on the study of a two-electron process: the simultaneous ionization and excitation occurring in relativistic collisions of heavy highly-charged ions with gaseous targets. The investigation was performed on He-like uranium ions impinging upon xenon gas-target at an incident energy of 220 MeV/u. The measurements have been performed at the ESR gas-target using atomic xenon with a typical area density of 10^12 particles/cm^2. In contrast to the solid state target, the use of gas target offers the advantage of clear separation of the one step two-electron process due to the fact that the probability of two consecutive collision in such thin targets is negligible and the double step processes can be excluded. During the process of simultaneous ionization and excitation in He-like uranium ions, one of the ground-state electrons is promoted into the continuum and the other into the L-subshell states of the projectile. To select this process, the Lyman-series radiation has been measured at various observation angles in coincidence with up-charged projectiles (U^91+). From the yields of the Ly_alpha1 and Ly_alpha2 projectile radiation, the relative cross section for the process of simultaneous ionization and excitation was directly determined. The angle dependent measurement of the radiation yields provide information about the angular distributions of the emitted radiation and permits the determination of the alignment parameter A_{20}. This parameter gives information on the level population and the collision impact parameter. The present results (b^exp = 810 fm) show that the simultaneous ionization and excitation is a process which occurs at small impact parameter.
In order to fully understand the new state of matter formed in heavy ion collisions, it is vital to isolate the always present final state hadronic contributions within the primary Quark-Gluon Plasma (QGP) experimental signatures. Previously, the hadronic contributions were determined using the properties of the known mesons and baryons. However, according to Hagedorn, hadrons should follow an exponential mass spectrum, which the known hadrons follow only up to masses of M = 2 GeV. Beyond this point the mass spectrum is flat, which indicates that there are "missing" hadrons, that could potentially contribute significantly to experimental observables. In this thesis I investigate the influence of these "missing" Hagedorn states on various experimental signatures of QGP. Strangeness enhancement is considered a signal for QGP because hadronic interactions (even including multi-mesonic reactions) underpredict the hadronic yields (especially for strange particles) at the Relativistic Heavy Ion Collider, RHIC. One can conclude that the time scales to produce the required amount of hadronic yields are too long to allow for the hadrons to reach chemical equilibrium within the lifetime of a cooling hadronic fireball. Because gluon fusion can quickly produce strange quarks, it has been suggested that the hadrons are born into chemical equilibrium following the Quantum Chromodynamics (QCD) phase transition. However, we show here that the missing Hagedorn states provide extra degrees of freedom that can contribute to fast chemical equilibration times for a hadron gas. We develop a dynamical scheme in which possible Hagedorn states contribute to fast chemical equilibration times of X X pairs (where X = p, K, Lambda, or Omega) inside a hadron gas and just below the critical temperature. Within this scheme, we use master equations and derive various analytical estimates for the chemical equilibration times. Applying a Bjorken picture to the expanding fireball, the hadrons can, indeed, quickly chemically equilibrate for both an initial overpopulation or underpopulation of Hagedorn resonances. We compare the thermodynamic properties of our model to recent lattice results and find that for both critical temperatures, Tc = 176 MeV and Tc = 196 MeV, the hadrons can reach chemical equilibrium on very short time scales. Furthermore the ratios p/pi, K/pi , Lambda/pi, and Omega/pi match experimental values well in our dynamical scenario. The effects of the "missing" Hagedorn states are not limited to the chemical equilibration time. Many believe that the new state of matter formed at RHIC is the closet to a perfect fluid found in nature, which implies that it has a small shear viscosity to entropy density ratio close to the bound derived using the uncertainty principle. Our hadron resonance gas model, including the additional Hagedorn states, is used to obtain an upper bound on the shear viscosity to entropy density ratio, eta/s, of hadronic matter near Tc that is close to 1/(4pi). Furthermore, the large trace anomaly and the small speed of sound near Tc computed within this model agree well with recent lattice calculations. We also comment on the behavior of the bulk viscosity to entropy density ratio of hadronic matter close to the phase transition, which qualitatively has a different behavior close to Tc than a hadron gas model with only the known resonances. We show how the measured particle ratios can be used to provide non-trivial information about Tc of the QCD phase transition. This is obtained by including the effects of highly massive Hagedorn resonances on statistical models, which are generally used to describe hadronic yields. The inclusion of the "missing" Hagedorn states creates a dependence of the thermal fits on the Hagedorn temperature, TH , and leads to a slight overall improvement of thermal fits. We find that for Au+Au collisions at RHIC at sqrt{sN N} = 200 GeV the best square fit measure, chi^2 , occurs at TH = Tc = 176 MeV and produces a chemical freeze-out temperature of 172.6 MeV and a baryon chemical potential of 39.7 MeV.
Experiments on Vibrational Energy Transfer (VET) in proteins contribute to our understanding of fundamental biological processes such as allostery, dissipation of excess energy, and possibly enzymatic catalysis. While these processes have been studied for a long time, many questions remain unanswered. The aim of this work was to expand the application of existing spectroscopic techniques to investigate VET, seeking tailored solutions for the diversity of proteins and amino acid environments. Additionally, new target proteins were to be established to broaden the spectrum of VET experiments towards the role of VET and low-frequency protein modes (LFMs).
To test their suitability as VET sensors, the non-canonical amino acids (ncAAs) Azidoalanine (N3Ala), azido-L-Homoalanine (Aha), p-azido-Phenylalanine (N3Phe), p-cyano-Phenylalanine (CNPhe), and 4-cyano-Tryptophan (CNTrp) were coupled to the VET donor β-(1-azulenyl)-L-Alanine (AzAla) in dipeptides. Their spectral properties were compared using FTIR and VET spectra in H2O, dimethyl sulfoxide, and tetrahydrofuran.
The solvent strongly influences the measured VET signals, which can be explained by the direct interaction of the solvent with the dipeptides. Additionally, the peak time within the subgroups of azide and nitrile sensors increased with the size of the side chain, indicating the dependence between peak time and the distance between VET donor and sensor. When incorporated into a protein, solvent interactions are less dominant. Therefore, Aha, N3Phe, and CNPhe were additionally incorporated at two different positions in the PDZ protein domain and investigated. Due to Fermi resonances, signals from azide sensors are challenging to predict, unlike those of the nitrile sensors.
Overall, the experiments showed that nitrile groups can serve well as VET sensors, as their lower extinction coefficient is compensated for by a narrower bandwidth. This expands the number of potential target proteins, and sensor incorporation can be less disruptive at various protein locations.
Since the VET donor AzAla can inject the energy of a photon into a protein as vibrational energy at a specific location, it can also be used for the targeted excitation of LFMs. If these modes are involved in an enzymatic reaction, a direct influence on activity is expected. This hypothesis has long existed but has not been definitively verified. Some studies have found evidence for the involvement of LFMs in formate dehydrogenase (FDH) catalysis. Therefore, FDH was chosen for the investigation of LFMs in enzymes. This specific system additionally allows the use of a natural VET sensor: it forms a stable complex with NAD+ and N3-, an excellent IR marker. Thus, it provided the opportunity to test low-molecular-weight non-covalent ligands as VET sensors.
After ensuring sufficient AzAla supply through the internal establishment of an enzymatic synthesis, AzAla could be incorporated at various positions in FDH. Despite spectral overlap between free and bound N3-, the latter could be identified by its narrower FWHM. For some variants, no binding could be observed. Circular dichroism spectra showed that these variants structurally deviate slightly from other variants and the wild type (WT). VET could be observed over 22 Å from two regions of the protein to the N3- bound in the active center, at protein concentrations of below 2 mM. Unbound N3- did not generate signals, allowing it to be added in excess ensuring the saturation of the protein in VET experiments.
The activity of FDH WT and four AzAla mutants was investigated under substrate saturation without and with AzAla excitation. In these experiments, a slight reduction in activity under illumination was observed, even for the WT, who is not expected to interact with the excitation light. So far, a difference in sample temperature cannot be excluded as the cause for this decline.
The presented experiments with FDH illustrate the potential of low-molecular-weight ligands as VET sensors, with N3- being particularly attractive due to its simple structure (preventing Fermi resonances) and its high extinction coefficient. Its use can add many metalloproteins as potential targets for VET experiments and allows investigation without a VET sensor ncAA. Additionally, initial experiments were conducted to measure light-dependent FDH activity. By specifically exciting protein LFMs, this project could contribute in the future to answering longstanding questions about the extraordinary catalytic efficiency of enzymes.
Im ersten Teil dieser Arbeit sind Protein-Protein Docking-Studien dokumentiert. Bis heute konnten die meisten Protein-Komplex-Strukturen nicht experimentell aufgeklärt werden, so auch die beiden oben genannten Elektrontransfer-Komplexe. Nach einem erfolgreichen Test wurden verschiedene Cytochrom c Oxidase:Cytochrom c Paare mit der gleichen Methode gedockt: COX aus Paracoccus denitrificans mit Pferdeherz Cytochrom c und COX mit dem löslichen Fragment des membrangebundenen Cytochrom C552 (beide aus P. denitrificans). Im zweiten Teil dieser Arbeit wurde die diffusive Annäherung des Cytochrom c an die Cytochrom c Qxidase mit der Brownschen Dynamik Methode simuliert. Die Diffusionsbewegung eines Brownschen Teilchens in wässriger Lösung wird durch die Langevin-Gleichung bestimmt. Der auf dieser Gleichung fußende Ermak-McCammon-Algorithmus ist Grundlage der Simulationsmethode. Die so ermittelten Raten für COX und Pferdeherz, sowie für COX und Cytochrom C552, wurden dann mit experimentell gewonnenen Raten verglichen. Da die Elektrostatik für den Annäherungsprozeß dieser Proteine eine so gewichtige Rolle spielt, wirken sich Mutationen, die mit einer Ladungsänderung einhergehen, merklich aus. Dies ist vor allem dann der Fall, wenn sich die Mutation in der Nähe der Bindungsstelle befindet. Aus dem gleichen Grund ist die Assoziationsrate auch stark von der Ionenstärke der umgebenden Lösung abhängig. Steigt die Ionenkonzentration wird die elektrostatische Komplementarität der Bindingsstellen der beiden Makromoleküle stärker abgeschirmt, und die Rate sinkt. Diese beiden relativen Trends konnten durch die Simulationen gut reproduziert und bestätigt werden. Allerdings liegen die absoluten Resultate merklich über den experimentell gemessenen Raten. Es ist sehr gut möglich, daß post-diffusive Effekte, die nicht in einer Brownschen Dynamik Simulation von starren Körpern berücksichtigt werden können, die Raten erniedrigen. Um den Einfluß der Membranumgebung auf die Wechselwirkung des Elektrontransportsystems zu untersuchen. wurde eine DPPC Doppelschicht um die Oxidase modelliert und energieminimiert. Mit Poisson-Boltzmann Rechnungen wurde das elektrostatische Potential dieses Nanosystems untersucht und mit dem der einzelnen Oxidase verglichen. Durch einen modifizierten Set-up konnten dann auch für dieses Membransystem Brownsche Dynamik Simulationen durchgeführt werden. Der Vergleich mit den vorhergehenden Simulationen ohne Membran erbrachte bemerkenswerte Ergebnisse. Während die Assoziationsraten für Pferdeherz Cytochrom c durch den Membraneinfluß erniedrigt wurden, stiegen sie im Fall des physiologischen Transferpartners c552. Pferdeherz Cytochrom c weist eine positive Nettoladung und einen ausgeprägten bipolaren Charakter auf. Eine große Zahl positiv geladener Seitenketten befindet sich auf der gleichen Hemisphäre wie die Bindungsstelle. Obwohl die DPPC Lipidmoleküle neutral sind, zeigten die Elektrostatikrechnungen, daß die Membranoberfläche abstoßend auf positive Ladungen wirkt. Da sich nun die Bindungsstelle der Oxidase für Cytochrom c nur etwa 10 Å oberhalb der Membran befindet, verringert sich die Wahrscheinlichkeit der Assoziation.
Das Antiprotonen-Experiment PANDA an der zukünftigen Beschleunigeranlage FAIR wird unter anderem Charmonium-Zustände mit einer bis dato unerreichten Genauigkeit messen können. Um dieses Ziel zu erreichen, wird eine sehr gute Teilchenidentifikationsfähigkeit verlangt. Eine gute Trennung zwischen Pionen und Kaonen wird durch den Einsatz eines Cherenkovdetektors erreicht. Die Leistungsfähigkeit eines DIRC hängt von dessen Radiatorgüte ab. Um die Qualität der Radiatorstäbe spezifizieren zu können, wurde im Rahmen dieser Doktorarbeit eine optische Messapparatur entwickelt. Dieser Aufbau erlaubt es die Transmission sowie die Oberflächenrauheit der Stäbe zu messen. Es wurden mehrere Radiatorstäbe aus synthetischem Quarzglas und Acrylglas untersucht. Die Messgenauigkeit bei hochqualitativen Stäben liegt für die Transmissionsmessung bei etwa 1 Promille und für die Rauheit bei 1-2 Angström. Die Messergebnisse bei verschiedenen Wellenlängen zeigen eine gute Übereinstimmung mit der skalaren Streutheorie, die den Zusammenhang zwischen Reflexionskoeffizienten und Rauheit beschreibt. Bei einer Strahlzeit an der GSI mit einem 2 GeV Protonenstrahl wurde ein erster Prototyp für den Barrel-DIRC mit einem Stab aus synthetischem Quarzglas als Radiator getestet. Durch Variation des Einfallswinkels und der Position des Protonenstrahls auf dem Radiator konnten Cherenkovringe eindeutig nachgewiesen werden. Zudem wurde der Cherenkovwinkel und die Einzelphotonauflösung in guter Übereinstimmung mit dem Erwartetem und der Simulation bestimmt.
This doctoral thesis is concerned with the development of a method that allows to measure in vivo and non-invasively the mid-infrared absorption spectra of human epidermis, using photoacoustic spectroscopy. The main focus is the monitoring of the glucose level in epidermal interstitial fluid and its correlation with the blood glucose level; which is the most important parameter for the diagnosis and treatment of diabetes mellitus. Most publications in this field have only reported measurements in vitro for the absorption spectra of epidermis in the mid-infrared range. Using the approach presented in this work, it was possible to record in vivo and in situ the absorption spectra of skin of volunteers; and with these spectra, the changing glucose concentration could be monitored. The novelty of the photoacoustic method introduced here is that it operates in acoustic resonance in the ultrasound range. This considerably reduces the signal noise due to the external acoustic background. Although the photoacoustic method reported in this work was used to measure glucose in human epidermis, it can also be applied to other solid samples with relevant absorption bands in the mid-infrared. Furthermore, it can be used in other spectral regions if the laser source covers relevant absorption bands of the sample.
Die Kinetik der Quantenkohärenz entarteter bosonischer Exzitonen bietet ein reiches Spektrum von interessanten Phänomenen, die in dieser Arbeit unter vielfältigen Aspekten untersucht wurden. Dabei lag das Interesse vor allem im Wechselspiel von kohärenten und inkohärenten Prozessen, die mit Hilfe der Vielteilchentheorie auf gemeinsamer Basis behandelt werden konnten. Dies ermöglichte die Beschreibung zweier völlig gegensätzlicher Prozesse: - Den Übergang einer nach Laserpulsanregung rein kohärenten Amplitude in eine Gleichgewichtsverteilung inkohärenter Bosonen unter totalem Verlust jeglicher Phase (Zerfall von Quantenkohärenz). - Den entgegengesetzen Vorgang des spontanen Aufbaus einer makroskopischen kohärenten Amplitude aus einer inkohärenten Verteilung von Exzitonen, den typischen Vorgang in einer BoseEinsteinKondensation (Aufbau von Quantenkohärenz). Die Arbeit begann mit einer getrennten Untersuchung der inkohärenten und der kohärenten Eigenschaften von Exzitonen in Quantendrähten. In diese Halbleiternanostrukturen führt das schwache Confinement zu Subbändern für Exzitonen und Biexzitonen, die sich auch in den komplizierten Auswahlregeln der ExzitonExziton und der ExzitonBiexzitonWechselwirkung bemerkbar machen. Dabei ergibt sich in sehr guter Übereinstimmung mit Experimenten in Würzburg ein überraschendes Phänomen: Streuraten werden durch stärkeres Confinement nicht immer vermindert. In der Tat wurde eine Erhöhung der ExzitonExzitonStreuung bei kleinerer Drahtbreite gefunden. Experimentell und theoretisch skalieren die Streuraten dabei mit dem inversen Quadrat der ConfinementLänge \Gamma XX / 1=L 2 x . Dies könnte durchaus auch Auswirkungen auf den Bau optischer Devices haben, bei denen die Streurate im Allgemeinen minimiert werden soll. Weiterhin wurde gezeigt, dass das Exzitonsystem durch die Kopplung an Biexzitonen für höhere Intensitäten in völlig irreguläres Verhalten übergeht. Daran anschließend wurde eine vereinheitlichende Kinetik mit Hilfe der Nicht gleichgewichtDiagrammtechnik formuliert, die kohärentes und inkohärentes Verhalten gemeinsam auf mikroskopischer Skala beschreibt. Die bosonische Diagrammtechnik war dabei zwar von Methoden für Nicht gleichgewichtsfermionen inspiriert, viele fundamentale Aspekte ohne Analogie in Fermionensystemen oder bosonischen Gleichgewichtssystemen mussten jedoch in dieser Arbeit neu entwickelt werden. Für die gesamte bosonische Einteilchendichtematrix, die sowohl eine kohärente Amplitude ha 0 (t)i als auch Besetzungszahlen ha k (t)a k (t)i und Paarkorrelationen ha k (t)a \Gammak (t)i bei endlichen Impulsen k enthält, wurde eine Markov Kinetik entwickelt. Mit deren Hilfe wurde dann die Dephasierungskinetik einer exzitonischen Polarisation nach Anregung mit einem kohärenten Laserpuls untersucht. Dabei konnte der gesamte Übergang von kohärent erzeugten Exzitonen zu einer inkohärenten Gleichgewichtsverteilung allein aufgrund der ExzitonExzitonWechselwirkung auf mikroskopischer Ebene simuliert und verstanden werden. Erstaunlicherweise stellt sich bei diesem Prozess die Berücksichtigung der Paarkorrelationen F k = ha k a \Gammak i, die zwei Exzitonen mit Impuls k und \Gammak korrelieren, als absolut notwendig heraus. Ohne diese Korrelation zerfällt eine einmal kohärent angeregte Exzitonpolarisation überhaupt nicht durch ExzitonExzitonStreuung und das System bleibt völlig kohärent. Bei diesen Berechnungen zur Dephasierung zeigte sich auch erstmals in dieser Arbeit, dass die prinzipielle Fähigkeit der Exzitonen zu einer Kondensation selbst unterhalb der kritischen Dichte die Kinetik der Polarisation beeinflusst. Dabei spielt eine Besonderheit der Kondensation von Exzitonen eine wesentliche Rolle, die keine Äquivalenz in atomaren Systemen hat: die Identität des Ordnungparameters der BoseEinsteinKondensation (BEC) mit der direkt messbaren optischen Polarisation. So zeigt sich ein auf den ersten Blick überraschendes Phänomen: In der Nähe des Phasenübergangs verliert die allgemein anerkannte lineare Dichteabhängigkeit der Dephasierungrate \Gamma XX (n) = fln (excitation induced dephasingi ) ihre Gültigkeit. Stattdessen erhält man eine signifikante Verlangsamung der Polarisationsdephasierung, wie man sie aus vielen Phasenübergängen für die Dynamik des Ordnungsparameters kennt (critical slowing downi ). Diese Tendenz der Gleichungen die Quantenkohärenz der InterbandPolarisation in der Nähe der Kondensation zu erhalten, kann als erstes experimentell messbares Kriterium für eine Annäherung an den Phasenübergang verwendet werden. Aufgrund der unvermeidlich kurzen ExzitonLebensdauer eignet sich dieses Nichtgleichgewichtsphänomen für eine Beobachtung der BEC von Exzitonen möglicherwiese besser als die üblichen Gleichgewichtsargumente. Um die Kinetik der Kondensation besser zu verstehen, wurde danach die MarkovKinetik von Exzitonen in Wechselwirkung mit einem Phononenbad behandelt. Als Anfangsbedingung wurde sowohl eine inkohärente Verteilung als auch eine rein kohärente Amplitude untersucht, die durch einen Lichtpuls erzeugt wurde. Bei der Herleitung der markovschen Ratengleichungen im Kondensationsregime sind beim thermodynamischen Limes und bei der Behandlung der detaillierten Bilanz einige subtile Punkte unbedingt zu beachten. Durch deren konsequente Berücksichtigung wurden Ratengleichungen erhalten, die von den Literaturüblichen abweichen. Die abgeleiteten Stoßterme wechseln oberhalb der kritischen Dichte für eine BEC spontan das Vorzeichen, was zum Aufbau eines Kondensates und erstmals auch asymptotisch zu einer Bose EinsteinKondensation des freien BoseGases innerhalb der Lebenszeit der Paraexzitonen von Cu 2 O führt. Auch die Dephasierungsrate der Polarisation nach Laserpulsanregung aufgrund von Phononenstreuung \Gamma XP zeigt in der Nähe des Phasenübergangs Abweichungen von der erwarteten Dichteunabhängigkeit und verschwindet quadratisch an der kritischen Dichte n c : \Gamma XP (n) / (n \Gamma n c ) 2 . Das Zerfallsgesetz ändert sich bei höheren Intensitäten in eine Potenzgesetzrelaxation zur stationären BEC. Beide Gesetze haben große experimentelle Relevanz bei der Suche nach einer BEC in Halbleitern. Obwohl in der MarkovKinetik die BEC des freien BoseGases erfolgreich simuliert wurde, geht diese Eigenschaft bei der Mitnahme der kohärenten ExzitonExzitonWechselwirkung sofort verloren. Die Gleichungen beschreiben dann entweder den Aufbau oder den Zerfall der Quantenkohärenz falsch. Der Grund hierfür wurde in der Unstimmigkeit zwischen markovschen Stoßtermen mit festen Energien und dem Aufbau des kohärenten BoseEinstein Kondensats des wechselwirkenden BoseGases gefunden, bei dem die Energien der Quasiteilchen zeitabhängig werden. Dieses Dilemma konnte im letzten Kapitel durch eine quantenkinetische Formulierung der Kinetik mit expliziten Gedächtnisintegralen als Stoßterme gelöst werden. Dabei werden die Deltafunktionen durch komplexe Integralkerne ersetzt, bei denen die zeitliche Evolution der Quasiteilchenspektren exakt berücksichtigt werden. Mit dieser Methode gelingt es erstmals, den zeitlichen Aufbau der BEC des wechselwirkenden BoseGases erfolgreich zu simulieren. Die involvierten Zeitskalen der Kondensation, die asymptotischen Verteilungsfunktionen der Exzitonen und die Kondensatanteile weichen dabei unter den Bedingungen typischer Experimente in Cu 2 O stark vom freien Gas ab. Die Beträge aller anomalen Größen (also auch p und F k ) erreichen den von der Gleichgewichtstheorie mit Wechselwirkung vorausgesagten Wert, oszillieren jedoch asymptotisch mit Vielfachen des chemischen Potentials, das in dieser Kondensation nicht verschwindet. Die erste theoretische Realisierung des Aufbaus der nichttrivialen BEC eines wechselwirkenden BoseGases, mit der allein z.B. viele Interferenzexperimente und Superfluidität erklärbar sind, ist von großem fundamentalen Interesse. Sie weist auch über das Thema dieser Arbeit hinaus und könnte Anstoß für ähnliche Simulationen der Kondensation in atomaren Fallen und anderen "meanfield" Phasenübergänge geben.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
This thesis provides a detailed derivation of dissipative spin hydrodynamics from quantum field theory for systems composed of spin-0, spin-1/2, or spin-1 particles.
The Wigner function formalism is introduced for quantum fields in the respective representations of the Poincaré group, and the conserved currents, i.e., the energy-momentum tensor and the total angular momentum tensor, in various so-called pseudogauges are derived. An expansion around the semiclassical limit in powers of the Planck constant is performed.
Subsequently, kinetic equations are obtained for binary elastic scattering, using both the de Groot-van Leeuwen-van Weert and Kadanoff-Baym method, with the latter retaining the effect of quantum statistics. The resulting collision term features both local and nonlocal contributions, with the latter providing a relaxation mechanism for the spin degrees of freedom of the quasiparticles. The local-equilibrium distribution function is derived from the requirement that the local part of the collision term vanishes.
From quantum kinetic theory, dissipative spin hydrodynamics is then constructed via the method of moments, extended to particles with spin. The system of moment equations is closed via the Inverse-Reynolds Dominance (IReD) approach, resulting in a set of equations of motion describing the evolution of both ideal and dissipative degrees of freedom. The application to polarization phenomena relevant to heavy-ion collisions is discussed.
The theory of strong interactions — Quantum Chromodynamics (QCD) — is well-defined mathematically. However, direct applications of this theory to experiment are rather limited due to significant technical obstacles. Even some general features of QCD remain unclear to date.
Hence, phenomenological input is important and needed for practical applications, e.g. for theoretical analysis of the heavy-ion collision experiments. In this thesis the role of hadronic interactions is studied in the hadron resonance gas (HRG) model — a popular model for the confined phase of QCD. The description of hadronic interactions is based on the famous van der Waals (VDW) equation and its quantum statistical generalization. While this is not the conventional choice for nuclear/hadronic physicspplications, the simplicity of the VDW approach makes it extremely useful.
In particular, this framework allows to include the two most basic ingredients of hadron-hadron interaction: the short-range repulsion, modeled by excluded-volume (EV) corrections, and the intermediate range attraction. The first part of the thesis considers just the repulsive EV interactions between hadrons. A hitherto unknown, but surprisingly strong sensitivity of the long known thermal fits to heavy-ion hadron yield data to the choice of hadron eigenvolumes is uncovered. It challenges the robustness of the chemical freeze-out temperature and baryochemical potential determination from the thermal fits. However, at the same time, the extracted value of the entropy per baryon is found to be a robust observable which depends weakly on this systematic uncertainty of the HRG model.
A Monte Carlo procedure to treat EV interactions in HRG is also introduced in this thesis. It allows to study simultaneous effects of EV and of exact charge conservation in HRG for the first time. Generalizations of the classical VDW equation are required for its applications in hadronic physics. he grand canonical ensemble (GCE) formulation of the classical VDW equation is presented. Remarkably, this important aspect of the VDW equation was not discovered before. The GCE formulation yields the analytic structure of the critical fluctuations, both in the vicinity of and far off the critical point. These critical fluctuations are presently actively being used as probes for the QCD critical point. Another extension is the hitherto undiscovered generalization of the VDW equation to include quantum Bose-Einstein and Fermi-Dirac statistics. It is performed for both single-component and multi-component fluids. The Fermi-Dirac VDW equation is applied for the first time. It is used to describe nucleons and basic properties of nuclear matter. The quantum statistical generalization of the VDW equation developed in this work is quite general, and can be applied for any fluid. Thus, its applications are not restricted to QCD physics, but may also find themselves in chemistry and/or industry. The quantum statistical VDW equation is used to describe baryonic interactions in full HRG. The VDW parameters $a$ and $b$ are fixed to the nuclear ground state and the predictions of the model are confronted with lattice QCD calculations. The inclusion of baryonic interactions leads to a qualitatively different behavior of the fluctuations of conserved charges in the crossover region. In many cases it resembles the lattice data. These results suggest that hadrons do not melt quickly with increasing temperature, as one could conclude on the basis of the common simple ideal HRG model. Calculations at finite chemical potentials show that the nuclear liquid-gas transition manifests itself by non-trivial fluctuations of the net baryon number in heavy ion collisions. In the final part of the thesis the pure glue initial scenario for high-energy hadron and heavy-ion collisions is explored. This scenario is shown not to spoil the existing agreement of the hadronic and electromagnetic observables description in Pb+Pb collisions at energies available at the CERN Large Hadron Collider. Hydrodynamic calculations suggest that collisions of small-sized nuclei at lower collision energies available at the BNL Relativistic Heavy Ion Collider are promising in the search for the traces of the chemically non-equilibrium gluon-dominated phase transition.
This thesis has light mesons and their vacuum interactions as its topic. In particular, the work examines the question where the scalar antiquark-quark states are found in the physical spectrum -- in the energy region below or above 1 GeV. Contrary to the naive expectation, the mentioned states are found in the region above 1 GeV. This has consequences for the building of order parameters for the chiral symmetry breaking of Quantum Chromodynamics (QCD).
In this work we study the properties of quarkonium states in a quark-gluon plasma which, due to expansion and non-zero viscosity, exhibits a local anisotropy in momentum space. We determine the hard-loop resummed gluon propagator in an anisotropic QCD plasma in general linear gauges and define a potential between heavy quarks from the Fourier transform of its static limit. This potential which arises due to one-gluon exchange describes the force between a quark and anti-quark at short distances. It is closer to the vacuum potential as compared to the isotropic Debye screened potential which indicates the reduced screening in an anisotropic QCD plasma. In addition, angular dependence appears in the potential; we find that there is stronger attraction on distance scales on the order of the inverse Debye mass for quark pairs aligned along the direction of anisotropy than for transverse alignment. The potential at long distances, however, is non-perturbative and modeled as a QCD string which is screened at the same scale as the Coulomb field. At asymptotic separation the potential energy is non-zero and inversely proportional to the temperature. With a phenomenological potential model which incorporates the different behaviors at short and long distances, we solve the three-dimensional Schrödinger equation. Our numerical results show that quarkonium binding is stronger at non-vanishing viscosity and expansion rate, and that the anisotropy leads to polarization of the P-wave states. Furthermore, we determine viscosity corrections to the imaginary part of the heavyquark potential in the weak-coupling hard-loop approximation. The imaginary part is found to be smaller (in magnitude) than at vanishing viscosity. This implies a smaller decay width of quarkonium bound states in an anisotropic plasma.
Quasikristalle im System Zink-Magnesium-Seltene-Erden : Materialpräparation und Einkristallzüchtung
(2005)
Diese Arbeit beschäftigt sich mit der Materialpräparation und Einkristallzüchtung von Quasikristallen und verwandten Verbindungen im System Zink-Magnesium-Seltene-Erden (Zn-Mg-SE). Für eine Einkristallzüchtung der hochgeordneten primitiv-ikosaedrischen Phase (si Zn-Mg-Ho) wird zuerst eine geeignete Schmelzzusammensetzung ermittelt, aus der si Zn-Mg-Ho primär erstarrt. Es wird gezeigt, daß sich diese auch auf die Seltenen Erden Erbium und Thulium, die einen ähnlich großen Atomradius haben, übertragen läßt. Bei der Verwendung von Seltenen Erden mit größerem Atomradius bildet sich eine bisher unbekannte rhomboedrische Phase mit einer Zusammensetzung von Zn84Mg5SE11, von der im Zn-Mg-Gd--System Einkristalle mit der Bridgman-Methode in einem geschlossenen Tantaltiegel gezüchtet werden. Die Kristallzüchtung von si Zn-Mg-Ho erfolgt sowohl mit der Bridgman-Methode als auch aus einem offenen Tiegel mit Keimvorgabe von oben, wobei die Schmelze mit einer Salzabdeckung vor Verdampfungsverlusten geschützt wird (LETSSG-Methode). Auf diese Weise werden facettierte Einkristalle mit einer Kantenlänge von über einem Zentimeter gezüchtet. Auch von der flächenzentriert-ikosaedrischen Phase im System Zn-Mg-Y, Zn-Mg-Ho und Zn-Mg-Er sowie von der hexagonalen Zn-Mg-Y--Z-Phase werden mit dieser Methode ähnlich große Einkristalle hergestellt. Zur Synthese von größeren Mengen polykristallinen Materials durch Abschrecken und Tempern wird eine Meltspinanlage aufgebaut, die durch die Verwendung eines ebenen Drehtellers (statt des sonst üblichen Rades) sehr kompakt ist und in eine vorhandene Metallschmelzanlage integriert werden kann. Mit diesem Gerät wird quasikristallines si Zn-Mg-Ho einphasig synthetisiert und dekagonales Zn-Mg-Dy, Zn-Mg-Ho und rhomboedrisches Mg21Zn25 als Probenhauptbestandteil hergestellt. Die erzeugten Proben werden zur Untersuchung von Struktur und physikalischen Eigenschaften an Kooperationspartner weitergegeben. Dabei wird ein lokales Strukturmodell der fci und si Quasikristalle mittels Analyse der Atompaarverteilungsfunktionen, die aus Röntgenpulverdaten (Molybdän- und Synchrotronstrahlung) gewonnen werden, entwickelt. Anhand dessen lassen sich erstmals ikosaedrische Cluster in den Quasikristallen eindeutig nachweisen. Die magnetische Suszeptibilität von si Zn-Mg-Ho zeigt bis zu einer Temperatur von 50~mK paramagnetisches Verhalten. Eine magnetische Fernordnung tritt bis zu dieser Temperatur nicht auf. Untersuchungen mit der Radio-Tracer-Methode zeigen, daß Phasonen an der Diffusion in fci Zn-Mg-Y und Zn-Mg-Ho nicht beteiligt sind.
Ziel dieser Arbeit ist die Herstellung und Charakterisierung von Zn-Mg-SE-Legierungen (SE = Y, Ho, Er, Dy, Tb, Gd), um Informationen über Struktur, Stabilisierung und physikalische Eigenschaften der quasikristallinen Phasen dieses Systems zu erhalten. Die Quasikristalle dieses Systems unterscheiden sich von Quasikristallen anderer Legierungen, die meist Al als Hauptkomponente enthalten. Es konnten bis zu 275 mm3 große Einkristalle der flächenzentriert ikosaedrischen Phase in den Systemen Zn-Mg-Y und Zn-Mg-Ho gezüchtet werden. Außerdem wurden MgZn2- und hexagonale A-Zn70Mg14Y16-Einkristalle hergestellt, deren Existenzbereiche im Phasendiagramm benachbart zu dem der ikosaedrischen Phase liegen. Um polykristalline Proben herzustellen, die unterschiedliche quasikristalline oder verwandte Strukturen als Hauptphase enthalten, wurden verschiedene Herstellungsverfahren getestet und verwendet. So konnte zum Beispiel erstmalig eine Probe hergestellt werden, die dekagonales ZnMgY als Hauptphase enthält. Zudem wurde eine neue kubische (R-Phase) bzw. hexagonale (M-Phase) und eine neue hochgeordnete primitiv ikosaedrische Phase im System Zn-Mg-Er entdeckt, synthetisiert und charakterisiert. Bei Untersuchungen dieser selbst gefertigten Proben konnten Erkenntnisse über magnetische Eigenschaften, elastische Konstanten, optische Leitfähigkeit, Leerstellenverteilung, Oberflächenbeschaffenheit, Diffusionsmechanismen und die Erstarrungsgeschichte der flächenzentriert ikosaedrischen Zn-Mg-SE-Quasikristalle gewonnen werden. Durch vergleichende Messungen an kristallinen Zn-Mg-SE-Legierungen lassen sich die für Quasikristalle spezifischen Effekte identifizieren. Die im Rahmen dieser Arbeit hergestellten und charakterisierten Proben sind aktuell Gegenstand weiterer Untersuchungen. Mit Hilfe von Beugungsexperimenten konnte gezeigt werden, dass die kubische R-Phase strukturell nahe mit der ikosaedrischen Phase im System Zn-Mg-SE verwandt ist. Die R- Phase ist bei Raumtemperatur nicht stabil und bildet die rhomboedrische M-Phase. Es konnte ein Strukturmodell für die R-Phase entwickelt werden, in dem keine ikosaedrischen Cluster als Strukturelement verwirklicht sind. Auch in der hexagonalen A-Phase konnten solche Strukturelemente nicht gefunden werden. Die Resultate dieser Arbeit legen nahe, dass die Struktur der Zn-Mg-SE-Quasikristalle, im Gegensatz zu Quasikristallen anderer Systeme, nicht auf großen ikosaedrischen Clustern basiert. Damit ist gezeigt, dass große ikosaedrische Cluster zur Bildung von Quasikristallen nicht notwendig sind. Messungen an den Proben zeigen, dass sich dadurch auch einige der physikalischen Eigenschaften, zum Beispiel die optische Leitfähigkeit, von Quasikristallen mit Clustern unterscheiden. Keine Unterschiede konnten beim Diffusionsverhalten und bei mechanischen Eigenschaften festgestellt werden. Hier gleichen die Zn-Mg-SE-Quasikristalle anderen strukturell komplexen Legierungen oder Quasikristallen anderer Legierungssysteme.
In order to understand the origin of the elements in the universe, one must understand the nuclear reactions by which atomic nuclei are transformed. There are many different astrophysical environments that fulfill the conditions of different nucleosynthesis processes. Even though great progress has been made in recent decades in understanding the origin of the elements in the universe, some questions remain unanswered. In order to understand the processes, it is necessary to measure cross sections of the involved reactions and constrain theoretical model predictions. A variety of methods have been developed to measure nuclear reaction cross sections relevant for nuclear astrophysics. In this thesis, two different experiments and their results, both using the well-established activation method, are presented.
A measurement of the proton capture cross section on the p-nuclide 96Ru was performed at the Institute of Structure and Nuclear Astrophysics ISNAP - Notre Dame, USA. The main goal of this experiment was to compare the results with those obtained by Mei et al. in a pioneering experiment using the method of inverse kinematics at the GSI Helmholtzzentrum für Schwerionenforschung GmbH - Darmstadt, Germany. Therefore, the activations were taken out at the same center of mass energies of 9 MeV, 10 MeV and 11 MeV. Another activation was taken out at an energy of 3.2 MeV to compare the result to a measurement of Bork et al. who also used the activation method. While the results at 3.2 MeV agree quite well with those of Bork et al., the results at higher energies show significantly smaller cross sections than those measured by Mei et al.. Experimental details, the data analysis and sources of uncertainties are discussed.
The second part of this thesis describes a neutron capture cross section experiment. At the Institut für Kernphysik - Goethe Universtität Frankfurt an experimental setup allows to produce quasi maxwell-distributed neutron fields to measure maxwell-averaged cross sections (MACS) relevant for s-process nucleosynthesis. The setup was upgraded by a fast electric linear guide to transport samples from the activation to the detection site. The cyclic activation of the sample allows to increase the signal-to-noise ratio and to measure neutron captures that lead to nuclei with
half-lives on the order of seconds. In a first campaign, MACS of the reactions 51V(n,γ), 107,109Ag(n,γ) and 103Rh(n,γ) were measured. The new components of the setup aswell as the data analysis framework are described and the results of the measurements are discussed.
Most of the elements in the universe are produced via charged-particle fusion reactions during the primordial nucleosynthesis and different stellar burning stages, as well as via neutron-capture reactions. Around 35 heavy, proton-rich isotopes are bypassed by those reaction paths, the p nuclei. A series of photo-disintegration reactions occurring in supernovae, called the γ process, was suggested as a mechanisms to produce the p nuclei. Numerical simulations of the γ process have been unable to reproduce the observed abundances of the light p isotopes. Recent models showed that a series of proton capture reactions could provide the observed abundances. Hence, the cross sections of the crucial capture reactions have to be measured in order to test those assumptions.
Radiative proton captures in addition to the γ-process could reproduce the observed abundance pattern. This thesis presents preparations of a proton capture measurement on the radioactive 91Nb in standard kinematics with a calorimetric 4π setup. The 91Nb(p,γ)92Mo reaction might be the key to explain the production of one of the most abundant p-nuclei, 92Mo. So far, no experimental data for this reaction is available.
We produced a sample of 91Nb, with a half-life of 680 yr, at the Physikalisch Technische Bundesanstalt in Braunschweig, Germany, by irradiating 92Mo with protons in the energy range of 12 – 20MeV. 91Nb was produced via the reaction 92Mo(p,2p)91Nb and via 92Mo(p,pn)91Mo, where 91Mo decays to 91Nb with a half-life of 15.5min. To predict the amount of produced 91Nb the cross section of 92Mo(p, 2p) was measured. It was found to be higher than the value given by theoretical calculations with TALYS. Finally, 91Nb was chemically separated from the molybdenum carried at Paul-Scherrer- Institut, Villigen, Switzerland.
In-beam total absorption cross-section measurement of the reaction 91Nb(p,γ)92Mo with 2 MeV protons at FRANZ is planed with the produced 91Nb. A 4π BaF2 detector consisting of 41 crystals will be used. During this experiment we will measure the sum energy and the multiplicity of each event. The freshly produced 91Nb constitutes only a minor component of the sample material. The sum energy and multiplicity are crucial to distinguish the desired 91Nb(p,γ) from all the other more dominant reactions. The expected multiplicity and the efficiency of the setup were carefully simulated with DICEBOX and GEANT4. It was possible to show that background reactions can be effectively suppressed. The most important background contributions could be identified and result from 92Mo(p,γ), 19F(p,γ), and 19F(p,α).
Das Schwerionenkollisionen Programm der Beschleuniger RHIC und LHC gibt Hinweise auf einen neuen Zustand hadronischer Materie --- das Quark-Gluon Plasma. Dieses zeichnet sich durch eine zumindest partielle Aufhebung des confinements aus, welches besagt, dass keine freien Quarks beochtbar sind.
Aus einer Beschreibung der experimentellen Daten mit relativistischer Hydrodynamik folgen weitere Eigenschaften. So geht das in einer Schwerionenkollision erzeugte Quark-Gluon Plasma nach sehr kurzer Zeit, etwa 1 fm/c, in ein zumindest lokales thermisches Gleichgewicht über. Durch die Lorentzkontraktion der beiden Schwerionen erwartet man, dass der Zustand direkt nach der Kollision durch eine Impulsanisotropie in der transversal-longitudinalen Ebene bestimmt wird. Somit setzt das Erreichen eines thermischen Gleichgewichts zunächst eine Isotropisierung voraus. Bisherige Studien haben gezeigt, dass gluonische Moden bei dieser Isotropisierung durch Verursachung einer chromo-Weibel Instabilität eine entscheidende Rolle spielen.
Weiterhin verhält sich das Quark-Gluon Plasma wie eine fast perfekte Flüssigkeit. Eine Berücksichtigung dissipativer Terme in der hydrodynamischen Beschreibung erfordert das Hinzufügen weiterer Terme zu den entsprechenden Bewegungsgleichungen. Diese sind proportional zu Transportkoeffizienten, welche durch die zugrunde liegende mikroskopische Theorie festgelegt sind.
Diese Theorie ist Quantenchromodynamik. Sie beschreibt die starke Wechselwirkung der Quarks und Gluonen und ist ein fundamentaler Baustein des Standardmodells der Teilchenphysik. Da im Regelfall Prozesse der starken Wechselwirkung nichtperturbativ sind, beschreiben wir QCD unter Verwendung einer Gitterregularisierung. Diese beruht auf einer Diskretisierung der vierdimensionalen Euklidischen Raumzeit durch einen Hyperkubus mit periodischen Randbedingungen und ermöglicht ein Lösen der QCD mit numerischen Methoden. Allerdings ist die Anwendung der Gittereichtheorie auf Systeme im thermischen Gleichgewicht beschränkt und kann somit keine Prozesse beschreiben, die auf Echtzeit basieren.
Transportkoeffizienten entsprechen Proportionalitätskoeffizienten, die die Relaxation einer Flüssigkeit oder eben eines Quark-Gluon Plasmas von einer kleinen Störung beschreiben. Damit sind sie unmittelbar mit der Zeit verknüpft. Über Kubo-Formeln lassen sie sich jedoch mit Gleichgewichtserwartungswerten retardierter Korrelatoren verknüpfen und werden so in Gitter QCD zugänglich.
In der vorliegenden Dissertation berechnen wir den Transportkoeffizienten κ in Gittereichtheorie für das Yang-Mills Plasma. Dabei nutzen wir aus, dass dieser Transportkoeffizient eine triviale analytische Fortsetzung vom retardierten zum Euklidischen Korrelator besitzt, welcher direkt in Gittereichtheorie zugänglich ist. Es ist die erste nichtperturbative Berechnung eines Transportkoeffizienten in QCD ohne weitere Annahmen, wie die Maximum Entropie Methode oder Ansätze, zu treffen.
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
In this thesis, the early time dynamics in a heavy ion collision of Pb-Nuclei at LHC center-of-mass energies of 5 TeV is studied. Right after the collision the system is out-of-equilibrium and essentially gluon dominated, with their density saturating at a specific momentum scale Q_s. Based on a separation of scales for the soft and hard gluonic degrees of freedom, the initial state is given from an effective model, known as the Color Glass Condensate. Within this model, the soft gluons behave classical to leading order, making it possible to study their dynamics in gauge invariant fashion on a three dimensional lattice, solving Hamiltonian field equations of motion, keeping real time. Quark-Antiquark pairs are produced in the gluonic medium, known as the Glasma and manifest themselves as a source of quantum fluctuations.
They enter the dynamics of the gluons as a current, making the system semi-classical. In lattice simulations, the non-equilibrium system is tested for pressure isotropization, which is a necessary ingredient to reach a local thermal equilibrium (LTE), making a hydrodynamical description at a later stage possible. In addition, the occupation of energy modes is studied with its implications on thermalization and classicality.
QCD matter is expected to exist in different phases, when heated to high temperatures and getting highly compressed. Each phase could be characterized by distinct properties. A way to access extreme phases of matter in the laboratory are heavy-ion collisions at (ultra-)relativistic energies. During the collision, the temperature and density is evolving and reaches a maximum temperature and density far beyond the ground state of matter. The matter properties depend on the incident collision energy. Typically, a collision is separated into three collisions stages, namely first chance collisions (I), hot and dense stage (II) and freeze-out stage (III). Out of those, the second one is of major interest, since the extreme states of matter are generated within. For this reason, the most prominent change of the hadrons is expected to appear there in. Those changes are caused by i.e. modification of the hadronic spectral function. However, to retrieve such information is complicated. Hadrons are strongly interacting particles and therefore, carry little information about the hot and dense stage. For that purpose, decays of hadrons (low-mass vector mesons) to e+e- pairs via a virtual photon, so-called dielectrons, are an ideal probe. Electrons and positrons do not interact strongly and transport the information about the hot and dense stage nearly undisturbed to the detector. Unfortunately, the production of dielectrons is suppressed by a branching ratio of ≈ 10^(-5) and requires a precise lepton identification. Nonetheless, previous experiments have extracted a dilepton signal and observed in the low-mass range an excess over the hadronic cocktail. Latter one is expected to be caused by thermal radiation induced by the medium. Up to now, experiments conducted dilepton measurements with a focus on larger collision energies and large collision systems. Measurements of dielectrons at collision energies of around 1-2A GeV were only conducted for small and medium size collision systems. HADES continued the systematic studies by a measurement of Au+Au collisions at 1.23A GeV.
The detection of dielectrons requires detectors that handle high data rates and specific detectors for a high purity lepton identification. In HADES, the strongest separation of electrons or positrons from the hadronic background is provided by a ring imaging Cherenkov detector (RICH). Its electron identification is based on Cherenkov photons, that are emitted in ring like patterns. In this work a new approach, using the time-of-flight information to preselect electrons and the reconstructed particle trajectory to estimate ring positions, is utilized to improve the lepton identification. The concept of the so-called backtracking algorithm will be explained and applied to e+e- identification in Au+Au collisions. The whole analysis chain comprises single lepton identification, pair reconstruction and correction for efficiency and acceptance losses. The final pair spectra will be presented in form of their invariant mass, pt, mt and helicity distributions. Subsequently, transport model calculations as well as results from the recently developed coarse-grained transport approach will be compared to the dielectron spectra. Moreover, the centrality dependence of the excess yield and true (not "blue-shifted") temperature of the fireball will be presented. The results will be put in context to measurements of lighter collisions systems and at higher energies.
Lepton pairs emerging from decays of virtual photons represent promising probes of nuclear matter under extreme conditions of temperature and density. These etreme conditions can be reached in heavy-ion collisions in various facilities around the world. Hereby the collision energy in the center-of-mass system (√SNN) varies from few GeV (SIS) to the TeV (LHC). In the energy domain of 1 - 2 GeV per nucleon (GeV/u), the HADES experiment at GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt studies dielectrons and strangeness production.
Various reactions, for example collisions of pions, protons, deuterons and heavy-ions with nuclei have been studied since its installation in the year 2001. Hereby the so called DLS Puzzle was solved experimentally, with remeasuring C+C at 1 and 2 GeV/u and by careful studies of inclusive pp and pn reactions at 1.25 GeV. With these measurements the so-called reference spectrum was established. Measurements of e+ e− production Ar+KCl showed an enhancement on the dilepton spectrum above the trivial NN back-
ground. Theory predicts a strong enhancement of medium radiation with the system size, due to large production of fast decaying baryonic resonances like ∆ and N∗ . The heaviest system measured so far was Au+Au at a kinetic beam energy of 1.23 GeV/u. The precise determination of the medium radiation depends
on a precise knowledge of the underlying hadronic cocktail composed of various sources contributing to the measured dilepton spectrum. In general the medium radiation needs to be separated from contributions coming from long-lived particles, that decay after the freeze out of the system. For a more model independent
understanding of the dilepton cocktail the production cross sections of these particles need to measured independently. In the related energy regime the main contributers are π0 and η Dalitz decays. Both mesons have a dominant decay into two real photons and have been reconstructed successfully in this channel. Since HADES has no electromagnetic calorimeter the mesons can not be identified in this decay channel directly. In this thesis the capability of HADES to detect e+ e− pairs from conversions of real photons is demonstrated.
Therefore not only the conversion probability but also the resulting efficiencies are shown. Furthermore, the reconstruction method for neutral mesons will be explained and the resulting spectra are interpreted. The measurement of neutral pions is compared to the independent measured charged pion distribution, and
extrapolated to full phase space. An integrated approach is used to determine the η yield. Both measurement are compared to the world data and to theory model claculations. Finally, the measurements will be used together with the reconstructed dilepton spectra to determine the amount and the properties of in medium radiation in the Au+Au system.
Bohmian mechanics as formulated originally in 1952, has been useful in the implementation of numerical methods applied to quantum mechanics. The scientific community though has had ever since a critical thought about it. Therefore, there are still points to be clarified and rectified. The two main problems are basically: Bohmian mechanics gives a privilege role to the position representation. Secondly, the current interpretation of Bohmian trajectories has been recently proven wrong.
In this context, in Chapter 2, new complex Bohmian quantities are defined; so that they allow the capacity to formulate Bohmian mechanics in any arbitrary continuous representation, for instance, the momentum representation. This Chapter is fully based on two articles, regarding the proposed complex Bohmian formulation and its extension into momentum space.
Chapter 3 deals with a redefinition and reinterpretation of the Bohmian trajectories from the handling of the continuity equation, this is done without any need of additional postulates or interpretations. Also, it is proved that Bohmian mechanics is actually more than a projective aspect of the Wigner function.
As a third point, Chapter 4 presents a sytematic treatment of the hydrodynamic scheme of Bohmian mechanics. Then, a brief summary of the transport equations in Bohmian mechanics is done. Next, a unified hydrodynamic treatment is found for the Bohmian mechanics. This treatment is useful to sketch, a Bohmian treatment to efficiently find the steady value of the transmission integral.
In Chapter 5 conclusions of this thesis are drawn.
Die vorliegende Arbeit soll einen Beitrag zur Erforschung der Verarbeitungsmechanismen des Gehirns leisten. Die Erregung des komplexen Systems "Hirn" liefert Antworten, deren Analyse zu einem besseren Verständnis dieser Informationsverarbeitung führt. Zu diesem Zweck wurde das Gehirn mit unterschiedlichen visuellen Stimuli angeregt und die hirnelektrischen Signale gemessen, die von Nervenzellgruppen (Multiunits) im visuellen Kortex der Katze ausgesandt wurden.Die verwendeten Stimuli waren ein Streifenmuster sowie eine Zufallspunktverteilung, deren Kohärenz beliebig geändert werden konnte. Darüber hinaus wurden die Antworten auf eine Vielzahl von Stimuli analysiert, die nur aufgrund des Bewegungskontrastes zwischen punktdefiniertem Objekt und Hintergrund zu erkennen sind (Shape-from-Motion- (SFM-) Stimuli). Die aufgenommenen Daten wurden mit Hilfe einer umfangreichen Signalanalyse untersucht. So wurden in Abhängigkeit von der Stimulusbedingung die Anzahl der Nervenimpulse pro Zeiteinheit (Feuerraten), Synchronisation, Frequenzverteilung sowie Kopplung von Aktionspotenzialen und LFPDaten analysiert. Die Experimente im ersten Teil dieser Arbeit untersuchten den Einfluss von Kohärenz auf die Verarbeitung von Bewegungsinformation im primären visuellen Areal (A17) und im posteromedialen lateralen suprasylvischen Sulcus (Area PMLS) der Katze. Es konnte gezeigt werden, dass Multiunits in A17 und PMLS sowohl auf Streifenmuster als auch auf Zufallspunktverteilungen antworten und dass die Stärke der Antwort als eine Funktion der Stimulusrichtung variiert. Die Vorzugsrichtung ist in beiden Arealen weitgehend unabhängig von der Art des verwendeten Stimulus, was darauf hindeutet, dass die Stimulusrichtung für Streifenmuster und Zufallspunktmuster in diesen Arealen durch einen einheitlichen Mechanismus bestimmt wird. Bei einer Abnahme der Stimuluskohärenz zeigen die Multiunits eine Abnahme der Feuerrate, wobei im Vergleich zu PMLS in A17 eine stärkere Abnahme der Kohärenz nötig ist, um die gleiche Abnahme der Feuerrate zu erreichen. Dieses Ergebnis konnte durch die unterschiedlichen Größen der rezeptiven Felder der beiden Areale erklärt werden und ist ein weiterer Hinweis darauf, dass eine wichtige Funktion von PMLS in der Analyse von Bewegung und räumlich verteilter Information liegt. Da beide Areale keine signifikante Änderungen der Feuerrate bei Inkohärenzniveaus von mehr als 50% zeigten, scheinen sie nicht in der Lage zu sein, die Bewegungsrichtung eines inkohärenten Zufallspunktmusters nahe der psychophysischen Detektionsschwelle von 95% auf der Basis von Feuerraten zu erkennen. Die Korrelation der Aktionspotenziale unterschiedlicher Multiunits zeigte bereits bei einer geringen Abnahme der Stimuluskohärenz eine monotone Verbreiterung des zentralen Maximums in den Korrelogrammen beider Areale. Die Stärke der Synchronisation hingegen war kaum beeinflusst. Darüberhinaus kam es zu einer Verschiebung der Leistung im lokalen Feldpotential (LFP) von hohen hin zu niedrigen Frequenzbereichen. Diese Verschiebung wurde auch für die Kopplung zwischen LFP und Akvi tionspotenzialen nachgewiesen. Diese Resultate unterstützen die Theorie, dass präzise Synchronisation und hochfrequente Oszillationen ein Mechanismus für die Bindung kohärenter Objekte sind. Sie zeigen darüber hinaus, dass Synchronisation auch nicht kohärente Stimuli binden kann und dass die Verschiebung im LFP hin zu niedrigeren Frequenzen wichtig für die Integration verteilter Information über einen größeren visuellen Raum sein kann. Da bei hohen Inkohärenzniveaus keine präzise Synchronisation mehr nachgewiesen werden konnte, kann jedoch auch die Synchronisation nicht als alleiniger Mechanismus zum Erkennen einer Bewegungsrichtung eines inkohärenten Zufallspunktmusters herangezogen werden. In den Experimenten im zweiten Teil dieser Arbeit wurde untersucht, wie das Gehirn SFM-Stimuli verarbeitet. Die Auswertungen der Feuerraten haben gezeigt, dass Multiunits in PMLS sowohl auf helligkeitsdefinierte Kontrastbalken als auch auf SFM-Balken reagieren. Die Stärke der Antwort hängt von der Kombination von Stimulus und Hintergrund und von der relativen Bewegungsrichtung zueinander ab. Während ähnliche Feuerraten für Balken mit hohem Kontrast relativ zum Hintergrund und für punktdefinierte Balken gefunden wurde, die sich über einen dunklen Hintergrund bewegten, führte ein statischer Zufallspunkthintergrund zu einer starken Abnahme der von dem SFM-Balken hervorgerufenen Antwort. Ein in die Gegenrichtung bewegter Hintergrund sowie ein reduziertes Kohärenzniveau des Zufallspunkthintergrundes führten dazu, dass die Multiunits auf den SFM- Balken nicht mehr mit einer Zunahme der Feuerraten reagierten. Um die hemmende Wirkung des Hintergrundes aufzuheben, musste der Hintergrund auf einer Fläche des visuellen Feldes, die der Größe des rezeptiven Feldes entsprach, abgedeckt werden. Dieses Ergebnis zeigt, dass die Feuerraten für diese Art Stimulus nicht wesentlich von Arealen außerhalb des rezeptiven Feldes beeinflusst werden. Zur weiteren Analyse der Fähigkeit von PMLS, SFM-Balken nur aufgrund des Bewegungskontrastes zwischen punktdefiniertem Objekt und Hintergrund zu erkennen, wurde mit Hilfe von zwei Tuningkurven-Stimuli, bei denen sich die Bewegungsrichtung der Punkte innerhalb des Balkens um 90° unterschied, die Vorzugsrichtung der Multiunits bestimmt. Die Auswertung ergab, dass sich die gemessene Vorzugsrichtung der Multiunit um 45° drehte, obwohl sich die Bewegungsrichtung des Balkens selbst nicht änderte. Darüber hinaus wurden verschiedene SFM-Stimuli untersucht, die alle dieselbe Bewegungsrichtung des Balkens, jedoch unterschiedliche Bewegungsrichtungen der Punkte innerhalb des Balkens aufwiesen. Wenn PMLS die Bewegung des SFM-Objekts statt der Bewegung der einzelnen Punkte verarbeitet, sollte die Feuerrate für alle diese Bedingungen identisch sein. Die Ergebnisse zeigen jedoch, dass sich die durch die verschiedenen SFM-Stimuli hervorgerufenen Feuerraten verringerten, je weiter sich die Punkte, die den Balken bildeten, von der Bewegungsrichtung des Balkens – und damit von der Vorzugsrichtung der Multiunit – weg bewegten. Durch dieses Ergebnis konnte gezeigt werden, dass Multiunits in PMLS nicht in der Lage sind, die Richtung von kinetisch definierten Balken zu analysieren und statt dessen nur die Bewegung der einzelnen Komponenten erfassen.
This thesis investigates second-order relativistic hydrodynamics and transport coefficients in strongly correlated systems. Our focus is mainly on the physical conditions relevant to heavy-ion collisions, as well as compact dense stellar objects at nonzero temperatures and in strong magnetic fields.
Chapter 1 provides a brief introduction to the area of research covered by this thesis, specifically relativistic hydrodynamics and transport in hot and dense media, which occur in heavy-ion collisions and heated stellar matter.
In Chapter 2 we give a new formulation of second-order dissipative hydrodynamics for relativistic systems using Zubarev's non-equilibrium statistical operator approach. We first solve the quantum Liouville equation with an infinitesimal source term to construct a non-equilibrium statistical operator which is a non-local functional of the thermodynamic parameters and their space-time gradients. Exploiting then the gradient expansion of the statistical operator we derive transport equations for the shear stress tensor, the bulk viscous pressure and the flavour diffusion currents up to the second order in hydrodynamic gradients.
We show that the second-order corrections to the dissipative fluxes arise from (i) the quadratic terms of the Taylor expansion of the statistical operator; and (ii) the linear terms which are nonlocal in space and time. These non-local corrections generate finite relaxation time scales in the evolution of the dissipative quantities. We derive the most generic form of the transport equations which involve gradients of the dissipative fluxes, as well as products of two first-order quantities (i.e., either thermodynamic forces or dissipative fluxes). We then go on to express the first- and the second-order transport coefficients, which appear in these equations, via certain two- and three-point equilibrium correlation functions. Finally, we express the relaxation times for the dissipative fluxes via the frequency-derivatives of the corresponding first-order transport coefficients.
In Chapter 3 we compute the transport coefficients of quark matter in the strong coupling regime within the two-flavor Nambu-Jona-Lasinio model. We apply the Kubo-Zubarev formalism to obtain the thermal and the electrical conductivities as well as the shear and the bulk viscosities by evaluating the corresponding equilibrium two-point correlation functions at the leading order in the 1/N_c expansion. In this approximation the conductivities and the shear viscosity are given by single-loop skeleton diagrams, whereas the bulk viscosity includes an infinite geometrical series of multi-loop diagrams. The dispersive effects that lead to nonzero transport coefficients arise from quark-meson fluctuations above the Mott transition temperature T_M, where meson decay into two on-mass-shell quarks is kinematically allowed.
We find that the conductivities and the shear viscosity are decreasing functions of temperature and density above T_M. We also show that the Wiedemann-Franz law does not hold. The ratio of the shear viscosity to the entropy density is larger than unity close to the Mott temperature and approaches the AdS/CFT bound at higher temperatures. We conjecture on the basis of the uncertainty principle that the ratio of the thermal conductivity to the heat capacity per unit volume is bounded from below by 1/18.
The case of the bulk viscosity turns out to be special, because the multi-loop contributions dominate the single-loop contribution close to the Mott line in the case where the chiral symmetry is explicitly broken. We find that in this case only at high temperatures the one-loop contribution becomes dominant. The resulting bulk viscosity exceeds the shear viscosity close to the Mott temperature by factors 5-20 when multi-loop contributions are included. In the high-temperature domain the bulk viscosity is negligible compared to the shear viscosity. For practical applications we provide simple, but accurate fits to the transport coefficients, which can facilitate the implementation of our results in hydrodynamics codes.
In Chapter 4 we compute the electrical conductivity of finite temperature, strongly magnetized crust of a compact star which may be formed in the aftermath of a supernova explosion, binary neutron star merger, or during accretion processes in X-ray binaries. We focus on the temperature-density regime where plasma is in the liquid state and, therefore, the conductivity is dominated by the electron scattering off correlated nuclei. The dynamical screening of electron-ion interaction is implemented in terms of the polarization tensor computed in the hard-thermal-loop (HTL) effective field theory of QED plasma. The correlations of the background ionic component are accounted for via a structure factor derived from Monte Carlo simulations of one-component plasma.
With this input we solve the Boltzmann kinetic equation in relaxation time approximation taking into account the anisotropy of transport due to the magnetic field. The electrical conductivity tensor is studied numerically as a function of temperature, density, magnetic field and the crust composition in a broad parameter range. We find that the conductivity as a function of temperature attains a minimum at the transition from the degenerate to the nondegenerate regime of electrons. We also provide accurate fit formulas to our numerical results for three components of the conductivity tensor. In addition, we provide supplemental tables which can be used in dissipative magneto-hydrodynamics(MHD) simulations of warm compact stars.
We summarize our results and discuss the perspectives in Chapter 5.
Die Entwicklung der Renormierungsgruppen-Technik, die in ihrer feldtheoretischen Version auf Ideen von Stückelberg und Petermann und in der Festkörperphysik auf K.G. Wilson zurückgeht, hat wesentliche Einsichten in die Natur physikalischer Systeme geliefert. Insbesondere das Konzept der so genannten Universalitätsklassen erhellt, warum Systeme, die durch scheinbar sehr verschiedene Hamilton-Operatoren beschrieben werden, doch im Wesentlichen die selbe (Niederenergie-)Physik zeigen. Ein weiterer Grund für den Erfolg dieser Methode liegt darin begründet, dass sie in systematischer Weise unendlich viele Feynman-Diagramme aufsummiert und somit über konventionelle Störungstheorie hinaus geht. Dies spielt in der Festkörperphysik vor allem dann eine wichtige Rolle, wenn das vorliegende physikalische System stark korreliert ist. Entsprechend der Vielzahl von Anwendungsmöglichkeiten hat sich in den vergangenen Jahrzehnten eine große Bandbreite verschiedener Formulierungen der Renormierungsgruppen-Technik ergeben. Eine davon ist die sogenannte funktionale Renormierungsgruppe, die auf Wegner und Houghton zurück geht und die auch in der vorliegenden Arbeit benutzt und weiter entwickelt wurde. Wir haben hier insbesondere auf die Einbeziehung der wichtigen Reskalierungsschritte wertgelegt. Als erstes Anwendungsgebiet des neu entwickelten Formalismus wurden stark korrelierte Elektronen in einer Raumdimension ausgewählt und hier insbesondere ein Modell, das als Tomonaga-Luttinger-Modell (TLM) bezeichnet wird. Im TLM wechselwirken Elektronen mit einer strikt linearen Energiedispersion ausschließlich über so genannte Vorwärtsstreu-Prozesse. Aufgrund der Linearisierung der Energiedispersion nahe der Fermipunkte ergibt sich ein Modell, das z.B. mit Hilfe der so genannten Bosonisierungs-Technik exakt gelöst werden kann. Hauptziel der vorliegenden Arbeit ist es, die bekannte Spektralfunktion dieses Modells unter Verwendung des Renormierungsgruppen-Formalismus zu reproduzieren. Gegenüber der bisherigen Implementierung der Renormierungsgruppe, bei der lediglich der Fluss einer endlichen Anzahl von Kopplungskonstanten betrachtet wird, stellt die Berechnung des Flusses ganzer Korrelationsfunktionen eine enorme Erweiterung dar. Der Erfolg dieser Herangehensweise im TLM bestärkt die Hoffnung, dass es in Zukunft auch möglich sein wird, die Spektralfunktionen anderer Modelle mit dieser Methode zu berechnen, bei denen herkömmliche Techniken versagen.
In der nuklearen Astrophysik sind Experimente mit hochgeladenen Radionukliden von großer Bedeutung. Diese exotischen Nuklide können in Schwerionenbeschleunigeranlagen hergestellt und in Speicherringen gespeichert werden. Momentan existieren weltweit zwei Anlagen, die solche Experimente ermöglichen: das GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt und das Institut für moderne Physik (IMP) in Lanzhou, China. Da die Ausbeute dieser Nuklide gering ist, werden zerstörungsfreie Nachweismethoden in den Speicherringen verwendet. Diese machen von den Methoden der Spektralanalyse Gebrauch. Nicht nur die geringe Ausbeute, sondern auch die kurze Lebensdauer dieser Nuklide stellen hohe Anforderungen an die Sensitivität und Geschwindigkeit dieser Detektoren.
Eine übliche Methode ist die Verwendung kapazitiver Schottky-Sonden. Eine solche Sonde ist seit 1991 an der GSI im Speicherring ESR im Einsatz. Um die Empfindlichkeit zu erhöhen, kann man Mikrowellenkavitäten als resonante Pickups verwenden. Die von den Teilchen induzierten elektromagnetischen Felder können resonante Moden im Resonator anregen. Die Geometrie des Pickups und das verwendete Material spielen eine wesentliche Rolle in der Gestaltung der Feldbilder. Die resultierenden Signale, auch Schottky Signale genannt, werden mittels einer Antenne ausgekoppelt und anschliessend an einen Spektrumanalysator angeschlossen. Für die Analyse der gespeicherten Daten können verschiedene Methoden der Spektralschätzung wie z.B. das Multi-Taper angewendet werden. Nachdem eine externe Kalibrierung durchgeführt worden ist, kann das Pickup auch als ein Stromsensor verwendet werden.
Diese Arbeit befasst sich mit der Theorie, dem Aufbau und ersten Anwendungen eines neuen resonanten Pickups, das im Jahr 2010 in den Speicherring ESR eingebaut und in mehreren Experimenten erfolgreich eingesetzt wurde. Ein ähnliches Pickup wurde im Jahr 2011 in den CSRe im IMP Lanzhou eingebaut. Einzelne Schwerionen mit 400 MeV pro Nukleon wurden erfolgreich mit dem GSI-Pickup nachgewiesen. Das Pickup wird regelmässig in Speicherringexperimenten eingesetzt. Ähnliche Experimente sind für CSRe in Lanzhou geplant.
Das zeitdiskrete Rohrmodell besitzt für die Modellierung der menschlichen Sprachproduktion eine wichtige theoretische und praktische Bedeutung, da es ein mathematisch handhabbares Modell darstellt und zugleich eine vereinfachte akustische Beschreibung des Sprechtraktes beinhaltet. Dies ist einerseits begründet durch die modellhafte Beschreibung der Ausbreitung von ebenen Wellen durch den Sprechtrakt und andererseits in der Darstellung des Rohrmodells als zeitdiskretes lineares System. Erst durch die Verfügbarkeit von adäquaten Schätzalgorithmen, welche die Modellparameter aus dem Sprachsignal bestimmen, ist das Rohrmodell für Anwendungen in der Sprachverarbeitung interessant. Diese liegen allerdings nur für die einfachsten unverzweigten Rohrmodelle vor, welche den Sprechtrakt nur stark vereinfacht modellieren. Für erweiterte Rohrmodelle existieren nur in eingeschränkter Weise adäquate Schätzalgorithmen, mit denen die Modellparameter aus dem Sprachsignal geschätzt werden können. Daher wird mit dieser Arbeit versucht diesen Mißstand aufzulösen, wofür Schätzalgorithmen auch für erweiterte Rohrmodelle entwickelt und vorgestellt werden. Die Erweiterungen des Rohrmodells beziehen sich auf Rohrverzweigungen, die auch mehrfach auftreten können, und Rohrabschlüsse, die frequenzabhängig oder zeitvariabel sein können. Zusätzlich werden Sprechtraktmodelle behandelt, die zwei Systemausgänge aufweisen. Dies wird für Analysen von getrennt aufgenommenen Mund- und Nasensignalen von nasalierten Lauten diskutiert, um die Lippen- und Nasenabstrahlung einzeln zu berücksichtigen. Ebenso werden verzweigte Modelle mit zwei Systemausgängen für eine Beschreibung des Nasaltraktes unter Berücksichtigung der beiden Nasengänge behandelt. Die Erweiterungen des Rohrmodells durch Verzweigungen und angepaßte Rohrabschlüsse ermöglichen eine genauere Beschreibung des Sprechtraktes infolge der Verzweigungen durch den Nasaltrakt und infolge der Abschlüsse an den Lippen, Nasenlöchern und der Glottis. Die Parameterbestimmung wird durch Minimierung eines Fehlers durchgeführt, welcher ein spektrales Abstandsmaß zwischen dem Rohrmodell und dem analysierten Sprachsignal darstellt. Für die Definition des Fehlers wird die inverse Filterung herangezogen, welche eine Leistungsminimierung des Ausgangssignals des inversen Systems beinhaltet. Dabei hat sich gezeigt, daß die Fehlerdefinition der inversen Filterung modifiziert werden muß, um auch erfolgreich auf erweiterte Rohrmodelle angewendet werden zu können. Die Modifikation kann für erweiterte Rohrmodelle einheitlich für den zeitinvarianten und zeitvariablen Fall vorgestellt werden. Über den allgemeinen Ansatz der Schätzung hinaus werden auch effiziente Schätzverfahren für ausgewählte Rohrstrukturen und allgemeine Pol-Nullstellen-Systeme vorgestellt. Die diskutierten Schätzverfahren ermöglichen eine gute Approximation der Sprachspektren durch die Modellbetragsgänge. Darüber hinaus konnte auch gezeigt werden, daß durch entsprechende Rohrmodellstrukturen und eine geeignete Vorverarbeitung des Sprachsignals realistische Querschnittsflächen des Sprechtraktes geschätzt werden können. Daher eignen sich die erweiterten Sprechtraktmodelle auch für die Sprachproduktion. In Synthesebeispielen wurden Lautübergänge auf der Basis von geschätzten Vokaltraktflächen realisiert und in Resynthesebeispielen mittels unverzweigter Rohrmodelle wurde insbesondere die Anregung der Modelle diskutiert. Daß durch die Verwendung von Rohrmodellen auch Lauttransformationen möglich sind, zeigt die vorgestellte künstliche Nasalierung von Sprachsignalen unnasalierter Laute, welche mittels verzweigter Rohrmodelle und Analysen von getrennt aufgenommenen Mund- und Nasensignalen erreicht werden konnte.
Terahertz (THz) technology is an emerging field that considers the radiation between microwave and far-infrared regions where the electronic and photonic technologies merge. THz generation and THz sensing technologies should fill the gap between photonics and electronics which is defined as a region where THz generation power and THz sensing capabilities are at a low technology readiness level (TRL). As one of the options for THz detection technology, field-effect transistors with integrated antennae were suggested to be used as THz detectors in the 1990s by M. Dyakonov and M. Shur from where the development of field-effect transistor-based detector began. In this work, various FET technologies are presented, such as CMOS, AlGaN/GaN, and graphene-based material systems and their further sensitivity enhancement in order to reach the performance of well-developed Schottky diode-based THz sensing technology. Here presented FET-based detectors were explored in a wide frequency range from 0.1 THz up to 5 THz in narrowband and broadband configurations.
For proper implementation of THz detectors, the well-defined characterization is of high importance. Therefore, this work overviews the characterization methods, establishes various definitions of detector parameters, and summarizes the state-of-the-art THz detectors. The electrical, optical, and cryogenic characterization techniques are also presented here, as well as the best results obtained by the development of the characterization methods, namely graphene FET stabilization, low-power THz source characterization for detector calibration, and technology development for cryogenic detection.
Following the discussion about the detector characterization, a wide range of THz applications, which were tested during the last four years of Ph.D. and conducted under the ITN CELTA project from HORIZON2020 program, are presented in this work. The studies began with spectroscopy applications and imaging and later developed towards hyperspectral imaging and even passive imaging of human body THz radiation. As various options for THz applications, single-pixel detectors as well as multi-pixel arrays are also covered in this work.
The conducted research shows that FET-based detectors can be used for spectroscopy applications or be easily adapted for the relevant frequency range. State-of-the-art detectors considered in this work reach the resonant performance below 20 pW/√Hz at 0.3 THz and 0.5 THz, as well as 404 pW/√Hz cross-sectional NEP at 4.75 THz. The broadband detectors show NEP as low as 25 pW/√Hz at around 0.6 THz for the best AlGaN/GaN design and 25 pW/√Hz around 1 THz for the best CMOS design. As one of the most promising applications, metamaterial characterization was tested using the most sensitive devices. Furthermore, one of the single-pixel devices and a multi-pixel array were tested as an engineering solution for a radio astronomy system called GREAT in a stratosphere observatory named SOFIA. The exploration of the autocorrelation technique using FET-based devices shows the opportunity to employ such detectors for direct detection of THz pulses without an interferometric measurement setup.
This work also considers imaging applications, which include near-field and far-field visualization solutions. A considerable milestone for the theory of FET technology was achieved when scanning near-field microscopy led to the visualization of plasma (or carrier density) waves in a graphene FET channel. Whereas another important milestone for the THz technology was achieved when a 3D scan of a mobile phone was performed under the far-field imaging mode. Even though the imaging was done through the phone’s plastic cover, the image displayed high accuracy and good feature recognition of the smartphone, inching the FET-based detector technology ever so close to practical security applications. In parallel, the multi-pixel array testing was carried out on 6x7 pixel arrays that have been implemented in configurable-size aperture and imaging configurations. The configurable aperture size allowed the easier detector focusing procedure and a better fit for the beam size of the incident radiation. The imaging has been tested on various THz sources and compared to the TeraSense 16x16 pixel array. The experimental results show the big advantage of the developed multi-pixel array against the used commercial technology.
Furthermore, two ultra-low-power applications have been successfully tested. The application on hyper-frequency THz imaging tested in the specially developed dual frequency comb and our detector system for 300 GHz radiation with 9 spectral lines led to outstanding imaging results on various materials. The passive imaging of human body radiation was conducted using the most sensitive broadband CMOS detector with a log-spiral antenna working in the 0.1 – 1.5 THz range and reaching the optical NEP of 42 pW/√Hz. The NETD of this device reaches 2.1 K and overcomes the performance limit of passive room-temperature imaging of the human body radiation, which was less than 10 K above the room temperature. This experiment opened a completely new field that was explored before only by the multiplier chain-based or thermal detectors.
...
Folgend auf den ersten Realisierungen von Bose-Einstein Kondensaten erschienen weitere innovative Experimente, die sich in den optischen Gittern gefangenen Quantengasen widmeten. In diesen zahlreichen, wissenschaftlichen Untersuchungen konnten die Eigenschaften von Bose-Einstein Kondensaten besser verstanden werden. Das Prinzip von Vielteilchensystemen, gefangen in einem periodischen Potential, bot eine Plattform zur Untersuchung weiterer Quantenphasen.
Eine konzeptionell einfache Modifikation von solchen Systemen erhält man durch die Kopplung der Grundzustände der gefangenen Teilchen an hoch angeregten Zuständen mithilfe einer externen Lichtquelle. Im Falle dessen, dass diese Zustände nahe der Ionisationsgrenze des Atoms liegen, spricht man von Rydberg-Zuständen und Atome, welche zu diesen Zuständen angeregt werden, bezeichnet man als Rydberg-Atome. Eines der vielen charakteristischen Eigenschaften von Rydberg-Atomen ist die Fähigkeit über große Entfernungen jenseits der atomaren Längenskalen zu wechselwirken. Im Rahmen von Vielteilchensystemen wurden dementsprechend Kristallstrukturen aus gefangenen Rydberg-Atomen experimentell beobachtet.
Nun stellt sich die Frage, was mit einem gefangenen Bose-Einstein Kondensat passiert, dessen Teilchen an langreichweitig wechselwirkenden Zuständen gekoppelt sind. Gibt es ein Parameterregime, in dem sowohl Kristallstruktur als auch Suprafluidität in solchen Systemen koexistieren können? Dies ist die zentrale Frage dieser Arbeit, die sich mit der Theorie von gefangenen Quantengasen gekoppelt an Rydberg-Zuständen auseinandersetzt.
In dieser Arbeit werden mit Hilfe von Röntgenstreuung Polymere untersucht, die auf molekularer Ebene eine lamellenartige Schichtstruktur aufweisen. Diese Ordnung wird bei hohen Temperaturen zerstört, das Polymer wandelt sich in eine homogene Schmelze um. Ziel dieser Arbeit ist es, die Ursachen dieser Phasenumwandlung, d.h. ihre treibenden Kräfte zu erforschen. Hierzu werden mehrere Polymere verschiedener Zusammensetzung untersucht und der Einfluss von mechanischem "Stress" auf die Phasenumwandlung überprüft. Die untersuchte Polymerklasse ist ein sogenanntes Diblockcopolymer , d.h. die Polymermoleküle bestehen aus jeweils zwei linearen Polymerkettenstücken verschiedener Polymersorten (hier: {\em Polystyrol} und {\em Polybutadien}), die "Kopf an Kopf" miteinander verbunden sind. Durch diese molekulare Verbindung ist eine Auftrennung auf makroskopischem Massstab, etwa vergleichbar der Entmischung von "Ol und Wasser, nicht möglich. Mikroskopisch kann das Polymer durch eine günstige Ausrichtung der Moleküle zueinander die Kontakte zwischen den Polystyrol- und Polybutadien-Teilketten minimieren. Diese Abnahme der Gesamt-Wechselwirkungsenergie führt zum Aufbau einer lamellaren Struktur und bedeutet gleichzeitig eine Absenkung der Entropie. Bei Erhöhung der Temperatur kann der entropische Beitrag zur freien Energie dominant werden, d.h. die Ordnung wird zerstört. Die Experimente wurden am Max-Planck-Institut für Polymerforschung in Mainz unter Betreuung von Herrn Prof. Dr. Manfred Stamm (inzwischen an der Universität Dresden) durchgeführt. Dort wurden die Polymere synthetisiert und eine vorhandene Röntgenkleinwinkelstreuanlage für die hier vorgestellten Messungen genutzt. Weiterhin wurde eine Scherapparatur so umgebaut, dass die gleichzeitige Messung von Scherung und Röntgenkleinwinkelstreuung im Time-Slicing-Verfahren möglich war. Im Rahmen dieser Arbeit wurde ein Röntgendetektor entwickelt, der die korrelierte Datenerfassung von Scherung und Röntgenstreuung im Zeitmassstab deutlich unter einer Sekunde ermöglicht. Die hier vorgestellten Experimente gliedern sich zum einen in statische Röntgenmessungen an verschiedenen Polymersystemen, welche die Temperaturabhängigkeit der inneren, molekularen Struktur untersucht, bei der Umwandlung von der lamellenartigen Schichtstruktur zur homogenen Schmelze und umgekehrt. Hierbei zeigen sich keine Hystereseeffekte und eine gute Übereinstimmung mit {\em MC-CMA}-Simulationen. Die einzelne Polymerkette wird beim Phasenübergang leicht gestreckt. Die beobachteten Phänomene werden durch feldtheoretische Modelle nicht vollständig wiedergegeben. Zum anderen wird der Einfluss von mechanischem "Stress" in Form einer oszillatorischen Verscherung auf diese Umwandlung und bei Temperaturen nahe dieser Umwandlung untersucht. Der anisotrope Aufbau der lamellenartigen Schichtstruktur bewirkt ein stark nichtlineares mechanisches Verhalten des Polymers, das mit dem Aufbau einer Vorzugsorientierung der Lamellen zur Richtung der Verscherung einher geht. Die Kinetik dieser Orientierungsphänomene wurde mit Hilfe der Röntgenkleinwinkelstreuung während der mechanischen Beanspruchung gemessen. Es ergibt sich innerhalb der Messungenauigkeit von 1-2\,K keine Erhöhung der Umwandlungstemperatur. Abhängig von den Scherparametern zeigen sich knapp unterhalb der Umwandlungstemperatur unterschiedliche Vorzugsorientierungen, deren zeitliche Abfolge irreversibel ist. Für das Auftreten der verschiedenen Vorzugsorientierungen zum Scherfeld werden verschiedene Parameter auf unterschiedlichen Größenskalen verantwortlich gemacht. Das komplexe Zusammenwirken dieser strukturellen Details kann durch die mechanische Beanspruchung "getestet" werden. Der Aufbau einer langreichweitigen Ordnung wird durch die externen Kräfte beschleunigt.
The topic of this thesis is the investigation of scalar tetraquark candidates from lattice QCD. It is motivated by a previous study originating in the twisted mass collaboration. The initial tetraquark candidate of choice is the $a_0(980)$, an isovector in the nonet of light scalars ($J^P=0^+$). This channel is still poorly understood. It displays an inverted mass hierarchy to what is expected from the conventional quark model and the $a_0(980)$ and $f_0(980)$ feature a surprising mass degeneracy. For this reasons the $a_0(980)$ is a long assumed tetraquark candidate in the literature.
We follow a methodological approach by studying the sensitivity of the scalar spectrum with fully dynamical quarks to a large basis of two-quark and four-quark creation operators. Ultimately, the candidate has to be identified in the direct vicinity of two two-particles states, which is understandably inevitable for a tetraquark candidate. To succeed in this difficult task two-meson creation operators are essential to employ in this channel. By localized four-quark operators we intend to probe the Hamiltonian on eigenstates with a closely bound four-quark structure.
Wir haben uns in dieser Arbeit der möglichen Produktion Schwarzer Löcher in hochenergetischen Teilchenkollisonen unter Annahme einer Raumzeit mit großen Extra-Dimensionen gewidmet. Die Produktionsraten, die bei einer neuen fundamentalen Skala im Bereich Mf ~ 1 TeV zu erwarten sind, liegen für den LHC in der Größenordnung von ~ 10 hoch 8 Schwarzen Löchern pro Jahr. Diese hohe Anzahl begründet das Interesse an den Eigenschaften der produzierten Schwarzen Löchern und wirft die Frage auf, wie diese Objekte beobachtet werden können. Bei der Untersuchung der Eigenschaften dieser Schwarzen Löcher haben wir festgestellt, dass das Entstehen Schwarzer Löcher ab einer c.o.m.-Energie im Bereich der neuen Planck-Masse zu einer raschen Unterdrückung hochenergetischer Jets, wie sie in pp-Kollisionen entstehen, führt. Dies ist ein klares Signal und leicht zu beobachten. Unter Ansetzen des Mikrokanonischen Ensembles haben wir die Zerfallsrate der Schwarzen Löcher und ihre Lebensdauer berechnet. Es zeigt sich, dass diese Lebensdauer hoch genug ist, um ein zeitlich deutlich verzögertes Signal zu erhalten. Nimmt man an, dass die statistische Mechanik bis zur Größenordung Mf gülig bleibt, so gelangen die Schwarzen Löcher im Zuge ihrer Verdunstung in einen quasi-stabilen Zustand und ein Rest verbleibt. Die Lebenszeit ist von der Anzahl der Dimensionen abhängig und lässt so Rückschlüsse auf diesen Parameter zu. Im Falle (Mf ~ TeV, d > 5) liegt sie für Energien von ~ 10 TeV in der Größenordung 100 fm/c. Eine geometrische Quantisierung der Strahlung legt außerdem nahe, dass die Schwarzen Löcher nicht restlos verdampfen können, sondern ein stabiler Überrest verbleibt. Diese Ergebnisse sind in [202, 203, 205] veröffentlicht worden.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
Die Struktur der uns umgebenden Materie sowie die zwischen ihren Bestandteilen wirkenden Kräfte waren schon immer eine der zentralen wissenschaftlichen Fragestellungen. Nach den gegenwärtigen Erkenntnissen ist die uns umgebende Materie aus einigen wenigen Elementarteilchen aufgebaut; sechs Quarks und sechs Leptonen. Zwischen ihnen wirken vier fundamentale Kräfte; die starke, die schwache, die elektromagnetische und die Gravitationskraft. Dominierende Kraft zwischen Quarks ist auf kleinen Skalen, wie im Inneren von Nukleonen, die starke Kraft. Die sie beschreibende Theorie ist die Quantum Chromo Dynamic (QCD). Eine besondere Eigenschaft der QCD ist die Vorhersage, dass Quarks nur in gebundenen Zuständen auftreten, entweder als Paar (Mesonen) oder als Kombination aus drei Quarks (Baryonen). Tatsächlich wurden bisher keine freien Quarks experimentell gefunden. Dieses Phänomen wird als "confinement" bezeichnet. Es stellt sich die Frage, ob es möglich ist, einen Materiezustand zu erzeugen in welchem sich die Quarks in einem ausgedehnten Volumen wie freieTeilchen verhalten. Tatsächlich sagen theoretische Berechnungen einen solchen Zustand, das Quark-Gluon-Plasma, für sehr hohe Temperaturen und/oder Dichten voraus. Ultrarelativistische Schwerionenkollisionen sind die einzige derzeit bekannte Möglichkeit, die nötigen Temperaturen und Dichten im Labor zu erreichen. Erschwert wird die Interpretation des hierbei erzeugten Materiezustandes durch die Tatsache, dass im Experiment nur der hadronische Endzustand der Kollision beobachtet werden kann, auf Grund der sehr kurzen Zeitskala jedoch nicht die erzeugte Materie selbst. Trotzdem wurden inzwischen einige Observablen gemessen, die einen Rückschluss auf den Materiezustand in den frühen Phasen der Kollision zulassen. Die kombinierte Information legt die Bildung eines "deconfinten" Zustandes nahe. Eine dieser Proben ist die Produktion von schweren Quarkonia, d.h. Mesonen, die aus charm-anticharm (bzw. bottom-antibottom) Quarkpaaren bestehen. Wie in Kapitel 2 näher erläutert, kann von ihrer Produktion möglicherweise auf die in der Kollision erreichte Temperatur geschlossen werden. Das bisherige experimentelle Programm konzentrierte sich auf die Messung des J/Ã Mesons, dem 1S Zustandes des charm - anticharm Systems. Wie von der Theorie vorhergesagt, wurde eine Unterdrückung seiner Produktion in Schwerionenkollisionen relativ zur Produktion in Proton-Proton-Kollisionen beobachtet, z.B. vom Experiment NA50 am SPS Beschleuniger des Europäischen Zentrums für Teilchenphysik CERN, wie in Abbildung 2.2 gezeigt.Die Deutung dieser Meßdaten ist jedoch umstritten. Neben einer Interpretation im Rahmen des oben beschriebenen Modells können die Daten sowohl von hadronischen Modellen als auch von statistischen Hadronisierungsmodellen, die eine Bildung des cc Zustandes nicht in den initialen Partonkollisionen, sondern erst beim Übergang zum hadronischen Endzustand annehmen, beschrieben werden. Eine Möglichkeit, einzelne Modelle zu falsifizieren bzw. einige der Modellparameter weiter einzuschränken, besteht in der Messung anderer Quarkonia Zustände als dem J/Ã Meson. Hier wären zum einen die anderen Zustände der cc Familie zu nennen, z.B. das Âc(1P). Dieses ist jedoch durch seine Zerfallskanäle experimentell nur schwer nachzuweisen. Eine andere Möglichkeit bietet die Messung von Bindungszuständen zwischen bottom Quarks. Das bb System hat durch die grössere Massendifferenz zwischen dem ersten Bindungszustand, dem (1S), und der für die Erzeugung zweier Hadronen mit jeweils einem bottom und einem leichten Quark, wesentlich mehr Zustände als das cc System. Experimentell sind durch den Zerfallskanal in zwei Leptonen insbesondere die Upsilon gut nachzuweisen.Die Messung von Upsilons in ultrarelativistischen Schwerionenkollisionen ist jedoch experimentell äusserst herausfordernd. Durch die große Masse von circa 10 GeV/c2 ist die Produktionswahrscheinlichkeit sehr klein im Vergleich zu leichteren Teilchen, zum Beispiel dem nur 3.14 GeV/2 schwerem J/Ã. Der im Jahr 2000 in Betrieb genommene Relativistic Heavy Ion Collider (RHIC, siehe Kapitel 3.1) des Brookhaven National Laboratories (BNL) auf Long Island in der Nähe vonNew York erreicht zum ersten Mal eine ausreichend grosse Schwerpunktsenergie und Luminosit ät, welche eine Upsilon Messung möglich erscheinen lassen. Die Entwicklung des experimentellen Programms zur Messung von Upsilons mit dem STAR Detektor am RHIC und erste Ergebnisse aus der Strahlzeit der Jahre 2003/2004 werden in dieser Arbeit beschrieben. Herzstück des STAR Detektors, der in Kapitel 3.2 näher beschrieben wird, ist eine Time Projection Chamber (TPC) welche die Rekonstruktion geladener Teilchen in einem grossen Phasenraumbereich bei mittlerer Rapidität erlaubt. In den Jahren 2001 bis 2005 wurde das Experiment um elektromagnetische Kalorimeter (BEMC, EEMC) erweitert, mit welchen zusätzlich die Energie von Photonen und Elektronen bestimmt werden kann. Die verschiedenen Detektoren des STAR Detektorsystems können in zwei, durch ihre mögliche Ausleserate definierte, Klassen eingeteilt werden. Ein Teil der Detektoren wird bei jedem RHIC Bunch Crossing ausgelesen, d.h. mit einer Frequenz von 9.3 MHz. Zu dieser Klasse der sogenannten Triggerdetektoren gehören unter anderem das schon erwähnte elektromagnetische Kalorimeter, der Central Trigger Barrel (CTB), die Zero Degree Calorimeter (ZDC) und die Beam-Beam Counter (BBC). Die Time Projection Chamber und einige andere Detektoren, wie z.B. der Silicon Vertex Tracker (SVT), können im Gegensatz dazu nur mit maximal 100 Hz ausgelesen werden.
In der vorliegenden Arbeit wurden verschiedene Aspekte der starken Wechselwirkung in effektiven Modellen in selbstkonsistenten Vielteilchenresummationsverfahren, die mit Hilfe des Cornwall-Jackiw-Tomboulis-Formalismus (CJT) hergeleitet wurden, untersucht. Zum einen wurden in der vorliegenden Arbeit lineare Sigma-Modelle behandelt, die zur Beschreibung der chiralen Symmetrierestauration der starken Wechselwirkung herangezogen werden. Hierbei handelt es sich um die linearen Sigma-Modelle mit O(4)-, U(2)r × U(2)-, U(3)r × U(3)- und U(4)r × U(4)-Symmetrie. Diese linearen Sigma-Modelle wurden zur Berechnung der Meson-Massen und Quark-Kondensate in Abhängigkeit von der Temperatur herangezogen. Hierzu wurden die Meson-Massen und Kondensate selbstkonsistent im Rahmen der Hartree-Näherung berechnet, die wiederum mit Hilfe des CJT-Formalismus hergeleitet wurde. Dies führte zum Studium verschiedener Symmetriebrechungsmuster der chiralen Symmetrie in den verschieden linearen Sigma-Modellen, wie sie in Tabelle 1.1 dargestellt wurden. Als erstes Ergebnis wurde dann der Fall maximaler Symmetriebrechung, nämlich die explizite Symmetriebrechung in Anwesenheit der U(1)A-Anomalie, besprochen. Hierbei wurden alle untersuchten Modelle miteinander verglichen, um den Einfluß der unterschiedlichen Anzahl von Quark-Flavors Nf auf die erzielten Ergebnisse zu diskutieren. Beim Vergleich des linearen O(4)- mit dem U(2)r×U(2)-Modell wird eine Verdopplung der physikalischen Freiheitsgrads augenfällig: zusätzlich zum Sigma-Meson und den Pionen, die schon im O(4)-Modell vorhanden sind, treten noch das η-Meson und die a0-Mesonen. Dies führt dazu, daß in der chiral-restaurierten Phase die Mesonmassen stärker mit der Temperatur ansteigen. Der Grund hierfür sind die Tadpole-Beiträge der zusätzlichen Freiheitsgrade, zu den Mesonenselbstenergie beitragen und so zu einer Zunahme der Mesonmassen führen. Dies trifft auch zu, wenn man den Strange-Freiheitsgrad beim Übergang zum U(3)r × U(3)-Modell hinzufügt. Dies ist eine allgemeine Tatsache, solange die Massen der zusätzlichen Freiheitsgrade von der gleichen Größenordnung sind wie die Übergangstemperatur des chiralen Phasenüberganges. Das Hinzufügen des Charm-Freiheitsgrades im Rahmen eines U(4)r ×U(4)-Modells beeinflußt die Resultate für die bereits im U(3)r×U(3)-Modell vorhandenen Mesonen und Kondensate nicht wesentlich. Dies beruht letztendlich auf der großen Masse des Charm-Quarks, die weit über der Übergangstemperatur des chiralen Phasenüberganges liegt. In der Hartree-Näherung wird diesem Sachverhalt dadurch Rechnung getragen, daß die Tadpole-Beiträge der schwereren, das Charm-Quark enthaltenden Mesonen ex4.3 ponentiell mit der jeweiligen Mesonenmasse unterdrückt sind ~ exp(−M/T ). Umgekehrt ändern sich die Massen der das Charm-Quark enthaltenden Mesonen fast nicht gegenüber ihrem Vakuumwert auf der Temperaturskala, die für die chirale Symmetrierestauration eine entscheidende Rolle spielt. Dies beruht darauf, daß die Tadpole- Beiträge der anderen leichten, Mesonen klein sind für gegenüber den großen Vakuummassen der schweren, das Charm-Quark enthaltenden, Mesonen. Dieses Resultat entspricht den intuitiven Erwartungen, aber ist dennoch aus zweierlei Gründen nichttrivial: erstens sind die Gleichungen für die In-Medium-Massen im U(4)r × U(4)- Modell strukturell von denen im U(3)r × U(3)-Modell verschieden; zweitens stellen die gekoppelten Gleichungen für die Massen und Kondensate ein nichtlineares Gleichungssystem dar, was dazu führen könnte, daß auch kleine Störungen große Veränderungen der Lösung des Gleichungssystemes nach sich ziehen. Dann wurde sich dem Studium der expliziten chiralen Symmetriebrechung ohne U(1)A-Anomalie zugewandt. Der Hauptunterschied zum vorherigen Fall war, daß der Bereich des Phasenüberganges auf der Temperaturskala enger um die Übergangstemperatur konzentriert ist und der chirale Phasenübergang bei etwas kleineren Temperaturen einsetzt. Schließlich wurden die skalaren und pseudoskalaren Mesonen und die Quark-Kondensate im chiralen Limes untersucht. Die Hartree-Näherung sagt hierbei korrekterweise einen Phasenübergang erster Ordnung im Fall des U(2)r × U(2)-Modelles ohne U(1)A-Anomalie und im U(3)r×U(3)-Modell voraus. Im O(4)- und im U(2)r× U(2)-Modell mit U(1)A-Anomalie versagt allerdings die Hartree-Näherung: eigentlich sollte ein Phasenüberganges zweiter Ordnung auftreten, die Hatree-Näherung führt aber auch hier auch hier auf einen Phasenübergang erster Ordnung. Die Übergangstemperaturen sind überraschend nah an denjenigen die in Gittereichrechnungen vorhergesagt werden. Allerdings nimmt mit der U(1)A-Anomalie die Übergangstemperatur mit der Anzahl der Quarkflavors zu, wohingegen die Gittereichtheorie das umgekehrte Verhalten vorhersagt. Dieses Bild ändert sich in Abwesenheit der U(1)A-Anomalie. Hier stimmen die Vorhersagen für die Ordnung der Übergangstemperaturen mit der Anzahl der Quark-Flavors mit der QCD-Vorhersage überein. Dies mag ein Anzeichen dafür sein, daß die U(1)A-Symmetrie – zumindest partiell – in der Nähe der Übergangstemperatur des chiralen Phasenüberganges und darüberhinaus wiederhergestellt sein könnte. Zum anderen wurde die Wechselwirkung von Pionen und Rho-Mesonen im Medium untersucht. Dies wurde im Rahmen eines einfachen Pion-Rho-Vektormesondominanzmodelles vorgenommen. Für dieses Modell wurde eine selbstkonsistente Ein-Schleifen-Näherung für die Dyson-Schwinger-Gleichungen des Pions- und des Rho-Vektormesons hergeleitet. Die im Rahmen dieser Näherung den Dyson- Schwinger-Gleichungen äquivalenten selbstkonsistenten Integralgleichungen für die Spektraldichten und Selbstenergien wurden im CJT-Formalismus unter Verwendung der Saclay-Methode hergeleitet. Renormierungsfragen wurden durch die Beschränkung der Untersuchungen auf die Imaginärteile der Selbstenergien umgangen, damit treten in dieser Näherung keine Massenmodifikationen der Pionen oder des Rho-Vektormesons auf. Im Rahmen der Aufstellung der selbstkonsistenten Dyson- Schwinger-Gleichungen zeigte sich, daß eine Verletzung der Vierer-Transversalität des Selbstenergietensors der Rho-Vektormesons auftritt, die letztlich auf Verletzung der Eichsymmetrie des zugrundeliegenden Pion-Rho-Modells beruht. Dennoch konnte durch sachgerechte Eichung erreicht werden, daß der Tensor der Spektraldichte des Rho-Vektormesons auch in dieser Näherung vierer-transversal ist. Das so erhaltene Integralgleichungssystem wurde numerisch auf einem Energie- und Impulsgitter gelöst. Die Spektraldichten und Selbstenergien der Pionen sowie die Komponenten der Spektraldichten und Selbstenergien des Rho-Mesons wurden hiermit selbstkonsistent bestimmt. Eine sehr interessante Eigenschaft im Vergleich zu perturbativen Ein-Schleifen-Rechnungen in diesen Modellen ist, daß die räumlich-longitudinale und räumlichtransversale Komponente der Spektraldichte des Rho-Vektormesons auch für invariante Massen pP2 unterhalb der Zwei-Pionen-Schwelle pP2 < 2mPion nicht-verschwindende Beiträge erhalten. Dies rührt daher, daß nun in den Integralgleichungen für die Selbstenergiekomponenten des Rho-Mesons die pionische Spektralfunktion im Medium prinzipiell alle Energieanregungen mit einem thermischen Gewichtsfaktor zugänglich macht. Das Schwellenverhalten ist also ein Artefakt der perturbativen Ein-Schleifen-Näherung. Die selbstkonsistenten Spektraldichten des Rho-Meson wurden zur Berechnung der statischen, thermischen Dileptonenproduktionsrate herangezogen. Es ergab sich, daß aufgrund dieses Aufweichens der Zwei-Pion-Schwelle eine erhebliche Erhöhung der statischen Dileptonenproduktionsrate im Vergleich zur perturbativen Ein-Schleifen-Näherung im Bereich von invarianten Massen zwischen 300MeV < pP2 < 700MeV eintritt. Auch das in perturbativen Rechnungen auftretende Maximum im Bereich invarianter Massen von 700MeV < pP2 < 900MeV in der Dileptonenproduktionsrate ist aufgrund der Stoßverbreiterung in den Ergebnissen der selbstkonsistenten Rechnungen nicht mehr auszumachen. Insbesondere zeigt sich hier auch, daß eine rein perturbative Behandlung stark wechselwirkender Systeme bei endlichen Temperaturen und Dichten a priori nicht ausreichend für ein angemessenes physikalisches Verständnis der auftretenden Effekte ist. Die Anwendung von vielteilchentheoretischen Verfahren zur Herleitung von genäherten Dyson-Schwinger-Gleichungen ist deshalb von besonderer Wichtigkeit. Mit den Studien dieser zwei Modellklassen, nämlich zum einen der Modelle des chiralen Phasenüberganges in der starken Wechselwirkung, und zum anderen eines Vektormesondominanzmodelles für ein Pion-Rho-System bei endlichen Temperaturen mit Hilfe von Vielteilchenresummationsverfahren in selbstkonsistenten Näherungen konnten so interessante phänomenologische Einblicke in die Physik der stark wechselwirkenden Materie gewonnen werden. Darüberhinaus wurde ein theoretischer Beitrag zur Behandlung beliebiger bosonischer Systeme in der selbstkonsistenten Schleifen-Näherung für die Dyson-Schwinger-Gleichungen geleistet. Natürlich sind damit die Forschungen auf dem Gebiet der Beschreibung von Aspekten stark wechselwirkender Materie in effektiven Modelle mittels selbstkonsistenter Vielteilchenresummationsverfahren bei weitem nicht abgeschlossen. Vielfältige Entwicklungen auf diesem Forschungsgebiet sind auch in Zukunft zu erwarten. Zum Beispiel bleibt die Frage der Veränderung der Massen (Realteil der Selbstenergien) der Rho-Mesonen und Pionen im Medium in der selbstkonsistenten Schleifennäherung bisher noch unbeantwortet. Auch das Einbinden von Baryonen in diese Betrachtungen ist eine Aufgabe für die Zukunft. Schließlich können auch noch die Effekte der chiralen Symmetrierestauration einen wesentlichen Einfluß auf die Beschreibung der Dileptonenproduktion nehmen. Die vorliegende Arbeit läßt die begründete Hoffnung zu, daß bei der Behandlung dieser weitergehenden Fragen in selbstkonsistenten Resummationsschemata wichtige neue Erkenntnisse gewonnen werden könnten. Darüberhinaus bleibt die Frage eines eichinvarianten, numerisch tatsächlich mit Hilfe des aktuellen Standes der Computertechnologie realisierbaren Vielteilchenresummationsschemas, das bei allen Temperaturen und Dichten anwendbar wäre ein grundlegendes und offenes Problem der Forschung, das nicht nur für die Beschreibung effektiver Theorien sondern auch für die Untersuchung von Dyson-Schwinger-Gleichungen für fundamentale Theorien, wie der Quantenchromodynamik, von höchstem Interesse wäre.
This work is dedicated to the investigation of nuclear matter at non-zero temperatures within an effective hadronic model based on the Walecka model. It includes fermions as well as a vector omega meson and a scalar sigma meson where for the latter a quartic self-interaction has been considered. The coupling constants have been adapted to the saturation properties of infinite nuclear matter. A set of self-consistent Schwinger-Dyson equations has been set up for all included particles within the Cornwall-Jackiw-Tomboulis formalism. This has been expanded to non-zero temperatures via the imaginary time formalism. Beside tree-level two different stages of approximations have been considered: the Hartree approximation which takes into account the double-bubble diagram for the scalar meson, and an improved approximation where in addition two-particle irreducible sunset diagrams for all fields were included. In the Hartree-approximation the Schwinger-Dyson equations can be solved by quasi-particle ansaetze, while in the improved approximation spectral functions with non-zero widths have to be introduced. The Schwinger-Dyson equations are solved by the fully dressed propagators. Comparing the two levels of approximation shows the influence of finite widths on the temperature dependence of the particle properties. The consideration of finite widths in fact has a significant influence on the transition from a phase of heavy nucleons to a transition of light nucleons, observed in the Walecka-model. The temperature dependence is weakend when finte widths are taken into account.
In nature, society and technology many disordered systems exist, that show emergent behaviour, where the interactions of numerous microscopic agents result in macroscopic, systemic properties, that may not be present on the microscopic scale. Examples include phase transitions in magnetism and percolation, for example in porous unordered media, biological, and social systems. Also technological systems that are explicitly designed to function without central control instances, like their prime example the Internet, or virtual networks, like the World Wide Web, which is defined by the hyperlinks from one web page to another, exhibit emergent properties. The study of the common network characteristics found in previously seemingly unrelated fields of science and the urge to explain their emergence, form a scientific field in its own right, the science of complex networks. In this field, methodologies from physics, leading to simplification and generalization by abstraction, help to shift the focus from the implementation's details on the microscopic level to the macroscopic, coarse grained system level. By describing the macroscopic properties that emerge from microscopic interactions, statistical physics, in particular stochastic and computational methods, has proven to be a valuable tool in the investigation of such systems. The mathematical framework for the description of networks is graph theory, in hindsight founded by Euler in 1736 and an active area of research since then. In recent years, applied graph theory flourished through the advent of large scale data sets, made accessible by the use of computers. A paradigm for microscopic interactions among entities that locally optimize their behaviour to increase their own benefit is game theory, the mathematical framework of decision finding. With first applications in economics e.g. Neumann (1944), game theory is an approved field of mathematics. However, game theoretic behaviour is also found in natural systems, e.g. populations of the bacterium Escherichia coli, as described by Kerr (2002). In the present work, a combination of graph theory and game theory is used to model the interactions of selfish agents that form networks. Following brief introductions to graph theory and game theory, the present work approaches the interplay of local self-organizing rules with network properties and topology from three perspectives. To investigate the dynamics of topology reshaping, coupling of the so called iterated prisoners' dilemma (IPD) to the network structure is proposed and studied in Chapter 4. In dependence of a free parameter in the payoff matrix, the reorganization dynamics result in various emergent network structures. The resulting topologies exhibit an increase in performance, measured by a variance of closeness, of a factor 1.2 to 1.9, depending in the chosen free parameter. Presented in Chapter 5, the second approach puts the focus on a static network structure and studies the cooperativity of the system, measured by the fixation probability. Heterogeneous strategies to distribute incentives for cooperation among the players are proposed. These strategies allow to enhance the cooperative behaviour, while requiring fewer total investments. Putting the emphasis on communication networks in Chapters 6 and 7, the third approach investigates the use of routing metrics to increase the performance of data packet transport networks. Algorithms for the iterative determination of such metrics are demonstrated and investigated. The most successful of these algorithms, the hybrid metric, is able to increase the throughput capacity of a network by a factor of 7. During the investigation of the iterative weight assignments a simple, static weight assignment, the so called logKiKj metric, is found. In contrast to the algorithmic metrics, it results in vanishing computational costs, yet it is able to increase the performance by a factor of 5.
After a brief introduction on QCD and effective models in the first chapter, I analyze the dependence of the QCD transition temperature on the quark (or pion) mass in the second chapter. I found that a linear sigma model, which links the transition to chiral symmetry restoration, predicts a much stronger dependence of T_c on m_pi than seen in present lattice data for m_pi >~ 0.4 GeV. On the other hand, an effective Lagrangian for the Polyakov loop requires only small explicit symmetry breaking to describe T_c(m_pi) in the above mass range. In the third and fourth chapter, I study the linear sigma model with O(N) symmetry at nonzero temperature in the framework of the Cornwall-Jackiw-Tomboulis formalism. Extending the set of two-particle irreducible diagrams by adding sunset diagrams to the usual Hartree-Fock (or Hartree) contributions, I derive a new approximation scheme which extends the standard Hartree-Fock (or Hartree) approximation by the inclusion of nonzero decay widths.
Die Dissertation ist in den Bereichen der semiklassischen Quantengravitation und der pseudokomplexen Allgemeinen Relativitätstheorie (pk-ART) anzusiedeln. Dabei wird unter semiklassischer Quantengravitation die Untersuchung quantenmechanischer Phänomene in einem durch eine klassische Gravitationstheorie gegebenen gravitativen Hintergrundfeld verstanden und bei der pk-ART handelt es sich um eine Alternative zu der aktuell anerkannten klassischen Gravitationstheorie, der Allgemeinen Relativitätstheorie (ART), die die reellen Raumzeitkoordinaten der ART pseudokomplex erweitert. Dies führt zusammen mit einer Veränderung des Variationsprinzips in führender Ordnung auf eine Korrektur der Einstein- Gleichung der ART mit einem zusätzlichen Quellterm (Energie-Impuls-Tensor), dessen exakte Form jedoch bisher nicht bekannt ist.
Die Beschreibung der Gravitation als Hintergrundfeld ergibt sich zwangsläufig daraus, dass auf Basis der ART bisher keine quantisierte Beschreibung für sie gefunden werden konnte. Jedoch wird erhofft, dass die Untersuchung semiklassischer Phänomene Hinweise auf die korrekte Theorie der Quantengravitation gibt. Zudem motiviert der Mangel einer quantisierten Gravitationstheorie die Verwendung alternativer Theorien, da sich dadurch die Frage stellt, ob die ART die korrekte Beschreibung klassischer Felder ist.
Das Ziel der vorliegenden Dissertation war die grundlegenden Unterschiede zwischen der ART und der pk-ART für gebundene sphärisch symmetrische Zustände der Klein-Gordon- und der Dirac-Gleichung zu identifizieren und ein qualitatives Modell der Vakuumfluktuationen in sphärisch symmetrischen Materieverteilungen zu bestimmen, wobei der Zusammenhang der pk-ART mit den Vakuumfluktuationen in der Annahme besteht, dass ein Zusammenhang zwischen ihnen und dem zusätzlichen Quellterm der pk-ART existiert. Dafür wurden die gebundenen Zustände der Klein-Gordon- und der Dirac-Gleichung für drei verschiedene Metrikmodelle (zwei ART-Modelle und ein pk-ART-Modell) mit konstanter Dichte systematisch numerisch berechnet, einige repräsentative Grafiken erstellt, anhand derer die grundlegenden Unterschiede der Ergebnisse der ART-Modelle und des pk-ART-Modells erörtert wurden, und die ART Ergebnisse der Dirac-Gleichung soweit wie möglich mit Ergebnissen der Literatur verglichen. Insbesondere wurde dabei festgestellt, dass die Energieeigenwerte in der pk-ART im Gegensatz zu denen in der ART in Abhängigkeit der Ausdehnung des Zentralobjekts ein Minimum aufweisen. Zudem wurden die Energieeigenwerte der Klein-Gordon-Gleichung teilweise sowohl über das Eigenwertproblem einer Matrix als auch über ein Anfangswertproblem berechnet und es wurde festgestellt, dass die Beschreibung als Eigenwertproblem deutlich uneffektiver ist, wenn dafür die Basis des dreidimensionalen harmonischen Oszillators genutzt wird. Für die Entwicklung des qualitativen Vakuumfluktuationsmodells wurden zwei Näherungen für den Erwartungswert des Energie-Impuls-Tensors in führender Ordnung für die Schwarzschildmetrik (ART) verglichen und die Verwendung eines qualitativen Modells durch die dabei auftretende Diskrepanz gerechtfertigt. Danach wurden die Vakuumfluktuationen für Metriken konstanter Materiedichte mit Hilfe einer der Näherungen in führender Ordnung berechnet und ein Modell gesucht, das den gleichen qualitativen Verlauf aufweist. Im Anschluss wurde dieses Modell noch für einfache Metriken mit variabler Materiedichte verifiziert.
Die Dissertation leistet mit der Analyse der gebundenen Zustände einen Beitrag in der Identifikation der Unterschiede zwischen der pk-ART und der ART und führt somit auf weitere mögliche Messgrößen, die der Unterscheidung der beiden Theorien dienen könnten. Weiterhin ermöglicht das abgeleitete Modell eine Verfeinerung der schon publizierten Ergebnisse über Neutronensterne und die für die Erstellung nötigen Vorarbeiten leisten einen Beitrag zur Identifikation des
pk-ART Quellterms.
Detailed knowledge of reaction mechanisms is key to understanding chemical, biological, and biophysical processes. For many reasons, it is desirable to comprehend how a reaction proceeds and what influences the reaction rate and its products.
In biophysics, reaction mechanisms provide insight into enzyme and protein function, the reason why they are so efficient, and what determines their reaction rates. They also reveal the relationship between the function of a protein and its structure and dynamics.
In chemistry, reaction mechanisms are able to explain side products, solvent effects, and the stereochemistry of a product. They are also the basis for potentially optimizing reactions with respect to yield, enhancing the stereoselectivity, or for modifying reactions in order to obtain other related products.
A key step to investigate reaction mechanisms is the identification and characterization of intermediates, which may be reactive, short-lived, and therefore only weakly populated. Nowadays, the structures of those can in most cases only be hypothesized based on products, side products, and isolable intermediates, because intermediates with a life time of less than a few microseconds are not accessible with the commonly used techniques for structure determination such as X-ray crystallography and nuclear magnetic resonance (NMR) spectroscopy.
In this thesis, two-dimensional infrared (2D-IR) spectroscopy is shown to be a powerful complement to the existing techniques for structure determination in solution. 2D-IR spectroscopy uses a femtosecond laser setup to investigate interactions between vibrations - analogous to 2D-NMR, which investigates the interactions between spins. Its ultrafast time resolution makes 2D-IR spectroscopy particularly well suited for the two topics investigated in this thesis: Structure Determination of Reactive Intermediates and Conformational Dynamics of Proteins.
Structure Determination of Reactive Intermediates: The focus of this thesis is using polarization-dependent 2D-IR (P2D-IR) spectroscopy for structure determination of N-crotonyloxazolidinone (referred to as 1), a small organic compound with a chiral oxazolidinone, known as Evans auxiliary, and its reactive complexes with the Lewis acids SnCl4 and Mg(ClO4)2. Chiral oxazolidinones in combination with Lewis acids have frequently been used in stereoselective synthesis for over 30 years. Nevertheless, the detailed mechanisms are in many cases xvi ABSTRACT still mere hypotheses and have not yet been experimentally proven. By accurately measuring the angles between the transition dipole moments in the molecules using an optimized P2D-IR setup and comparing the results to DFT calculations, the conformation of 1 and the conformation and coordination of the main complexes with SnCl4 and Mg(ClO4)2 are unequivocally identified and analyzed in depth. Structural details, such as a slight twist in the solution structure of 1, are detected using P2D-IR spectroscopy; these cannot be inferred from NMR spectroscopy or DFT calculations. In addition to the main Lewis acid complexes, complexes in low concentration are detected and tentatively assigned to different conformations and complexation geometries. The knowledge of those structures is essential for rationalizing the observed stereoselectivities. Additionally, a method is introduced that enables structure determination of molecules in complex mixtures and even in the presence of molecules with similar spectral properties and in high concentration. This work sets the stage for future studies of other substrate-catalyst complexes and reaction intermediates for which the structure determination has not been possible to date.
Conformational Dynamics of Proteins: Exchange 2D-IR spectroscopy allows the investigation of fast dynamics without disturbing the equilibrium of the exchanging species. It is therefore well suited to investigate fast dynamics of proteins and to reveal the speed limit of those. The temperature dependence of the conformational dynamics between the myoglobin substates A1 and A3 in equilibrium is analyzed. The various substates of myoglobin can be detected with FTIR spectroscopy, if carbon monoxide is bound to the heme. From previous studies it is known that the exchange rates at room temperature are in the picosecond time range, well suited to be investigated by 2D-IR spectroscopy. In the temperature range between 0 °C and 40 °C only a weak temperature dependence of the exchange rate in the myoglobin mutant L29I is observed in the present study. The exchange rate approximately doubles from 15 ns-1 at 0 °C to 31 ns-1 at 40 °C. It turned out that the conformational dynamics correlates linearly with the solvent viscosity, which itself is temperature dependent. Comparing our results to measurements at cryogenic temperatures, the linear relation between exchange time constant for this process and the viscosity is shown for the temperature range between -100 °C and 40 °C (corresponding to a viscosity change of 14 orders of magnitude). Thus, it is proven that the dynamics of the conformational switching are mainly determined by solvent dynamics, i.e., the protein dynamics are slaved to the solvent dynamics. This is the first time slaving is observed for such fast processes (in the picosecond time range). The observation implies a long-range structural rearrangement between the myoglobin substates A1 and A3. In addition, the exchange for other mutants and wild type myoglobin is analyzed qualitatively and found to agree with the conclusions drawn from L29I myoglobin.
In the present paper we develop the essential theoretical tools for the treatment of the dynamics of High Energy Heavy Ion Collisions. We study the influence of the nuclear equation of state and discuss the new phenomena connected with phase transitions in nuclear matter (pion condensation). Furthermore we investigate the possibility of a transition from nuclear to quark matter in High Energy Heavy Ion Collisions. In this context we discuss exotic phenomena like strongly bound pionic states, limiting temperatures, and exotic nuclei.
The requirement of the versatile signal generator has always been evident in modern RF and communication systems. The most conventional technique, voltage control oscillator (VCO), has inferior phase noise and narrow bandwidth despite its operating frequency can be up to the sub-THz regime. Its phase noise influenced by a various parameter associated with the oscillator circuit e.g. transistor size \& noise, bias current, noise leaking from the bias supply etc. The bandwidth is limited because the input voltage \& the output frequency of the VCO is not strictly linear over the tuning range. The phase noise and SFDR of the VCO output are enhanced by using the phase-lock technique. The phase-locked loop (PLL) uses the feedback system locking the reference frequency set by the VCO. However, the settling time of the PLL is higher due to a feedback control loop. The higher settling time increases the frequency switching time between PLL outputs. IG-oscillators is suitable for multi-GHz range and wide bandwidth application. Signal generation can alos be achieved by the free-electron radiation, optical lasers, Gunn diodes as well and they can operate even at the THz domain. All these signal generators suffer from slow frequency switching, lack of digital controllability, and advance modulation capability even though their frequency of operation is THz regime. Alternatively, the AWG (arbitrary wave generator) can produce a wide range of frequencies with low phase noise, including digital controllability. One of the vital components of the AWG is the direct digital synthesiser (DDS). Generally, it is composed of a phase accumulator, digital to analogue converter, sine mapping circuits and low pass filter. It needs a reference clock that acts as samples of the DDS outputs. Its output frequency can be varied by applying an appropriate digital input code. But high-speed DDS has several limitations; such as low number of output frequency points, lack of phase control unit, high power consumptions etc. This work addresses such limitations.
The goal of this project is to develop a framework for a cell that takes in consideration its internal structure, using an agent-based approach. In this framework, a cell was simulated as many sub-particles interacting to each other. This sub-particles can, in principle, represent any internal structure from the cell (organelles, etc). In the model discussed here, two types of sub-particles were used: membrane sub-particles and cytosolic elements. A kinetic and dynamic Delaunay triangulation was used in order to define the neighborhood relations between the sub-particles. However, it was soon noted that the relations defined by the Delaunay triangulation were not suitable to define the interactions between membrane sub-particles. The cell membrane is a lipid bilayer, and does not present any long range interactions between their sub-particles. This means that the membrane particles should not be able to interact in a long range. Instead, their interactions should be confined to the two-dimensional surface supposedly formed by the membrane. A method to select, from the original three-dimensional triangulations, connections restricted to the two-dimensional surface formed by the cell membrane was then developed. The algorithm uses as starting point the three-dimensional Delaunay triangulation involving both internal and membrane sub-particles. From this triangulation, only the subset of connections between membrane sub-particles was considered. Since the cell is full of internal particles, the collection of the membrane particles' connections will resemble the surface to be obtained, even though it will still have many connections that do not belong to the restricted triangulation on the surface. This "thick surface" was called a quasi-surface. The following step was to refine the quasi-surface, cutting out some of the connections so that the ones left made a proper surface triangulation with the membrane points. For that, the quasi-surface was separated in clusters. Clusters are defined as areas on the quasi-surface that are not yet properly triangulated on a two-dimensional surface. Each of the clusters was then re-triangulated independently, using re-triangulation methods also developed during this work. The interactions between cytosolic elements was given by a Lennard-Jones potential, as well as the interactions between cytosolic elements and membrane particles. Between only membrane particles, the interactions were given by an elastic interaction. For each particle, the equation of motion was written. The algorithm chosen to solve the equations of motion was the Verlet algorithm. Since the cytosol can be approximated as a gel, it is reasonable to suppose that the sub-cellular particles are moving in an overdamped environment. Therefore, an overdamped approximation was used for all interactions. Additionally, an adaptive algorithm was used in order to define the size of the time step used in each interaction. After the method to re-triangulate the membrane points was implemented, the time needed to re-triangulate a single cluster was studied, followed by an analysis on how the time needed to re-triangulate each point in a cluster varied with the cluster size. The frequency of appearance for each cluster size was also compared, as this information is necessary to guarantee that the total time needed by to re-triangulate a cell is convergent. At last, the total time spent re-triangulating a surface was plotted, as well as a scaling for the total re-triangulation time with the variation. Even though there is still a lot to be done, the work presented here is an important step on the way to the main goal of this project: to create an agent-based framework that not only allows the simulation of any sub-cellular structure of interest but also provides meaningful interaction relations to particles belonging to the cell membrane.
This thesis deals with the simulation, optimization and realization of quasi-optical scanning systems for active THz cameras. Active THz cameras are sensitive in the THz regime of the electromagnetic spectrum and are suitable for the detection of metal objects such as weapons behind clothing or fabrics (maybe for security applications) or material investigation. An advantage of active THz-systems is the possibility to measure the phase of the THz-radiation and thus to reconstruct the surface topography of the objects under test. Due to the coherent illumination and the required system parameters (like image field size, working distance and lateral resolution) the optical systems (in the THz region often called quasi-optical systems) must be optimized. Specifically, the active illumination systems require highly optimized quasioptical systems to achieve a good image quality. Since currently no suitable multi-pixel detectors are available, the object has to be scanned in one or two dimensions in order to cover a full field of view. This further reinforces the occurring aberrations. The dissertation covers, alongside the underlying theory, the simulation, optimisation and realisation of three different active THz systems. The subdivision of the chapters is as follows: Chapter 1 deals with a motivation. Chapter 2 develops the underlying theory and it is demonstrated that the geometrical optics is an adequate and powerful description of the image field optimization. It also addresses the developed analytic on-axis and the off-axis image field optimization routine. Chapter 3, 4 and 5 are about the basis of various active THz cameras, each presented a major system aspect. Chapter 3 shows how active THz-cameras with very high system dynamics range can be realised. Within this chapter it could although be demonstrated how very high depth resolution can be achieved due to the coherent and active illumination and how high refresh rate can be implemented. Chapter 4 shows how absolute distance data of the objects under test can be obtained. Therefore it is possible to reconstruct the entire object topography up to a fraction of the wavelength. Chapter 5 shows how off-axis quasi-optical systems must be optimized. It is also shown how the illumination geometry of the active THz systems must be changed to allow for real-time frame rates. The developed widened multi-directional lighting approach also fixes the still existing problem of phase ambiguity of the single phase measurement. Within this chapter, the world’s first active real-time camera with very high frame rates around 10 Hz is presented. This could be only realized with the highly optimised quasioptical system and the multi-directional lighting approach. The paper concludes with a summary and an outlook for future work. Within the outlook some results regarding the simulation of synthetic aperture radar systems and metamaterials are shown.
The PANDA experiment at FAIR will study fundamental questions of strong interaction with high precision. Effcient particle identification for a wide momentum range and the full solid angle is required for successful reconstruction of the benchmark channels of the broad PANDA physics program. For this purpose a compact ring imaging Cherenkov detector is being developed for the barrel region of the PANDA detector. The concept and the baseline design of the PANDA Barrel DIRC were inspired by the BABAR DIRC and improved with important modifications, like fast photon timing, a compact expansion volume, and focusing optics. The required detector resolution was defined based on the PANDA PID specifications using the phase space distributions of the final state kaons produced in selected benchmark channels. To optimize the PANDA Barrel DIRC design in terms of performance and cost the baseline detector geometry and a number of design options were implemented in the simulation. The key options include the radiator dimensions, two types of expansion volume shapes, and a variety of focusing systems. The performance of the detector designs was quantified in terms of single photon Cherenkov angle resolution and photon yield. It was found that the number of radiators can be reduced by about 40% without loss in performance. A compound spherical lens without air gap was found to be a promising focusing system. An optimized Barrel DIRC design meeting the PID requirements includes three radiator bars per at section, the compound lens without air gap, a compact prism-shaped EV, and a total of 192 Microchannel-Plate PMTs as photosensors. The number of electronic channels can be halved without loss in performance by combining two neighbouring pixels. For such a detector design the total cost will be significantly reduced compared to the baseline version while still meeting or exceeding the PANDA PID performance goals.