Refine
Year of publication
Document Type
- Doctoral Thesis (593) (remove)
Has Fulltext
- yes (593)
Is part of the Bibliography
- no (593) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (593) (remove)
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
In this thesis, the early time dynamics in a heavy ion collision of Pb-Nuclei at LHC center-of-mass energies of 5 TeV is studied. Right after the collision the system is out-of-equilibrium and essentially gluon dominated, with their density saturating at a specific momentum scale Q_s. Based on a separation of scales for the soft and hard gluonic degrees of freedom, the initial state is given from an effective model, known as the Color Glass Condensate. Within this model, the soft gluons behave classical to leading order, making it possible to study their dynamics in gauge invariant fashion on a three dimensional lattice, solving Hamiltonian field equations of motion, keeping real time. Quark-Antiquark pairs are produced in the gluonic medium, known as the Glasma and manifest themselves as a source of quantum fluctuations.
They enter the dynamics of the gluons as a current, making the system semi-classical. In lattice simulations, the non-equilibrium system is tested for pressure isotropization, which is a necessary ingredient to reach a local thermal equilibrium (LTE), making a hydrodynamical description at a later stage possible. In addition, the occupation of energy modes is studied with its implications on thermalization and classicality.
QCD matter is expected to exist in different phases, when heated to high temperatures and getting highly compressed. Each phase could be characterized by distinct properties. A way to access extreme phases of matter in the laboratory are heavy-ion collisions at (ultra-)relativistic energies. During the collision, the temperature and density is evolving and reaches a maximum temperature and density far beyond the ground state of matter. The matter properties depend on the incident collision energy. Typically, a collision is separated into three collisions stages, namely first chance collisions (I), hot and dense stage (II) and freeze-out stage (III). Out of those, the second one is of major interest, since the extreme states of matter are generated within. For this reason, the most prominent change of the hadrons is expected to appear there in. Those changes are caused by i.e. modification of the hadronic spectral function. However, to retrieve such information is complicated. Hadrons are strongly interacting particles and therefore, carry little information about the hot and dense stage. For that purpose, decays of hadrons (low-mass vector mesons) to e+e- pairs via a virtual photon, so-called dielectrons, are an ideal probe. Electrons and positrons do not interact strongly and transport the information about the hot and dense stage nearly undisturbed to the detector. Unfortunately, the production of dielectrons is suppressed by a branching ratio of ≈ 10^(-5) and requires a precise lepton identification. Nonetheless, previous experiments have extracted a dilepton signal and observed in the low-mass range an excess over the hadronic cocktail. Latter one is expected to be caused by thermal radiation induced by the medium. Up to now, experiments conducted dilepton measurements with a focus on larger collision energies and large collision systems. Measurements of dielectrons at collision energies of around 1-2A GeV were only conducted for small and medium size collision systems. HADES continued the systematic studies by a measurement of Au+Au collisions at 1.23A GeV.
The detection of dielectrons requires detectors that handle high data rates and specific detectors for a high purity lepton identification. In HADES, the strongest separation of electrons or positrons from the hadronic background is provided by a ring imaging Cherenkov detector (RICH). Its electron identification is based on Cherenkov photons, that are emitted in ring like patterns. In this work a new approach, using the time-of-flight information to preselect electrons and the reconstructed particle trajectory to estimate ring positions, is utilized to improve the lepton identification. The concept of the so-called backtracking algorithm will be explained and applied to e+e- identification in Au+Au collisions. The whole analysis chain comprises single lepton identification, pair reconstruction and correction for efficiency and acceptance losses. The final pair spectra will be presented in form of their invariant mass, pt, mt and helicity distributions. Subsequently, transport model calculations as well as results from the recently developed coarse-grained transport approach will be compared to the dielectron spectra. Moreover, the centrality dependence of the excess yield and true (not "blue-shifted") temperature of the fireball will be presented. The results will be put in context to measurements of lighter collisions systems and at higher energies.
Lepton pairs emerging from decays of virtual photons represent promising probes of nuclear matter under extreme conditions of temperature and density. These etreme conditions can be reached in heavy-ion collisions in various facilities around the world. Hereby the collision energy in the center-of-mass system (√SNN) varies from few GeV (SIS) to the TeV (LHC). In the energy domain of 1 - 2 GeV per nucleon (GeV/u), the HADES experiment at GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt studies dielectrons and strangeness production.
Various reactions, for example collisions of pions, protons, deuterons and heavy-ions with nuclei have been studied since its installation in the year 2001. Hereby the so called DLS Puzzle was solved experimentally, with remeasuring C+C at 1 and 2 GeV/u and by careful studies of inclusive pp and pn reactions at 1.25 GeV. With these measurements the so-called reference spectrum was established. Measurements of e+ e− production Ar+KCl showed an enhancement on the dilepton spectrum above the trivial NN back-
ground. Theory predicts a strong enhancement of medium radiation with the system size, due to large production of fast decaying baryonic resonances like ∆ and N∗ . The heaviest system measured so far was Au+Au at a kinetic beam energy of 1.23 GeV/u. The precise determination of the medium radiation depends
on a precise knowledge of the underlying hadronic cocktail composed of various sources contributing to the measured dilepton spectrum. In general the medium radiation needs to be separated from contributions coming from long-lived particles, that decay after the freeze out of the system. For a more model independent
understanding of the dilepton cocktail the production cross sections of these particles need to measured independently. In the related energy regime the main contributers are π0 and η Dalitz decays. Both mesons have a dominant decay into two real photons and have been reconstructed successfully in this channel. Since HADES has no electromagnetic calorimeter the mesons can not be identified in this decay channel directly. In this thesis the capability of HADES to detect e+ e− pairs from conversions of real photons is demonstrated.
Therefore not only the conversion probability but also the resulting efficiencies are shown. Furthermore, the reconstruction method for neutral mesons will be explained and the resulting spectra are interpreted. The measurement of neutral pions is compared to the independent measured charged pion distribution, and
extrapolated to full phase space. An integrated approach is used to determine the η yield. Both measurement are compared to the world data and to theory model claculations. Finally, the measurements will be used together with the reconstructed dilepton spectra to determine the amount and the properties of in medium radiation in the Au+Au system.
Bohmian mechanics as formulated originally in 1952, has been useful in the implementation of numerical methods applied to quantum mechanics. The scientific community though has had ever since a critical thought about it. Therefore, there are still points to be clarified and rectified. The two main problems are basically: Bohmian mechanics gives a privilege role to the position representation. Secondly, the current interpretation of Bohmian trajectories has been recently proven wrong.
In this context, in Chapter 2, new complex Bohmian quantities are defined; so that they allow the capacity to formulate Bohmian mechanics in any arbitrary continuous representation, for instance, the momentum representation. This Chapter is fully based on two articles, regarding the proposed complex Bohmian formulation and its extension into momentum space.
Chapter 3 deals with a redefinition and reinterpretation of the Bohmian trajectories from the handling of the continuity equation, this is done without any need of additional postulates or interpretations. Also, it is proved that Bohmian mechanics is actually more than a projective aspect of the Wigner function.
As a third point, Chapter 4 presents a sytematic treatment of the hydrodynamic scheme of Bohmian mechanics. Then, a brief summary of the transport equations in Bohmian mechanics is done. Next, a unified hydrodynamic treatment is found for the Bohmian mechanics. This treatment is useful to sketch, a Bohmian treatment to efficiently find the steady value of the transmission integral.
In Chapter 5 conclusions of this thesis are drawn.
Die vorliegende Arbeit soll einen Beitrag zur Erforschung der Verarbeitungsmechanismen des Gehirns leisten. Die Erregung des komplexen Systems "Hirn" liefert Antworten, deren Analyse zu einem besseren Verständnis dieser Informationsverarbeitung führt. Zu diesem Zweck wurde das Gehirn mit unterschiedlichen visuellen Stimuli angeregt und die hirnelektrischen Signale gemessen, die von Nervenzellgruppen (Multiunits) im visuellen Kortex der Katze ausgesandt wurden.Die verwendeten Stimuli waren ein Streifenmuster sowie eine Zufallspunktverteilung, deren Kohärenz beliebig geändert werden konnte. Darüber hinaus wurden die Antworten auf eine Vielzahl von Stimuli analysiert, die nur aufgrund des Bewegungskontrastes zwischen punktdefiniertem Objekt und Hintergrund zu erkennen sind (Shape-from-Motion- (SFM-) Stimuli). Die aufgenommenen Daten wurden mit Hilfe einer umfangreichen Signalanalyse untersucht. So wurden in Abhängigkeit von der Stimulusbedingung die Anzahl der Nervenimpulse pro Zeiteinheit (Feuerraten), Synchronisation, Frequenzverteilung sowie Kopplung von Aktionspotenzialen und LFPDaten analysiert. Die Experimente im ersten Teil dieser Arbeit untersuchten den Einfluss von Kohärenz auf die Verarbeitung von Bewegungsinformation im primären visuellen Areal (A17) und im posteromedialen lateralen suprasylvischen Sulcus (Area PMLS) der Katze. Es konnte gezeigt werden, dass Multiunits in A17 und PMLS sowohl auf Streifenmuster als auch auf Zufallspunktverteilungen antworten und dass die Stärke der Antwort als eine Funktion der Stimulusrichtung variiert. Die Vorzugsrichtung ist in beiden Arealen weitgehend unabhängig von der Art des verwendeten Stimulus, was darauf hindeutet, dass die Stimulusrichtung für Streifenmuster und Zufallspunktmuster in diesen Arealen durch einen einheitlichen Mechanismus bestimmt wird. Bei einer Abnahme der Stimuluskohärenz zeigen die Multiunits eine Abnahme der Feuerrate, wobei im Vergleich zu PMLS in A17 eine stärkere Abnahme der Kohärenz nötig ist, um die gleiche Abnahme der Feuerrate zu erreichen. Dieses Ergebnis konnte durch die unterschiedlichen Größen der rezeptiven Felder der beiden Areale erklärt werden und ist ein weiterer Hinweis darauf, dass eine wichtige Funktion von PMLS in der Analyse von Bewegung und räumlich verteilter Information liegt. Da beide Areale keine signifikante Änderungen der Feuerrate bei Inkohärenzniveaus von mehr als 50% zeigten, scheinen sie nicht in der Lage zu sein, die Bewegungsrichtung eines inkohärenten Zufallspunktmusters nahe der psychophysischen Detektionsschwelle von 95% auf der Basis von Feuerraten zu erkennen. Die Korrelation der Aktionspotenziale unterschiedlicher Multiunits zeigte bereits bei einer geringen Abnahme der Stimuluskohärenz eine monotone Verbreiterung des zentralen Maximums in den Korrelogrammen beider Areale. Die Stärke der Synchronisation hingegen war kaum beeinflusst. Darüberhinaus kam es zu einer Verschiebung der Leistung im lokalen Feldpotential (LFP) von hohen hin zu niedrigen Frequenzbereichen. Diese Verschiebung wurde auch für die Kopplung zwischen LFP und Akvi tionspotenzialen nachgewiesen. Diese Resultate unterstützen die Theorie, dass präzise Synchronisation und hochfrequente Oszillationen ein Mechanismus für die Bindung kohärenter Objekte sind. Sie zeigen darüber hinaus, dass Synchronisation auch nicht kohärente Stimuli binden kann und dass die Verschiebung im LFP hin zu niedrigeren Frequenzen wichtig für die Integration verteilter Information über einen größeren visuellen Raum sein kann. Da bei hohen Inkohärenzniveaus keine präzise Synchronisation mehr nachgewiesen werden konnte, kann jedoch auch die Synchronisation nicht als alleiniger Mechanismus zum Erkennen einer Bewegungsrichtung eines inkohärenten Zufallspunktmusters herangezogen werden. In den Experimenten im zweiten Teil dieser Arbeit wurde untersucht, wie das Gehirn SFM-Stimuli verarbeitet. Die Auswertungen der Feuerraten haben gezeigt, dass Multiunits in PMLS sowohl auf helligkeitsdefinierte Kontrastbalken als auch auf SFM-Balken reagieren. Die Stärke der Antwort hängt von der Kombination von Stimulus und Hintergrund und von der relativen Bewegungsrichtung zueinander ab. Während ähnliche Feuerraten für Balken mit hohem Kontrast relativ zum Hintergrund und für punktdefinierte Balken gefunden wurde, die sich über einen dunklen Hintergrund bewegten, führte ein statischer Zufallspunkthintergrund zu einer starken Abnahme der von dem SFM-Balken hervorgerufenen Antwort. Ein in die Gegenrichtung bewegter Hintergrund sowie ein reduziertes Kohärenzniveau des Zufallspunkthintergrundes führten dazu, dass die Multiunits auf den SFM- Balken nicht mehr mit einer Zunahme der Feuerraten reagierten. Um die hemmende Wirkung des Hintergrundes aufzuheben, musste der Hintergrund auf einer Fläche des visuellen Feldes, die der Größe des rezeptiven Feldes entsprach, abgedeckt werden. Dieses Ergebnis zeigt, dass die Feuerraten für diese Art Stimulus nicht wesentlich von Arealen außerhalb des rezeptiven Feldes beeinflusst werden. Zur weiteren Analyse der Fähigkeit von PMLS, SFM-Balken nur aufgrund des Bewegungskontrastes zwischen punktdefiniertem Objekt und Hintergrund zu erkennen, wurde mit Hilfe von zwei Tuningkurven-Stimuli, bei denen sich die Bewegungsrichtung der Punkte innerhalb des Balkens um 90° unterschied, die Vorzugsrichtung der Multiunits bestimmt. Die Auswertung ergab, dass sich die gemessene Vorzugsrichtung der Multiunit um 45° drehte, obwohl sich die Bewegungsrichtung des Balkens selbst nicht änderte. Darüber hinaus wurden verschiedene SFM-Stimuli untersucht, die alle dieselbe Bewegungsrichtung des Balkens, jedoch unterschiedliche Bewegungsrichtungen der Punkte innerhalb des Balkens aufwiesen. Wenn PMLS die Bewegung des SFM-Objekts statt der Bewegung der einzelnen Punkte verarbeitet, sollte die Feuerrate für alle diese Bedingungen identisch sein. Die Ergebnisse zeigen jedoch, dass sich die durch die verschiedenen SFM-Stimuli hervorgerufenen Feuerraten verringerten, je weiter sich die Punkte, die den Balken bildeten, von der Bewegungsrichtung des Balkens – und damit von der Vorzugsrichtung der Multiunit – weg bewegten. Durch dieses Ergebnis konnte gezeigt werden, dass Multiunits in PMLS nicht in der Lage sind, die Richtung von kinetisch definierten Balken zu analysieren und statt dessen nur die Bewegung der einzelnen Komponenten erfassen.
This thesis investigates second-order relativistic hydrodynamics and transport coefficients in strongly correlated systems. Our focus is mainly on the physical conditions relevant to heavy-ion collisions, as well as compact dense stellar objects at nonzero temperatures and in strong magnetic fields.
Chapter 1 provides a brief introduction to the area of research covered by this thesis, specifically relativistic hydrodynamics and transport in hot and dense media, which occur in heavy-ion collisions and heated stellar matter.
In Chapter 2 we give a new formulation of second-order dissipative hydrodynamics for relativistic systems using Zubarev's non-equilibrium statistical operator approach. We first solve the quantum Liouville equation with an infinitesimal source term to construct a non-equilibrium statistical operator which is a non-local functional of the thermodynamic parameters and their space-time gradients. Exploiting then the gradient expansion of the statistical operator we derive transport equations for the shear stress tensor, the bulk viscous pressure and the flavour diffusion currents up to the second order in hydrodynamic gradients.
We show that the second-order corrections to the dissipative fluxes arise from (i) the quadratic terms of the Taylor expansion of the statistical operator; and (ii) the linear terms which are nonlocal in space and time. These non-local corrections generate finite relaxation time scales in the evolution of the dissipative quantities. We derive the most generic form of the transport equations which involve gradients of the dissipative fluxes, as well as products of two first-order quantities (i.e., either thermodynamic forces or dissipative fluxes). We then go on to express the first- and the second-order transport coefficients, which appear in these equations, via certain two- and three-point equilibrium correlation functions. Finally, we express the relaxation times for the dissipative fluxes via the frequency-derivatives of the corresponding first-order transport coefficients.
In Chapter 3 we compute the transport coefficients of quark matter in the strong coupling regime within the two-flavor Nambu-Jona-Lasinio model. We apply the Kubo-Zubarev formalism to obtain the thermal and the electrical conductivities as well as the shear and the bulk viscosities by evaluating the corresponding equilibrium two-point correlation functions at the leading order in the 1/N_c expansion. In this approximation the conductivities and the shear viscosity are given by single-loop skeleton diagrams, whereas the bulk viscosity includes an infinite geometrical series of multi-loop diagrams. The dispersive effects that lead to nonzero transport coefficients arise from quark-meson fluctuations above the Mott transition temperature T_M, where meson decay into two on-mass-shell quarks is kinematically allowed.
We find that the conductivities and the shear viscosity are decreasing functions of temperature and density above T_M. We also show that the Wiedemann-Franz law does not hold. The ratio of the shear viscosity to the entropy density is larger than unity close to the Mott temperature and approaches the AdS/CFT bound at higher temperatures. We conjecture on the basis of the uncertainty principle that the ratio of the thermal conductivity to the heat capacity per unit volume is bounded from below by 1/18.
The case of the bulk viscosity turns out to be special, because the multi-loop contributions dominate the single-loop contribution close to the Mott line in the case where the chiral symmetry is explicitly broken. We find that in this case only at high temperatures the one-loop contribution becomes dominant. The resulting bulk viscosity exceeds the shear viscosity close to the Mott temperature by factors 5-20 when multi-loop contributions are included. In the high-temperature domain the bulk viscosity is negligible compared to the shear viscosity. For practical applications we provide simple, but accurate fits to the transport coefficients, which can facilitate the implementation of our results in hydrodynamics codes.
In Chapter 4 we compute the electrical conductivity of finite temperature, strongly magnetized crust of a compact star which may be formed in the aftermath of a supernova explosion, binary neutron star merger, or during accretion processes in X-ray binaries. We focus on the temperature-density regime where plasma is in the liquid state and, therefore, the conductivity is dominated by the electron scattering off correlated nuclei. The dynamical screening of electron-ion interaction is implemented in terms of the polarization tensor computed in the hard-thermal-loop (HTL) effective field theory of QED plasma. The correlations of the background ionic component are accounted for via a structure factor derived from Monte Carlo simulations of one-component plasma.
With this input we solve the Boltzmann kinetic equation in relaxation time approximation taking into account the anisotropy of transport due to the magnetic field. The electrical conductivity tensor is studied numerically as a function of temperature, density, magnetic field and the crust composition in a broad parameter range. We find that the conductivity as a function of temperature attains a minimum at the transition from the degenerate to the nondegenerate regime of electrons. We also provide accurate fit formulas to our numerical results for three components of the conductivity tensor. In addition, we provide supplemental tables which can be used in dissipative magneto-hydrodynamics(MHD) simulations of warm compact stars.
We summarize our results and discuss the perspectives in Chapter 5.
Die Entwicklung der Renormierungsgruppen-Technik, die in ihrer feldtheoretischen Version auf Ideen von Stückelberg und Petermann und in der Festkörperphysik auf K.G. Wilson zurückgeht, hat wesentliche Einsichten in die Natur physikalischer Systeme geliefert. Insbesondere das Konzept der so genannten Universalitätsklassen erhellt, warum Systeme, die durch scheinbar sehr verschiedene Hamilton-Operatoren beschrieben werden, doch im Wesentlichen die selbe (Niederenergie-)Physik zeigen. Ein weiterer Grund für den Erfolg dieser Methode liegt darin begründet, dass sie in systematischer Weise unendlich viele Feynman-Diagramme aufsummiert und somit über konventionelle Störungstheorie hinaus geht. Dies spielt in der Festkörperphysik vor allem dann eine wichtige Rolle, wenn das vorliegende physikalische System stark korreliert ist. Entsprechend der Vielzahl von Anwendungsmöglichkeiten hat sich in den vergangenen Jahrzehnten eine große Bandbreite verschiedener Formulierungen der Renormierungsgruppen-Technik ergeben. Eine davon ist die sogenannte funktionale Renormierungsgruppe, die auf Wegner und Houghton zurück geht und die auch in der vorliegenden Arbeit benutzt und weiter entwickelt wurde. Wir haben hier insbesondere auf die Einbeziehung der wichtigen Reskalierungsschritte wertgelegt. Als erstes Anwendungsgebiet des neu entwickelten Formalismus wurden stark korrelierte Elektronen in einer Raumdimension ausgewählt und hier insbesondere ein Modell, das als Tomonaga-Luttinger-Modell (TLM) bezeichnet wird. Im TLM wechselwirken Elektronen mit einer strikt linearen Energiedispersion ausschließlich über so genannte Vorwärtsstreu-Prozesse. Aufgrund der Linearisierung der Energiedispersion nahe der Fermipunkte ergibt sich ein Modell, das z.B. mit Hilfe der so genannten Bosonisierungs-Technik exakt gelöst werden kann. Hauptziel der vorliegenden Arbeit ist es, die bekannte Spektralfunktion dieses Modells unter Verwendung des Renormierungsgruppen-Formalismus zu reproduzieren. Gegenüber der bisherigen Implementierung der Renormierungsgruppe, bei der lediglich der Fluss einer endlichen Anzahl von Kopplungskonstanten betrachtet wird, stellt die Berechnung des Flusses ganzer Korrelationsfunktionen eine enorme Erweiterung dar. Der Erfolg dieser Herangehensweise im TLM bestärkt die Hoffnung, dass es in Zukunft auch möglich sein wird, die Spektralfunktionen anderer Modelle mit dieser Methode zu berechnen, bei denen herkömmliche Techniken versagen.
In der nuklearen Astrophysik sind Experimente mit hochgeladenen Radionukliden von großer Bedeutung. Diese exotischen Nuklide können in Schwerionenbeschleunigeranlagen hergestellt und in Speicherringen gespeichert werden. Momentan existieren weltweit zwei Anlagen, die solche Experimente ermöglichen: das GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt und das Institut für moderne Physik (IMP) in Lanzhou, China. Da die Ausbeute dieser Nuklide gering ist, werden zerstörungsfreie Nachweismethoden in den Speicherringen verwendet. Diese machen von den Methoden der Spektralanalyse Gebrauch. Nicht nur die geringe Ausbeute, sondern auch die kurze Lebensdauer dieser Nuklide stellen hohe Anforderungen an die Sensitivität und Geschwindigkeit dieser Detektoren.
Eine übliche Methode ist die Verwendung kapazitiver Schottky-Sonden. Eine solche Sonde ist seit 1991 an der GSI im Speicherring ESR im Einsatz. Um die Empfindlichkeit zu erhöhen, kann man Mikrowellenkavitäten als resonante Pickups verwenden. Die von den Teilchen induzierten elektromagnetischen Felder können resonante Moden im Resonator anregen. Die Geometrie des Pickups und das verwendete Material spielen eine wesentliche Rolle in der Gestaltung der Feldbilder. Die resultierenden Signale, auch Schottky Signale genannt, werden mittels einer Antenne ausgekoppelt und anschliessend an einen Spektrumanalysator angeschlossen. Für die Analyse der gespeicherten Daten können verschiedene Methoden der Spektralschätzung wie z.B. das Multi-Taper angewendet werden. Nachdem eine externe Kalibrierung durchgeführt worden ist, kann das Pickup auch als ein Stromsensor verwendet werden.
Diese Arbeit befasst sich mit der Theorie, dem Aufbau und ersten Anwendungen eines neuen resonanten Pickups, das im Jahr 2010 in den Speicherring ESR eingebaut und in mehreren Experimenten erfolgreich eingesetzt wurde. Ein ähnliches Pickup wurde im Jahr 2011 in den CSRe im IMP Lanzhou eingebaut. Einzelne Schwerionen mit 400 MeV pro Nukleon wurden erfolgreich mit dem GSI-Pickup nachgewiesen. Das Pickup wird regelmässig in Speicherringexperimenten eingesetzt. Ähnliche Experimente sind für CSRe in Lanzhou geplant.
Das zeitdiskrete Rohrmodell besitzt für die Modellierung der menschlichen Sprachproduktion eine wichtige theoretische und praktische Bedeutung, da es ein mathematisch handhabbares Modell darstellt und zugleich eine vereinfachte akustische Beschreibung des Sprechtraktes beinhaltet. Dies ist einerseits begründet durch die modellhafte Beschreibung der Ausbreitung von ebenen Wellen durch den Sprechtrakt und andererseits in der Darstellung des Rohrmodells als zeitdiskretes lineares System. Erst durch die Verfügbarkeit von adäquaten Schätzalgorithmen, welche die Modellparameter aus dem Sprachsignal bestimmen, ist das Rohrmodell für Anwendungen in der Sprachverarbeitung interessant. Diese liegen allerdings nur für die einfachsten unverzweigten Rohrmodelle vor, welche den Sprechtrakt nur stark vereinfacht modellieren. Für erweiterte Rohrmodelle existieren nur in eingeschränkter Weise adäquate Schätzalgorithmen, mit denen die Modellparameter aus dem Sprachsignal geschätzt werden können. Daher wird mit dieser Arbeit versucht diesen Mißstand aufzulösen, wofür Schätzalgorithmen auch für erweiterte Rohrmodelle entwickelt und vorgestellt werden. Die Erweiterungen des Rohrmodells beziehen sich auf Rohrverzweigungen, die auch mehrfach auftreten können, und Rohrabschlüsse, die frequenzabhängig oder zeitvariabel sein können. Zusätzlich werden Sprechtraktmodelle behandelt, die zwei Systemausgänge aufweisen. Dies wird für Analysen von getrennt aufgenommenen Mund- und Nasensignalen von nasalierten Lauten diskutiert, um die Lippen- und Nasenabstrahlung einzeln zu berücksichtigen. Ebenso werden verzweigte Modelle mit zwei Systemausgängen für eine Beschreibung des Nasaltraktes unter Berücksichtigung der beiden Nasengänge behandelt. Die Erweiterungen des Rohrmodells durch Verzweigungen und angepaßte Rohrabschlüsse ermöglichen eine genauere Beschreibung des Sprechtraktes infolge der Verzweigungen durch den Nasaltrakt und infolge der Abschlüsse an den Lippen, Nasenlöchern und der Glottis. Die Parameterbestimmung wird durch Minimierung eines Fehlers durchgeführt, welcher ein spektrales Abstandsmaß zwischen dem Rohrmodell und dem analysierten Sprachsignal darstellt. Für die Definition des Fehlers wird die inverse Filterung herangezogen, welche eine Leistungsminimierung des Ausgangssignals des inversen Systems beinhaltet. Dabei hat sich gezeigt, daß die Fehlerdefinition der inversen Filterung modifiziert werden muß, um auch erfolgreich auf erweiterte Rohrmodelle angewendet werden zu können. Die Modifikation kann für erweiterte Rohrmodelle einheitlich für den zeitinvarianten und zeitvariablen Fall vorgestellt werden. Über den allgemeinen Ansatz der Schätzung hinaus werden auch effiziente Schätzverfahren für ausgewählte Rohrstrukturen und allgemeine Pol-Nullstellen-Systeme vorgestellt. Die diskutierten Schätzverfahren ermöglichen eine gute Approximation der Sprachspektren durch die Modellbetragsgänge. Darüber hinaus konnte auch gezeigt werden, daß durch entsprechende Rohrmodellstrukturen und eine geeignete Vorverarbeitung des Sprachsignals realistische Querschnittsflächen des Sprechtraktes geschätzt werden können. Daher eignen sich die erweiterten Sprechtraktmodelle auch für die Sprachproduktion. In Synthesebeispielen wurden Lautübergänge auf der Basis von geschätzten Vokaltraktflächen realisiert und in Resynthesebeispielen mittels unverzweigter Rohrmodelle wurde insbesondere die Anregung der Modelle diskutiert. Daß durch die Verwendung von Rohrmodellen auch Lauttransformationen möglich sind, zeigt die vorgestellte künstliche Nasalierung von Sprachsignalen unnasalierter Laute, welche mittels verzweigter Rohrmodelle und Analysen von getrennt aufgenommenen Mund- und Nasensignalen erreicht werden konnte.
Terahertz (THz) technology is an emerging field that considers the radiation between microwave and far-infrared regions where the electronic and photonic technologies merge. THz generation and THz sensing technologies should fill the gap between photonics and electronics which is defined as a region where THz generation power and THz sensing capabilities are at a low technology readiness level (TRL). As one of the options for THz detection technology, field-effect transistors with integrated antennae were suggested to be used as THz detectors in the 1990s by M. Dyakonov and M. Shur from where the development of field-effect transistor-based detector began. In this work, various FET technologies are presented, such as CMOS, AlGaN/GaN, and graphene-based material systems and their further sensitivity enhancement in order to reach the performance of well-developed Schottky diode-based THz sensing technology. Here presented FET-based detectors were explored in a wide frequency range from 0.1 THz up to 5 THz in narrowband and broadband configurations.
For proper implementation of THz detectors, the well-defined characterization is of high importance. Therefore, this work overviews the characterization methods, establishes various definitions of detector parameters, and summarizes the state-of-the-art THz detectors. The electrical, optical, and cryogenic characterization techniques are also presented here, as well as the best results obtained by the development of the characterization methods, namely graphene FET stabilization, low-power THz source characterization for detector calibration, and technology development for cryogenic detection.
Following the discussion about the detector characterization, a wide range of THz applications, which were tested during the last four years of Ph.D. and conducted under the ITN CELTA project from HORIZON2020 program, are presented in this work. The studies began with spectroscopy applications and imaging and later developed towards hyperspectral imaging and even passive imaging of human body THz radiation. As various options for THz applications, single-pixel detectors as well as multi-pixel arrays are also covered in this work.
The conducted research shows that FET-based detectors can be used for spectroscopy applications or be easily adapted for the relevant frequency range. State-of-the-art detectors considered in this work reach the resonant performance below 20 pW/√Hz at 0.3 THz and 0.5 THz, as well as 404 pW/√Hz cross-sectional NEP at 4.75 THz. The broadband detectors show NEP as low as 25 pW/√Hz at around 0.6 THz for the best AlGaN/GaN design and 25 pW/√Hz around 1 THz for the best CMOS design. As one of the most promising applications, metamaterial characterization was tested using the most sensitive devices. Furthermore, one of the single-pixel devices and a multi-pixel array were tested as an engineering solution for a radio astronomy system called GREAT in a stratosphere observatory named SOFIA. The exploration of the autocorrelation technique using FET-based devices shows the opportunity to employ such detectors for direct detection of THz pulses without an interferometric measurement setup.
This work also considers imaging applications, which include near-field and far-field visualization solutions. A considerable milestone for the theory of FET technology was achieved when scanning near-field microscopy led to the visualization of plasma (or carrier density) waves in a graphene FET channel. Whereas another important milestone for the THz technology was achieved when a 3D scan of a mobile phone was performed under the far-field imaging mode. Even though the imaging was done through the phone’s plastic cover, the image displayed high accuracy and good feature recognition of the smartphone, inching the FET-based detector technology ever so close to practical security applications. In parallel, the multi-pixel array testing was carried out on 6x7 pixel arrays that have been implemented in configurable-size aperture and imaging configurations. The configurable aperture size allowed the easier detector focusing procedure and a better fit for the beam size of the incident radiation. The imaging has been tested on various THz sources and compared to the TeraSense 16x16 pixel array. The experimental results show the big advantage of the developed multi-pixel array against the used commercial technology.
Furthermore, two ultra-low-power applications have been successfully tested. The application on hyper-frequency THz imaging tested in the specially developed dual frequency comb and our detector system for 300 GHz radiation with 9 spectral lines led to outstanding imaging results on various materials. The passive imaging of human body radiation was conducted using the most sensitive broadband CMOS detector with a log-spiral antenna working in the 0.1 – 1.5 THz range and reaching the optical NEP of 42 pW/√Hz. The NETD of this device reaches 2.1 K and overcomes the performance limit of passive room-temperature imaging of the human body radiation, which was less than 10 K above the room temperature. This experiment opened a completely new field that was explored before only by the multiplier chain-based or thermal detectors.
...
Folgend auf den ersten Realisierungen von Bose-Einstein Kondensaten erschienen weitere innovative Experimente, die sich in den optischen Gittern gefangenen Quantengasen widmeten. In diesen zahlreichen, wissenschaftlichen Untersuchungen konnten die Eigenschaften von Bose-Einstein Kondensaten besser verstanden werden. Das Prinzip von Vielteilchensystemen, gefangen in einem periodischen Potential, bot eine Plattform zur Untersuchung weiterer Quantenphasen.
Eine konzeptionell einfache Modifikation von solchen Systemen erhält man durch die Kopplung der Grundzustände der gefangenen Teilchen an hoch angeregten Zuständen mithilfe einer externen Lichtquelle. Im Falle dessen, dass diese Zustände nahe der Ionisationsgrenze des Atoms liegen, spricht man von Rydberg-Zuständen und Atome, welche zu diesen Zuständen angeregt werden, bezeichnet man als Rydberg-Atome. Eines der vielen charakteristischen Eigenschaften von Rydberg-Atomen ist die Fähigkeit über große Entfernungen jenseits der atomaren Längenskalen zu wechselwirken. Im Rahmen von Vielteilchensystemen wurden dementsprechend Kristallstrukturen aus gefangenen Rydberg-Atomen experimentell beobachtet.
Nun stellt sich die Frage, was mit einem gefangenen Bose-Einstein Kondensat passiert, dessen Teilchen an langreichweitig wechselwirkenden Zuständen gekoppelt sind. Gibt es ein Parameterregime, in dem sowohl Kristallstruktur als auch Suprafluidität in solchen Systemen koexistieren können? Dies ist die zentrale Frage dieser Arbeit, die sich mit der Theorie von gefangenen Quantengasen gekoppelt an Rydberg-Zuständen auseinandersetzt.
In dieser Arbeit werden mit Hilfe von Röntgenstreuung Polymere untersucht, die auf molekularer Ebene eine lamellenartige Schichtstruktur aufweisen. Diese Ordnung wird bei hohen Temperaturen zerstört, das Polymer wandelt sich in eine homogene Schmelze um. Ziel dieser Arbeit ist es, die Ursachen dieser Phasenumwandlung, d.h. ihre treibenden Kräfte zu erforschen. Hierzu werden mehrere Polymere verschiedener Zusammensetzung untersucht und der Einfluss von mechanischem "Stress" auf die Phasenumwandlung überprüft. Die untersuchte Polymerklasse ist ein sogenanntes Diblockcopolymer , d.h. die Polymermoleküle bestehen aus jeweils zwei linearen Polymerkettenstücken verschiedener Polymersorten (hier: {\em Polystyrol} und {\em Polybutadien}), die "Kopf an Kopf" miteinander verbunden sind. Durch diese molekulare Verbindung ist eine Auftrennung auf makroskopischem Massstab, etwa vergleichbar der Entmischung von "Ol und Wasser, nicht möglich. Mikroskopisch kann das Polymer durch eine günstige Ausrichtung der Moleküle zueinander die Kontakte zwischen den Polystyrol- und Polybutadien-Teilketten minimieren. Diese Abnahme der Gesamt-Wechselwirkungsenergie führt zum Aufbau einer lamellaren Struktur und bedeutet gleichzeitig eine Absenkung der Entropie. Bei Erhöhung der Temperatur kann der entropische Beitrag zur freien Energie dominant werden, d.h. die Ordnung wird zerstört. Die Experimente wurden am Max-Planck-Institut für Polymerforschung in Mainz unter Betreuung von Herrn Prof. Dr. Manfred Stamm (inzwischen an der Universität Dresden) durchgeführt. Dort wurden die Polymere synthetisiert und eine vorhandene Röntgenkleinwinkelstreuanlage für die hier vorgestellten Messungen genutzt. Weiterhin wurde eine Scherapparatur so umgebaut, dass die gleichzeitige Messung von Scherung und Röntgenkleinwinkelstreuung im Time-Slicing-Verfahren möglich war. Im Rahmen dieser Arbeit wurde ein Röntgendetektor entwickelt, der die korrelierte Datenerfassung von Scherung und Röntgenstreuung im Zeitmassstab deutlich unter einer Sekunde ermöglicht. Die hier vorgestellten Experimente gliedern sich zum einen in statische Röntgenmessungen an verschiedenen Polymersystemen, welche die Temperaturabhängigkeit der inneren, molekularen Struktur untersucht, bei der Umwandlung von der lamellenartigen Schichtstruktur zur homogenen Schmelze und umgekehrt. Hierbei zeigen sich keine Hystereseeffekte und eine gute Übereinstimmung mit {\em MC-CMA}-Simulationen. Die einzelne Polymerkette wird beim Phasenübergang leicht gestreckt. Die beobachteten Phänomene werden durch feldtheoretische Modelle nicht vollständig wiedergegeben. Zum anderen wird der Einfluss von mechanischem "Stress" in Form einer oszillatorischen Verscherung auf diese Umwandlung und bei Temperaturen nahe dieser Umwandlung untersucht. Der anisotrope Aufbau der lamellenartigen Schichtstruktur bewirkt ein stark nichtlineares mechanisches Verhalten des Polymers, das mit dem Aufbau einer Vorzugsorientierung der Lamellen zur Richtung der Verscherung einher geht. Die Kinetik dieser Orientierungsphänomene wurde mit Hilfe der Röntgenkleinwinkelstreuung während der mechanischen Beanspruchung gemessen. Es ergibt sich innerhalb der Messungenauigkeit von 1-2\,K keine Erhöhung der Umwandlungstemperatur. Abhängig von den Scherparametern zeigen sich knapp unterhalb der Umwandlungstemperatur unterschiedliche Vorzugsorientierungen, deren zeitliche Abfolge irreversibel ist. Für das Auftreten der verschiedenen Vorzugsorientierungen zum Scherfeld werden verschiedene Parameter auf unterschiedlichen Größenskalen verantwortlich gemacht. Das komplexe Zusammenwirken dieser strukturellen Details kann durch die mechanische Beanspruchung "getestet" werden. Der Aufbau einer langreichweitigen Ordnung wird durch die externen Kräfte beschleunigt.
The topic of this thesis is the investigation of scalar tetraquark candidates from lattice QCD. It is motivated by a previous study originating in the twisted mass collaboration. The initial tetraquark candidate of choice is the $a_0(980)$, an isovector in the nonet of light scalars ($J^P=0^+$). This channel is still poorly understood. It displays an inverted mass hierarchy to what is expected from the conventional quark model and the $a_0(980)$ and $f_0(980)$ feature a surprising mass degeneracy. For this reasons the $a_0(980)$ is a long assumed tetraquark candidate in the literature.
We follow a methodological approach by studying the sensitivity of the scalar spectrum with fully dynamical quarks to a large basis of two-quark and four-quark creation operators. Ultimately, the candidate has to be identified in the direct vicinity of two two-particles states, which is understandably inevitable for a tetraquark candidate. To succeed in this difficult task two-meson creation operators are essential to employ in this channel. By localized four-quark operators we intend to probe the Hamiltonian on eigenstates with a closely bound four-quark structure.
Wir haben uns in dieser Arbeit der möglichen Produktion Schwarzer Löcher in hochenergetischen Teilchenkollisonen unter Annahme einer Raumzeit mit großen Extra-Dimensionen gewidmet. Die Produktionsraten, die bei einer neuen fundamentalen Skala im Bereich Mf ~ 1 TeV zu erwarten sind, liegen für den LHC in der Größenordnung von ~ 10 hoch 8 Schwarzen Löchern pro Jahr. Diese hohe Anzahl begründet das Interesse an den Eigenschaften der produzierten Schwarzen Löchern und wirft die Frage auf, wie diese Objekte beobachtet werden können. Bei der Untersuchung der Eigenschaften dieser Schwarzen Löcher haben wir festgestellt, dass das Entstehen Schwarzer Löcher ab einer c.o.m.-Energie im Bereich der neuen Planck-Masse zu einer raschen Unterdrückung hochenergetischer Jets, wie sie in pp-Kollisionen entstehen, führt. Dies ist ein klares Signal und leicht zu beobachten. Unter Ansetzen des Mikrokanonischen Ensembles haben wir die Zerfallsrate der Schwarzen Löcher und ihre Lebensdauer berechnet. Es zeigt sich, dass diese Lebensdauer hoch genug ist, um ein zeitlich deutlich verzögertes Signal zu erhalten. Nimmt man an, dass die statistische Mechanik bis zur Größenordung Mf gülig bleibt, so gelangen die Schwarzen Löcher im Zuge ihrer Verdunstung in einen quasi-stabilen Zustand und ein Rest verbleibt. Die Lebenszeit ist von der Anzahl der Dimensionen abhängig und lässt so Rückschlüsse auf diesen Parameter zu. Im Falle (Mf ~ TeV, d > 5) liegt sie für Energien von ~ 10 TeV in der Größenordung 100 fm/c. Eine geometrische Quantisierung der Strahlung legt außerdem nahe, dass die Schwarzen Löcher nicht restlos verdampfen können, sondern ein stabiler Überrest verbleibt. Diese Ergebnisse sind in [202, 203, 205] veröffentlicht worden.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
Die Struktur der uns umgebenden Materie sowie die zwischen ihren Bestandteilen wirkenden Kräfte waren schon immer eine der zentralen wissenschaftlichen Fragestellungen. Nach den gegenwärtigen Erkenntnissen ist die uns umgebende Materie aus einigen wenigen Elementarteilchen aufgebaut; sechs Quarks und sechs Leptonen. Zwischen ihnen wirken vier fundamentale Kräfte; die starke, die schwache, die elektromagnetische und die Gravitationskraft. Dominierende Kraft zwischen Quarks ist auf kleinen Skalen, wie im Inneren von Nukleonen, die starke Kraft. Die sie beschreibende Theorie ist die Quantum Chromo Dynamic (QCD). Eine besondere Eigenschaft der QCD ist die Vorhersage, dass Quarks nur in gebundenen Zuständen auftreten, entweder als Paar (Mesonen) oder als Kombination aus drei Quarks (Baryonen). Tatsächlich wurden bisher keine freien Quarks experimentell gefunden. Dieses Phänomen wird als "confinement" bezeichnet. Es stellt sich die Frage, ob es möglich ist, einen Materiezustand zu erzeugen in welchem sich die Quarks in einem ausgedehnten Volumen wie freieTeilchen verhalten. Tatsächlich sagen theoretische Berechnungen einen solchen Zustand, das Quark-Gluon-Plasma, für sehr hohe Temperaturen und/oder Dichten voraus. Ultrarelativistische Schwerionenkollisionen sind die einzige derzeit bekannte Möglichkeit, die nötigen Temperaturen und Dichten im Labor zu erreichen. Erschwert wird die Interpretation des hierbei erzeugten Materiezustandes durch die Tatsache, dass im Experiment nur der hadronische Endzustand der Kollision beobachtet werden kann, auf Grund der sehr kurzen Zeitskala jedoch nicht die erzeugte Materie selbst. Trotzdem wurden inzwischen einige Observablen gemessen, die einen Rückschluss auf den Materiezustand in den frühen Phasen der Kollision zulassen. Die kombinierte Information legt die Bildung eines "deconfinten" Zustandes nahe. Eine dieser Proben ist die Produktion von schweren Quarkonia, d.h. Mesonen, die aus charm-anticharm (bzw. bottom-antibottom) Quarkpaaren bestehen. Wie in Kapitel 2 näher erläutert, kann von ihrer Produktion möglicherweise auf die in der Kollision erreichte Temperatur geschlossen werden. Das bisherige experimentelle Programm konzentrierte sich auf die Messung des J/Ã Mesons, dem 1S Zustandes des charm - anticharm Systems. Wie von der Theorie vorhergesagt, wurde eine Unterdrückung seiner Produktion in Schwerionenkollisionen relativ zur Produktion in Proton-Proton-Kollisionen beobachtet, z.B. vom Experiment NA50 am SPS Beschleuniger des Europäischen Zentrums für Teilchenphysik CERN, wie in Abbildung 2.2 gezeigt.Die Deutung dieser Meßdaten ist jedoch umstritten. Neben einer Interpretation im Rahmen des oben beschriebenen Modells können die Daten sowohl von hadronischen Modellen als auch von statistischen Hadronisierungsmodellen, die eine Bildung des cc Zustandes nicht in den initialen Partonkollisionen, sondern erst beim Übergang zum hadronischen Endzustand annehmen, beschrieben werden. Eine Möglichkeit, einzelne Modelle zu falsifizieren bzw. einige der Modellparameter weiter einzuschränken, besteht in der Messung anderer Quarkonia Zustände als dem J/Ã Meson. Hier wären zum einen die anderen Zustände der cc Familie zu nennen, z.B. das Âc(1P). Dieses ist jedoch durch seine Zerfallskanäle experimentell nur schwer nachzuweisen. Eine andere Möglichkeit bietet die Messung von Bindungszuständen zwischen bottom Quarks. Das bb System hat durch die grössere Massendifferenz zwischen dem ersten Bindungszustand, dem (1S), und der für die Erzeugung zweier Hadronen mit jeweils einem bottom und einem leichten Quark, wesentlich mehr Zustände als das cc System. Experimentell sind durch den Zerfallskanal in zwei Leptonen insbesondere die Upsilon gut nachzuweisen.Die Messung von Upsilons in ultrarelativistischen Schwerionenkollisionen ist jedoch experimentell äusserst herausfordernd. Durch die große Masse von circa 10 GeV/c2 ist die Produktionswahrscheinlichkeit sehr klein im Vergleich zu leichteren Teilchen, zum Beispiel dem nur 3.14 GeV/2 schwerem J/Ã. Der im Jahr 2000 in Betrieb genommene Relativistic Heavy Ion Collider (RHIC, siehe Kapitel 3.1) des Brookhaven National Laboratories (BNL) auf Long Island in der Nähe vonNew York erreicht zum ersten Mal eine ausreichend grosse Schwerpunktsenergie und Luminosit ät, welche eine Upsilon Messung möglich erscheinen lassen. Die Entwicklung des experimentellen Programms zur Messung von Upsilons mit dem STAR Detektor am RHIC und erste Ergebnisse aus der Strahlzeit der Jahre 2003/2004 werden in dieser Arbeit beschrieben. Herzstück des STAR Detektors, der in Kapitel 3.2 näher beschrieben wird, ist eine Time Projection Chamber (TPC) welche die Rekonstruktion geladener Teilchen in einem grossen Phasenraumbereich bei mittlerer Rapidität erlaubt. In den Jahren 2001 bis 2005 wurde das Experiment um elektromagnetische Kalorimeter (BEMC, EEMC) erweitert, mit welchen zusätzlich die Energie von Photonen und Elektronen bestimmt werden kann. Die verschiedenen Detektoren des STAR Detektorsystems können in zwei, durch ihre mögliche Ausleserate definierte, Klassen eingeteilt werden. Ein Teil der Detektoren wird bei jedem RHIC Bunch Crossing ausgelesen, d.h. mit einer Frequenz von 9.3 MHz. Zu dieser Klasse der sogenannten Triggerdetektoren gehören unter anderem das schon erwähnte elektromagnetische Kalorimeter, der Central Trigger Barrel (CTB), die Zero Degree Calorimeter (ZDC) und die Beam-Beam Counter (BBC). Die Time Projection Chamber und einige andere Detektoren, wie z.B. der Silicon Vertex Tracker (SVT), können im Gegensatz dazu nur mit maximal 100 Hz ausgelesen werden.
In der vorliegenden Arbeit wurden verschiedene Aspekte der starken Wechselwirkung in effektiven Modellen in selbstkonsistenten Vielteilchenresummationsverfahren, die mit Hilfe des Cornwall-Jackiw-Tomboulis-Formalismus (CJT) hergeleitet wurden, untersucht. Zum einen wurden in der vorliegenden Arbeit lineare Sigma-Modelle behandelt, die zur Beschreibung der chiralen Symmetrierestauration der starken Wechselwirkung herangezogen werden. Hierbei handelt es sich um die linearen Sigma-Modelle mit O(4)-, U(2)r × U(2)-, U(3)r × U(3)- und U(4)r × U(4)-Symmetrie. Diese linearen Sigma-Modelle wurden zur Berechnung der Meson-Massen und Quark-Kondensate in Abhängigkeit von der Temperatur herangezogen. Hierzu wurden die Meson-Massen und Kondensate selbstkonsistent im Rahmen der Hartree-Näherung berechnet, die wiederum mit Hilfe des CJT-Formalismus hergeleitet wurde. Dies führte zum Studium verschiedener Symmetriebrechungsmuster der chiralen Symmetrie in den verschieden linearen Sigma-Modellen, wie sie in Tabelle 1.1 dargestellt wurden. Als erstes Ergebnis wurde dann der Fall maximaler Symmetriebrechung, nämlich die explizite Symmetriebrechung in Anwesenheit der U(1)A-Anomalie, besprochen. Hierbei wurden alle untersuchten Modelle miteinander verglichen, um den Einfluß der unterschiedlichen Anzahl von Quark-Flavors Nf auf die erzielten Ergebnisse zu diskutieren. Beim Vergleich des linearen O(4)- mit dem U(2)r×U(2)-Modell wird eine Verdopplung der physikalischen Freiheitsgrads augenfällig: zusätzlich zum Sigma-Meson und den Pionen, die schon im O(4)-Modell vorhanden sind, treten noch das η-Meson und die a0-Mesonen. Dies führt dazu, daß in der chiral-restaurierten Phase die Mesonmassen stärker mit der Temperatur ansteigen. Der Grund hierfür sind die Tadpole-Beiträge der zusätzlichen Freiheitsgrade, zu den Mesonenselbstenergie beitragen und so zu einer Zunahme der Mesonmassen führen. Dies trifft auch zu, wenn man den Strange-Freiheitsgrad beim Übergang zum U(3)r × U(3)-Modell hinzufügt. Dies ist eine allgemeine Tatsache, solange die Massen der zusätzlichen Freiheitsgrade von der gleichen Größenordnung sind wie die Übergangstemperatur des chiralen Phasenüberganges. Das Hinzufügen des Charm-Freiheitsgrades im Rahmen eines U(4)r ×U(4)-Modells beeinflußt die Resultate für die bereits im U(3)r×U(3)-Modell vorhandenen Mesonen und Kondensate nicht wesentlich. Dies beruht letztendlich auf der großen Masse des Charm-Quarks, die weit über der Übergangstemperatur des chiralen Phasenüberganges liegt. In der Hartree-Näherung wird diesem Sachverhalt dadurch Rechnung getragen, daß die Tadpole-Beiträge der schwereren, das Charm-Quark enthaltenden Mesonen ex4.3 ponentiell mit der jeweiligen Mesonenmasse unterdrückt sind ~ exp(−M/T ). Umgekehrt ändern sich die Massen der das Charm-Quark enthaltenden Mesonen fast nicht gegenüber ihrem Vakuumwert auf der Temperaturskala, die für die chirale Symmetrierestauration eine entscheidende Rolle spielt. Dies beruht darauf, daß die Tadpole- Beiträge der anderen leichten, Mesonen klein sind für gegenüber den großen Vakuummassen der schweren, das Charm-Quark enthaltenden, Mesonen. Dieses Resultat entspricht den intuitiven Erwartungen, aber ist dennoch aus zweierlei Gründen nichttrivial: erstens sind die Gleichungen für die In-Medium-Massen im U(4)r × U(4)- Modell strukturell von denen im U(3)r × U(3)-Modell verschieden; zweitens stellen die gekoppelten Gleichungen für die Massen und Kondensate ein nichtlineares Gleichungssystem dar, was dazu führen könnte, daß auch kleine Störungen große Veränderungen der Lösung des Gleichungssystemes nach sich ziehen. Dann wurde sich dem Studium der expliziten chiralen Symmetriebrechung ohne U(1)A-Anomalie zugewandt. Der Hauptunterschied zum vorherigen Fall war, daß der Bereich des Phasenüberganges auf der Temperaturskala enger um die Übergangstemperatur konzentriert ist und der chirale Phasenübergang bei etwas kleineren Temperaturen einsetzt. Schließlich wurden die skalaren und pseudoskalaren Mesonen und die Quark-Kondensate im chiralen Limes untersucht. Die Hartree-Näherung sagt hierbei korrekterweise einen Phasenübergang erster Ordnung im Fall des U(2)r × U(2)-Modelles ohne U(1)A-Anomalie und im U(3)r×U(3)-Modell voraus. Im O(4)- und im U(2)r× U(2)-Modell mit U(1)A-Anomalie versagt allerdings die Hartree-Näherung: eigentlich sollte ein Phasenüberganges zweiter Ordnung auftreten, die Hatree-Näherung führt aber auch hier auch hier auf einen Phasenübergang erster Ordnung. Die Übergangstemperaturen sind überraschend nah an denjenigen die in Gittereichrechnungen vorhergesagt werden. Allerdings nimmt mit der U(1)A-Anomalie die Übergangstemperatur mit der Anzahl der Quarkflavors zu, wohingegen die Gittereichtheorie das umgekehrte Verhalten vorhersagt. Dieses Bild ändert sich in Abwesenheit der U(1)A-Anomalie. Hier stimmen die Vorhersagen für die Ordnung der Übergangstemperaturen mit der Anzahl der Quark-Flavors mit der QCD-Vorhersage überein. Dies mag ein Anzeichen dafür sein, daß die U(1)A-Symmetrie – zumindest partiell – in der Nähe der Übergangstemperatur des chiralen Phasenüberganges und darüberhinaus wiederhergestellt sein könnte. Zum anderen wurde die Wechselwirkung von Pionen und Rho-Mesonen im Medium untersucht. Dies wurde im Rahmen eines einfachen Pion-Rho-Vektormesondominanzmodelles vorgenommen. Für dieses Modell wurde eine selbstkonsistente Ein-Schleifen-Näherung für die Dyson-Schwinger-Gleichungen des Pions- und des Rho-Vektormesons hergeleitet. Die im Rahmen dieser Näherung den Dyson- Schwinger-Gleichungen äquivalenten selbstkonsistenten Integralgleichungen für die Spektraldichten und Selbstenergien wurden im CJT-Formalismus unter Verwendung der Saclay-Methode hergeleitet. Renormierungsfragen wurden durch die Beschränkung der Untersuchungen auf die Imaginärteile der Selbstenergien umgangen, damit treten in dieser Näherung keine Massenmodifikationen der Pionen oder des Rho-Vektormesons auf. Im Rahmen der Aufstellung der selbstkonsistenten Dyson- Schwinger-Gleichungen zeigte sich, daß eine Verletzung der Vierer-Transversalität des Selbstenergietensors der Rho-Vektormesons auftritt, die letztlich auf Verletzung der Eichsymmetrie des zugrundeliegenden Pion-Rho-Modells beruht. Dennoch konnte durch sachgerechte Eichung erreicht werden, daß der Tensor der Spektraldichte des Rho-Vektormesons auch in dieser Näherung vierer-transversal ist. Das so erhaltene Integralgleichungssystem wurde numerisch auf einem Energie- und Impulsgitter gelöst. Die Spektraldichten und Selbstenergien der Pionen sowie die Komponenten der Spektraldichten und Selbstenergien des Rho-Mesons wurden hiermit selbstkonsistent bestimmt. Eine sehr interessante Eigenschaft im Vergleich zu perturbativen Ein-Schleifen-Rechnungen in diesen Modellen ist, daß die räumlich-longitudinale und räumlichtransversale Komponente der Spektraldichte des Rho-Vektormesons auch für invariante Massen pP2 unterhalb der Zwei-Pionen-Schwelle pP2 < 2mPion nicht-verschwindende Beiträge erhalten. Dies rührt daher, daß nun in den Integralgleichungen für die Selbstenergiekomponenten des Rho-Mesons die pionische Spektralfunktion im Medium prinzipiell alle Energieanregungen mit einem thermischen Gewichtsfaktor zugänglich macht. Das Schwellenverhalten ist also ein Artefakt der perturbativen Ein-Schleifen-Näherung. Die selbstkonsistenten Spektraldichten des Rho-Meson wurden zur Berechnung der statischen, thermischen Dileptonenproduktionsrate herangezogen. Es ergab sich, daß aufgrund dieses Aufweichens der Zwei-Pion-Schwelle eine erhebliche Erhöhung der statischen Dileptonenproduktionsrate im Vergleich zur perturbativen Ein-Schleifen-Näherung im Bereich von invarianten Massen zwischen 300MeV < pP2 < 700MeV eintritt. Auch das in perturbativen Rechnungen auftretende Maximum im Bereich invarianter Massen von 700MeV < pP2 < 900MeV in der Dileptonenproduktionsrate ist aufgrund der Stoßverbreiterung in den Ergebnissen der selbstkonsistenten Rechnungen nicht mehr auszumachen. Insbesondere zeigt sich hier auch, daß eine rein perturbative Behandlung stark wechselwirkender Systeme bei endlichen Temperaturen und Dichten a priori nicht ausreichend für ein angemessenes physikalisches Verständnis der auftretenden Effekte ist. Die Anwendung von vielteilchentheoretischen Verfahren zur Herleitung von genäherten Dyson-Schwinger-Gleichungen ist deshalb von besonderer Wichtigkeit. Mit den Studien dieser zwei Modellklassen, nämlich zum einen der Modelle des chiralen Phasenüberganges in der starken Wechselwirkung, und zum anderen eines Vektormesondominanzmodelles für ein Pion-Rho-System bei endlichen Temperaturen mit Hilfe von Vielteilchenresummationsverfahren in selbstkonsistenten Näherungen konnten so interessante phänomenologische Einblicke in die Physik der stark wechselwirkenden Materie gewonnen werden. Darüberhinaus wurde ein theoretischer Beitrag zur Behandlung beliebiger bosonischer Systeme in der selbstkonsistenten Schleifen-Näherung für die Dyson-Schwinger-Gleichungen geleistet. Natürlich sind damit die Forschungen auf dem Gebiet der Beschreibung von Aspekten stark wechselwirkender Materie in effektiven Modelle mittels selbstkonsistenter Vielteilchenresummationsverfahren bei weitem nicht abgeschlossen. Vielfältige Entwicklungen auf diesem Forschungsgebiet sind auch in Zukunft zu erwarten. Zum Beispiel bleibt die Frage der Veränderung der Massen (Realteil der Selbstenergien) der Rho-Mesonen und Pionen im Medium in der selbstkonsistenten Schleifennäherung bisher noch unbeantwortet. Auch das Einbinden von Baryonen in diese Betrachtungen ist eine Aufgabe für die Zukunft. Schließlich können auch noch die Effekte der chiralen Symmetrierestauration einen wesentlichen Einfluß auf die Beschreibung der Dileptonenproduktion nehmen. Die vorliegende Arbeit läßt die begründete Hoffnung zu, daß bei der Behandlung dieser weitergehenden Fragen in selbstkonsistenten Resummationsschemata wichtige neue Erkenntnisse gewonnen werden könnten. Darüberhinaus bleibt die Frage eines eichinvarianten, numerisch tatsächlich mit Hilfe des aktuellen Standes der Computertechnologie realisierbaren Vielteilchenresummationsschemas, das bei allen Temperaturen und Dichten anwendbar wäre ein grundlegendes und offenes Problem der Forschung, das nicht nur für die Beschreibung effektiver Theorien sondern auch für die Untersuchung von Dyson-Schwinger-Gleichungen für fundamentale Theorien, wie der Quantenchromodynamik, von höchstem Interesse wäre.
This work is dedicated to the investigation of nuclear matter at non-zero temperatures within an effective hadronic model based on the Walecka model. It includes fermions as well as a vector omega meson and a scalar sigma meson where for the latter a quartic self-interaction has been considered. The coupling constants have been adapted to the saturation properties of infinite nuclear matter. A set of self-consistent Schwinger-Dyson equations has been set up for all included particles within the Cornwall-Jackiw-Tomboulis formalism. This has been expanded to non-zero temperatures via the imaginary time formalism. Beside tree-level two different stages of approximations have been considered: the Hartree approximation which takes into account the double-bubble diagram for the scalar meson, and an improved approximation where in addition two-particle irreducible sunset diagrams for all fields were included. In the Hartree-approximation the Schwinger-Dyson equations can be solved by quasi-particle ansaetze, while in the improved approximation spectral functions with non-zero widths have to be introduced. The Schwinger-Dyson equations are solved by the fully dressed propagators. Comparing the two levels of approximation shows the influence of finite widths on the temperature dependence of the particle properties. The consideration of finite widths in fact has a significant influence on the transition from a phase of heavy nucleons to a transition of light nucleons, observed in the Walecka-model. The temperature dependence is weakend when finte widths are taken into account.