Refine
Year of publication
Document Type
- Article (1872)
- Preprint (1250)
- Doctoral Thesis (593)
- Conference Proceeding (248)
- diplomthesis (101)
- Bachelor Thesis (75)
- Master's Thesis (61)
- Contribution to a Periodical (46)
- Book (33)
- Diploma Thesis (33)
Keywords
- Kollisionen schwerer Ionen (47)
- heavy ion collisions (44)
- LHC (25)
- Quark-Gluon-Plasma (25)
- Heavy Ion Experiments (20)
- equation of state (19)
- quark-gluon plasma (19)
- Relativistic heavy-ion collisions (16)
- QCD (15)
- QGP (15)
Institute
- Physik (4407) (remove)
We examine experimental signatures of TeV-mass black hole formation in heavy ion collisions at the LHC. We find that the black hole production results in a complete disappearance of all very high p_T (> 500 GeV) back-to-back correlated di-jets of total mass M > M_f ~ 1 TeV. We show that the subsequent Hawking-decay produces multiple hard mono-jets and discuss their detection. We study the possibility of cold black hole remnant (BHR) formation of mass ~ M_f and the experimental distinguishability of scenarios with BHRs and those with complete black hole decay. Finally we point out that a Heckler-Kapusta-Hawking plasma may form from the emitted mono-jets. In this context we present new simulation data of Mach shocks and of the evolution of initial conditions until the freeze-out.
We propose to measure azimuthal correlations of heavy-flavor hadrons to address the status of thermalization at the partonic stage of light quarks and gluons in high-energy nuclear collisions. In particular, we show that hadronic interactions at the late stage cannot significantly disturb the initial back-to-back azimuthal correlations of DDbar pairs. Thus, a decrease or the complete absence of these initial correlations does indicate frequent interactions of heavy-flavor quarks and also light partons in the partonic stage, which are essential for the early thermalization of light partons.
The experimental signatures of TeV-mass black hole (BH) formation in heavy ion collisions at the LHC is examined. We find that the black hole production results in a complete disappearance of all very high p_T (> 500 GeV) back-to-back correlated di-jets of total mass M > M_f ~ 1 TeV. We show that the subsequent Hawking-decay produces multiple hard mono-jets and discuss their detection. We study the possibility of cold black hole remnant (BHR) formation of mass ~ M_f and the experimental distinguishability of scenarios with BHRs and those with complete black hole decay. Due to the rather moderate luminosity in the first year of LHC running the least chance for the observation of BHs or BHRs at this early stage will be by ionizing tracks in the ALICE TPC. Finally we point out that stable BHRs would be interesting candidates for energy production by conversion of mass to Hawking radiation.
The concept of Large Extra Dimensions (LED) provides a way of solving the Hierarchy Problem which concerns the weakness of gravity compared with the strong and electro-weak forces. A consequence of LED is that miniature Black Holes (mini-BHs) may be produced at the Large Hadron Collider in p+p collisions. The present work uses the CHARYBDIS mini-BH generator code to simulate the hadronic signal which might be expected in a mid-rapidity particle tracking detector from the decay of these exotic objects if indeed they are produced. An estimate is also given for Pb+Pb collisions.
We develop a 1+1 dimensional hydrodynamical model for central heavy-ion collisions at ultrarelativistic energies. Deviations from Bjorken's scaling are taken into account by implementing finite-size profiles for the initial energy density. The calculated rapidity distributions of pions, kaons and antiprotons in central Au+Au collisions at the c.m. energy 200 AGeV are compared with experimental data of the BRAHMS Collaboration. The sensitivity of the results to the choice of the equation of state, the parameters of initial state and the freeze-out conditions is investigated. The best fit of experimental data is obtained for a soft equation of state and Gaussian-like initial profiles of the energy density.
In dieser Arbeit wurde die grundsätzliche Funktionsweise und die Eigenschaften von photokonduktiven CW-Thz-Emittern dargestellt. In diesem Rahmen wurde der Prozess des Photomischens und die Funktionsweise und Eigenschaften von Antennen auf Halbleitersubstraten untersucht. Um das erwartete frequenzabhängige Emissionsverhalten zu überprüfen wurde ein Messplatz zur Durchführung von Vergleichsmessungen diverser Emitter aufgebaut. Desweiteren wurde ein Fourier-Transform-Interferometer zur frequenzaufgelösten Detektion im THz-Bereich entwickelt. Zur Charakterisierung der Emitter wurde die emittierte Leistung in Abhängigkeit der Frequenz gemessen. Als abstrahlende Strukturen wurden Dipol- und Patch-Antennen verwendet. Dabei wurde gezeigt, daß eine Einschränkung der Bandbreite eine Verstärkung der Emission in dem verbleibenden Frequenzbereich ergibt. Dies wird bei Dipolantennen durch eine Filterstruktur oder allgemein durch Verwendung einer stark resonanten Antennenstruktur wie der Patchantenne erreicht. Es wurde gezeigt, daß die Einbeziehung der zu höheren Frequenzen abfallenden Leistung des Photomischers notwendig für eine Beschreibung der Resonanzkurve ist. Dadurch verschiebt sich das Maximum der Abstrahlung und liegt im Falle des Dipols nicht mehr bei der Anregung nah der Wellenlänge die gleich der Dipollänge ist. Allerdings wurde auch gezeigt, daß dies nicht für eine Beschreibung der Resonanzkurve ausreicht, und daß zur korrekten Modellierung die Übertragung der Leistung von Photomischer auf die Antenne eingefügt werden muß. Diese ist stark von dem komplexen Widerstand des Photoschalters abhängig. Die Resonanzcharakteristik von Patch-Antennen konnte durch die Berechnung der TMModen eines dreidimensionalen mit einem Dielektrikum gefüllten Resonators erklärt werden. Dieser besitzt aber so viele mögliche Moden, daß schon kleine geometrische Veränderungen die Resonanzfrequenz verändern können. Somit ist die Berechnung der Resonanzfrequenz sehr schwierig, und die praktische Einsetzbarkeit der gezeigten Patch-Antennen gering. Allerdings ist bei Patchantennen anders als bei Dipolen die Quelle der Emission, in diesem Fall der Resonator aus Polyamid, unabhängig vom Substrat auf dem sich die Antenne befindet. Dies macht ein Aufbringen auf ein für die Emission optimales Substrat oder einen Spiegel möglich. Die berechnete Resonanzfrequenz der Filterstruktur in der Zuleitung ist auch die tatsächliche Resonanzfrequenz des Dipols. Hier ist eine Vorhersage und somit ein funktionierendes Design relativ leicht zu erreichen. Allerdings wurde die durch die Filterstruktur in der Zuleitung gewählte Resonanzfrequenz fälschlicherweise für eine Anregung mit der vollen Wellenlänge gewählt und liegt wie die vergleichende Messung mit identischem Dipol ohne Filterstruktur zeigt, nicht im Emissionsmaximum des Emitters. Für zukünftige Designs muß eine detaillierte Berechnung oder eine Messung des Emissionsmaximums des Dipols ohne Verwendung eines Filters vorangehen, um die Resonanzfrequenz des Filters auf dieses Maximum zu legen. Um eine bestimmte Frequenz zu erreichen muß also erst der Dipol ohne Filter so gewählt werden, daß dessen Emissionsmaximum bereits bei der gewünschten Frequenz liegt, um dann die Emission mit Hilfe eines Filters zu verstärken. Ebenfalls muß in der Zukunft um die Anwendbarkeit zu erhöhen, die bolometrische Detektion durch photokonduktive oder elektrooptische Detektion ersetzt werden.
In dieser Arbeit wurden ionisierende Prozesse inWasserstoff- und Deuterium-Molekülen untersucht. Das Ziel war es dabei insbesondere, doppelt angeregte Zustände näher zu betrachten, d.h. Prozesse, bei denen mit einem UV-Photon beide Elektronen des H2 angeregt werden. Das Molekül zerfällt dann schließlich in ein angeregtes Atom sowie ein Proton und ein Elektron. Diese Doppelanregung konnte in den Messdaten identifiziert werden. Durch die Art der Messung war es möglich, einen umfassenden Überblick über den Photonenenergiebereich von 29 bis 60 eV zu erhalten (siehe Abb. 4.4). Somit konnte die Dynamik verschiedener Prozesse mit sich ändernder Photonenenergie analysiert werden. Es konnte die Einfach-Ionisation vom Einsetzen bis hin zur Doppel-Ionisation beobachtet werden. Zwischen 29 und 38 eV traten dabei Anregungen auf das Q1- und Q2-Band auf. Insbesondere für einen KER<2 eV konnten interessante Strukturen aufgelöst werden, die bei bisherigen Experimenten nur eindimensional, d.h. ohne die Varianz der Photonenenergie, betrachtet werden konnten. Eine Gegenüberstellung der beiden Isotope H2 und D2 zeigte zahlreiche Unterschiede bei der Autoionisation auf. Für den Bereich des KER, der einer Anregung auf das Q2-Band entspricht, konnten außerdem Winkelverteilungen erstellt werden und mit Verteilungen verglichen werden, die aus der direkten Besetzung des (2p sigma u) Zustands resultieren. Dabei wurde für beide Isotope eine Asymmetrie beobachtet. Für höhere Photonenenergien lagen schließlich die Endzustände zu dicht beieinander, um aufgelöst zu werden. Doppelanregungen auf das Q3- und Q4-Band konnten daher hier nicht explizit beobachtet werden. Für künftige Messungen wäre es sicher interessant, das Q1-Band mit einem speziell darauf abgestimmten Spektrometer im entsprechenden Energiebereich genauer zu studieren. So könnten die energetischen Strukturen dieser niederenergetischen Protonen besser aufgelöst und somit der Kontrast zur Besetzung des 1s sigma g Zustands erhöht werden. Außerdem wäre es von Interesse auch Photonenenergien unterhalb von 29 eV zu betrachten, was jedoch an Beamline 9.3.2 der ALS nicht möglich war. Ebenso wäre natürlich der höhere Photonenfluss einer Undulator-Beamline wünschenswert, um eine bessere Statistik zu erhalten. Hier konnte gezeigt werden, dass im Energiebereich, in welchem Anregungen auf das Q3- und Q4-Band möglich sind, nur Intensitäten in höheren Endzuständen (n >=2) auftreten. Um eventuelle Strukturen in diesem Bereich zu studieren ist ein jedoch ein höher auflösendes Spektrometer notwendig. Dies könnte z.B. durch größere MCP realisiert werden.
This work gives a detailed introduction into a fully new experimental method to investigate the quantum crystal behavior of solid Helium-4. It has been found that a fascinating new effect occurs in the expansion of solid Helium-4 into a vacuum through pinhole orifices with diameters between 1 and 5 µm. It is observed that the beam flux intensity shows a periodic behavior for source conditions corresponding to the solid phase of Helium-4. The period is in the range of seconds up to minutes. It shows a strong dependence on temperature and source pressure. The oscillating part of the beam flux intensity amounts several percent of the total flux. This new phenomenon has been studied for temperatures between 2.1 K and 1.3 K and pressures up to 30 bar above the melting pressure. The beam flux intensity has been recorded by the vacuum pressure in a pitot vacuum chamber. The jet velocity in the range of 200 m/sec indicates that surprisingly the beam is a liquid jet, whereas the conditions in the source correspond to the solid state. In this work mainly the behavior of the flux modulation has been studied as a function of pressure and temperature and the influence of the isotope Helium-3. Furthermore geometrical aspects such as the influence of the nozzle diameter d0 have been investigated. In order to explain this novel phenomenon a kinetic model based on the injection of excess vacancies into the solid is proposed. According to this model the vacancies are generated at a solid/liquid interface. Forced by drift and diffusion they accumulate at some distance from the orifice, leading to the collapse of the solid. With the subsequent re-injection of vacancies the effect repeats and turns out to be periodical. The reproducibility of the time dependent beam flux intensity is demonstrated for a wide range of temperatures and pressures and gives direct access to values such as the temperature and pressure dependence of the vacancy diffusion coefficient Dv in the range of 10 high -5 cm high 2/sec, the recombination time of vacancies with interstitials T r near 1-20 sec and the vacancy activation energy f near 20 K. The good agreement with former experimental results by Zuev et al. [131] confirms the applicability of the theoretical model. As a result from the kinetic model the vacancy concentration is increased above the equilibrium vacancy concentration, caused by the injection of excess vacancies. Therefore, the most important discovery is the possibility of generating a non-equilibrium quantum solid. The investigation of this non-equilibrium solid leads to the discovery of a fluid-like regime in the solid phase of Helium-4 at temperatures below T = 1.58 K. The result gives a strong indication for the supersolid state, especially because the fluid-like behavior of the solid can be eliminated with smallest concentrations of Helium-3.
Um, mit Simulationsexperimenten, den Einfluß des Strahlprofils auf die Pellet- bzw. Targetdynamik bei der Trägheitseinschlussfusion mit Schwerionenstrahlen zu untersuchen, wurde der Simulationscode MULTI2D so modifiziert, daß eine Darstellung der Energiedeposition in zwei kartesischen Koordinaten möglich ist. Für die Simulationen wurde die Strahl-Target-Kombination von V. Vatulin, O. Vinokurov und N. Riabikina, “Investigation of the Dynamics of Solid Cylindrical Targets Illuminated by Ion Beams with Elliptic Cross Section“, aus dem GSI Report High Energy Density in Matter Produced by Heavy Ion Beams (GSI-99-04), verwendet. Die in der Arbeit von Vatulin et al. verwendeten Strahlparameter, beziehen sich auf ein an der GSI in Darmstadt in Planung befindliches Ionen- und Antiprotonensynchroton mit wesentlich höherer Strahlleistung als beim gegenwärtigen Schwerionensychrotron SIS. Um eine ausreichend hohe Auflösung zu erhalten, wurde für die Target-Simulation in MULTI2D ein Lagrange-Gitter mit 43200 Gitterpunkten ausgewählt. Als erstes wurden umfangreiche Untersuchungen der Entwicklung der Temperatur, des Drucks, der Geschwindigkeit und der Dichte der Volumenelemente des Targets durchgeführt. Hierzu wurden zweidimensionale Targetschnitte dieser Größen zu bestimmten Zeiten, ortsaufgelöste Darstellungen dieser Größen entlang einer kartesischen Achse des Targetschnitts zu ausgewählten Zeiten, und zeitaufgelöste Darstellungen dieser Größen an bestimmten Orten des Gitters, bzw. in bestimmten Volumenbereichen des Targets angefertigt. Sowohl bei Bestrahlung mit radialsymmetrischem Hohlstrahl, als auch bei Bestrahlung mit elliptischem Hohlstrahl, werden innerhalb von 20 ns 1.4 MJ/g deponiert. Während und nach der Energiedeposition breitet sich eine Kompressionswelle sowohl in Richtung Targetzentrum als auch in Richtung Targetperipherie aus. ~ 25 ns nach Beginn der Energiedeposition erreichen Temperatur und Druck ihren Maximalwert im Zentrum des Targets. Der Radius des Gebiets maximalen Drucks vergrößert sich innerhalb der nächsten 2 ns auf ~6 x 10 exp -3. Die Kompressionswelle breitet sich langsamer in Richtung Targetzentrum aus, als der Druck und die Temperatur. Wegen des hohen Drucks im Zentrum, befindet sich der Ort maximaler Dichte nicht im Targetzentrum, ~ 24,5 ns nach Strahlungsbeginn einen Ring hoher Dichte um das Zentrum herum. Kurz darauf, ~24,6 ns nach Strahlungsbeginn, bildet sich, ausgelöst durch das Zusammentreffen der Dichtewelle im Targetzentrum, ein kleinerer Ring hoher Dichte um das Targetzentrum herum. Bereits nach 24.75 ns, also nur 0.2 ns nach dem Zusammentreffen der Materie im Zentrum, ist die Dichte in diesem Ring höher als im weiter vom Targetzentrum entfernt liegenden Ring hoher Dichte. Dies gilt sowohl für die Bestrahlung mit radialsymmetrischem Hohlstrahl, als auch für die Bestrahlung mit elliptischem Hohlstrahl. Die Maximalwerte der Größen Temperatur, Druck und Dichte im Target liegen bei Bestrahlung mit elliptischem Hohlstrahl bis zu 20% unter denen bei Bestrahlung mit radialsymmetrischem Hohlstrahl. Die Dichten im Ring maximaler Dichte liegen bei Bestrahlung mit radialsymmetrischem Hohlstrahl bei~ 160 g/ccm, bei Bestrahlung mit elliptischem Hohlstrahl knapp darunter. Das maximale Achsenverhältnis lag bei (1:2.25), bei größeren Achsenverhältnisen wird die weniger dichte Substanz im Zentrum des Pellets so ungleichmäßig komprimiert, das es vorzeitig zu einer Vermischung des Treibers im Pelletzentrum mit dem Pelletmantel kommt, so daß der Treiber nicht ausreichend komprimiert wird. Die theoretische Untersuchung, welchen Einfluss das Strahlprofil auf die Targetkompression hat ist von großer Bedeutung, weil der Transport und die Fokussierung von Schwerionenstrahlung so hoher Intensität, wie sie für eine Targetkompression mit Fusionsbrennen nötig sind, sehr schwierig und noch nicht Stand der Technik ist. Sollte durch andere Arbeiten bestätigt werden, daß bei direkter Bestrahlung eines Hohltargets, bzw. eines Targets mit einem Mantel aus relativ dichtem Material und einem weniger dichten Treiber im Targetzentrum, mit einem Schwerionen-Hohl-Strahl, das Maximum der Druckwelle das Zentrum nicht erreicht, und somit ein Ring bzw. eine Hohlkugel maximalen Drucks um das Zentrum herum gebildet wird, hätte das, falls diese Technik zur Anwengung kommt, Konsequenzen für die Kompressionsdynamik eines realen Pellets. Möglicherweise wird nach der Zündung des Plasmas ein größerer Teil des Treibstoffs schneller verbrannt werden als bei einer Zündung im Pelletzentrum, außerdem könnte sich die Lebensdauer des Pellets erhöhen. Dies hätte für den Fall der direkten Bestrahlung eines Hohltargets mit einem Schwerionen-Hohl-Strahl eine Änderung des rho-R-Kriterium zur Folge, das Pellet müsste nicht so stark komprimiert werden wie bisher vermutet, so daß die technischen Voraussetzungen für ein Fusionsbrennen vieleicht schneller realisiert werden können, als bisher angenommen.
In this thesis, we opened the door towards a novel estimation theory for homogeneous vectors and have taken several steps into this new and uncharted territory. Present state of the art for homogeneous estimation problems treats such vectors p 2 Pn as unit vectors embedded in Rn+1 and approximates the unit hypersphere by a tangent plane (which is a n-dimensional real space, thus having the same number of degrees of freedom as Pn). This approach allows to use known and established methods from real space (e.g. the variational approach which leads to the FNS algorithm), but it only works well for small errors and has several drawbacks: • The unit sphere is a two-sheeted covering space of the projective space. Embedding approaches cannot model this fact and therefore can cause a degradation of estimation quality. • Linearization breaks down if distributions are not highly concentrated (e.g. if data configurations approach degenerate situations). • While estimation in tangential planes is possible with little error, the characterization of uncertainties with covariance matrices is much more problematic. Covariance matrices are not suited for modelling axial uncertainties if distributions are not concentrated. Therefore, we linked approaches from directional statistics and estimation theory together. (Homogeneous) TLS estimation could be identified as central model for homogeneous estimation and links to axial statistics were established. In the first chapters, a unified estimation theory for the point data and axial data was developed. In contrast to present approaches, we identified axial data as a specific data model (and not just as directional data with symmetric probability density function); this led to the development of novel terms like axial mean vectors, axial variances and axial expectation values. Like a tunnel which is constructed from both ends simultaneously, we also drilled from the parameter estimation side towards directional/axial statistics in the second part. The presentation of parameter estimation given in this thesis deviates strongly from all known textbooks by presenting homogeneous estimation problems as a distinguished class of problems which calls for different estimation tools. Using the results from the first part, the TLS solution can be interpreted as the weighted anti-mean vector of an axial sample. This link allows to use our results from axial statistics; for instance, the certainty of the anti-mode (i.e. of the TLS solution!) can be described with a weighted Bingham distribution (see (3.91)). While present approaches are only interested in the eigenvector of the some matrix, we can now exploit the whole mean scatter matrix to describe TLS solution and its certainty. Algorithms like FNS, HEIV or renormalization were presented in a common context and linked to each other. One central result is that all iterative homogeneous estimation algorithms essentially minimize a series of evolving Rayleigh coefficients which corresponds to a series of (converging?) cost functions. Statistical optimization is only possible if we clearly identify every step as what it exactly is. For instance, the vague statement “solving Xp ... 0” means nothing but setting ˆp := arg minp pTXp pT p . We identified the most complex scenario for which closed form optimal solutions are possible (in terms of axial statistics: the type-I matrix weighted model). The IETLS approach which is developed in this thesis then solves general type-II matrix weighted problems with an iterative solution of a series of type-I matrix weighted problems. This approach also allows to built converging schemes including robust and/or constrained estimation – in contrast to other approaches which can have severe convergence problems even without such extensions if error levels are not low. Chapter 6 then is another big step forward. We presented the theoretical background of homogeneous estimation by introducing novel concepts like singular vector unbiasedness of random matrices and solved the problem of optimal estimation for correlated data. For instance, these results could be used for better estimation of local image orientation / optical flow (see section 7.2). At the end of this thesis, simulations and experiments for a few computer vision applications were presented; besides orientation estimation, especially the results for robust and constrained estimation for fundamental matrices is impressive. The novel algorithms are applicable for a lot of other applications not presented here, for instance camera calibration, factorization algorithm formulti-view structure from motion, or conic fitting. The fact that this work paved the way for a lot of further research is certainly a good sign.