Refine
Year of publication
- 2007 (62) (remove)
Document Type
- Doctoral Thesis (24)
- Article (20)
- Conference Proceeding (8)
- Part of Periodical (4)
- Book (2)
- diplomthesis (2)
- Diploma Thesis (1)
- Report (1)
Has Fulltext
- yes (62) (remove)
Is part of the Bibliography
- no (62)
Keywords
- Dauerstrichbetrieb (2)
- Quantenchromodynamik (2)
- Antenne (1)
- Arzneimitteldesingn (1)
- Arzneimittelentwicklung (1)
- Black holes (1)
- Bose Einstein condensation (1)
- Bose-Einstein-Kondensation (1)
- CERN (1)
- CW (1)
Institute
- Physik (62) (remove)
Relying on the existing estimates for the production cross sections of mini black holes in models with large extra dimensions, we review strategies for identifying those objects at collider experiments. We further consider a possible stable final state of such black holes and discuss their characteristic signatures. Keywords: Black holes
The work presented in this thesis addresses a key issue of the CBM experiment at FAIR, which aims to study charm production in heavy ion collisions at energies ranging from 10 to 40 AGeV . For the first time in this kinematical range, open charm mesons will be used as a probe of the nuclear fireball. Despite of their short decay length, which is typically in the order of few 100 µm in the laboratory frame, those mesons will be identified by reconstructing their decay vertex.
We study various fluctuation and correlation signals of the deconfined state using a dynamical recombination approach (quark Molecular Dynamics, qMD). We analyse charge ratio fluctuations, charge transfer fluctuations and baryon-strangeness correlations as a function of the center of mass energy with a set of central Pb+Pb/Au+Au events from AGS energies on (Elab = 4 AGeV) up to the highest RHIC energy available (V sNN = 200 GeV) and as a function of time with a set of central Au+Au qMD events at V sNN = 200 GeV with and without applying our hadronization procedure. For all studied quantities, the results start from values compatible with a weakly coupled QGP in the early stage and end with values compatible with the hadronic result in the final state. We show that the loss of the signal occurs at the same time as hadronization and trace it back to the dynamical recombination process implemented in our model.
The search for a modification of hadron properties inside nuclear matter at normal and/or high temperature and density is one of the more interesting issues of modern nuclear physics. Dilepton experiments, by providing interesting results, give insight into the properties of strong interaction and the nature of hadron mass generation. One of these research tools is the HADES spectrometer. HADES is a high acceptance dilepton spectrometer installed at the heavy-ion synchrotron (SIS) at GSI, Darmstadt. The main physics motivation of HADES is the measurement of e+e- pairs in the invariant-mass range up to 1 GeV/c2 in pion- and proton-induced reactions, as well as in heavy-ion collisions. The goal is to investigate the properties of the vector mesons rho, omega and of other hadrons reconstructed from e+e- decay pairs. Dileptons are penetrating probes allowing to study the in-medium properties of hadrons. However, the measurement of such dilepton pairs is difficult because of a very large background from other processes in which leptons are created. This thesis presents the analysis of the data provided by the first physic run done with the HADES spectrometer. For the first time e+e- pairs produced in C+C collisions at an incident energy of 2 GeV per nucleon have been collected with sufficient statistics. This experiment is of particular importance since it allows to address the puzzling pair excess measured by the former DLS experiment at 1.04 AGeV. The thesis consists of five chapters. The first chapter presents the physics case which is addressed in the work. In the second chapter the HADES spectrometer is introduced with the characteristic of specific detectors which are part of the spectrometer. Chapter three focusses on the issue of charged-particle identification. The fourth chapter discusses the reconstruction of the di-electron spectra in C+C collisions. In this part of the thesis a comparison with theoretical models is included as well. The conclusion and final remarks are given in chapter five.
In this work we present a study of the influence of nucleus initializations on the event-by-event elliptic flow coefficient, v2. In most Monte-Carlo models, the initial positions of the nucleons in a nucleus are completely uncorrelated, which can lead to very high density regions. In a simple, yet more realistic model where overlapping of the nucleons is avoided, fluctuations in the initial conditions are reduced. However, v2 distributions are not very sensitive to the initialization choice.
We discuss the present collective flow signals for the phase transition to the quark-gluon plasma (QGP) and the collective flow as a barometer for the equation of state (EoS). We emphasize the importance of the flow excitation function from 1 to 50A GeV: here the hydrodynamicmodel has predicted the collapse of the v1-flow at ~ 10A GeV and of the v2-flow at ~ 40A GeV. In the latter case, this has recently been observed by the NA49 collaboration. Since hadronic rescattering models predict much larger flow than observed at this energy, we interpret this observation as potential evidence for a first order phase transition at high baryon density pB.
Nach einer kurzen Einführung in die Theorie der Volterra-Systeme wurden in dieser Arbeit zunächst Verfahren zur Bestimmung von Volterra-Kernen als Kenngrößen für Volterra-Systeme zur Modellierung nichtlinearer Systeme analysiert. Im Vordergrund stand zunächst ein Verfahren basierend auf der Messung der Kreuzkumulanten-Spektren höherer Ordnung von Ein- und Ausgangssignal eines nichtlinearen Systems, wobei als Systemanregung ein stationärer, mittelwertfreier Gaußscher Zufallsprozeß angenommen wurde. Die Analyse der untersuchten Differenzengleichung zeigt, daß zur präzisen Bestimmung der Kernfunktionen bis zur dritten Systemordnung mehr als eine Million Ein- und Ausgangswerte notwendig sind. Vergleichend dazu wurde der Volterra-RLSAlgorithmus betrachtet, der eine rechenzeiteffiziente Bestimmung der Volterra-Kerne zuläßt und kein bestimmtes Eingangssignal erfordert. Beim Volterra-RLS-Algorithmus wurde zunächst die zur Bestimmung derartiger Systemkenngrößen erforderliche Anzahl der Ein- und Ausgangswerte festgestellt. Hierbei wurde u.a. auch ein gedämpftes Pendel als Modellsystem betrachtet. Die Ergebnisse zeigen, daß eine genaue Bestimmung der Volterra-Kerne mit dem Volterra-RLS-Algorithmus schon anhand von etwa 1500 Ein- und Ausgangswerten möglich ist. Anschließend wurde eine spezielle Klasse von Volterra-Systemen, die in lineare Teilsysteme zerlegbar sind, untersucht. Der Volterra-Kern eines solchen Systems, das ausschließlich aus linearen, zeitinvarianten Systemen aufgebaut ist, kann bei Kenntnis von deren Impulsantworten direkt bestimmt werden. Ihre Struktur führt zu einer deutlich verminderten Rechenkomplexität bei der Berechnung der Systemantwort des dargestellten Volterra-Systems. Wie in der Arbeit gezeigt, reichen für eine präzise Messung der Volterra-Kerne, die mit einem Gradientenverfahren bestimmt wurden, bei diesen Systemen bereits ungefähr 1000 Ausgangswerte aus. Außerdem ist die Realisierung eines Systems höherer Ordnung aus Systemen niedrigerer Ordnung relativ einfach möglich. Bei umfangreichen Untersuchungen wurde eine Identifikation nichtlinearer Systeme mit unterschiedlich ausgeprägten Nichtlinearitäten vorgenommen. Als Beispiel ist in dieser Arbeit der Fall diskutiert, bei dem Lösungen der Duffing-Gleichung herangezogen wurden. Dabei wurden Volterra-Systeme bis zur fünften Ordnung zugrundegelegt; eine präzise Approximation gelang in allen Fällen. Schließlich wurde noch festgestellt, inwieweit die Möglichkeit besteht, nach einer Bestimmung, d.h. anhand eines numerisch vorliegenden Kerns, daraus Systemparameter zu extrahieren. Dazu wurde eine spezielle OTA-C Integratorschaltung betrachtet; als Eingangssignale wurden Ein- und Zweitonsignale verwendet und anschließend die Bestimmung der Kerne homogener Systeme vorgenommen. Anhand dieser Resultate konnten der Widerstand R0 und die Kapazität C des OTA-C Integrators mit hoher Genauigkeit ermittelt werden. Die Untersuchungen haben gezeigt, daß eine Identifikation mit den aus linearen Systemen implementierten Volterra-Systemen zu geringeren relativen, mittleren quadratischen Fehlern führt als bei Verwendung der aus der allgemeinen Definition hervorgehenden Systeme. Neben der Verringerung der Rechenkomplexität konnte somit auch eine erhöhte Approximationsgüte festgestellt werden. Aufgrund dieses Befundes wurden derartige Volterra-Systeme für die besondere Fragestellung zur Epilepsieforschung eingesetzt, zu denen diese Arbeit beitragen sollte. Die Prädiktion von EEG-Signalen bei Epilepsie stand dabei im Vordergrund der Betrachtungen. Als erstes wurde der Prädiktionsgewinn sowohl in Abhängigkeit von der Systemordnung als auch in Abhängigkeit von der System- und Filterlänge ermittelt. Im Hinblick auf eine Realisierung in der Praxis wurde die Filterlänge nur zwischen L = 2 bis L = 10 variiert. Diese Untersuchungen haben gezeigt, daß Messungen dabei mit größerer Filterlänge als L = 4 zu keinen weiteren nennenswerten Verbesserungen der Resultate führten. Nach erfolgter Prädiktion wurde der zeitliche Verlauf des Prädiktionsgewinns auf Veränderungen vor oder zu Beginn eines epileptischen Anfalls untersucht. Die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme zweiter und dritter Ordnung zeigen keine signifikanten Veränderungen vor einem Anfall. Demgegenüber lassen die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme erster Ordnung und der inhomogenen Systeme dritter Ordnung zu Beginn eines Anfalls einen deutlichen Anstieg erkennen. Weiterhin deuten diese Ergebnisse daraufhin, daß eine genauere Lokalisierung des fokalen Bereichs basierend auf dem Prädiktionsgewinn möglich erscheint. Zu weiteren Untersuchungen wurden die Kerne der Systeme herangezogen und der zeitliche Verlauf des sogenannten nichtlinearen Anteils dm(i) näher betrachtet. Diese Ergebnisse lassen keine signifikanten Änderungen erkennen. Dementgegen stehen die Resultate für Langzeitregistrierungen von EEG-Signalen. Bei einer Analyse der zu einer längerenMeßreihe gehörigen Daten eines 19-jährigen männlichen Patienten wurde festgestellt, daß der Prädiktionsgewinnmeistens kurz vor den epileptischen Anfällen unter denMittelwert des anfallsfreien Zustands abfällt. Änderungen der Kurvenverläufe des Prädiktionsgewinns kurz vor epileptischen Anfällen weisen erkennbar spezifische Merkmale auf, die möglicherweise als Vorboten eines epileptischen Anfalls angesehen werden könnten
Zellulare Nichtlineare Netzwerke (CNN) wurden 1988 von Chua und Yang (Chua und Yang, 1988) eingeführt. Diese Netzwerke sind dadurch gekennzeichnet, dass eine Zelle, die die kleinste Einheit eines CNN darstellt, nur mit Zellen innerhalb einer bestimmten Umgebung verbunden ist. üblicherweise sind Art und Stärke der Wechselwirkung zwischen zwei Zellen eines CNN translationsinvariant, d.h. sie hängen nur von der relativen Lage beider Zellen zueinander ab. Im Vordergrund aktueller Arbeiten stehen auf derartigen Netzwerken basierende schaltungstechnische Realisierungen mit bis zu 176x144 Zellen, die eine direkte Verbindung zu zweidimensionalen optischen Sensor-Anordnungen aufweisen. Über einen separaten Speicherbereich können die Zellkopplungen eines Netzwerks verändert werden, wodurch eine adaptive Verarbeitung von mehrdimensionalen Sensorsignalen ermöglicht wird. Das kürzlich vorgestellte so genannte EyeRis System (Anafocus Ltd.) enthält zusätzlich noch einen Standardprozessor und stellt (bei einer Größe vergleichbar mit der einer Kreditkarte) daher ein vollständiges superschnelles System zur Informationsverarbeitung dar. In diesem Beitrag sollen, nach einem kurzen Überblick über die Eigenschaften von CNN, aktuelle Realisierungen und exemplarisch eine neuere eigene Anwendung vorgestellt und besprochen werden.
Partielle Differentialgleichungen des Reaktions-Diffusions-Typs beschreiben Phänomene wie Musterbildung, nichtlineare Wellenausbreitung und deterministisches Chaos und werden oft zur Untersuchung komplexer Vorgänge auf den Gebieten der Biologie, Chemie und Physik herangezogen. Zellulare Nichtlineare Netzwerke (CNN) sind eine räumliche Anordnung vergleichsweise einfacher dynamischer Systeme, die eine lokale Kopplung untereinander aufweisen. Durch eine Diskretisierung der Ortsvariablen können Reaktions-Diffusions-Gleichungen häufig auf CNN mit nichtlinearen Gewichtsfunktionen abgebildet werden. Die resultierenden Reaktions-Diffusions-CNN (RD-CNN) weisen dann in ihrer Dynamik näherungsweise gleiches Verhalten wie die zugrunde gelegten Reaktions-Diffusions-Systeme auf. Werden RD-CNN zur Identifikation neuronaler Strukturen anhand von EEG-Signalen herangezogen, so besteht die Möglichkeit festzustellen, ob das gefundene Netzwerk lokale Aktivität aufweist. Die von Chua eingeführte Theorie der lokalen Aktivität Chua (1998); Dogaru und Chua (1998) liefert eine notwendige Bedingung für das Auftreten von emergentem Verhalten in zellularen Netzwerken. Änderungen in den Parametern bestimmter RD-CNN könnten auf bevorstehende epileptische Anfälle hinweisen. In diesem Beitrag steht die Identifikation neuronaler Strukturen anhand von EEG-Signalen durch Reaktions-Diffusions-Netzwerke im Vordergrund der dargestellten Untersuchungen. In der Ergebnisdiskussion wird insbesondere auch die Frage nach einer geeigneten Netzwerkstruktur mit minimaler Komplexität behandelt.
Bei intelligenten Sensoren soll die Aufnahme von Signalen und deren, zumindest teilweise durchgeführte, Verarbeitung mit einer einzigen Anordnung erfolgen. Dazu steht häufig eine elektronische Schaltung zur Verfügung, die allerdings zur Einhaltung von Echtzeitbedingungen nur für eine relativ einfache Signalverarbeitung verwendet werden kann. Einen möglichen Ausweg bildet die Verwendung parallel arbeitender Rechnersysteme. In dieser Hinsicht sind programmierbare Schaltungen mit z.B. optischen Sensor-Anordnungen besonders interessant, die auf Zellularen Nichtlinearen Netzwerken basieren. Derartige miniaturisierte Systeme eröffnen aufgrund ihrer zellularen Architektur neue Möglichkeiten zur Signalverarbeitung mit einem Leistungsvermögen, das im Bereich von Tera-Operationen pro Sekunde liegt. Für viele aktuelle Problemstellungen wäre es von Vorteil, wenn diese zellularen Systeme eigenständig Parameteradaptionen durchführen könnten. Eingangssignale, die beispielsweise über die vorhandenen optischen Sensoren aufgenommen werden, führten dann zu einer Neuberechnung bzw. Anpassung der Netzwerksparameter. Aufgrund der beachtlichen Leistungsfähigkeit solcher Schaltungen wäre damit die Möglichkeit gegeben, eine adaptive Signalverarbeitung bei zeitlich veränderlichen Problemen vorzunehmen. In diesem Beitrag wird die Implementierung und Analyse von Lernverfahren auf dem EyeRIS™ System, das einen zellularen Prozessor ACE16kv2™ mit 128×128 Zellen enthält, zur adaptiven Parameterbestimmung betrachtet. Anhand verschiedener Problemstellungen aus dem Bereich der Bildverarbeitung werden unterschiedliche Lernverfahren verglichen und deren Leistungsfähigkeit untersucht.
Seit einigen Jahren ist die Analyse von EEG-Signalen bei Epilepsie Gegenstand zahlreicher wissenschaftlicher Arbeiten; Zielvorstellung ist dabei die Entwicklung von Verfahren zur Erkennung eines möglichen Voranfallszustandes. Im Vordergrund steht beispielsweise die Approximation einer so genannten effektiven Korrelationsdimension, die Bestimmung der maximalen Lyapunov-Exponenten, Detektionsverfahren für Muster bei Zellularen Nichtlinearen Netzwerken, die Bestimmung der mittleren Phasenkohärenz und Verfahren zur nichtlinearen Prädiktion von EEG-Signalen. Trotz umfangreicher Bemühungen kann bis heute eine Erkennung von Anfallsvorboten mit einer Sensitivität und Spezifität, die eine automatisierte Anfallsvorhersage ermöglichen würde, noch nicht durchgeführt werden. In diesem Beitrag werden neue Ergebnisse zur Prädiktion von EEG-Signalen bei Epilepsie vorgestellt. Dabei werden Signale, welche mittels intrakranieller electrocorticographischer (ECoG) und stereoelectroencephalographischer (SEEG) Ableitungen registriert wurden, segmentweise analysiert. Unter der Annahme, dass sich Änderungen des Systems ,,Gehirn" als Änderungen im Prädiktor, d.h. in seinen Systemparametern widerspiegeln, könnte eine nähere Betrachtung der Prädiktoreigenschaften zu einer Erkennung von Anfallsvorboten führen.
We explain how fluctuations of ratios can constrain and falsify the statistical model of particle production in heavy ion collisions, using K/p fluctuations as an example. We define an observable capable of determining which statistical model, if any, governs freeze-out in ultrarelativistic heavy ion collisions. We calculate this observable for K/p fluctuations, and show that it should be the same for RHIC and LHC energies, as well as independent of centrality, if the Grand-Canonical statistical model is an appropriate description and chemical equilibrium applies. We describe variations of this scaling for deviations from this scenario, such as light quark chemical non-equilibrium, strange quark over-saturation and local conservation (canonical ensemble) for strange quarks. We also introduce a similar observable capable, together with the published K*/K measurement, of ascertaining if an interacting hadron gas phase governs the system between thermal and chemical freeze-out, and of ascertaining its duration and impact on hadronic chemistry.
There is little doubt that Quantumchromodynamics (QCD) is the theory which describes strong interaction physics. Lattice gauge simulations of QCD predict that in the m,T plane there is a line where a transition from confined hadronic matter to deconfined quarks takes place. The transition is either a cross over (at low m) or of first order (at high m). It is the goal of the present and future heavy ion experiment at RHIC and FAIR to study this phase transition at different locations in the m,T plane and to explore the properties of the deconfined phase. It is the purpose of this contribution to discuss some of the observables which are considered as useful for this purpose.
Pluto is a Monte-Carlo event generator designed for hadronic interactions from Pion production threshold to intermediate energies of a few GeV per nucleon, as well as for studies of heavy ion reactions. The package is entirely based on ROOT, without the need of additional packages, and uses the embedded C++ interpreter of ROOT to control the event production. The generation of events based on a single reaction chain and the storage of the resulting particle objects can be done with a few lines of a ROOT-macro. However, the complete control of the package can be taken over by the steering macro and user-defined models may be added without a recompilation of the framework. Multi-reaction cocktails can be facilitated as well using either mass-dependent or user-defined static branching ratios. The included physics uses resonance production with mass-dependent Breit-Wigner sampling. The calculation of partial and total widths for resonances producing unstable particles is performed recursively in a coupled-channel approach. Here, particular attention is paid to the electromagnetic decays, motivated by the physics program of HADES. The thermal model supports 2-component thermal distributions, longitudinal broadening, radial blast, direct and elliptic flow, and impact-parameter sampled multiplicities. The interface allows angular distribution models (e.g. for the primary meson emission) to be attached by the user as well as descriptions of multi-particle correlations using decay chain templates. The exchange of mass sampling or momentum generation models is also possible. The first feature allows for consistent coupled-channel calculations, needed for a correct description of hadronic interactions. For elementary reactions, angular distribution models for selected channels are already part of the framework, based on parameterizations of existing data. This report gives an overview of the design of the package, the included models and the user interface.
Proceedings of 4th International Workshop "Critical Point and Onset of Deconfinement", July 9-13, 2007, Darmstadt, Germany: The multiplicity fluctuations of hadrons are studied within the statistical hadron-resonance gas model in the large volume limit. The role of quantum statistics and resonance decay effects are discussed. The microscopic correlator method is used to enforce conservation of three charges - baryon number, electric charge, and strangeness - in the canonical ensemble. In addition, in the micro-canonical ensemble energy conservation is included. An analytical method is used to account for resonance decays. The multiplicity distributions and the scaled variances for negatively and positively charged hadrons are calculated for the sets of thermodynamical parameters along the chemical freeze-out line of central Pb+Pb (Au+Au) collisions from SIS to LHC energies. Predictions obtained within different statistical ensembles are compared with the preliminary NA49 experimental results on central Pb+Pb collisions in the SPS energy range. The measured fluctuations are significantly narrower than the Poisson ones and clearly favor expectations for the micro-canonical ensemble. Thus, this is a first observation of the recently predicted suppression of the multiplicity fluctuations in relativistic gases in the thermodynamical limit due to conservation laws.
We discuss the use of Wilson fermions with twisted mass for simulations of QCD thermodynamics.
As a prerequisite for a future analysis of the finite-temperature transition making use
of automatic O(a) improvement, we investigate the phase structure in the space spanned by the
hopping parameter k , the coupling b , and the twisted mass parameter m. We present results for
Nf = 2 degenerate quarks on a 163×8 lattice, for which we investigate the possibility of an Aoki
phase existing at strong coupling and vanishing m, as well as of a thermal phase transition at
moderate gauge couplings and non-vanishing m.
The pseudoparticle approach is a numericalmethod to compute path integrals without discretizing spacetime. The basic idea is to consider only those field configurations, which can be represented as a linear superposition of a small number of localized building blocks (pseudoparticles), and to replace the functional integration by an integration over the pseudoparticle degrees of freedom. In previous papers we have successfully applied the pseudoparticle approach to SU(2) Yang-Mills theory. In this work we discuss the inclusion of fermionic fields in the pseudoparticle approach. To test our method, we compute the phase diagram of the 1+1-dimensional Gross-Neveu model in the large-N limit as well as the chiral condensate in the crystal phase.
Lattice simulations employing reweighting and Taylor expansion techniques have predicted a (m;T)-phase diagram according to general expectations, with an analytic quark-hadron crossover at m =0 turning into a first order transition at some critical chemical potential mE. By contrast, recent simulations using imgainary m followed by analytic continuation obtained a critical structure in the fmu;d;ms;T;mg parameter space favouring the absence of a critical point and first order line. I review the evidence for the latter scenario, arguing that the various raw data are not inconsistent with each other. Rather, the discrepancy appears when attempting to extract continuum results from the coarse (Nt =4) lattices simulated so far, and can be explained by cut-off effects. New (as yet unpublished) data are presented, which for Nf = 3 and on Nt = 4 confirm the scenario without a critical point. Moreover, simulations on finer Nt = 6 lattices show that even if there is a critical point, continuum extrapolation moves it to significantly larger values of mE than anticipated on coarse lattices.
Euclidean strong coupling expansion of the partition function is applied to lattice Yang-Mills theory
at finite temperature, i.e. for lattices with a compactified temporal direction. The expansions
have a finite radius of convergence and thus are valid only for b <bc, where bc denotes the nearest
singularity of the free energy on the real axis. The accessible temperature range is thus the
confined regime up to the deconfinement transition. We have calculated the first few orders of
these expansions of the free energy density as well as the screening masses for the gauge groups
SU(2) and SU(3). The resulting free energy series can be summed up and corresponds to a glueball
gas of the lowest mass glueballs up to the calculated order. Our result can be used to fix
the lower integration constant for Monte Carlo calculations of the thermodynamic pressure via
the integral method, and shows from first principles that in the confined phase this constant is
indeed exponentially small. Similarly, our results also explain the weak temperature dependence
of glueball screening masses below Tc, as observed in Monte Carlo simulations. Possibilities and
difficulties in extracting bc from the series are discussed.
After five years of running at RHIC, and on the eve of the LHC heavy-ion program, we highlight the status of femtoscopic measurements. We emphasize the role interferometry plays in addressing fundamental questions about the state of matter created in such collisions, and present an enumerated list of measurements, analyses and calculations that are needed to advance the field in the coming years.
The interplay of charmonium production and suppression in In+In and Pb+Pb reactions at 158 AGeV and in Au+Au reactions at sqrt(s)=200 GeV is investigated with the HSD transport approach within the hadronic comover model' and the QGP melting scenario'. The results for the J/Psi suppression and the Psi' to J/Psi ratio are compared to the recent data of the NA50, NA60, and PHENIX Collaborations. We find that, at 158 AGeV, the comover absorption model performs better than the scenario of abrupt threshold melting. However, neither interaction with hadrons alone nor simple color screening satisfactory describes the data at sqrt(s)=200 GeV. A deconfined phase is clearly reached at RHIC, but a theory having the relevant degrees of freedom in this regime (strongly interacting quarks/gluons) is needed to study its transport properties.
The nuclear stopping, the elliptic flow, and the HBT interferometry are calculated by the UrQMD transport model, in which potentials for “pre-formed” particles (string fragments) from color fluxtube fragmentation as well as for confined particles are considered. This description provides stronger pressure at the early stage and describes these observables better than the default cascade mode (where the “pre-formed” particles from string fragmentation are treated to be free-streaming). It should be stressed that the inclusion of potential interactions pushes down the calculated HBT radius RO and pulls up the RS so that the HBT time-related puzzle disappears throughout the energies from AGS, SPS, to RHIC.
Within a dynamical quark recombination model, we explore various proposed event-by-event observables sensitive to the microscopic structure of the QCD-matter created at RHIC energies. Charge ratio fluctuations, charge transfer fluctuations and baryon-strangeness correlations are computed from a sample of central Au + Au events at the highest RHIC energy available (sNN=200 GeV). We find that for all explored observables, the calculations yield the values predicted for a quark–gluon plasma only at early times of the evolution, whereas the final state approaches the values expected for a hadronic gas. We argue that the recombination-like hadronization process itself is responsible for the disappearance of the predicted deconfinement signals. This might explain why no fluctuation signatures for the transition between quark and hadronic matter was ever observed in the experimental data up to now.
We present predictions for the pseudorapidity dependence of the azimuthal anisotropy parameters v1 and v2 of baryons and inclusive charged hadrons in Pb + Pb collisions at a LHC energy of sNN=5.5 TeV applying a microscopic transport model, namely the quark–gluon string model (QGSM) which has been recently extended for parton rearrangement and fusion processes. Pb + Pb collisions with impact parameters b=2.3 fm and b=8 fm have been simulated in order to investigate additionally the difference between central and semiperipheral configurations. In contrast to v1ch(η) at RHIC, the directed flow of charged hadrons shows a small normal flow alignment. The elliptic flow v2ch(η) turns out to be rather similar in shape for RHIC and LHC conditions, the magnitude however increases about 10–20% at the LHC, leading to the conclusion that the hydrodynamical limit will be reached.
The modern phase diagram of strongly interacting matter reveals a rich structure at high-densities
due to phase transitions related to the chiral symmetry of quantum chromodynamics (QCD) and
the phenomenon of color superconductivity. These exotic phases have a significant impact on
high-density astrophysics, such as the properties of neutron stars, and the evolution of astrophysical systems as proto-neutron stars, core-collapse supernovae and neutron star mergers. Most recent pulsar mass measurements and constraints on neutron star radii are critically discussed.
Astrophysical signals for exotic matter and phase transitions in high-density matter proposed recently in the literature are outlined. A strong first order phase transition leads to the emergence of a third family of compact stars besides white dwarfs and neutron stars. The different microphysics of quark matter results in an enhanced r-mode stability window for rotating compact stars compared to normal neutron stars. Future telescope and satellite data will be used to extract signals from phase transitions in dense matter in the heavens and will reveal properties of the phases of dense QCD. Spectral line profiles out of x-ray bursts will determine the mass-radius ratio of compact stars. Gravitational wave patterns from collapsing neutron stars or neutron star mergers will even be able to constrain the stiffness of the quark matter equation of state. Future astrophysical data can therefore provide a crucial cross-check to the exploration of the QCD phase diagram with the heavy-ion program of the CBM detector at the FAIR facility.
Zeit ist einer jener Begriffe, für die man die Augustinische Charakterisierung gelten lassen wollte, es sei klar, was sie bedeuten, solange nicht danach gefragt werde (Augustinus Confessiones Lib. XI, 17). Die Frage aber nach dem, was "Zeit" eigentlich ist, erscheint umso berechtigter, als es insbesondere die Naturwissenschaften sind, die für sich in Anspruch nehmen, hier Antworten geben zu können. Die zu erwartenden Antworten wären danach wesentlich empirischer Natur – also direkt oder indirekt experimentell gestützt und mithin Ergebnis dieser Forschung. ...
Die transversale Betatronbewegung eines Ionenstrahls, genannt Tune, stellt neben der Strahlposition die wichtigste zu messende Strahleigenschaft für den stabilen Betrieb eines Kreisbeschleunigers dar. Die Einstellung des Tunes auf einen Arbeitspunkt unterliegt engen Grenzen, da eine Vielzahl resonanter Störungen existiert, die die Teilchenbewegung beeinflussen und somit Emittanzvergrößerung und Strahlverlust hervorrufen. Den gemessenen Tune mit hoher Auflösung in Zeit und Frequenz während der gesamten Beschleunigungsphase auszugeben ermöglicht eine Justierung der ionenoptischen Elemente der Strahlführung. Dadurch läßt sich die Teilchenzahl bis zur theoretischen Raumladungsgrenze erhöhen und darüber hinaus Teilchenverluste minimieren. Die Messungen wurden an Positionssonden (BPM) des Schwerionensynchrotrons SIS18 der "GSI Helmholtzzentrum für Schwerionenforschung GmbH" mit zwei verschiedenen Meßsystemen durchgeführt, was einen Vergleich der Systemauflösungen ermöglicht. Das Direkt Digitalisierende Meßsystem (DDM) wandelt das BPM-Elektrodensignal direkt nach der Verstärkerkette mit einer Rate von 125 MSa/s in digitale Daten um. Der Strahlschwerpunkt eines jeden Einzelbunches wird daraus mittels digitaler Prozessierung berechnet und durch Fouriertransformation dessen Frequenzspektrum bestimmt. Man erhält den fraktionalen Tune dadurch direkt im Basisband. Das am CERN entwickelte und für Parameter des SIS18 adaptierte Direct Diode Detection - System (DDD) zeigt ebenfalls den Tune im Basisband. Um den zu bearbeitenden Frequenzbereich erheblich zu reduzieren, werden bei diesem Verfahren die Bunchpeakwerte, die die Strahlschwingung enthalten, über ein RC-Element analog verzögert ausgegeben. Der erhaltene Tune kann daraus mit hoher Auflösung digitalisiert werden. In der vorliegenden Dissertation werden die Meßaufbauten, die digitale Prozessierung der BPM-Daten mittels neuer Algorithmen sowie die Auswertung und Berechnung des Tunes gezeigt. Es werden typische Tuneverläufe diskutiert und ein Arbeitsbereich definiert, bei dem stabile Tunemessungen mit S/N von 30-50 dB ohne meßbare Vergrößerung der Strahlemittanz möglich sind. Die Auflösung der Tunemessung beträgt δqy = 3.50 · 10−4 und δqx = 7.97 · 10−4 für Anregungskickwinkel im Arbeitsbereich. Darüber hinaus werden physikalische Anwendungen des Systems diskutiert, indem verschiedene Einflüsse von ionenoptischen- und Strahlparametern auf den Tuneverlauf gezeigt und ausgewertet werden.
This article generalizes Schwinger’s mechanism for particles production in the arbitrary finite field volume. McLerran-Venugopolan(MV) model and iterative solution of DGLAP equation in the double leading log approximation for small x gluon distribution function were used to derive the new formula for initial chromofield energy density. This initial chromofield energy is distributed among color neutral clusters or strings of different length. This strings are stretched by receding nucleus. From the proposed mechanism of string fragmentation or color field decay based on exact solution of Dirac equation in the different finite volume, the new formulae for esimated baryon kinetic energy loss and rapidity spectrum of produced partons were derived.
Zukunftsforschung ohne Orakel : zur langfristigen Szenarienbildung und der Initiative "Zukunft 25"
(2007)
Jedes Jahrhundert bringt eigene Visionen der Zukunft hervor, wobei vor allem diejenigen Entwicklungen extrapoliert werden, die in der aktuellen Forschung besonders präsent sind. Im 19. Jahrhundert waren dies, wie die gezeigten Sammelbilder belegen, vor allem Verkehr und Mobilität. In seinem Roman »In 80 Tagen um die Erde« drückt Jules Verne die Faszination darüber aus, dass Orte und Menschen zusammenrücken, weil die Entfernungen sich dank moderner Verkehrsmittel wie Auto, Eisenbahn und Flugzeug schneller überbrücken lassen. Die überwiegend optimistischen Zukunftserwartungen des 19. Jahrhunderts sind inzwischen kritischeren, wenn nicht pessimistischen Visionen gewichen. Betrachtet man Filme wie »Blade Runner« oder »Matrix«, so beschäftigen uns heute Themen wie der künstliche oder manipulierte Mensch. Auch der Zukunftsforscher Claudius Gros denkt über die Folgen einer künstlichen Gebärmutter nach. Aber er sieht optimistisch in die Zukunft.
Der Nobelpreisträger Hans Albrecht Bethe war einer der ganz großen Physiker des 20. Jahrhunderts. Er gilt als einer der Väter der modernen Quantenphysik. In seiner Bedeutung für die Entwicklung der modernen Physik kommt er selbst Werner Heisenberg oder Max Planck sehr nahe. Er ist in Frankfurt aufgewachsen, hat hier das Goethe-Gymnasium besucht und an der Universität Frankfurt studiert. 1933 musste er emigrieren, da seine Mutter jüdischen Glaubens war. In seiner Heimatstadt Frankfurt ist er bisher fast unbekannt geblieben. Aus Sorge, dass Hitler-Deutschland »die Bombe« zuerst bauen könnte, unterstützte Bethe die USA bei der Entwicklung der Atombombe. Robert Oppenheimer holte ihn 1941 zum Manhattan Project nach Los Alamos (New Mexico). Hans Bethe war der führende theoretische Konstrukteur der Bombe. Doch Zeit seines Lebens glaubte er, damit das Falsche getan zu haben. Nach dem Krieg engagierte er sich für die Rüstungskontrolle. Bethe initiierte 1959 die Genfer Konferenz führender Forscher zur Empfehlung eines kontrollierten Teststoppabkommens und beriet den damaligen US-Präsidenten Dwight Eisenhower bei Fragen zur Einstellung von Kernwaffenversuchen. Er war in den USA und weltweit ein Wissenschaftler mit großem politischem und moralischem Einfluss. ...
Nicotinic acid has been used in the clinical treatment of elevated blood lipid levels for over 50 years. Although it has a beneficial effect on myocardial infarction and blood lipid profiles, its widespread use has been hampered by side effects such as skin rashes and a burning sensation on the upper body. Since elevated blood lipid levels, especially ones of VLDL and LDL cholesterol are a frequent indication and high risk factor for coronary and cardiac diseases, finding a compound with an enhanced pharmacological profile, still holding the desired effects, but without inconvenient side effects, is a very appealing aim to many pharmaceutical companies. These efforts have already produced two marketed drugs, Acipimox and Acifran, but they have not been able to overcome the restrictions already imposed on the treatment by nicotinic acid. Although proposed long before, in the year 2000 the gene for the nicotinic acid receptor in mouse PUMA-G was cloned, and in 2003 the discovery of the genes HM74 and HM74A followed, which comprise the homologous low and high affinity receptors for nicotinic acid in humans. The discovery of this G Protein-coupled receptor target allowed a more directed approach for the search of alternative compounds. This work is the first report of the heterologous overexpression of the high affinity GPCR gene HM74A in the methylotrophic yeast Pichia pastoris. The protein product, NAR1, was pharmacologically characterized, and displayed a binding affinity of 224.8 nM to its ligand nicotinic acid, showing a similar activity profile compared to those displayed in human tissue, which were determined to be 60 nM to 90 nM. Additionally, inhibitory constants (Ki) for Acifran and Acipimox were determined to be 4.5 µM and 50.5 µM, respectively. Furthermore, the total yield of NAR1 reached 42 pmol/mg membrane protein, which corresponds to 0.4 mg of receptor produced per liter yeast culture, opening up the perspective of large scale protein production to facilitate high throughput screening drug discovery efforts and structural studies. In addition, NAR1 could be solubilized in n-decyl-β-D-maltopyranoside and purified to homogeneity after immobilized metal affinity chromatography and a second affinity chromatography step on immobilized monomeric avidin, yielding a single peak on gel filtration, while the purified receptor was able to bind ligand, as shown in NMR Saturation Transfer Difference (STD) measurements. It could be shown that NAR1 is desensitized by β-arrestin 1 in vivo in confocal microscopy studies on HEK and BHK cells. This finding provides a native binding partner for the stabilization of the receptor upon solubilization and purification. Finally human β-arrestin 1 could be produced as a constitutively active variant, comprising residues 1-382 in Pichia pastoris and Escherichia coli. The purified protein was used for in vitro binding experiments and shown to be capable of interacting with NAR1. Although the interaction and formation of the complex was only possible to a limited extent, it leaves open the perspective of crystallizing NAR1 in its active conformation, bound to nicotinic acid and β-arrestin 1.
In der vorliegenden Diplomarbeit wird die Auger-Ionisation des Kohlenstoffmonooxidmoleküls CO in linear und zirkular polarisierter Röntgenstrahlung untersucht. Die Strahlung liegt im Bereich des Vakuumultraviolett (VUV) bei 305eV und wird durch ein Elektronensynchrotron, die Advanced Light Source des Lawrence Berkeley National Laboratory, erzeugt. Die Energie eines Photons führt zur Photoionisation eines Elektrons aus dem 1s-Orbital des Kohlenstoffs. Das im darauf folgenden Augerzerfall ausgesandte Elektron und die jeweils einfach positiv geladenen Fragmente aus der Coulombexplosion des CO++-Molekülions werden hinsichtlich ihrer Impulse vermessen. Zur Impulsmessung wurde die in unserer Arbeitsgruppe laufend weiter entwickelte Methode COLTRIMS (COld Target Recoil Ion Momentum Spectroscopy) eingesetzt. Der experimentelle Aufbau gestattet prinzipiell die Messung aller bei der Ionisation freigesetzten geladenen Teilchen. Um die hochenergetischen Auger-Elektronen mit hinreichender Auflösung zu erfassen, wurde erstmals bei einer solchen Apparatur ein Abbremsfeld eingebaut. Dadurch werden allerdings die niederenergetischen Photoelektronen unterdrückt. Die Meßmethode erlaubt eine Rekonstruktion der Impulse der Fragmente zum Zeitpunkt der Ionisation und läßt Rückschlüsse auf die Dynamik der Ionisation zu. Die Winkelverteilung der Augerelektronen wird in Abhängigkeit von der Polarisation beobachtet. Die Verteilungen sowohl des Polar- als auch des Azimutwinkels zur rekonstruierten Molekülachse zeigen keine ausgeprägte Abhängigkeit von der Polarisation. Dies rehabilitiert das von Guillemin et al. in Frage gestellte Zweistufenmodell des Augerzerfalls. Durch Selektion der kinetischen Energie der Augerelektronen und der bei der Coulombexplosion freigesetzten kinetischen Energie (KER) gelingt es, kurzlebige Molekülionen nach Drehimpulszuständen zu trennen und deutlich anisotrope Emissionsmuster zu beobachten. Die Muster lassen sich qualitativ erklären. Langlebigere Molekülionen zeigen ein scharfe Vibrationlinien im KER-Spektrum. Das Vibrationsspektrum wird analysiert und in Bezug zu vorangehenden Messungen gesetzt. Durch die koinzidente Meßmethode ist es möglich, bislang nicht beobachtbare Vibrationslinien zu identifizieren.
The main subject of the thesis is the investigation of low-temperature-grown (LTG) GaAs-based photoconductive switches used in the generation of continuous-wave (CW) and pulsed terahertz (THz) radiation. The use of photoconductive switches based on low-temperature-grown GaAs proved to be a viable option in generating electromagnetic transients on a subpicosecond time-scale, corresponding to frequencies of ~1012 Hz (between microwave and far-infrared). The most appealing property of LTG-GaAs is the ultra-short carrier lifetime obtained by incorporation of a large number of As defects when GaAs is grown at low temperatures. However, the reason for poor THz emission efficiency (low CW-THz power lrvrls) is still up to this date not fully understood. The various reasons are to be found in both, optoelectronic properties of the active layer (photoconducting material) as well as in the device characteristics. The thesis focuses primarily on the limitation imposed to the performance of the THz emitters by the material of choice for the active layer (LTG-GaAs) and secondarily, on the impact of a particular emitter design on the THz radiation efficiency. In the beginning of the thesis one finds an ample overview on the electrical and optical properties of the LTG-GaAs material. A special chapter deals with the main features of current-voltage and CW-THz emission characteristics measured from a photoconductive antenna employed as photomixer. We observed deviations from the theoretical predictions of photomixing theory which were explained by considering the high-field electrons effects (velocity overshoot and elongation of the carrier trapping time). With the scope to provide a better understanding of the correlation between device and material properties when the LTG-GaAs material is integrated with a planar antenna (photoswitch), a special THz double-pulse technique (THz-pump and -probe) was implemented. The experimental results assisted by modeling of the double-pulse THz data provide a gainful insight into the ultrafast dynamics of the electrical field and photogenerated carriers. The outcome of the double-pulse experiments is the evidence for long-living carriers in the LTG-GaAs-based photoconductive antenna under applied bias, with a deleterious impact upon the emitter performance (especially for the CW case). Additionally, by measuring the THz transients generated by a constant laser pulse with and without a CW laser background illumination, we obtained further evidence of strong field-screening effects. This phenomenon was also attributed to the existence of long-living space-charge effects. For both cases (pulsed as well as CW) we derived the de-screening time constant. The principal conclusion of the present study is that, besides shortcomings imposed by the THz-circuitry, photomixers based on materials with traps (defects) exhibit great “affinity” for space-charge screening effects with cumulative and therefore long-lived deleterious impact upon device’s performance. An alternative would be the usage of a transient-time limited device where the response time is given by the carrier collection time, possibly with only one type of carrier responsible for THz signal generation.
Es wird ein effektives Modell zur Berücksichtigung einer Minimalen Länge in der Quantenfeldtheorie vorgestellt. Im Falle der Existenz Großer Extradimensionen kann dies zu überprüfbaren Modifikationen verschiedener Experimente führen. Es werden verschiedene Phänomene wie z.B. der Casimir-Effekt, Neutrino-Nukleon-Reaktionen oder Neutrinooszillationen diskutiert.
Für Experimente der Atomphysikgruppe der GSI in Darmstadt wird ein Ionenabbremser gebaut, der niederenergetische, extrem hochgeladene Ionen zur Verfügung stellen wird. Die Planungen zu der soganennten HITRAP (highly charged ion's trap) begannen Anfang der neunziger Jahre. Mit dieser Anlage sollen hochgeladene, schwere Ionen auf sehr niedrige, thermische Geschwindigkeiten in zwei Stufen abgebremst und für hochpräzise Massenspektroskopie, Messungen des g-Faktors des gebundenen Elektrons wasserstoffähnlicher Ionen und andere atomphysikalische Experimente zur Verfügung stehen. Diese Deceleratoranlage soll zunächst im Reinjektionskanal hinter dem ESR aufgebaut werden, mit der Möglichkeit, alle Komponenten später beim Ausbau der GSI im Rahmen des FAIR-Projektes in der neu zu errichtenden Anlage für niederenergetische Antiprotonen und Ionen zu verwenden. Die vorliegende Arbeit behandelt die Entwicklung und den Aufbau eines integrierten RFQ-Debuncher-Abbremsbeschleunigers, der einen Teil der HITRAP-Abbremsstrukturen darstellt. Mit diesem wird der Ionenstrahl, vom IH-Abbremsbeschleuniger mit einer Energie von 5oo keV/u kommend auf 6 keV/u abgebremst. Mit dem integrierten Spiralbuncher kann der Strahl in Energie und Energieabweichung an die nachfolgende Kühlerfalle angepasst werden. Es wurden in dieser Arbeit die Grundlagen der Teilchendynamik in einem RFQ-Beschleuniger zum Abbremsen von Teilchenstrahlen erarbeitet und umgesetzt, die zur Auslegung einer solchen Struktur notwendigen Teilchendynamikrechnungen mit RFQSim durchgeführt, geeignete Hf-Strukturen mit dem Simulationsprogramm Microwave Studio entwickelt und untersucht, sowie die thermische Belastung der Strukturen mit dem finite Elementeprogramm ALGOR untersucht. Ein weiterer zentraler Punkt dieser Arbeit ist der Aufbau und die Hf-Abstimmung der RFQ-Struktur, um eine möglichst homogene Feldverteilung entlang der Elektroden zu erreichen. Messungen der Felder im RFQ wurden mit einem Störkondensator, am Debuncher mit einem Störkörper durchgeführt. Nach erfolgreich durchgeführten Vakuumtests am IAP ist die RFQ-Debuncher-Kombination nun bereit für erste Hochleistungstests an der GSI.
Untersuchungen zur zerstörungsfreien Emittanzmessung an einem negativen Wasserstoffionenstrahl
(2007)
Die Arbeit beschäftigte sich sowohl theoretisch wie auch praktisch mit einem neuartigen Konzept zur Strahldiagnose — der zerstörungsfreien Emittanzmessung für negative Ionenstrahlen. Bei H¯ Strahlen kann auf mechanische Bauteile verzichtet werden, wenn bei einem kleinen Teil der H¯ Ionen das zusätzliche, nur mit 0,754 eV schwach gebundene Elektron durch Photodetachment abgelöst wird. Die neutralisierten H¯ Ionen können magnetisch oder elektrostatisch von den Elektronen und den verbliebenen H¯ Ionen separiert werden. Insbesonders die Neutralteilchen bieten sich zur Bestimmung der Phasenraumverteilung des Ionenstrahls an, da der Impulsübertrag bei der Photoneutralisation für die vorliegende Anwendung vernachlässigbar ist. Die Detektion des Divergenzwinkels kann durch einen Szintillator mit einer CCD–Kamera erfasst werden. Ein Modell zur Berechnung der Anzahl der neutralisierten Teilchen ist unter der Annahme homogener Dichteverteilungen entwickelt worden, um Aussagen zu den Anforderungen an Lasersystem und Detektor zu machen. Dabei zeigt sich die besondere Eignung des Meßverfahrens für Strahlstöme und Strahlparameter, wie sie typischerweise nach einem RFQ vorliegen. Da im Gegensatz zur Schlitz–Schlitz Emittanzmessung wird hier die Winkeldetektion mit einem ortsauflösenden Szintillator durchgeführt. Daraus ergibt sich als neues Verfahren eine Schlitz–Punkt Abbildung. Im Vergleich zum Schlitz–Schlitz Messprinzip können damit mehr Informationen über die Phasenraumverteilung gewonnen werden. Um diese neue Abbildungsfunktion zu untersuchen, ist eine Methode zur Simulation der Winkeldetektion entwickelt worden. In den Simulationen ist angenommen worden, daß der Schlitz bzw. Laser analog zur Messung einer yy´ Emittanz entlang der y–Achse durch den Ionenstrahl gefahren wird, die ausgeschnittene Teilchenverteilung ist bis zum Ort des Szintillators transportiert worden. Dabei sind etliche Zusammenhänge der Abbildungsfunktion zwischen den 2dim Phasenraumprojektionen yy´ , xx´ und der Verteilung der neutralisierten Ionen auf dem Teilchendetektor aufgezeigt worden. Dabei läßt sich nachweisen, daß die Aberrationen aus der anderen transversalen Ebene (x–Ebene) die Verteilungsfunktion mit beeinflusst. Für die experimentellen Untersuchung der Photodetachment Strahldiagnose wurde eine Beamline aus Ionenquelle mit Dumpingsystem, differentiellem Pumptank und Linsensystem aufgebaut. Dabei wurde bei einer vorhandenen H¯ Quelle der Strom von anfänglich 70 mycroA auf 2,5 mA gesteigert. Das Dumpingsystem erwies sich als sehr effektiv und lenkte bis zur Nachweisgrenze alle zusätzlich extrahierten Elektronen aus dem Strahl aus. Die Komponenten und der gesamte Aufbau zur Photodetachment Strahldiagnose schließen den Dipol bzw. die Konstruktion der Vakuumkammer zur Ladungsseparation, die Auswahl eines geeigneten Szintillators und die Bestimmung der Laserstrahlparameter und dessen Strahlwegs mit ein. Bei den Experimenten zur Photoneutralisation konnte eindeutig das Meßsignal dem Photodetachment zugeordnet werden. Auch die Linearität des Szintillators konnte eindeutig gezeigt werden. Ebenfalls konnte die Beeinflussung der Einzellinsen auf den Ionenstrahl an Hand neutralisierter Teilchen gezeigt werden: Bei Vergrößerung der Brechkraft wurde der zunächst große Strahldruchmesser mit einem Intensitätsmaximum im Strahlkern zu einer hohlstrahlähnlichen Verteilung mit einem Peak in der Strahlmitte und am Strahlrand fokussiert. Bei weiterer Steigerung der Linsenspannung ließ sich die Intensität im Strahlrand wieder reduzieren. Durch die Veränderung der y–Position wurden Winkelprofile mit den zuvor gemessenen Schlitz–Schlitz Emittanzfiguren verglichen. Dabei konnte der Divergenzwinkel und auch die Lage des Strahlkerns im Rahmen der Meßgenauigkeit sehr gut wiedergegeben werden. Andererseits zeigten sich deutliche Unterschiede bei der Auswertung der Intensitäten. Dies ist zum Teil auf die schlechte Wiedergabe eines Holhlstrahls durch eine zweidimensionale Phasenraumprojektion yy´ zu erklären. Außerdem ist der Ionenstrahl durch die kleine Bauhöhe der Magnetkammer kollimiert worden, was den Strahl im Vergleich zu den vorherigen Schlitz–Schlitz Emittanzmessungen nachhaltig beeinflusst hat. Dagegen wiesen im direkten Vergleich, nämlich der zweidimensionalen, „wahren“ Ortsverteilung des Ionenstrahls am Szintillator mit den aufaddierten Neutralteilchen–Verteilungen, beide Verteilungen sehr ähnliche Muster auf. Die Messungen sind fast ausnahmslos an stark aberrationsbehafteten Ionenstrahlen durchgeführt worden. Dabei konnte die in den Simulationen der Abbildungseigenschaften gefundenen geschlossenen, achtförmigen Verteilungen unter Berücksichtigung der begrenzten Nachweisempfindlichkeit des Detektors sehr gut nachvollzogen werden.
The high energy loss of heavy ions in matter as well as the small angular scattering makes heavy ion beams an excellent tool to produce almost cylindrical and homogeneously excited volumes in matter. This aspect can be used to pump short wavelength lasers. In an experiment performed at the GSI (Gesellschaft für Schwerionenforschung, Darmstadt, Germany) ion accelerator facility in December 2005 the well-known KrF* excimer laser was pumped with an intense high energy uranium beam. Pulses of an uranium beam with initial particle energy of 250 MeV per nucleon, provided by heavy-ion-synchrotron SIS-18, were delivered to the HHT-target station and then stopped inside a gas laser cell. The maximum beam intensity reached in the experiment was 2,5·109 particles per pulse, which resulted in 34 J/g specific energy deposited in the laser gas. By applying electron cooling and a bunch compression technique at SIS-18, the beam pulses were compressed down to 110 ns (FWHM). A mixture of an excimer laser premix gas (95,5% Kr + 0,5% F2) and a buffer gas (Ar 4.8) was used as the laser gas in proportions of 35/65 and 60/40, respectively. The gas pressure inside the laser cell was varied in the range of 1,2÷2 bar in continues flow mode. The experimental setup consisted of a 1 m long stainless steel tube with a number of diagnostic viewports and two mirror adjustment units. The optical cavity was formed by a flat, Alcoated mirror at the beam entrance and a second dielectrically coated, highly reflective mirror with 3 m radius of curvature at a distance of 1,3 m. A beam of heavy ions has been used to pump a short wavelength gas laser for the first time. Laser effect on the KrF* laser transition (λ = 248 nm) has been successfully demonstrated. Laser threshold for this specific setup was reached with a beam intensity of 1,2·109 particles per pulse. Laser action has been clearly proofed by the following methods: appearance of the laser line, spectral narrowing of the laser line, temporal narrowing of the laser signal, non-linear response of the laser output intensity on the pumping power, and cavity disalignment effect. An energy of the laser pulse of about 2 mJ was measured for an ion beam intensity of 2·109 particles per pulse. The time delay of the onset of the laser emission with respect to the pumping pulse was measured as a function of ion beam intensity. The dependence of spontaneous emission spectra on the gas pressure in a range of 1,3÷2 bar was observed and the optimal gas pressure for laser experiments in the sense of laser efficiency was concluded. As a next step in studying short wavelength lasers pumped with heavy ion beams it is planned to reduce the laser wavelength down to the VUV region of the spectrum, and to proceed to the excimer lasers of the pure rare gases: Xe2 * (λ = 172 nm), Kr2 * (λ = 146 nm), Ar2 * (λ = 126 nm), Ne2 * (λ = 83 nm) and He2 * (λ = 80 nm). We believe that the use of heavy ion beams as a pumping source may lead to new pumping schemes on the higher lying level transitions and considerably shorter wavelengths (XUV and X-ray spectral region), which rely on the high cross sections for multiple ionization of the target species.
Quantum chromodynamics predicts the existence of a phase transition from hadronic to quark-gluon matter when temperature and pressure are sufficiently high. Colliding heavy nuclei at ultra-relativistic speeds allows to deposit large amounts of energy in a small volume of space, and is the only available experimental mean to produce the extreme conditions necessary to obtain the deconfined state. Numerous models and ideas were developed in the last decades to study heavy ion physics and understand the properties of extremely heated and compressed nuclear matter. With the ever increasing energy available in the center of mass frame (and thus number of particles produced) and the development of large acceptance detectors, it has become possible to study the fluctuations of physical quantities on an event-by-event basis, and access thermodynamical properties not present in particle spectra. The characteristics of the highly excited matter produced, e.g. thermalization, effect of resonance decay. . . can be investigated by fluctuation analyses. In fact, fluctuations are good indicators for a phase transition and a plethora of fluctuation probes have been proposed to pin down the existence and the properties of the QGP. We study various fluctuation quantities within the Ultra-relativistic Quantum Molecular Dynamics UrQMD and the quantum Molecular Dynamics qMD models. UrQMD is based on hadron and string degrees of freedom and allows to disentangle purely hadronic effects. In contrast, the qMD model includes an explicit transition from quark to hadronic matter and can serve to test adequate probes of the initial QGP state. We show that the qMD model can reasonably reproduce various experimental particles rapidity distributions and transverse mass spectra in wide energy range. Within the frame of the dynamical recombination procedure used in qMD, we study the enhancement of protons over pions (p/π) ratio in the intermediate pt range (1.5 < pt < 2.5). We show that qMD can reproduce the large p/π ≈ 1 observed experimentally at RHIC energies at hadronization. However, the subsequent decay of resonances makes the ratio fall to values incompatible with experimental data. We thus conclude that resonance decay might have a drastic influence on this observable in the quark recombination picture. Charged particles multiplicity fluctuations measured at SPS by the NA49 collaboration are enhanced in midperipheral events for Pb+Pb collisions at Elab = 160 AGeV. This feature is not reproduce by hadron-string transport approaches, which show a flat centrality dependence, within the proper experimental acceptance and with the proper centrality selection procedure. However, we show that the behavior of multiplicity fluctuations in transport codes is similar to the experimental result in full 4π acceptance. We identify the centrality selection procedure as the reason for the enhanced particle multiplicity fluctuations in midperipheral reactions and argue that it can be used to distinguish between different scenarios of particle productions. We show that experimental data might indicate a strong mixing of projectile and target related production sources. Strangeness over entropy K/π and baryon number over entropy p/π ratio fluctuations have been measured by the NA49 experiment in the SPS energy range, from Elab = 20 AGeV up to Elab = 160 AGeV. We investigate the sensitivity of this observable to kinematical cuts and discuss the influence of resonance decay. We find the dynamical p/π ratio fluctuations to increase with beam energy, in agreement with the measured data points. On the contrary, the dynamical K/π ratio fluctuations are essential flat as a function of centrality and depend only weakly on the kinematical cuts applied. Our results are in line with the simulations performed earlier by the NA49 collaboration in their detector acceptance filter. Finally, we focus on the correlations and fluctuations of conserved charges. It was proposed that these fluctuations are sensitive to the fractional charge carried by the quarks in the initial QGP stage and survive the whole course of heavy ion reactions. A crucial point is the influence of hadronization that may relax the initial QGP fluctuation/correlation signals to their hadronic values. We use the quark Molecular Dynamics qMD model to disentangle the effect of recombination-hadronization on charged particles ratio fluctuations, charge transfer fluctuations, baryon number-strangeness correlation coefficient and various ratios of susceptibilities (i.e. correlations over fluctuations). We find that the dynamical recombination procedure implemented in the qMD model destroys all studied initial QGP fluctuations and correlations and might ex- plain why no signal of a phase transition based on event-by-event fluctuations was found in the experimental data until now.
Die vorliegende Arbeit beschäftigt sich mit den Tieftemperatureigenschaften dreier niedrigdimensionaler Spinsysteme. Der experimentelle Schwerpunkt liegt auf Messungen zur thermischen Ausdehnung und zur spezifischen Wärme, die mit einem hochauflösenden kapazitiven Dilatometer bzw. einem AC-Kalorimetrie-Aufbau durchgeführt wurden. Da die sogenannten magnetischen Grüneisenparameter, die die Stärke der Kopplung des magnetischen Teilsystems ans Gitter beschreiben, durchweg sehr groß sind, liefern insbesondere die thermischen Ausdehnungsmessungen wertvolle Informationen zum Verständnis der behandelten Systeme. Das zentrale Ergebnis dieser Arbeit stellen Messungen an der Hochdruckphase von (VO)2P2O7, kurz HP-VOPO, dar. Dieses System besteht aus alternierenden Spinketten, wobei die beiden Austauschkonstanten ähnliche Werte haben, das heißt es liegt nur eine schwache Alternierung vor. In der thermischen Ausdehnung beobachtet man eine insbesondere in Kettenrichtung sehr ausgeprägte Anomalie bei etwa 13 K. Die Erklärung dieser Anomalie offenbart einen neuartigen Aspekt von alternierenden Spinketten mit schwacher Alternierung, der auf dem Vorhandensein von zwei deutlich verschiedenen Energieskalen beruht, zum einen der größeren der beiden Austauschkonstanten und zum anderen der Energielücke im System. Eine sehr gute quantitative Beschreibung der thermischen Ausdehnungsmessungen gelingt durch eine Erweiterung des herkömmlichen Grüneisenmodells, welches eine Proportionalität zwischen den magnetischen Beiträgen zur thermischen Ausdehnung und zur spezifischen Wärme vorsieht, auf Systeme mit zwei magnetischen Austauschkonstanten. In diesem Fall tritt in der thermischen Ausdehnung ein zusätzlicher, zur Ableitung der Entropie nach der Energielücke proportionaler Term auf, der durch Messungen zur spezifischen Wärme nicht zugänglich ist. Aus den unter Verwendung dieses Modells bestimmten Grüneisenparametern lässt sich folgern, dass die ausgeprägte Tieftemperaturanomalie in HP-VOPO zum Teil von der starken Verzerrungsabhängigkeit der kleineren der beiden Austauschkonstanten, zum Teil aber auch von der Nähe zu einem quantenkritischen Punkt verursacht wird. Das zweidimensionale Dimersystem SrCu2(BO3)2 hat insbesondere durch die Lokalisierung der Triplettanregungen und die dadurch bedingten Magnetisierungsplateaus bei gewissen Bruchteilen der Sättigungsmagnetisierung Berühmtheit erlangt. In der thermischen Ausdehnung wird eine deutliche Anomalie bei der gleichen Temperatur beobachtet (T = 8K), wo sie auch in der spezifischen Wärme auftritt. Sie lässt sich durch die thermische Anregung der lokalisierten Tripletts erklären. Abschließend werden Messungen am natürlichen Mineral Azurit vorgestellt, bei dem die Spins zu sogenannten Diamantketten angeordnet sind. In der Literatur wird noch diskutiert, ob es sich bei Azurit um die magnetisch frustrierte Variante einer solchen Kette handelt. In der magnetischen Suszeptibilität, der spezifischen Wärme und der thermischen Ausdehnung tritt eine auffallende Doppelstruktur auf. Im Tieftemperaturbereich lässt sich die spezifische Wärme gut mit dem effektiven Modell einer homogenen Spinkette beschreiben. Auch der lambdaförmige antiferromagnetische Ordnungsübergang wurde untersucht und das in der Literatur bis B = 2 T gegebene Phasendiagramm, bestehend aus paramagnetischer, antiferromagnetische und Spin-Flop-Phase, bis B = 10 T erweitert.
Die vorliegende Arbeit präsentiert die Ergebnisse der Erzeugung und Diagnostik eines HF-Plasmas in einem magnetischen Quadrupolfeld. Einen Schwerpunkt bildete dabei der Einfluss des magnetischen Quadrupolfeldes auf die Plasmaparameter Elektronentemperatur Te und Elektronendichte ne. Die Extraktion eines Ionenstrahls bietet die Möglichkeit, Zusammenhänge zwischen den erreichten Strahlparametern und den physikalischen Eigenschaften des HF-Plasmas herzustellen. Zudem wird eine Korrelation zwischen der Geometrie der Entladung, der erreichbaren Plasmaparameter und der eingespeisten HF-Leistung aufgezeigt werden. Zunächst wurde die Elektronentemperatur in Abhängigkeit vom eingestellten Gasdruck und von der Stromstärke in den Feldspulen des magnetischen Quadrupols vermessen. Die Emissionsspektroskopie bot sich hierbei als nicht invasive Diagnostik an. Eine umfangreiche Messreihe ergab schließlich ein Profil der Elektronentemperatur, als Funktion der variablen Parameter Gasdruck und Erregerstromstärke. Die Elektronentemperatur im Plasma lag dabei im Bereich zwischen 3eV ohne Magnetfeld bis maximal 11eV mit magnetischem Einschluss. Hierbei zeigten sich einige, auf den ersten Blick überraschende Ergebnisse. So ergab sich ein lokales Maximum der Elektronentemperatur von 11eV bei einem Gasdruck von 1Pa und einer Flussdichte von 11mT. Als physikalische Ursache konnte die Kombination aus zwei resonanten Heizmechanismen identifiziert werden. Sowohl die stochastische Heizung als auch die lokale Anwesenheit von Zyklotronresonanzbedingungen führten zu einer starken Erhöhung der Elektronentemperatur. Ferner konnte experimentell nachgewiesen werden, dass die charakteristischen Eigenschaften des Quadrupolfeldes, das Entstehen dieser Heizmechanismen in einem engen Parameterbereich begünstigte. In diesem Zusammenhang ist die Ausprägung einer Gyroresonanzzone im HF-Plasma erwähnenswert, deren Ausdehnung mit dem Erregerstrom in den Feldspulen des Quadrupols skaliert und die einen maßgeblichen Einfluss auf die Ausprägung hochenergetischer Elektronen hat. Neben der Diagnostik stand auch die Extraktion eines Ionenstrahls im Vordergrund. Das Potential des Gesamtsystems, als Ionenquelle zu fungieren wurde dabei experimentell verifiziert. Spezifische Strahlstromdichten von 8mA/cm²kW konnten dabei erreicht werden. Es ergab sich hierdurch auch die Möglichkeit, einen Zusammenhang zwischen der Elektronendichte im Plasma und der eingespeisten HF-Leistung herzustellen. Die Ergebnisse dienten anschließen dazu, den Einschluss des Plasmas im magnetischen Quadrupolfeld zu quantifizieren. Beim Betrieb des Plasmagenerators ohne Magnetfeld wurden Elektronendichten von 3 . 1016m-3 erzielt. Mit fokussierendem Quadrupolfeld konnte eine lokale Steigerung der Elektronendichte um den Faktor 10 auf 3 . 1017m-3 dokumentiert werden, was die theoretischen Studien von C. Christiansen und J. Jacoby [Chr99], zu den fokussierenden Eigenschaften eines magnetischen Quadrupols, bestätigte. Große Sorgfalt war bei der Konzeption der HF-Einspeisung erforderlich. Da für Entladungsplasmen ein im hohen Maß nichtlinearer Zusammenhang, zwischen den Plasmaparametern und der eingespeisten HF-Leistung besteht, erwies sich die Entwicklung einer HF-Einkopplung als besondere Herausforderung. Hier zeigte sich die Plasmadiagnostik als unverzichtbares Hilfsmittel, um theoretische Vorhersagen und experimentellen Befund in Einklang zu bringen. Als limitierende Rahmenbedingungen erwiesen sich hier die Abmessungen des Quadrupols. In der vorliegenden Arbeit konnte dokumentiert werden, wie die geometrischen Einschränkungen die Auswahl der HF-Einkopplung bestimmten. Das zur Untersuchung des magnetischen Plasmaeinschlusses verwendete Glasrohr, mit einer verhältnismäßig großen Oberfläche und einem vergleichsweise kleinem Volumen, war für eine kapazitive HF-Einkopplung wesentlich besser geeignet als für die ursprünglich antizipierte induktive Plasmaanregung. Die physikalischen Zusammenhänge zwischen den erreichbaren Plasmaparametern, der verwendeten Koppelmethode, der erzielbaren Stromstärke des Ionenstrahls und den Abmessungen des Entladungsgefäßes, konnten durch eine umfassende Analyse aufgeklärt werden. Zudem wurde auch die Problematik des Zerstäubens von Elektrodenmaterial einer qualitativen Untersuchung unterzogen. Hier kristallisierten sich vor allen Dingen die hohen Randschichtpotentiale bei der verwendeten HF-Einkopplung, als physikalische Ursache für die Sputterrate heraus. Basieren auf den gewonnenen Erkenntnissen wurde eine Maßnahme zur Reduzierung der Sputterproblematik vorgenommen. Die Untersuchung des magnetisch eingeschlossenen Entladungsplasmas brachte Einsichten über die Zusammenhänge zwischen gewählter HF-Einkopplung, den Plasmaparametern und den Rahmenbedingungen der Entladungsgeometrie. Es ergeben sich hierdurch wichtige Erkenntnisse, die eine Aufskalierung des vorliegenden Aufbaus hin zu einer Hochstromionenquelle mit spezifischen Strahlstromdichten von 100mA/cm²kW ermöglichen. Ferner ist auch ein Einsatz der Konfiguration als Plasmatarget möglich, um Wechselwirkungen zwischen hochenergetischen Schwerionen und magnetisch fokussierten Entladungsplasmen zu untersuchen.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung des Prototypen einer supraleitenden CH-Beschleuniger-Struktur. Viele zukünftige Beschleunigeranlagen benötigen ein hohes Tastverhältnis bis hin zum so genannten cw-Betrieb. Dies würde bei normalleitenden Beschleunigern zu sehr großer Wärmeentwicklung führen, welche durch aufwendige Verfahren weggekühlt werden müsste. Da dies meistens gar nicht mehr möglich ist, kommen in solchen Bereichen heutzutage schon häufig supraleitende Beschleuniger zum Einsatz. Große Projekte, die im Hochenergiebereich auf die Supraleitung setzten, sind die SNS Beschleunigeranlage in Oak Ridge (Inbetriebnahme läuft) und das RIA-Projekt, welches radioaktive Isotope beschleunigen soll. Auch zukünftige Projekte, wie ein cw-Linac zur SHE-Synthese, EUROTRANS und IFMIF, sind ohne supraleitende Komponenten nur schwer vorstellbar. Im Rahmen dieser Arbeit wurden zunächst die anderen zur Familie der so genannten H-Moden-Beschleuniger gehörenden Resonatoren kurz vorgestellt. Danach wurde eine Einführung in die Supraleitung mit den wichtigsten Parametern für Niob und den HF-Eigenschaften von Supraleitern gegeben. Um Beschleuniger zu charakterisieren wurde in einem weiteren Kapitel ein überblick über wichtige Kenngrößen gegeben. Dabei wurde auch ein Vergleich der Skalierung von verschiedenen Parametern zwischen Normalleitung und Supraleitung gegeben. Da die Simulationsrechnungen mit dem Programm CST MicroWave Studio durchgeführt wurden, wurden die Grundlagen dieses Programms ebenfalls eingeführt. Es basiert auf der Finiten Integrationstheorie, welche die Maxwell-Gleichungen in eine Zwei-Gitter-Matrixform überführt, damit diese numerisch gelöst werden können. In einem weiteren Kapitel wurde eine Methode zur Bestimmung der Einkopplungsstärke in einen Resonator näher beschrieben. Dabei wurde auf zwei wesentliche Einkopplungsarten, die induktive und die kapazitive, im Detail eingegangen. Die Bestimmung der so genannten externen Güte stellt einen wesentlichen Punkt dar, um die Leitung, die durch einen Sender und Verstärker zur Verfügung gestellt wird, möglichst optimal in den Beschleuniger einzuführen. Wobei auch hierbei wieder auf die Unterschiede zwischen einer Einkopplung in einen normalleitenden und einen supraleitenden Beschleuniger eingegangen wurde. Bei einer supraleitenden Struktur erfolgt die Einkopplung in der Regel überkoppelt. Dies bedeutet, dass man durch zu starke Einkopplung die belastete Güte des Systems herabsetzt, damit eine bessere Regelung möglich ist. Um eine numerische Methode auf ihre Tauglichkeit hin zu testen, wurde zuerst eine Pillbox genommen, um die simulierten Ergebnisse mit einer Messung zu vergleichen. Als sich dabei sehr gute Ergebnisse herausstellten, wurde die Methode noch an einem Kupfermodell einer CH-Struktur verifiziert, bevor die Einkopplung für den supraleitenden Prototyp berechnet wurde. Im 7. Kapitel dieser Arbeit wurden die Voraussetzungen, die vorher geschaffen wurden, für die Optimierung des Prototyps der supraleitenden CH-Struktur angewendet. Dabei ging es um die Optimierung der Feldverteilung auf der Strahlachse durch Anpassung des Endzellendesigns, der Stützenoptimierung, um die magnetischen und elektrischen Spitzenfelder zu reduzieren, einer Untersuchung des Quadrupolanteils in den Spalten der CH-Struktur, der Einkopplung und schließlich um die Möglichkeit des statischen Tunings während der Fertigstellung der Struktur. Auf Grund dieser Untersuchungen wurde schließlich die Fertigstellung eines ersten supraleitenden Prototyps bei der Firma ACCEL in Bergisch-Gladbach in Auftrag gegeben. Diese Struktur wurde in mehreren Kalttests untersucht. Dabei konnten die vorher durch die Simulation festgelegten Designparameter sehr gut verifiziert werden. In den beiden letzten Kapiteln wurden noch Simulationen für eine im Betrieb befindliche Beschleunigeranlage durchgeführt und ein Ausblick auf mögliche Einsatzgebiete der supraleitenden CH-Struktur gegeben. Die durchgeführten Optimierungen für den Hochstrominjektor führten zu einem stabileren Betrieb der Anlage. Durch diese Arbeit konnte gezeigt werden, dass die neuentwickelte CH-Struktur für den Einsatz in supraleitenden Beschleunigern sehr gut geeignet ist. Sie stellt eine sehr kompakte Struktur dar und bietet somit auf kurzer Stecke eine hohe Beschleunigung. Sie ist im Bereich von 10-30% Lichtgeschwindigkeit die einzige supraleitende Vielzellenstruktur.