Refine
Year of publication
Document Type
- Doctoral Thesis (593) (remove)
Has Fulltext
- yes (593)
Is part of the Bibliography
- no (593) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (593) (remove)
In der vorliegenden Arbeit wird das Auslesekonzept der Driftkammern untersucht und seine Integration in das HADES Datenaufnahmesystem beschrieben. Bedingt durch das mehrstufige Triggersystem und die hohen Anforderungen an die Geschwindigkeit des Systems wurden Methoden zur Datenreduktion entwickelt. Dadurch ist es möglich, die Daten von allen 27 000 Kanälen innerhalb von 10 µs nach dem Trigger auszulesen. Die Daten werden innerhalb von ungefähr 40 ns nach dem Signal der zweiten Triggerstufe weitertransportiert. Im Rahmen der Untersuchungen zur Überwachung der Driftkammerdaten, die im zweiten Teil der Arbeit beschrieben werden, wurde mit der verwendeten Methode zur Bestimmung der intrinsischen Auflösung eine deutliche Verschlechterung Auflösung der Kammern festgestellt, von 120 µm im November 2001 auf über 200 µm im September 2003. Als Ursache hierfür wurde zum einen die geänderte Kalibrationsmethode ausgemacht, die die Laufzeiten der Signale nicht mehr berücksichtigt, zum anderen eine Änderung der Driftgeschwindigkeit aufgrund einer nicht optimalen Hochspannung. Die Methode zur Bestimmung des physikalischen Zentrums der Kammern erlaubt eine Aussage über die Position der Kammern relativ zur Sollposition. Die dabei gefundenen Verschiebungen entlang der z - Achse stimmen für einen Teil der Sektoren mit den im Rahmen des Alignments ermittelten Werten für die Verschiebung des Targets überein. Für die anderen Sektoren ergeben sich zusätzlicher Verschiebungen um 2 bis 6 cm. Das Di - Leptonen - Spektrometer HADES (High Acceptance Di -Elektron-Spektrometer) am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) beginnt nun mit detaillierten Studien leptonischer Zerfälle von Vektormesonen in Kern - Kern - Stößen mit Projektilenergien von 1 bis 2 GeV / Nukleon. Dabei liegt der Schwerpunkt auf der Untersuchung von Zerfällen, die in der Phase hoher Dichte (ungefähr 3 · p..0) und hoher Temperatur stattfinden. Es wird erwartet, daß sich aus der dabei zu beobachtenden Massenverteilung der unterhalb der Schwelle produzierten leichten Vektormesonen r, o und ph ein Hinweis auf die partielle Wiederherstellung der im Vakuum gebrochenen chiralen Symmetrie ergibt.
Die Coltrims-Methode hat sich seit den 1990er Jahren als gutes experimentelles Instrument in der Atomphysik und darüberhinaus etabliert. Sie beruht darauf, dass die bei einer Reaktion entstehenden Fragmente mit ortssensitiven Detektoren nachgewiesen werden. Die Signale der Detektoren wurden bisher mit einem analogen Vorverstärker verstärkt und dann mit Hilfe eines Constant Fraction Discriminators in digitale Signale umgewandelt. Die Zeitinformation der digitalen Signale wurden von Time to Digital Convertern aufgenommen und im Computer gespeichert. Mit dieser Form der Auslese und Analyse der von den Detektoren stammenden Signale können nur einige wenige Fragmente nachgewiesen werden. Die Lösung dieses Problems besteht also darin, eine neue Variante für die Auslese und Analyse der Signale zu finden. Diese wurde in der Verwendung eines Transientenrekorders gefunden. Anstatt nur die Zeitinformation zu speichern, nimmt dieser die gesamte Signalform der Detektoren auf. Die Aufgabe, die in dieser Arbeit bearbeitet werden sollte, bestand darin, eine Software zu entwickeln, mit deren Hilfe der Transientenrekorder gesteuert werden kann. Auch sollte ein Weg gefunden werden nur die für das Experiment notwendigen Informationen des aufgenommenen Zeitfensters zu speichern. Des Weiteren sollten Methoden aufgezeigt werden, wie die aufgenommen Signale untersucht und deren Parameter extrahiert werden können. Diese Methoden wurden dann an realen Signalen getestet. Nachdem im ersten Kapitel die Motivation zu dieser Arbeit und einige theoretische Hintergründe vorgestellt werden, wird im zweiten Kapitel auf verschiedene Methoden der Signalanalyse eingegangen. Der Augenmerk liegt dabei sowohl auf Einzel- sowie Doppelsignalanalyse. Die Güte der vorgestellten Algorithmen wird mit Hilfe von künstlichen Signalen ermittelt. Es zeigt sich, dass die beste Methode die zeitliche Position der Einzelsignale zu finden, der Pulsfit ist. Mit dieser Methode kann eine Auflösung von etwa 50 ps erzielt werden. Bei der Betrachtung der Doppelsignale stellt sich heraus, dass der minimale Abstand zwischen den Signalen 5 ns bis 7 ns betragen muss. Das dritte Kapitel zeigt eine Anwendung des neuen Aufnahmesystems. Dort werden die physikalischen Ergebnisse, die mit Hilfe des neuen Systems gewonnen werden konnten, mit einem herkömmlichen Aufnahmesystem verglichen. Aufgrund der geringeren Totzeit des neuen Aufnahmesystems konnte mehr Statistik gewonnen werden. Der dadurch gewonnene Vorteil zeigt sich deutlich in den Ergebnissen, bei denen eine vierfach Koinzidenz verlangt wird. Bei dem nächsten Kapitel beschriebenen Experiment mussten sehr viele Fragmente nachgewiesen werden. Hierzu wird ein weiteres Kriterium neben der Zeitsumme vorgestellt mit dem die Anodensignale einander zugewiesen werden können. Die in diesem Kapitel gezeigten physikalischen Ergebnisse zeigen die Impulsverteilungen für Neon und Helium für unterschiedliche Lichtintensitäten bzw. Ionisationsprozesse. Im darauf folgenden Kapitel wird beschrieben, wie die neue Aufnahmemethode dazu verwendet werden kann, die von den Detektoren kommenden Signale genauer zu analysieren. Die physikalische Reaktion führte dazu, dass von dem Detektor hauptsächlich Doppelsignale aufgenommen wurden. Dies erlaubt die Untersuchung der Doppelsignalalgorithmen an realen Signalen. Hierbei zeigte sich, dass die Totzeit bei realen Signalen vergleichbar mit der Totzeit bei künstlichen Signalen ist. Die Algorithmen können bei Abständen der Einzelsignale von weniger als 10 ns die Position der Signale nicht mehr genau bestimmen. Anhand der Pulshöhenverteilung kann gezeigt werden, dass der verwendete Detektor in der Mitte eine geringere Nachweiseffizienz hatte. Im letzten Kapitel wird die Güte der verschiedenen Methoden der Einzelsignalanalyse anhand von realen Signalen überprüft. Dabei wurden Signale desselben Detektors mit unterschiedlichen Vorverstärkern verstärkt. Die beiden Vorverstärker unterschieden sich in ihrer Bandbreitenbegrenzung. Die Daten wurden mit einem Transientenrekorder mit 2 GS aufgenommen. Es wird gezeigt wie diese Daten umgewandelt werden können, so dass sie einem System mit nur 1 GS entsprechen. Dies erlaubt es die Güte der Methoden für Signale eines Systems mit 2 GS mit denen eines Systems mit 1 GS zu vergleichen. Es zeigt sich in der Pulshöhenverteilung, dass die Signale des stärker bandbreitenbegrenzten Vorverstärkers vergleichbar mit den künstlichen Signalen sind. Die Signale des weniger stark bandbreitenbegrenzten Vorverstärkers weisen eine zu starke Abhängigkeit ihrer Breite von der Pulshöhe auf. Aus diesem Grund sind die Ergebnisse des letzt genannten Vorverstärkers abweichend von den Ergebnissen mit den künstlichen Signalen. Bei diesem Vorverstärker zeigte der einfache Constant Fraction Algorithmus die beste Auflösung.
Im Rahmen dieser Arbeit wurde untersucht, inwieweit eine Bewegungsschärzung aus monokularen Bildsequenzen von Straßenverkehrsszenen und eine darauf aufbauende Hinderniserkennung mit Hilfe von statistischen oder neuronalen Methoden realisiert werden kann. Bei dem zugrunde liegenden mathematischen Modell wird angenommen, daß die Umgebung, in der sich ein Fahrzeug bewegt, im wesentlichen eben ist, was für Verkehrsequenzen in guter Näherung erfüllt ist. Im ersten Teil dieser Arbeit wurde ein statistisches Verfahren zur Bewegungsschätzung vorgestellt und diskutiert. Der erste Schritt dieses Verfahrens stellt die Generierung eines sogenannten Markantheitsbildes dar, in welchem Objektkanten und Objektecken visuell hervorgehoben werden. Für die daraus resultierende Liste von markanten Bildbereichen werden anschließend unter Verwendung einer sogenannten Verschiebungsvektorschätzung, Korrespondenzen im zeitlich folgenden Bild ermittelt. Ausgehend von dem resultierenden Verschiebungsvektorfeld, werden in dem nächsten Schritt des Verfahrens die Bewegungsgrößen ermittelt, also die Rotationsmatrix und der Translationsvektor des Fahrzeugs, beziehungsweise der Kamera. Um abschließend eine Hinderniserkennung realisieren zu können, erfolgt unter Verwendung der Bewegungsgrößen eine Bewegungskompensation der Bilddaten. Bei einer solchen Bewegungskompensation wird unter Verwendung der ermittelten Bewegungsgrößen und dem Modell der bewegten Ebene eine Rücktransformation jedes Bildpixels durchgeführt, so daß bei der Bildung eines Differenzbildes zwischen dem bewegungskompensierten Bild und dem tatsächlich aufgenommenen Bild, dreidimensionale Strukturen, die ja das Ebenenmodell verletzen, deutlich hervortreten und somit auf potentielle Hindernisse hinweisen. Es hat sich gezeigt, daß Fehlmessungen in den Verschiebungsvektoren, welche beispielsweise durch periodische Strukturen auf der Ebene auftreten können, die Bewegungsschätzung und die Hinderniserkennung empfindlich stören. Diese statistischen Ausreißer bewirken, daß trotz der Verwendung von robusten Schätzmethoden, eine stabile Hinderniserkennung nur durch die Einbeziehung von Vorwissen über die Art der Bewegung des Fahrzeugs realisiert werden kann. Weiterhin führen die Komplexität des Verfahrens und die damit verbundenen hohen Anforderungen an die Rechenleistung der eingesetzten Hardware dazu, daß die für die praktische Anwendbarkeit so wichtige Echtzeitfähigkeit des Verfahrens bisher nur für Eingangsbilder mit geringer Auflösung ermöglicht werden konnte. Speziell für die Bildverarbeitung hat sich das neue Paradigma der Zellularen Neuronalen Netzwerke als außerordentlich leistungsfähig erwiesen. Neben der extrem hohen Verarbeitungsgeschwindigkeit von CNN-basierten schaltungstechnischen Realisierungen zeichnen sie sich durch eine hohe Robustheit bei vertauschten oder fehlerhaften Eingangsdaten aus. Für nahezu jedes aktuelle Problem der Bildverarbeitung wurde bisher ein geeignetes CNN bestimmt. Auch für komplexe Aufgabenstellungen aus der Bildverarbeitung, wie beispielsweise die Texturklassifikation, die Spurverfolgung oder die Gewinnung von Tiefeninformation konnten bereits CNN-Programme implementiert und schaltungstechnisch verwirklicht werden. So konnte auch im zweiten Teil dieser Arbeit gezeigt werden, daß die einzelnen Schritte der Hinderniserkennung aus monokularen Bildsequenzen ebenfalls unter Verwendung eines CNN realisierbar sind. Es wurde demonstriert, daß für die Generierung eines Markantheitsbildes bereits ein Standard-CNN mit linearer Kopplungsfunktion und der Nachbarschaft r=1 verwendet werden kann. Das rechenaufwändige statistische Verfahren der Markantheitsbildberechnung kann somit durch einen einzigen CNN-Verarbeitungsschritt durchgeführt werden. Weiterhin wurde im Rahmen dieser Arbeit gezeigt, daß auch der folgende, rechenintensive Schritt des statistischen Verfahrens der Hinderniserkennung, nämlich die Verschiebungsvektorschätzung, mittels CNN verwirklicht werden kann. Hierzu sind CNN mit polynomialen Kopplungsfunktionen und der Nachbarschaft r=1 notwendig. Bei den durchgeführten Untersuchungen hat sich herausgestellt, daß die CNN-basierten Verarbeitungsschritte den statistischen Methoden in den Punkten Robustheit und Verarbeitungsgeschwindigkeit deutlich überlegen sind. Abschließend wurde in dieser Arbeit gezeigt, daß mit Hilfe von CNN sogar eine direkte Hinderniserkennung aus monokularen Bildsequenzen - ohne den Umweg über die Bestimmung der Verschiebungsvektoren und der Bewegungsgrößen - realisiert werden kann. In dem vorgestellten Verfahren wird nach zwei Vorverarbeitungsschritten, die Hinderniserkennung in einem einzigen Schritt unter Verwendung eines CNN mit polynomialen Zellkopplungsgewichten vom Grade D=3 und der Nachbarschaft r=2 durchgeführt. Das vorgeschlagene Verfahren führt zu einer wesentlichen Vereinfachung der Hinderniserkennung in monokularen Bildsequenzen, da die Bewegegungsschätzung aus dem statistischen Verfahren nicht länger notwendig ist. Die Umgehung der expliziten Bewegungsschätzung hat weiterhin den Vorteil, daß der Rechenaufwand stark reduziert wurde und durch den Wegfall der Verschiebungsvektorschätzung und dem damit verketteten Problem der Ausreißer, ist das vorgestellte CNN-basierte Verfahren außerdem sehr robust. Die ersten Resultate, die unter Verwendung von synthetischen und natürlichen Bildsequenzen erhalten wurden, sind überaus vielversprechend und zeigen, daß CNN ausgezeichnet zur Verarbeitung von Videosequenzen geeignet sind.
Diese Arbeit befaßt sich mit der Untersuchung des Emissionsverhaltens der K+ Mesonen in Au + Au Stößen bei 1AGeV. Das Experiment wurde mit dem Kaonen-Spektrometer KaoS am Schwerionensynchrotron SIS der Gesellschaft für Schwerionenforschung GSI durchgeführt. In zahlreichen Untersuchungen relativistischer Schwerionenstöße wurde eine kollektive Bewegung der Nukleonen beobachtet, die als Fluß bezeichnet wird. In nichtzentralen Stößen wurde u. a. ein gerichteter Seitwärtsfluß der Nukleonen und Pionen in die Reaktionsebene und ein elliptischer Fluß senkrecht zur Reaktionsebene gefunden. Der Nukleonenfluß wird als hydrodynamischer Effekt aufgrund des Drucks in der Reaktionszone interpretiert, während der Fluß der Pionen als Folge der Endzustandswechselwirkung verstanden wird. In dieser Arbeit wurde die Untersuchung des Flußphänomens auf die positiv geladenen Kaonen erweitert. Die Kaonen, die ein seltsames Quark enthalten, stellen eine besonders geeignete Sonde der dichten Reaktionszone dar. Wegen der großen mittleren freien Wegläange sollten die Kaonen fast ungestört nach außen emittiert werden. Zur Untersuchung dieser Fragestellung wurden die spektralen Energieverteilungen und die azimutalen Winkelverteilungen studiert. Um diese in Abhängigkeit von der Zentralität der Schwerionenreaktion zu untersuchen, wurden Stoßparameter und Anzahl der partizipierenden Nukleonen experimentell bestimmt. Dazu wurden die mit dem Großwinkel-Hodoskop bestimmte Teilchenmultiplizität und die mit dem Kleinwinkel-Hodoskop bestimmte Ladungssumme der Projektilspektatoren benutzt. Der Nachweis der Projektilspektatoren mit dem Kleinwinkel-Hodoskop erlaubt ferner, für jedes Ereignis die Reaktionsebene einer Schwerionenreaktion zu bestimmen. Der Emissionswinkel der positiv geladenen Kaonen konnte dann in Bezug auf die Reaktionsebene untersucht werden. Die Energiespektren der Kaonen, die bei Theta CM ~ 90° und Theta QCM ~ 130° in zentralen Stößen gemessen wurden, haben einen Steigungsparameter (Temperatur) von etwa 87MeV. Die transversalen kinetischen Energiespektren bei vier verschiedenen Rapiditätsintervallen in zentralen Stößen haben einen Steigungsparameter von etwa 90MeV und keine Abweichung von einem thermischen Verhalten innerhalb der Meßgenauigkeit. Die Ausbeuten sind dagegen unterschiedlich. Bei R¨uckw ¨ artswinkel bzw. bei Targetrapidität wurde ein fast doppelt so großer Wirkungsquerschnitt wie bei Schwerpunktrapidität gemessen. Die polare Winkelverteilung der positiv geladenen Kaonen ist also nicht isotrop. In dieser Arbeit konnte zum ersten Mal der elliptische Fluß der positiv geladenen Kaonen nachgewiesen werden: K+ Mesonen werden bevorzugt senkrecht zur Reaktionsebene emittiert. Die azimutale Anisotropie ist am stärksten für periphere und semi-zentrale Stöße und im Bereich der Schwerpunktrapidität. Im Gegensatz zu den Pionen zeigt die Stärke der Anisotropie keine Abhängigkeit vom Transversalimpuls. Während im Falle der Pionen die azimutale Anisotropie auf die Abschattung durch die Spektatoren zurückgeführt wird, kann dieser Effekt die Kaonendaten nicht erklären, da die K+ Mesonen eine große mittlere freie Weglänge in Kernmaterie besitzen. Mikroskopische Transportmodellrechnungen wie RBUU und QMD können den elliptischen Fluß der Kaonen nur unter Berücksichtigung des Kaon-Nukleon-Potentials im nuklearen Medium wiedergeben [Li97, Wan98a]. Als ein anderer experimenteller Hinweis auf das KN-Potential im Medium wurde das Verschwinden des gerichteten Seitwärtsflusses der Kaonen vorhergesagt [Li95a]. Die Analyse der experimentellen Daten in einem Rapiditätsintervall von y/yStrahl = 0:2 ~ 0:8 zeigt keine in die Reaktionsebene gerichtete Flußkomponente.
The Kaon-Spectrometer (KaoS) at the heavy-ion synchrotron (SIS) at the Gesellschaft für Schwerionenforschung (GSI) in Darmstadt has been used to study production and propagation of K+ and K- mesons from Au+Au collisions at a kinetic beam energy of 1.5 AGeV. This energy for K+ mesons is close to the corresponding production threshold in binary nucleon-nucleon collisions and far below for K- mesons. The azimuthal angular distributions of particles as a function of the collision centrality and particle transverse momenta have been measured. The properties of strange mesons are expected to be modified by the in-medium meson-baryon potential. Theoretical calculations show that the superposition of the scalar and vector potentials leads to a small repulsive K+N and a strong attractive K-N potential. Additionally, the interaction of kaons and antikaons with nuclear matter is different. The strangeness conservation law inhibits the absorption probability of K+ mesons as they contain an s-quark. K- mesons, however, interact with nucleons via strangenessexchange (K- + N ->Y + pion, where Y = lambda, sigma). Moreover, the reverse process (pion + Y -> K- + N) is the dominant production mechanism of K- mesons at SIS energies. The azimuthal angular emission patterns of kaons are expected to be sensitive to the in-medium potentials. An enhanced out-of-plane emission of K+ mesons was observed in Au+Au reactions at 1.0 AGeV and 1.5 AGeV, and also in Ni+Ni at 1.93 AGeV. The out-of-plane emission of K+ mesons in Au+Au reactions at 1.0 AGeV was interpreted as a consequence of a repulsive K+N potential in the nuclear medium, however, recent transport calculations show that the emission patterns obtained in Au+Au at 1.5 AGeV and Ni+Ni at 1.93 AGeV are additionally influenced by the re-scattering of kaons. For K- mesons the calculations predict an almost isotropic emission pattern due to the attractive K-N potential which counteracts the absorption of K- mesons in the spectator fragments. In Ni+Ni collisions at 1.93 AGeV the azimuthal distribution of K- mesons has been found to be isotropic. In this case, however, the spectators are rather small and have large relative velocities. In addition, the delay of antikaon emission due to strangenessexchange reaction minimizes the interaction with the spectators. As a consequence the sensitivity of the K- meson emission pattern to the K-N in-medium potential is reduced. In Au+Au collisions we found a dependence of the K- meson azimuthal emission pattern on the transverse momentum. The antikaons registered with pt < 0.5 GeV/c are preferentially emitted in the reaction plane and the particles with pt > 0.5 GeV/c show strong out-of-plane enhancement. The emission patterns of K- can be explained in terms of two competing phenomena: one of them is indeed the influence of the attractive K-N potential, however, the second one originates from the strangeness-exchange process.
Nuclear matter, that takes the form of protons and neutrons under normal conditions, is subject to a phase transition at high temperatures and densities, liberating the quarks and gluons that are usually confined in nucleons and creating a medium of free partons: the Quark-Gluon-Plasma. It is generally believed that this state of matter can be created in relativistic collisions of heavy nuclei. The study of the medium created in these collisions is the subject of heavy-ion physics. One topic within this field are particles with high transverse momentum, that are created in initial hard collisions between partons of the incoming nuclei. The energetic partons lose energy due to interactions with the medium before they fragment into a jet of hadrons. Due to momentum conservation, these jets are usually created as back-to-back pairs, or less commonly as three-jet or photon-jet events, where a single jet is balanced by a hard photon. The energy loss can be measured using correlations between particles with high transverse momenta. A trigger particle is selected with very high transversemomentum and the distribution of the azimuthal angle of associated particles in the same event is studied, relative to the azimuth of the trigger particle.These azimuthal correlations show a peak for opening angles around 0 from particles selected from the same jet, and a second peak at opening angles around 180 degrees from back-to-back di-jets. Random combinations with the underlying event generate a flat background, extending over the full range of opening angles. The STAR experiment observed a modification of these correlations in central Au+Au collisions, where trigger particles with 4GeV < pT(trigger) < 6GeV and associated particles with 2GeV < pT(trigger) < 4GeV were selected. A strong suppression has been observed for away-side correlations in central Au+Au collisions, relative to p+p, d+Au and peripheral Au+Au data. This can be explained by assuming two partons going in opposite directions, where at least one has to travel a large distance through the medium, causing energy loss and effectively removing the event from the analysis. For near-side correlations, no significant modification has been observed, which can be explained by surface emission, assuming that the observed jets have travelled only a short distance in themedium, not leaving enough time for interactions with the medium. Both trigger- and associated particles in a correlation analysis with charged hadrons are subject to modifications due to the medium. This can be avoided by using photon-jet events instead of di-jets, because the photon does not interact with the medium and therefore provides the best available measure of the properties of the opposite jet in the presence of the underlying event. This thesis studies azimuthal correlations between regions of high energy deposition in the electro-magnetic calorimeter as trigger- and charged tracks as associated particles. The data sample had been enriched by online event selection, allowing for the selection of trigger particles with a transverse energy of more than 10GeV and associated particles with more than 2,3 or 4 GeV. The away-side yield per trigger particle is strongly suppressed like in correlations between charged particles. The near-side yield is also reduced by about a factor two, clearly different from charged correlations. The trigger particles are a mixture of photon pairs from the decays of neutral pions and single photons, mainly from photon-jet events, with small contributions from other hadron decays and fragmentation photons. Pythia simulations predict a ratio of neutral pions to prompt photons of 3.5:1 in p+p collisions with the same cuts as in the presented analysis. Single particle suppression further reduces this ratio in central Au_Au collisions, down to about 0.8:1, indicating that the majority of trigger particles in central Au+Au collisions are prompt photons. The increasing fraction of prompt photon triggers without an accompanying jet and therefore zero associated yield reduces the average yield per trigger particle. The magnitude of the observed effect agrees well with the expectation from Pythia simulations and the assumption of a single particle suppression by a factor 4-5. An analysis of away-side correlations is more difficult, because both photon-jet and di-jet events contribute. The aim is the separation of these two contributions. As a clear separation is not possible with the available dataset, a comparison with two different scenarios is given, where a surprisingly small suppression by only a factor of about 5 is favoured for both dijet- and photon-jet-correlations. A separate measurement of both contributions will be possible by a shower-shape analysis with the EM calorimeter or a comparison with charged correlations in the same kinematic region.
Strong chromofields developed at early stages of relativistic heavy-ion collisions give rise to the collective deceleration of net baryons from colliding nuclei. We have solved classical equations of motion for baryonic slabs under the action of time-dependent chromofield. We have studied sensitivity of the slab trajectories and their final rapidities to the initial strength and decay pattern of the chromofield as well as to the back reaction of produced plasma. This mechanism can naturally explain significant baryon stopping observed at RHIC, an average rapidity loss hδyi ≈ 2. Using a Bjorken hydrodynamical model with particle producing source we also study the evolution of partonic plasma produced as the result of chromofield decay. Due to the delayed formation and expansion of plasma its maximum energy density is much lower than the initial energy density of the chromofield. It is shown that the net-baryon and produced parton distributions are strongly correlated in the rapidity space. The shape of net-baryon spectra in midrapidity region found in the BRAHMS experiment cannot be reproduced by only one value of chromofield energy density parameter ǫ0, even if one takes into account novel mechanisms as fluctuations of color charges generated on the slab surface, and weak interaction of baryon-rich matter with produced plasma. The further step to improve our results is to take into account rapidity dependence of saturation momentum as explained in thesis. Different values of parameter ǫ0 has been tried for different variants of chromofield decay to fit BRAHMS data for net-baryon rapidity distribution. In accordance with our analysis, data for fragmentation region correspond to the lower chromofield energy densities than mid-rapidity region. χ2 analysis favors power-law of chromofield decay with corresponding initial chromofield energy density of order ǫf = 30GeV/fm3.
This dissertation describes the development of the beam dynamics design of a novel superconducting linear accelerator. At a main operating frequency of 216.816 MHz, ions with a mass-to-charge ratio of up to 6 can be accelerated at high duty cycles up to CW operation. Intended for construction at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, the focus of the work is on the beam dynamic design of the accelerator section downstream of the high charge injector (HLI) at an injection energy of 1.39 MeV/u. An essential feature of this linear accelerator (Linac) is the use of the EQUUS (Equidistant Multigap Structure) beam dynamics concept for a variably adjustable output energy between 3.5 and 7.3 MeV/u (corresponding to about 12.4 % of the speed of light) with a required low energy spread of maximum 3 keV/u.
The GSI Helmholtz Centre for Heavy Ion Research is a large-scale research facility that uses its particle accelerators to perform basic research with ion beams. Research on super-heavy elements ("SHE") is a major focus. It is expected that their production and research will provide answers to a large number of scientific questions. The production and detection of elements with atomic numbers 107 to 112 (Bohrium, Hassium, Meitnerium, Darmstadtium, Röntgenium and Copernicium) was first achieved at GSI between 1981 and 1996.
Key to this remarkable progress in SHE research were continuous developments and technical innovations. On the one hand, in the field of experimental sensitivity and detection of the nuclear reaction products and, on the other hand, in the field of accelerator technology.
For the acceleration of the projectile beam, the UNILAC (Universal Linear Accelerator), which was put into operation in 1975, has been used at GSI so far. In the course of the reconstruction and expansion of the research infrastructure at GSI, a dedicated new particle accelerator, HELIAC (Helmholtz Linear Accelerator), is now under development to meet the special requirements of the beam parameters for the synthesis of new superheavy elements. Typically, the production rates of super-heavy elements with effective cross sections in the picobarn range are very low. Therefore, a high duty cycle (up to CW operation) is a key feature of HELIAC. Thus, the required beam time for the desired nuclear reactions can be significantly shortened.
Theoretical preliminary work by Minaev et al. and newly created knowledge about design, fabrication, and operation of superconducting drift tube cavities have laid the foundation for this work and thus the development of the HELIAC linear accelerator. It consists of a superconducting and a normal conducting part. Acceleration takes place in the superconducting part in four cryomodules, each about 5 m long. These contain three CH cavities, one buncher cavity, two solenoid magnets for transverse beam focusing, and two beam position monitors (BPMs).
The following 10 m long normal conducting part is primarily used for beam transport and ends with a buncher cavity. This is operated at a halved frequency of 108.408 MHz.
A key feature of this accelerator is the variability of the output energy from 3.5 to 7.3 MeV/u with a small energy uncertainty of ±3 keV/u maximum over the entire output energy range. For the development of HELIAC, the EQUUS beam dynamics concept used combined the advantages of conventional linac designs with the high acceleration gradients of superconducting CH-DTLs. By doubling the frequency (compared to the GSI high charge injector) to 216.816 MHz in the superconducting section and using CH cavities at an acceleration gradient of maximum 7.1 MV/m, an acceleration efficiency with superconducting drift tube structures that is unique in the world is made possible. At the same time, the compact lengths of the CH cavities ensure good handling for both production and operation. EQUUS leads to longitudinal beam stability in all energy ranges of the accelerator with the sliding motion of the synchronous phase within each CH cavity. The rms emittance growth is moderate in all levels. The modular design of the HELIAC with four cryomodules basically allows the Linac to be commissioned starting with the first cryomodule, the so-called Advanced Demonstrator. In the subsequent expansion stage with only the first two cryomodules of HELIAC, the lower limit of the energy range to be provided by HELIAC (3.5 MeV/u) can already be clearly exceeded, so that use in regular beam operation at GSI is already conceivable from here on.
By means of error tolerance studies, the stability of the HELIAC beam dynamics design against possible alignment errors of the magnetic focusing elements and accelerator cavities as well as errors of the electric field amplitudes and phases have been investigated, basically confirmed and critical parameters have been determined. An additional steering concept via dipole correction coils at the solenoid magnets allows transverse beam control as well as diagnostics by means of two BPMs per cryomodule.
With completion of this work in 2021, the CH1 and CH2 cavities have already been built and are in the final preparation and cold test phase. In parallel, the development of the CH cavities CH3-11 has also been started.
Die vorliegende Dissertation stellt die Strahldynamikdesigns zweier Hochfrequenzquadrupol-Linearbeschleuniger bzw. Radio Frequency Quadrupoles (RFQs) vor: das fur den RFQ des Protonen-Linearbeschleunigers (p-Linac) des FAIR2-Projekts an der GSI3 Darmstadt sowie einen ersten Designentwurf für einen kompakten RFQ, der u.a. zur Erzeugung von Radioisotopen für medizinische Zwecke genutzt werden könnte. Der Schwerpunkt liegt auf dem ersten Design.
This thesis discusses important questions of the beam dynamics in the proton-lead operation in the Large Hadron Collider (LHC) at CERN in Geneva. In two time blocks of several weeks in the years 2013 and 2016, proton-lead collisions have so far been successfully generated in the LHC and used by the experiments at the LHC. One reason for doubts regarding the successful operation in proton-lead configuration was the fact that the beams have to be accelerated with different revolution frequencies. There is long-range repulsion between the beams, since both beams share the beam chamber around the interaction points. Because of the different revolution frequencies, the positions of the interaction between the beams shift each revolution. This can lead to resonant excitation and to an increase in the transverse beam emittance, as was observed in the Relativistic Heavy-Ion Collider (RHIC). In this thesis, simulations for the LHC, RHIC and the High-Luminosity Large Hadron Collider (HL-LHC) are performed with a new model. The results for RHIC show relative growth rates of the emittances of the gold beam in gold-deuteron operation in RHIC from 0.1 %/s to 1.5 %/s. Growth rates of this magnitude were observed experimentally in RHIC. Simulations for the LHC show no significant increase of the emittance of the lead beam for different intensities of the counter-rotating beam. The simulation results confirm the measured stability of the beams in the LHC and the issue of strongly increasing emittances in RHIC is reproduced. Also, no significant increase of the emittance is predicted for the Future Circular Collider (FCC) and the HL-LHC.
Using a frequency-map analysis, this work verifies whether the interaction of the lead beam with the much smaller proton beam in the proton-lead operation of the LHC leads to diffusion within the lead beam. Experiences at HERA at DESY in Hamburg and at SppS at CERN have shown that the lifetime of the larger beam can rapidly decrease under certain circumstances. The results of the simulation show no chaotic dynamics near the beam centre of the lead beam. This result is supported by experimental observation.
A program code has been developed which calculates the beam evolution in the LHC by means of coupled differential equations. This study shows that the growth rates of the lead beam due to intra-beam scattering is overestimated and that particle bunches of the lead beam lose more intensity than assumed in the model. The analysis also shows that bunches colliding in a detector suffer additional losses that increase with decreasing crossing angle at the interaction point.
In this work, 2016 data from beam-loss monitors in combination with the luminosity and the loss rate of the beam intensity are used to determine the cross section of proton-lead collisions at the center-of-mass energy of 8.16 TeV. Beam-loss monitors that mainly detect beam losses that are not caused by the collision process itself are used to determine the total cross section via regression. An analysis of the data recorded in 2016 at the center-of-mass energy of 8.16 TeV resulted in a total cross section of σ=(2.32±0.01(stat.)±0.20(sys.)) b. This corresponds approximately to a hadronic cross section of σ(had)=(2.24±0.01(stat.)±0.21(sys.)) b. This value deviates only by 5.7 % from the theoretical value σ(had)=(2.12±0.01) b.
The simulation code for determining the beam evolution is also used to estimate the integrated luminosity of a future one-month run with proton-lead collisions. The result of the study shows that in the future the luminosity in the ATLAS and CMS experiments will increase from 15/nb per day in 2016 to 30/nb per day, which is a significant increase in terms of the performance. This operation, however, requires the use of the TCL collimators to protect the dispersion suppressors at ATLAS and CMS from collision fragments.
This work also gives an outlook on the expected luminosity production in proton-nucleus operation using ion species lighter than lead ions. For example, a change from proton-lead to proton-argon collisions would increase the integrated luminosity from monthly 0.8/nb to 9.4/nb in ATLAS and CMS. This is an increase of one order of magnitude and approximately a doubling of the integrated nucleon-nucleon luminosity. There may be a test operation with proton-oxygen collisions in 2023, which will last only a few days and will be operated with a low luminosity. The LHCf experiment (LHCb experiment) would achieve the desired integrated luminosity of 1.5/nb (2/nb) within 70h (35h) beam time.