Refine
Year of publication
- 1997 (55) (remove)
Document Type
- Preprint (25)
- Article (11)
- Doctoral Thesis (6)
- diplomthesis (4)
- Working Paper (4)
- Book (2)
- Conference Proceeding (2)
- Diploma Thesis (1)
Has Fulltext
- yes (55)
Is part of the Bibliography
- no (55)
Keywords
- Kollisionen schwerer Ionen (11)
- equation of state (7)
- Quark-Gluon-Plasma (6)
- Zustandsgleichung (5)
- heavy ion colliders (4)
- quark-gluon plasma (4)
- SPS (3)
- Zustandsgleichungen (3)
- heavy ion collisions (3)
- heavy-ion collisions (3)
Institute
- Physik (55) (remove)
Using the NA49 main TPC, the central production of hyperons has been measured in CERN SPS Pb - Pb collisions at 158 GeV c-1. The preliminary ratio, studied at 2.0 < y < 2.6 and 1 < pT < 3 GeV c-1, equals ~ (13 ± 4)% (systematic error only). It is compatible, within errors, with the previously obtained ratios for central S + S [1], S + W [2], and S + Au [3] collisions. The fit to the transverse momentum distribution resulted in an inverse slope parameter T of 297 MeV. At this level of statistics we do not see any noticeable enhancement of hyperon production with the increased volume (and, possibly, degree of equilibration) of the system from S + S to Pb + Pb. This result is unexpected and counterintuitive, and should be further investigated. If confirmed, it will have a significant impact on our understanding of mechanisms leading to the enhanced strangeness production in heavy-ion collisions.
Mit der Bereitstellung des 208Pb-Strahls durch das CERN-SPS können seit Herbst 1994 Kollisionen schwerster Kerne bei den höchsten zur Zeit in Schwerionenbeschleunigern erreichten Einschußenergien untersucht werden.
Ziel dieser Arbeit ist die Untersuchung der raumzeitlichen Entwicklung von zentralen Pb-Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des Experimentes NA49 durchgefüuhrt und stützt sich auf die Analyse von Bose-Einstein-Korrelationen identischer Pionen. Die Auswertung von rund 40000 zentralen Ereignissen, die in zwei verschiedenen Magnetfeldkonfigurationen mit der zweiten Vertex-Spurendriftkammer des NA49-Experimentes aufgezeichnet wurden, erlaubt hierbei eine annähernd vollständige Untersuchung des pionischen Phasenraumes zwischen zentraler Rapidität und der Projektilhemisphäre.
Auf der experimentellen Seite stellt der Nachweis von mehreren hundert geladenen Teilchen pro Ereignis eine große Herausforderung dar. Daher werden in dieser Arbeit die Optimierung von Spurendriftkammern sowie die verwendeten Analyseverfahren und die erreichte experimentelle Auflösung ausführlich diskutiert. Dabei zeigt sich, daß der systematische Einfluß der erreichten Impuls- und Zweispurauflösung auf die Bestimmung der Bose-Einstein-Observablen vernachlässigbar ist.
Die Messung von Korrelationen ungleich geladener Teilchen bestätigt die Beobachtungen früherer Untersuchungen, wonach die Gamowfunktion als Coulombkorrektur der Bose-Einstein-Korrelationsfunktionen in Schwerionenexperimenten nicht geeignet ist. Ein Vergleich mit einem Modell zeigt, daß diese Messungen konsistent sind mit der Annahme einer endlichen Ausdehnung der Pionenquelle von rund 6 fm. In dieser Arbeitwird zur Korrektur daher eine Parametrisierung der gemessenen Korrelationsstärke ungleich geladener Teilchen benutzt, wodurch die systematischen Unsicherheiten bei der Auswertung der Bose-Einstein-Korrelationsfunktionen erheblich reduziert werden konnten.
Die Auswertung der Bose-Einstein-Korrelationen im Rahmen des Yano-Koonin-Podgoretskii-Formalismus erlaubt eine differentielle Bestimmung der longitudinalen Expansionsgeschwindigkeit. Dabei ergibt sich das Bild eines vornehmlich in longitudinaler Richtung expandierenden Systems, wie es bereits in Schwefel-Kern-Reaktionen bei vergleichbaren Einschußenergien beobachtet wurde. Die Transversalimpulsabhängigkeit der transversalen Radiusparameter ist moderat und verträglich mit einer mäßigen radialen Expansion, deren quantitative Bestätigung allerdings im Rahmen von Modellrechnungen erfolgen muß.
Im Rahmen eines einfachen hydrodynamischen Modells kann die Lebensdauer des Systems zu 7-9 fm/c bei schwacher Abhängigkeit von der Rapidität bestimmt werden. Die Zeitdauer der Pionenemission beträgt etwa 3-4 fm/c und wird damit erstmals in ultrarelativistischen Schwerionenreaktionen als signifikant von Null verschieden beobachtet.
Die Auswertung der Korrelationsfunktion unter Verwendung der Bertsch-Pratt-Parametrisierung liefert Ergebnisse, die mit denen der Yano-Koonin-Podgoretskii-Parametrisierung konsistent sind. Dasselbe gilt für den Vergleich der Analyse positiv und negativ geladener Teilchenpaare sowie unter Verwendung verschiedener Bezugssysteme.
Ein Vergleich mit den Ergebnissen von Schwefel-Kern-Reaktionen deutet an, daß die in Pb-Pb ermittelten Ausfriervolumina nicht mit dem einfachen Bild eines Ausfrierens bei konstanter Teilchendichte vereinbar sind. Vielmehr scheint das Pb-Pb-System bei niedrigerer Dichte auszufrieren. Dies läßt darauf schließen, daß die Ausfrierdichte über die mittlere freie Weglänge mit der Größe des Systems zum Zeitpunkt der letzten Wechselwirkung verknüpft ist.
Die im Rahmen dieser Arbeit gewonnen Meßergebnisse zeigen, daß bei geringem Restgasdruck der Einsatz einer GPL zur Fokussierung eines hochperveanten Ionenstrahles niedriger Strahlenergie Vorteile gegenüber konventionellen Linsensystemen bietet. Neben einer kostengünstigen Realisation ist wesentlich die bei unterschiedlichen Linsenparametern hohe Linearität der Linsenfelder (und die damit verbunden geringen Aberrationen) bei gleichzeitig starker Fokussierung zu nennen. Auch die geringe Baulänge, vor allem im Vergleich zu den wegen der FODO-Struktur bei Quadrupolen i. a. notwendigen Tripletts, kann gerade bei de- bzw. teilkompensiertem Transport einen Vorteil darstellen. Die im zweiten Kapitel vorgestellten Arbeiten zur theoretischen Beschreibung des nichtneutralen Plasmas der GPL haben gezeigt, daß bei Berücksichtigung der Verlustmechanismen (longitudinal und radial) die Beschreibung der Elektronenverteilung in der Linse die Meßergebnisse wesentlich besser widerspiegelt als in der klassischen Theorie Gabors, die nur einen idealisierten Zustand maximaler Elektronendichte beschreibt. Die Integration der Verluste in die Simulation ist für den longitudinalen Verlustkanal gelungen. Die radialen Verluste entziehen sich bisher aufgrund der Komplexität der Vorgänge bei der Diffusion einer hinreichend genauen Beschreibung. Dies liegt vor allem an einer sehr schwierigen Abschätzung der hierbei dominierenden Heiz- bzw. Kühlprozesse im Linsenplasma. ...
Mit dem Dileptonenspektrometer HADES sollen Dielektronen aus Kern - Kern - Stößen in einem hadronischen Untergrund bei hohen Multiplizitäten untersucht werden. Die Ereignisrate von 106 pro Sekunde erfordert eine Auslese der Detektoren innerhalb von 10 mikrosek. Die erwarteten hohen Multiplizitäten führen zu einer hohen Granularität der Detektoren und damit auch der Ausleseelektronik. Durch die Verwendung mehrere Triggerstufen wird eine Aufteilung des Auslesesystems auf mehrere Stufen notwendig. Für die Auslese von ~ 26.000 Driftzellen in 24 Driftkammermodulen wurde ein an die Anforderungen des Detektorsystems angepaßtes Auslesekonzept entwickelt. Analoge Signalaufbereitung und Messung der Driftzeit werden direkt am Detektor auf zwei miteinander kombinierten Karten untergebracht. Die nötige Integrationsdichte im Digitalisierungsteil wird durch die Verwendung eines speziellen Zeitmeßverfahrens (TDC) erreicht, das auf Signallaufzeiten in Halbleiterschaltungen basiert. Im gleichen Chip befindet sich auch eine Datenübertragungseinheit, die in der Lage ist die Daten mit der erforderlichen Geschwindigkeit zu transferieren. Durch zwei weitere Module mit Speicher zum Puffern der Ereignisdaten wird den Anforderungen des Triggerkonzeptes Rechnung getragen. Dem verwendete Zeitmeßverfahren (Ringoszillator) ist eine Abhängigkeit der Zeitauflösung von Temperatur und Versorgungsspannung inherent. Ausführliche Messungen im Rahmen dieser Arbeit zeigen, daß die relativen Abhängigkeiten mit 0,2 Promille jedoch in einem Bereich liegen, in dem sie durch geeignete Maßnahmen kontrolliert werden können. Dazu zählen die regelmäßige Kalibrierung, sowie die Messung und Überwachung von Temperatur und Versorgungsspannung. Die Leistungsaufnahme des Auslesesystems liegt mit 5kW (total) noch um ca. einen Faktor zwei über den Spezifikationen. Sowohl die Tests des TDC Zeitmeßteils, als auch die Simulationen zeigen die Realisierbarkeit des Systems. Dies konnte auch durch Simulationen des gesamten Auslesesystems im Rahmen einer Projektstudie zum Triggerkonzept an der Universität Giessen nachgewiesen werden. Ein abschließender Funktionstest der Ausleseelektronik mit dem TDC an der Prototypdriftkammer im Labor ist gegenwärtig in Vorbereitung. Zur endgültigen Realisierung der Ausleseelektronik bedarf es noch der Reduzierung des Platzbedarfes sowie der Leistungsaufnahme. Zur Reduktion der Größe des Motherboardes wird eine mehrlagige Platine entwickelt. Für die Anbringung der Daughterboards ist eine platzsparende Geometrie vorgesehen. Die Reduktion der Leistungsaufnahme wird hauptsächlich durch neuere Entwicklungen bei den Daughterboards möglich. Auch die Verwendbarkeit des im Rahmen eines anderen Projektes entwickelten SAM - Modules als Konzentrator für die Driftkammerauslese ist zu untersuchen. Da diese Karte auch einen DSP enthält, ist entsprechende Software erforderlich. Die Segmentierung des modularen Spektrometersystems erlaubt den endgültigen Aufbau in mehreren Schritten. Vorgesehen ist, zunächst nur einzelne Segmente oder einzelne Ebenen der Driftkammern aufzubauen, und das komplette System erst zu einem spätern Zeitpunkt in Betrieb zu nehmen. Einzelne Komponenten können durch Neuentwicklungen ersetzt werden.
Untersuchungen von evolutionären Algorithmen zum Training neuronaler Netze in der Sprachverarbeitung
(1997)
Im Rahmen der vorliegenden Diplomarbeit wurde die Leistungsfähigkeit von evolutionären Algorithmen zum Training von RNN untersucht und mit gradientenbasierten Trainingsalgorithmen verglichen. Die Zielsetzung war dabei im besonderen die Prüfung der Verwendbarkeit in der Sprachverarbeitung, speziell der Spracherkennung. Zunächst wurde anhand eines Prädiktionsproblems die prinzipielle Leistungsfähigkeit von EA untersucht, indem ein MLP mit unterschiedlichen evolutionären Algorithmen trainiert wurde. Verschiedene Varianten von GA und ES sind an diesem Beispiel getestet und miteinander verglichen worden. Im Rahmen der Untersuchungen an GA stellte sich heraus, daß eine Mindestgenauigkeit der Quantisierung zur Lösung erforderlich ist. Es zeigt sich, daß die Genauigkeit der Approximation mit abnehmendem Quantisierungsfehler besser wird. Damit ist eine Behandlung dieses Problems mit grob quantisierten Gewichten nachteilig. Demgegenüber profitiert ES sowohl in der Approximationsgenauigkeit, als auch in der Konvergenzgeschwindigkeit von der direkten Darstellung der Objektvariablen als reelle Zahlen. Weiterhin zeigte sich bei ES, daß die Genauigkeit einer Lösung auch von der Populationsgröße abhängig ist, da mit wachsender Populationsgröße der Parameterraum besser abgetastet werden kann. Im Vergleich mit ES benötigten GA längere Konvergenzzeiten und bedingten zudem aufgrund der Codierung und Decodierung einen höheren Rechenaufwand als ES, so daß die Untersuchungen an RNN nur mit ES durchgeführt wurden. Zunächst wurde mit dem Latching-Problem eine, in der Komplexität eng begrenzte, Klassifikationsaufgabe mit Zeitabhängigkeiten untersucht. Die zur Verfügung gestellte Information war bei diesem Beispiel sehr gering, da der Fehler nur am Ende einer Mustersequenz berechnet wurde. Es stellte sich heraus, daß selbst bei dieser sehr einfachen Aufgabenstellung die gradientenbasierten Verfahren nach dem Überschreiten einer maximalen Mustersequenzlänge T keine Lösung finden konnten. Im Gegensatz dazu war ES in der Lage, das Problem für alle gemessenen Variationen des Parameters T zu lösen. Erst wenn während des Trainings dem Gradientenverfahren zusätzliche Informationen durch Fehlereinspeisung zur Verfügung gestellt wurde, hatte der BPTT-Algorithmus die selbe Leistungsfähigkeit. Als weiteres Experiment mit Zeitabhängigkeiten wurde das Automaton-Problem un- tersucht, welches mittels eines RNN gelöst werden sollte. Bei diesem Problem wurde besonderer Wert auf die Untersuchung des Konvergenzverhaltens bei Änderungen der Parameter von ES gelegt. Die Untersuchungen ergaben, daß die einzelnen Parameter in komplexer Weise miteinander interagieren und nur eine gute Abstimmung aller Parameter aufeinander eine befriedigende Leistung in Bezug auf Konvergenzgeschwindigkeit und Klassifikationsergebnis erbringt. Wie bei dem Latching-Problem wurde der Fehler nur am Ende einer Mustersequenz berechnet. Dies bewirkt, daß der BPTT-Algorithmus bereits bei Sequenzlängen von T = 27 nicht mehr in der Lage ist, die Zeitabhängigkeiten in dem Gradienten zu repräsentieren. Mit ES dagegen konnten RNN trainiert werden, die in der Lage sind, Sequenzlängen bis zu T = 41 richtig zu klassifizieren. Die Untersuchungen bestätigen, daß der beschränkende Faktor in erster Linie der Trainingsalgorithmus und nicht das Netzwerksparadigma ist. Die Simulationsexperimente mit zeitnormierten Sprachdaten zeigen, daß mit ES prinzipiell höhere Erkennungsleistungen als mit dem gradientenbasierten Algorithmus des BPTT erzielt werden können. Jedoch nimmt schon bei der Klassifikation der Zahlwörter Zwei und Drei die Klassifikationsleistung mit zunehmender Sequenzlänge ab. Es erfordert eine drastische Vergrößerung der Populationsgröße, um zumindest gleich gute Ergebnisse zu erzielen. Zusätzliche Tests am Automaton-Problem stützen diese Aussage. Jedoch steigt der Rechenaufwand durch Vergrößerung der Populationsgröße so stark an, daß bei nicht zeitnormierten Sprachdaten ES mit adäquater Populationsgröße nicht mehr simulierbar waren. In den Untersuchungen an dem Vokabular mit sechs Wörtern wurde der Fehler für jeden anliegenden Merkmalsvektor berechnet und im Gradienten bzw. zur Bewertung bei ES im Training verwendet. In diesen Messungen erbringen beide Algorithmen nahezu identische Klassifikationsergebnisse. Insgesamt verhindert der drastisch ansteigende Rechenaufwand bei den Sprachdaten die Verarbeitung von größeren Vokabularien und langen Wörtern durch ES. Aus der Beschränkung der Populationsgröße durch die vorhandene Rechnerkapazität resultierte eine nichtoptimale Anpassung von Selektionsdruck, Mutationsrate und Populationsverteilung im Suchraum. Insbesondere erweist sich die globale Anpassung der Strategieparameter bei den vergrößerten Populationen als problematisch. Weitere Untersuchungen an ES mit Strategien zur Selbstadaption dieser Parameter bieten sich daher für zukünftige Forschung an.
Untersuchungen des elektrischen und magnetischen Feldes in den NA49-TPCs mit Hilfe von Laserspuren
(1997)
Das Experiment NA49 am Europäischen Zentrum für Teilchenphysik (CERN) in Genf dient der Erforschung von relativistischen Schwerionenkollisionen. Dieses Feld der Kernphysik hatte seine Anfänge erst in den 70er Jahren am BEVALAC in Berkeley und untersucht zur Zeit Schwerionenstöße von einigen hundert MeV/Nukleon bis 200 GeV/Nukleon. Nach den heuteüblichen Experimenten mit festem Target sollen in der Zukunft Colliderexperimente mit Schwerionen neue Energiebereiche erschließen. Während die Experimente dadurch erleichtert werden, daß sie zumeist auf bestehende Beschleunigeranlagen aus der Hochenergiephysik zurückgreifen können, ist die theoretische Beschreibung relativistischer Schwerionenstöße ausgesprochen problematisch. Vom Verständnis dieser Reaktionsmechanismen erhoff t man sich aber einen Zugang zur starken Wechselwirkung bei niedrigen Impulsüberträgen, insbesondere in ausgedehnten Systemen.
Die vorliegende Arbeit befaßt sich mit der Untersuchung von Photonenemissionsmustern im einzelnen Ereignis, wie sie bei einer Schwerionenkollision von Schwefel auf Gold bei einer Energie von 200 GeV pro Nukleon produziert werden. Diese Ereignisse wurden mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment am CERN aufgenommen. Die globalen Observablen einer ultrarelativistischen Schwerionenkollision, wie z.B. Multiplizitäts- und Energieverteilungen der Teilchen, lassen sich durch Rechnungen mit dem String-Modell VENUS3.11 gut beschreiben. In diesem Modell werden alle bekannten, in einer Kern-Kern-Kollision ablaufenden physikalischen Prozesse eingebaut. Ein Vergleich von Verteilungen globaler Meßgrößen aus dem Experiment mit solchen aus Modellrechnungen zeigt, welche Resultate durch schon bekannte, in dem Modell berücksichtigte, physikalische Vorgänge verursacht sind und welche auf noch unbekannten Vorgängen oder auf Detektoreffekten beruhen. Um aus solchen Vergleichen den Einfluß noch unbekannter physikalischer Prozesse auf Verteilungen zu erkennen, muß die Veränderung der physikalischen Observablen bei der Messung durch den Detektor selbst berücksichtigt werden. Die Wechselwirkung der aus der Reaktionszone emittierten Teilchen mit der im Experiment befindlichen Materie der Detektoren wird mit dem Detektorsimulationsprogramm GEANT dargestellt. Der Einfluß der Detektoren kann für globale Observablen sehr zufriedenstellend beschrieben werden, was sich in der guten Übereinstimmung der Multiplizitäts- und Rapiditätsverteilung der im WA93-Experiment nachgewiesenen Photonen mit den Verteilungen aus Modellrechnungen zeigt. Auch die Dynamik der Kollision, sichtbar in der Verteilung der transversalen Energie, wird durch das Modell wiedergegeben. Auf dem Niveau von Einzelereignissen und der Verteilung von Photonen innerhalb eines Ereignisses ist es äusserst wichtig, den Einfluß der Detektoreffekte auf die Verteilungen zu bestimmen. Bei der Untersuchung von Fluktuationen und Korrelationen auf der Basis von Einzelereignissen wurde deshalb ein Vergleich zu Mixed Events angestellt, bei denen die Detektoreffekte beibehalten, aber alle vorhandenen Korrelationen aufgelöst werden. In dieser Arbeit wurden die Photonenemissionsmuster der Einzelereignisse (eventby- event-Analyse) mit der Minimal-Spanning-Tree (MST)-Methode auf Dichtefluktuationen hin untersucht. Die emittierten Photonen geben einen Hinweis auf die Emissionsstruktur von Mesonen, insbesondere der leichten pi0-Mesonen, weil Photonen überwiegend durch den Zerfall produzierte Teilchen sind und die räumliche Verteilung ihrer Ursprungsteilchen weitgehend widerspiegeln. Die Untersuchung von Teilchendichtefluktuationen, insbesondere der durch die Kollision produzierten Mesonen, kann zum besseren Verständnis des Verhaltens der Kernmaterie bei hohen Dichten und hohen Temperaturen beitragen. Waren Dichte und Temperatur in der Reaktionszone ausreichend hoch, könnte sich ein Quark-Gluon-Plasma gebildet haben. Die bei der anschließenden Expansion und Abkühlung stattfindende Kondensation zu Hadronen könnte ein Phasenübergang erster Ordnung sein. Die Größe der Fragmente, in diesem Fall die Hadronen und alle Gruppierungen daraus, sollte eine Verteilung ergeben, die mit einer Funktion Sa angenähert werden kann, wie es von verschiedenen Autoren im Zusammenhang mit Phasenübergängen erster Ordnung beobachtet wurde. Dabei ist S die Fragmentgröße und a eine negative Konstante. Die MST-Methode ist geeignet, das Emissionsmuster einzelner Photonenereignisse aus Schwerionenreaktionen in Cluster zu unterteilen. Die mit der MST-Methode definierten Cluster ergeben sich direkt aus der unterschiedlichen Dichteverteilung der Photonen auf der Detektorfläche in einem Einzelereignis. Die Cluster werden mit den obengenannten Fragmenten in Zusammenhang gebracht, wobei die Zahl der Photonen in einem Cluster die Fragmentgröße S darstellt. Ein wesentlicher Vorteil der MST-Methode besteht darin, daß sie zunächst keinerlei Einschränkung in der Art der zu suchenden Strukturen erfordert. Es müssen keine räumlichen Strukturen vorgegeben werden, nach denen dann in der Punkteverteilung gesucht wird, wie das in anderen Analysemethoden der Fall ist. Aus der durchgeführten Analyse hat sich ergeben, daß die MST-Methode sehr sensitiv auf Fluktuationen in der räumliche Dichteverteilung der Treffer im Einzelereignis ist. Die zweidimensionalen Räume, in denen die Dichteverteilung untersucht wird, können beliebig festgelegt werden und sind durch die Metrik, in der die Abstände des Minimal-Spanning-Trees berechnet werden, definiert. In dieser Arbeit wurden der x-y- Raum (Metrik 1) und der h-j-Raum (Metrik 2) benutzt. Dabei gibt Metrik 1 im wesentlichen Effekte in der Detektorgeometrie wieder und Metrik 2 ist eher dem Phasenraum und damit der Physik angepaßt. Zum Vergleich mit den Ergebnissen aus WA93-Datenereignissen wurden Cluster auf die gleiche Weise in Mixed Events, in Ereignissen aus Modellrechnungen und in Ereignissen mit Zufallsverteilungen von Punkten bestimmt. Die räumliche Verteilung der in den WA93-Datenereignissen gefundenen Cluster auf der Ebene des Detektors weist auf starke Inhomogenitäten in der Photonenverteilung hin. Der Vergleich mit entsprechenden Verteilungen der Cluster in Mixed Events und berechneten Ereignissen zeigt, daß ein Großteil dieser Inhomogenitäten durch Detektoreffekte verursacht wird. Zu diesen Detektoreffekten zählt auch die hohe Ansprechwahrscheinlichkeit für geladene Hadronen, so daß durch den Einsatz des Dipolmagneten eine inhomogene Verteilung der Treffer auf dem PMD verursacht wird. Diese durch Detektoreffekte verursachten Inhomogenitäten in den Photonenemissionsmustern können mögliche, durch physikalische Ursachen während der Kollision hervorgerufene, Dichtefluktuationen überlagern. Die Größenverteilung der Cluster in den WA93-Daten konnte mit einer Funktion Sa angenähert werden. Die Konstante a ergab sich dabei zu -3.0 für die in Metrik 1 gefundenen Cluster und -2.7 für die in Metrik 2 gefundenen Cluster. Die Größenverteilung der in den WA93-Datenereignissen mit Metrik 1 bestimmten Cluster zeigt keine großen Abweichungen zu den aus Mixed Events und aus simulierten Ereignissen gewonnenen Größenverteilungen. Die Größenverteilung, die mit Metrik 1 aus einer reinen Zufallsverteilung von Punkten erhalten wurde, liegt unterhalb der anderen drei Verteilungen. In den Verteilungen der Größe der in Metrik 2 definierten Cluster bestehen jedoch deutliche Unterschiede von WA93-Datenereignissen zu den Verteilungen aus anderen Ereignissen mit vergleichbaren Pseudorapiditätsverteilungen. Es wird eine Erhöhung der Wahrscheinlichkeit für große Cluster mit mehr als 20 Photonen in realen Datenereignissen beobachtet. Zunächst wurde angenommen, daß diese Erhöhung der Wahrscheinlichkeit für große Cluster die Folge der starken Inhomogenitäten in der zugrundeliegenden Trefferverteilung sein könnte. Wie die detaillierte Untersuchung der räumlichen Verteilung der Cluster jedoch gezeigt hat, ist diese inhomogene Verteilung der Photonen auch in den Mixed Events zu finden; die Erhöhung der Wahrscheinlichkeit für große Cluster tritt allerdings nicht auf. Daß diese Beobachtung in den Mixed Events nicht gemacht wird, könnte ein Hinweis darauf sein, daß die Erhöhung in der Größenverteilung der Cluster durch physikalische Ursachen hervorgerufen wird. Ein weiterer Hinweis darauf, daß die Ineffizienzen des Detektors allein nicht zu großen Clustern führen, zeigt der Vergleich von Mixed Events zu den Datenereignissen mit zufälligem Azimut. Trotz der Unterschiede in der räumlichen Verteilung der Cluster ergibt sich eine annähernd gleiche Wahrscheinlichkeitsverteilung. Die in dieser Arbeit mit der MST-Methode durchgeführten Analyse hat gezeigt, daß „saubere“, d.h. untergrund- und detektoreffektfreiere Photonendaten notwendig sind, bevor Rückschlüsse auf zugrundeliegende physikalische Ursachen gemacht werden können. Dazu ist eine wesentliche Verbesserung der Datenauslese erforderlich, um die großen Unterschiede zwischen den einzelnen Auslesemodulen zu vermeiden. Eine Weiterentwicklung in der Datenaufbereitungsmethode könnte zu einer besseren Separation von Hadronen und Photonen und damit zu einer untergrundfreieren Photonenmessung führen. Erforderlich ist auch eine sehr genaue Simulation der Detektoreffekte durch Angabe aller Details des Experiments im GEANT-Programm. Nach den Schwerionenexperimenten mit Sauerstoff- und Schwefelstrahlen wurde das Schwerionenprogramm am CERN 1994 durch den Bleistrahl 208Pb mit der Energie von 158 GeV pro Nukleon weitergeführt. Mit der Vergrößerung des Reaktionssystems erwartete man nicht unbedingt eine Erhöhung der Energiedichte, aber einen größeren Thermalisierungsgrad des Systems. Ziel blieb immer noch der Nachweis des Quark- Gluon-Plasmas und die Erforschung von Materie unter extremsten Bedingungen. Um eine möglichst universelle Aussage über den Ablauf einer ultrarelativistischen Schwerionenreaktion machen zu können, wurde ein Experiment, das WA98-Experiment, mit einer großen Akzeptanz für die Messung von Photonen und Hadronen entworfen. Die Kombination von Signalen verschiedener Detektoren sollte es ermöglichen unterschiedliche Charakteristika der Stoßprozesse parallel zu untersuchen. Basierend auf den Erfahrungen mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment, auch die im Zusammenhang mit dieser Arbeit gewonnenen Erkenntnisse, wurde ein größerer und verbesserter Detektor für den Einsatz im WA98- Experiment gebaut. Der Detektor wurde erstmals 1994 zur Messung von Photonenverteilungen in Pb-Pb Kollisionen bei Energien von 158 GeV pro Nukleon am CERN SPS eingesetzt.
Im Rahmen dieser Arbeit wurde der Aufbruchsmechanismus des Projektilspektators im relativistischen Energiebereich untersucht. Es zeigte sich dabei, daß die in vorherigen Experimenten beobachtete Targetunabhängigkeit der Fragmentproduktion bei 600 AMeV sich als universelle Eigenschaft des Zerfalls von angeregter und expandierter Kernmaterie erweist. Die Untersuchung von Ladungskorrelationen zeigte ebenfalls weder eine Energie- noch Projektilabhängigkeit im Rahmen der experimentellen Auflösung. Diese Ergebnisse sind im wesentlichen auch zu höheren und niedrigeren Energien von anderen Experimenten bestätigt worden. Mit diesem experimentellen Befund kann eindeutig der Beweis für die Existenz einer Multi-Fragmentproduktion bei relativistischen Energien gegeben werden. Im Rahmen von Modellen können die beobachteten Ladungsobservablen mit einem statistisch dominierten Zerfall erklärt werden. Die sich daran anschließende Frage nach dem Aufbruchsmechanismus und dessen Eigenschaften wurde weiterführend mit Ausrichtung auf kinematische und thermodynamische Eigenschaften des Systems untersucht. Dabei ergab sich, daß die kinematischen Observablen der Projektilquelle einen thermisch äquilibrierten Zustand widerspiegeln, unabhängig vom Stoßparameter und der Einschußenergie. Die hierbei beobachtete Emission von leichten Teilchen, die nicht eindeutig einer intermediären oder Projektilquelle zugeordnet werden konnten, ist hierbei Hinweis auf Nicht-Gleichgewichtsanteile, die in der frühen Phase der Reaktion gebildet werden. Mit der Untersuchung von kollektiven Eigenschaften des zerfallenden Systems wurde versucht, einen quantitativen Einblick in die Reaktionskinematik und den damit zusammenhängenden Energietransfer in den Projektilspektator zu erhalten. Diese Analysen ergaben, daß es bei gleichem Stoßparameter eine starke Abhängigkeit des "Bounce Off" von der Targetmasse gibt, während zu höheren Energien, beim gleichen System, nur ein kleiner Effekt zu höheren Impulsüberträgen (5-10 MeV/c) beobachtet wird. Die Energiebilanz des Systems und die hieraus extrahierten Anregungsenergien zeigten zum ersten Mal in experimentellen Daten ohne Zuhilfenahme von theoretischen Modellen, daß für die stark asymmetrischen Systeme nicht der gleiche Zusammenhang zwischen Anregungsenergie und Z bounce; erhalten wird wie bei den symmetrischen Systemen. Dies zeigt sich bei den asymmetrischen Systemen durch eine Saturation der Anregungsenergie mit kleiner werdendem Z bounce, im Gegensatz zu den symmetrischen Systemen, die einen weiteren Anstieg zeigen. Die absoluten Werte der maximalen Anregungsenergie von <E0/A0> ~ 21-23 MeV bei halbzentralen Reaktionen von 197 Au + 197 Au bei 800 AMeV und <E0/A0> ~27 MeV bei 238 U + 238 U 1000 AMeV sind verschieden bei gleichem Z bound. Es stellt sich jedoch heraus, daß mit Ausnahme der stark asymmetrischen Systeme die Anregungsenergie pro herausgeschlagenem Nukleon (<E Knock/A>) in Abhängigkeit von der prozentualen Größe des Prefragments zu peripheren Reaktionen monoton und energieunabhängig steigt.Werden die experimentell bestimmten Anregungsenergien verglichen mit denen aus theoretischen Modellen, so sind diese immer deutlich geringer. Im statistischen Modell von Botvina und Mitarbeitern, das von D´esesquelles mit unseren Daten verglichen wurde [D´ese 96] [D´ese 95], ergaben sich maximale Anregungsenergien von <E0/A0> ~ 7-8 MeV in zentralen Reaktionen. Ein Vergleich mit QMD + SMM ergibt, daß für die asymmetrischen Systeme (197AU + 12C)mit einer Anregungsenergien von maximal <E0/A0> ~ 8-9 MeV eine Beschreibung der Daten möglich ist. Für die symmetrischen Systeme zeigt sich eine zunehmende Diskrepanz mit zunehmender Targetmasse zwischen den experimentellen und theoretischen Anregungsenergien. Die Ladungsobservablen der Daten werden von der verwendeten QMD + SMM-Rechnung und der QMD (SACA)-Rechnung gut wiedergegeben. Durch Anpassung von Rechnungen mit dem Quantenstatischen Modell [Hahn 88b] (QSM) an die experimentellen Daten ergaben sich Aufbruchsdichten bei zentralen Reaktionen von rho/rho 0 ~ 0.3 bis 0.4, diese sind konsistent mit dem Aufbruch eines äquilibrierten und expandierten Systems. Die aus QSM erhaltenen Temperaturen des Quellsystems in Abhängigkeit von der Anregungsenergie geben im wesentlichen den von Pochodzalla und Mitarbeitern beobachteten Verlauf der kalorischen Kurve wieder. Die Frage, ob dieser Verlauf einen Phasenübergang von flüssig zu gasförmig darstellt, ist anhand dieser Methode nicht zu entscheiden. Die Ergebnisse der Ladungsobservablen in Verbindung mit den kollektiven Eigenschaften zeigen, daß die Anregungsenergie, die zum Erreichen des Maximums der M Fragmentproduktion ( <M IMF> ~ 4.4) nötig ist <E0/A0> ~ 11 MeV, einen geringeren absoluten Wert hat als der Bereich des möglichen Phasenübergangs <E0/A0> ~17 MeV. Im Gegensatz dazu stellt sich das Maximum der mittleren IMF -Produktion energie-, target- und projektilunabhängig bei <E0/A0> ~11 MeV ein. Mit diesemVergleich wird deutlich, daß zur näheren Untersuchung des Phasenübergangs von Kernmaterie nicht die in der Anregungsenergie saturierenden asymmetrischen Projektil-Target Kombinationen benutzt werden können. Die physikalische Fragestellung einer neuen Generation von Experimenten mit dem ALADIN-Detektor müßte in der Quantifizierung des Phasenübergangs und seiner dynamischen Observablen liegen. Dabei ist Beantwortung der Frage nach der zeitlichen Entwicklung der Fragmentproduktion über Korrelationen der Fragmente im Bereich des Phasenübergangs im Vergleich zum Maximum der universellen Kurve sowie die ereignisweise Bestimmung von dynamischen Observablen anzustreben.
An investigation of the transition to delta matter is performed based on a relativistic mean field formulation of the nonlinear sigma and omega model. We demonstrate that in addition to the Delta-meson coupling, the occurrence of the baryon resonance isomer also depends on the nucleon-meson coupling. Our results show that for the favored phenomenological value of m* and K, the Delta isomer exists at baryon density ~ 2–3 p0 if beta=1.31 is adopted. For universal coupling of the nucleon and Delta, the Delta density at baryon density ~ 2–3 p0 and temperature ~ 0.4–0.5 fm-1 is about normal nuclear matter density, which is in accord with a recent experimental finding.