530 Physik
Refine
Year of publication
Document Type
- Article (1908)
- Preprint (1243)
- Doctoral Thesis (590)
- Conference Proceeding (242)
- diplomthesis (101)
- Bachelor Thesis (75)
- Master's Thesis (61)
- Contribution to a Periodical (56)
- Part of Periodical (36)
- Diploma Thesis (34)
Keywords
- Kollisionen schwerer Ionen (47)
- heavy ion collisions (44)
- LHC (25)
- Quark-Gluon-Plasma (25)
- Heavy Ion Experiments (20)
- equation of state (19)
- quark-gluon plasma (19)
- QCD (16)
- Relativistic heavy-ion collisions (16)
- QGP (15)
Institute
- Physik (4186)
- Frankfurt Institute for Advanced Studies (FIAS) (1344)
- Informatik (977)
- Präsidium (70)
- MPI für Biophysik (43)
- ELEMENTS (40)
- Biochemie und Chemie (18)
- Helmholtz International Center for FAIR (12)
- Biochemie, Chemie und Pharmazie (11)
- Geowissenschaften (9)
- Medizin (8)
- Extern (7)
- Geowissenschaften / Geographie (7)
- Informatik und Mathematik (7)
- Center for Scientific Computing (CSC) (6)
- Fachübergreifend (5)
- Buchmann Institut für Molekulare Lebenswissenschaften (BMLS) (4)
- Hochschulrechenzentrum (4)
- Zentrum für Biomolekulare Magnetische Resonanz (BMRZ) (3)
- Biowissenschaften (2)
- Sportwissenschaften (2)
- E-Finance Lab e.V. (1)
- Georg-Speyer-Haus (1)
- Institut für Ökologie, Evolution und Diversität (1)
- MPI für empirische Ästhetik (1)
- Mathematik (1)
- Pharmazie (1)
- Senckenbergische Naturforschende Gesellschaft (1)
Es wurde für Protonen- und Deuteronenbeschleuniger unter Extrembedingungen (hoher Ionenstrom, Dauerstrichbetrieb, Niedrigenergieabschnitt) ein Vergleich zwischen der konventionellen RFQ-Alvarez-DTL-Kombination und einer erstmals am IAP für diese Zwecke entwickelten RFQ-H-DTL-kombination durchgeführt. Insbesondere die Auslegung der Teilchendynamik von HF-Driftröhrenlinearbeschleunigern und RFQ's für leichte Ionen unter Miteinbeziehung der Raumladung und der Forderung nach Dauerstrichbetrieb sind Thema der vorliegenden Arbeit. Die vorgestellten Beschleuniger müssen extrem hohen Anforderungen an Transmission (Stromverlustrate << 3 µ A/m nach dem RFQ), Stabilität (stetige Strahldynamik bei Strahlfehlanpassung und Berücksichtigung von mechanischen und optischen Toleranzen), Anlagensicherheit ("Hands-on-Kriterium") und -zuverlässigkeit (Anlagenverfügbarkeit > 80 %) bei hoher HF-Effizienz (optimierte Shuntimpedanzen, Laufzeitfaktoren und Oberflächenstromdichten) genügen. Es wurden exemplarisch im Rahmen von zwei aktuellen Hochstromprojekten mit Dauerstrichbetrieb teilchendynamische DTL-Entwürfe für den mittleren Energiebereich (0.1 = ß = 0.34) durchgeführt: einmal für das ADS/XADS Projekt (Hier: 40 mA, 350/700 MHz 24 MW, Protonen, CW) und als extremes Beispiel das IFMIF Projekt (125 mA, 175 MHz, 5 MW, Deuteronen, CW). Da IFMIF hinsichtlich Transmissionseffizienz und Strahlstrom in Verbindung mit einem 100 %-Tastverhältnis wohl einzigartig ist, mussten besonders intensive Anstrengungen für den Test der Robustheit des teilchendynamische Entwurfs der DTL-Strukturen unternommen werden. Hierzu wurde der gesamte Injektorpart vom Eingang des Referenz Four-Vane-RFQ bei 0.1 MeV bis zum Ausgang des DTL bei 40 MeV als ganzes simuliert, unter Einbeziehung von optischen, HF- und mechanischen Toleranzen. Diese Rechnungen machten deutlich, dass die Einbringung einer kompakten Strahltransportstrecke (MEBT) zwischen RFQ und DTL notwendig ist, um den Strahl transversal und longitudinal ohne Teilchenverluste an den nachfolgenden DTL anzupassen. Man gewinnt dadurch auch zusätzliche Möglichkeiten für Strahljustierung und -diagnose. Infolgedessen gehört ein MEBT mittlerweile zum Referenz-Design, welches einen 175 MHz Four-Vane-RFQ als Vorbeschleuniger vorsieht und nach dem MEBT einen 175 MHz Alvarez-DTL mit FoDo-Fokussierschema. Die Designkriterien für IFMIF gelten uneingeschränkt auch für das ADS/XADS Projekt und infolgedessen wurde ebenfalls erstmals eine Auslegung des Mittelenergieabschnitts des ADS/XADS-Beschleunigers, der unmittelbar nach dem 350 MHz RFQ bei 5 MeV anfängt und bis ~ 100 MeV reicht, mit der neuen supraleitende CH-Struktur unternommen. Der Hochenergiebereich von 100 MeV bis 600 MeV wird im Referenzentwurf mit den bereits bewährten supraleitenden elliptischen Kavitäten mit einer Resonanzfrequenz von 700 MHz abgedeckt [ADS]. Die umfangreichen Untersuchungen inklusive Toleranzabschätzungen ergaben, dass eine Kette von zehn supraleitenden CH-Resonatoren mit Zwischentankfokussierung (Ausnahme das Modul 1) für diese Anwendung bestens geeignet ist. Des weiteren ergab sich, dass ein Frequenzsprung auf 700 MHz nach dem 6-ten CH-Modul bei einer Energie von ~ 56 MeV die Beschleunigungs- und HF-Effizienz erhöht. Außerdem wird dadurch der Strahl ideal an den Hochenergieabschnitt angepasst. Im Rahmen dieser Arbeit wurden neue Driftröhrenlinearbeschleunigerstrukturen vorgestellt (normal leitender IH-DTL, supraleitender CH-DTL), die für bis zu 10 MW Strahlleistung, 125 mA Strahlstrom und höchsten Tastverhältnissen geeignet sind. Ferner konnte durch geschickte Wahl der Strukturparameter und Arbeitspunkte eine gute Teilchendynamik mit einem moderaten Emittanzwachstum erzielt werden: Strahltransport und -beschleunigung ohne Teilchenverluste, starke transversale und longitudinale Fokussierung, große Aperturfaktoren und höchste HF-Effizienz sind gleichzeitig erreichbar. Somit stellen die neuen H-Moden Driftföhrenbeschleuniger vor allen Dingen in der supraleitenden Ausführung (CH-DTL) eine tragfähige Basis für alle weiteren geplanten Hochintensitätsbeschleunigeranlagen dar.
Rückblick Die Motivation für diese Arbeit ergibt sich aus den immer neuen Fragestellungen der modernen Wissenschaft. Deren Beantwortung hängt wesentlich von den geeigneten Messapparaturen ab, die Einblicke in physikalische Prozesse erlauben. Durch effektivere und höher auflösende Detektoren werden präzisere, schnellere und schonendere Messungen möglich. Die Zielsetzung dieser Arbeit über den Hochdruck-Gas-Szintillations-Proportionalzähler ist es, einen Detektor zu entwickeln, mit dem hochenergetische Photonen praktisch vollständig vermessen werden können. Dazu gehören: - die Photonenenergie im Bereich von 5 bis 500 keV, - die Richtung der einfallenden Strahlung (bzw. der Auftreffort auf dem Detektor), - der Absorptionszeitpunkt und - die Diskriminierung von Gamma-induziertem Untergrund. Potenzielle Einsatzgebiete des Detektors sind im wesentlichen medizinische, atom- und astrophysikalische Anwendungen. Die vielversprechenden Eigenschaften dieses Detektorkonzeptes, gegenüber herkömmlichen Gasdetektoren, ergeben sich aus den Mechanismen der primären und der sekundären Gasszintillation. Daraus folgen der überlegene Verstärkungsprozess und das schnelle Zeitsignal. Als Grundlage für die in dieser Arbeit diskutierten Ergebnisse dienen die zuvor von Dangendorf und Bräuning entwickelten Konzepte und die von ihnen gebauten Prototypen. Sie sind geeignet für kleine und mittlere Photonenenergien und liefern eine gute Energie- und Zeitauflösung. Die Tests der Ortsauslese mit abbildenden, optischen Systemen zeigten erste Resultate. Ausgehend von diesen bestehenden Entwicklungen war die Motivation der Arbeit, den Aufbau an die gewünschten Anforderungen anzupassen. Für die höheren Photonenenergien werden ein dichterer Absorber, also ein höherer Gasdruck und damit verbunden neue Auslesekonzepte benötigt. Problem Ein zentrales Problem, das aufgrund dieser neuen Anforderungen auftritt, ist der Druckunterschied zwischen dem Hochdruck-Szintillator und der bei Niederdruck oder im Vakuum betriebenen UV-Auslese. Die dadurch bedingten Kräfte machen entweder besondere Stützstrukturen oder stabile - und dadurch dicke - Fenster erforderlich. In beiden Fällen geht ein Teil des Signals verloren und die Detektorauflösung nimmt ab. Es handelt sich dabei jedoch nicht um prinzipielle Probleme. Die Schwierigkeiten sind rein technischer Natur. Deshalb wurde intensiv weiter nach neuen Konzepten und Lösungsansätzen gesucht, die die Vorteile dieser überlegenen physikalischen Prozesse ausnutzen können. Lösungsansatz Das konkrete Ziel - bzw. die Aufgabenstellung - dieser Arbeit war, mit neuen Technologien, und dabei vor allem mit einem neuen Mikrostruktur-Elektroden-System, bislang bestehende technische Hürden zu überwinden (Kapitel 3). Durch die Möglichkeit, einen in das Hochdruckvolumen integrierten Photonendetektor zu bauen, werden viele der Stabilitätsprobleme gelöst. Mit der großflächigen Auslese des Szintillationslichts direkt dort, wo es entsteht, werden die Transmissionsverluste in Fenstern vermieden. Es gibt damit nur kleine raumwinkelabhängige Effekte und es wird nur ein Gasvolumen und damit kein zusätzliches System zum Evakuieren, Zirkulieren und Reinigen benötigt. Durch die Trennung der Energie- und der Ortsinformation und deren separate Auslese wird zwar die Komplexität des Detektors erhöht, die Teilsysteme können jedoch unabhängig für die jeweiligen Anforderungen optimiert werden. Grundlagen Im Rahmen dieser Arbeit wurden bereits existierende Erfahrungen aufgegriffen und in deren logischer Fortsetzung, ein, in das Szintillatorvolumen integrierter, UV-Photonendetektor entwickelt. Zunächst musste mit einer umfangreichen Recherche ermittelt werden, welche Anforderungen an einen integrierten Photonendetektor bestehen und wie ein solches System in den Aufbau eingebunden werden kann. Mit dem GEM, der sich schon in diversen anderen Gasdetektoranwendungen als universell einsetzbarer Verstärker bewährt hatte, war ein potenzielles Mikrostuktur-Elektroden-System für unsere Anwendung gefunden. Um die Einsatztauglichkeit dieser Mikrostrukturen für die neuen Applikationen zu analysieren, wurden sie im Standard-Design, unter vielen verschiedenen Betriebsparametern getestet. Dabei wurden wertvolle Erfahrungen im Umgang mit den Mikrostrukturen gesammelt. Die GEMs wurden in den typischen Detektorgasen, bei verschieden Drücken, elektrischen Spannungen und Feld-stärken studiert. Dabei wurden die Chancen, aber auch - vor allem aufgrund elektrischer Überschläge und Instabilitäten - die Grenzen des damit Erreichbaren, aufgezeigt. Mit der Herstellung der speziell für diese Anwendung entwickelten GEMs wurde die Grundlage für den stabilen Betrieb des Detektors geschaffen. Simulationsrechnungen In Kooperation mit einer italienischen Gruppe vom INFN in Cagliari haben wir, mit dem Detektor-Simulations-Programm Garfield, Berechnungen durchgeführt (Kapitel 4). Damit konnte schon vor der technischen Realisierung ein Überblick über die Betriebsbedingungen eines mehrstufigen und komplexen Systems gewonnen werden. Dazu zählen die messtechnisch erfassbaren Größen, wie z.B. die mittlere Gasverstärkung und Diffusion. Daneben konnten aber auch die Prozesse im Kleinen studiert werden. Von besonderem Interesse für die Funktion des Detektors ist dabei der Verlauf der Feldstärke in den Poren der Mikrostrukturen und den umliegenden Regionen. Dessen räumlicher Verlauf in Kombination mit den jeweiligen Gasdaten bestimmen die Elektronentransportparameter, die Gasverstärkung, die Diffusion und die Effizienz. In den Xenon-Szintillator integrierter UV-Photonen-Detektor Der UV-Photonendetektor konnte in zwei Varianten erfolgreich in ein Volumen mit dem Xenon-Gas-Szintillator integriert werden. Die Verbindung der CsI-Photokathode mit dem Elektronenverstärker wurde dabei zum einen als semitransparente dünne Schicht auf einer Quarzglasplatte vor der GEM-Folie und zum anderen als opake Variante auf der Frontseite des GEM realisiert. Bei der Auslese des Xenon-Szintillationslichts mit einer in reinem Xenon und bei hohem Druck betriebenen CsI-Photokathode, wurde Neuland betreten. Es wurde erfolgreich gezeigt, dass der integrierte Photonendetektor auf GEM Basis für die hier diskutierten Einsatzbereiche und Anforderungen funktioniert. Die Ankopplung der Photokathode an die Verstärkerstruktur und dabei vor allem der Elektronentransport von der CsI-Schicht in die Verstärkungszone, wurden im Detail untersucht. Dass die Gasverstärkung in reinem Xenon bei den beschriebe-nen Betriebsparameter überhaupt funktioniert, liegt zum einen daran, dass die optische Rückkopplung mit diesem neuen Design effektiv unterdrückt werden kann. Zum anderen konnten die Einflussparameter auf die Gasverstärkung, für den mehrstufigen GEM-Verstärkungsprozess in reinem Xenon, im Detail untersucht werden. Die gekoppelten Gas-Verstärker-Elemente wurden mit einer eigens für diese Anwendung entwickelten Versorgungsspannungsquelle betrieben, die die Folgen von elektrischen Überschlägen minimiert (Kapitel 5.1.3). Gegenüber den herkömmlichen Gasdetektoren ist es mit diesem neuartigen Aufbau möglich, den UV-Photonen-Detektor bei diesen Betriebsparametern stabil zu betreiben. Abbildende Optiken - optische und mechanische Eigenschaften Parallel zur Entwicklung dieses großflächigen Detektors zur Messung des Energiesignals und der Registrierung des primären Lichts, wurde das Konzept zur Ortsauslese via abbildender Optik weiterverfolgt. Die optischen Abbildungseigenschaften der Linsen wurde im Wellenlängenbereich des Xenon-Szintillationslichtes untersucht. In ersten Tests konnte bei kleinen Gasdrücken und somit geringen mechanischen Beanspruchungen die Ebene der Sekundär-lichterzeugung auf einen gekapselten Mikro-Kanal-Platten-Detektor abgebildet werden. Die Festigkeit der Quarzglaslinse für die Druckbeanspruchungen im hier diskutierten Detektor konnte in Zusammenarbeit mit der Fachhochschule Heilbronn - mittels Finite-Elemente-Berechnung - als ausreichend verifiziert werden. Ausblick Die beiden getrennten Systeme für Orts- und Energiemessung funktionieren unabhängig voneinander. Die Vorraussetzungen für die Kombination der Komponenten in einem gemeinsamen Aufbau sind damit geschaffen. Damit ist der Weg für die folgenden Schritte in diesem Projekt aufgezeigt. Als logische Fortsetzung dieser Arbeiten ist geplant, den integrierten Photonendetektor mit der Photokathode auf der GEM-Frontseite, zusammen mit der Ortsauslese gemeinsam aufzubauen. Von dieser Kombination profitiert das Auflösungsvermögen beider Messungen. Die Korrektur der ortsabhängigen Schwankungen in der Effizienz der Photokathode verbessert die Energieauflösung signifikant. Auf der anderen Seite kann durch das geschickte Setzen von geeigneten Bedingungen auf das Energiesignal die Ortsmessung optimiert werden. Als weiterer naheliegender Schritt auf dem Weg zum effizienten Nachweis der hochenergetischen Photonen, bietet sich der Einbau einer zusätzlichen Verstärkungsstufe zum Aufbau eines dreifach-GEM-Detektors an. Damit kann bei höheren Gasdrücken, trotz kleiner werdender maximaler Verstärkung pro GEM, eine ausreichende Gesamtverstärkung erreicht werden. Der Einsatz des Detektors in einem größeren Experiment, in Kombination mit anderen Messapparaturen, rückt somit in greifbare Nähe.
This thesis presented the measurement of antideuteron and antihelium-3 production in central AuAu collisions at V SNN = 200 GeV center-of-mass energy at RHIC. The analysis is based on STAR data, about 3 x 10 high 6 events at top 10% centrality. Within the data sample a total number of about 5000 antideuterons and 193 antihelium-3 were observed in the STARTPC at mid-rapidity. The specific energy loss measurement in the TPC provides antideuteron identification only in a small momentum window, antihelium-3 however can be identified nearly background free with almost complete momentum range coverage. Following the statistical analysis of the hadronic composition at chemical freeze-out of the fireball, the antinuclei abundances were analyzed in terms of the same statistical description. Now applied to the clusterization of the fireball, the statistical analysis yields a fireball temperature of (135+-10) MeV and chemical potential of (5+-10) MeV at kinetic freeze-out. In the same way as the hadronization, the clusterization process is phase-space dominated and clusters are born into a state of maximum entropy. The large sample of observed antihelium-3 allowed for the first time in heavy-ion physics to calculate a differential multiplicity and invariant cross section as a function of transverse momentum. As expected, the collective transverse flow in the fireball flattens the shape of the transverse momentum spectrum and leads to the high inverse slope parameter of (950+-140) MeV of the antihelium-3 spectrum. With the extracted mean transverse momentum of antihelium-3, the collective flow velocity in transverse direction could be estimated. As the average thermal velocity is small compared to the mean collective flow velocity for heavy particles, the mean transverse momentum of antihelium-3 by itself constrains the flow velocity. Here, a simple ideal-gas approximation was fitted to the distribution of the mean transverse momentum as a function of particle mass and provided direct access to the kinetic freeze-out temperature and the flow velocity. A concept, which is complementary to the combined analysis of momentum spectra and two-particle HBT correlation methods commonly used to extract these parameters, and a cross check for the statistical analysis. The upper limit for the transverse collective flow velocity from the antihelium-3 measurement alone is v flow <= (0.68+-0.06)c, whereas the ideal-gas approximation yields a temperature of (130+-40) MeV and v flow = (0.46+-0.08)c. The results indicate, that the kinetic freeze-out conditions at SPS and RHIC are very similar, except for a smaller baryon chemical potential at RHIC. The simultaneous inclusive measurement of antiprotons allowed to study the cluster production in terms of the coalescence picture. With the large momentum coverage of the antihelium-3 momentum spectrum, the coalescence parameter could be calculated as a function of transverse momentum. Due to the difference between antiproton and antihelium-3 inverse slopes, increases with increasing transverse momentum - again a direct consequence of collective transverse flow. Both B2 and B3 follow the common behavior of decreasing coalescence parameters as a function of collision energy. According to the simple thermodynamic coalescence model, this indicates an increasing freeze-out volume for higher energies and is confirmed by the interpretation of the coalescence parameters in the framework of Scheibl and Heinz. Their model includes a dynamically expanding source in a quantum mechanical description of the coalescence process and expresses the coalescence parameter as a function of the homogeneity volume V hom accessible also in two-particle HBT correlation analyzes. The values for the antideuteron and antihelium-3 results agree well with the homogeneity volume from pion-pion correlations, but do not seem to follow the same transverse mass dependence. A comparison with proton-proton correlations may clarify this point and provide an important cross check for this analysis. Compared to SPS the homogeneity volume increases nearly by a factor of two. The analysis of the antinuclei emission at RHIC allowed to study the kinetic freeze-out of the created fireball. The results show, that the temperature and mean transverse velocity in the expanding system does not change significantly, when the collision energy increases by one order of magnitude. Only the source volume, i.e. the homogeneity volume, increases. That leaves open questions for the theoreticians to the details of the system evolution from the initial hot and dense phase - the initial energy density is a factor of two to three higher at RHIC than at SPS - to the final kinetic freeze-out with similar conditions. At the same time, the results are important constraints for the theoretical descriptions. The successful implementation of the Level-3 trigger system in STAR opens the door for the measurement of very rare signals. Indeed, in the coalescence physics perspective, the first observations of anti-alpha 4 He nuclei and antihypertritons 3/Delta H will come within the reach of STAR, in addition to a high statistics sample of antihelium-3.
Die Doppelionisation von Wasserstoffmolekülen H2 durch einzelne Photonen stellt ein fundamentales und herausforderndes Problem sowohl für die experimentelle als auch für die theoretische Physik dar. In den meisten Fällen kann dabei die elektronische Bewegung von der nuklearen Dynamik entkoppelt werden (Born-Oppenheimer Näherung). Aus diesem Grund kann man auch den molekularen Fragmentationsprozess als eine Emission eines Dielektrons aus einem nuklearen Zweizentren-Coulomb-Potential beschreiben. Die vorliegende Arbeit befasst sich mit der Photodoppelionisation (PDI) von molekularem Wasserstoff durch einzelne, linear polarisierte Photonen mit einer Energie von 75 eV. Dieses Szenario wird verglichen mit der Photodoppelionisation von Heliumatomen (siehe [Bri00] für einen umfassenden Überblick). In diesem Versuch wurde die Rückstoßionenimpulsspektroskopie-Methode (COLd Target Recoil Ion Momentum Spectroscopy COLTRIMS) benutzt, um alle Fragmente der Reaktion auf ortsauflösende Vielkanalglasplatten(Multi-Channel-Plate MCP)-Detektoren mit Verzögerungsdrahtauslese (delay-line anode) abzubilden. Dabei wurden die Mikropartikel durch elektrische und magnetische Felder geführt. In einer Messung wurde das Rückstoßionenspektrometer mit gepulster Extraktionsspannung betrieben, um das Dielektron und die Stellung der molekularen Achse mit guter Impulsauflösung gleichzeitig vermessen zu können. In einer weiteren Messung kam ein neuartiges Detektorsystem mit hexagonaler Verzögerunsdrahtanode zum Einsatz, die in der Lage war, beide Elektronen, die in sehr kurzen Zeitabständen auf dem Detektor eintrafen, ohne Totzeitverluste in Koinzidenz mit den nuklearen Fragmenten ortsauflösend zu registrieren. Aus den Flugzeiten und Auftrefforten der Teilchen der beiden Datensätze konnten die Impulse des Vierteilchenendzustandes generiert werden. Dies stellt die Messung des Betragsquadrats der quantenmechanischen Wellenfunktion im Impulsraum dar. Aus diesen Größen konnten auch die azimutalen und polaren Winkelverteilungen in Referenz zum Polarisationsvektor des einfallenden Lichts bestimmt werden. Basierend auf der axialen Rückstoßnäherung konnten so zum ersten Mal hochdifferentielle Wirkungsquerschnitte (QDCS und höher) des Vierkörper-Problems für eine raumfeste Molekülachse gemessen werden. Unter Ausnutzung der Reflexions-Näherung war sogar der internukleare Abstand des Moleküls zum Zeitpunkt der Photoabsorption zugänglich. Man findet markante Übereinstimmungen mit der PDI von Heliumatomen. Das Dielektron wird vorwiegend entlang des Polarisationsvektors emittiert und koppelt an das Schwerpunktssystem (Center-of-Mass CM) der nuklearen Partikel, die in einer Coulomb-Explosion fragmentiern. Etwa 72.5 % der Anregungsenergie der beiden Elektronen geht in deren Relativbewegung. Wie bei der Ionisation von Heliumatomen bestimmt die Elektron-Elektron Wechselwirkung zusammen mit diversen Auswahlregeln (siehe [Wal00c]) die Form der polaren Winkelverteilung. In der azimutalen Ebene (die Ebene, die senkrecht zum Polarisationsvektor des Lichts angeordnet ist) erkennt man den attraktiven Einfluss des nuklearen Zweizentren-Potentials, was zu einer Abweichung von der Zylindersymmetrie um die Achse des elektrischen Feldvektors des Lichts führt, wie sie bei niedrigeren Photonenenergien vorzufinden ist (siehe [Dör98b]). In dieser Ansicht tendieren langsame Elektronen dazu, entlang der Molekülachse emittiert zu werden. Es können der sogenannte Auffülleffekt der Knotenstruktur und die vergrößerten Zwischenwinkel in der Polarwinkelverteilung der Elektronen in Form einer Zweikeulenstruktur verifiziert werden (siehe [Red97, Wig 98]). Die Ergebnisse bestätigen den Modellansatz von J. Feagin (siehe [Fea98]), der den Zusammenbruch einer atomaren Auswahlregel, die auf einem Konus wirkt, für den molekularen Fall vorhersagt. Diese Auswahlregel reduziert sich auf eine Knotenlinie, die aufgrund der endlichen Öffnungswinkel des Experiments aufgefüllt wird. Es gibt Hinweise, dass die Verringerung des elektronischen Zwischenwinkels eine Funktion der Stellung der Molekülachse ist, d.h. der kohärenten Überlagerung der beiden möglichen Endzustände mit S- und ?-Symmetrie. Die Ergebnisse der Wannier-Theorie vierter Ordnung nach T. Reddish und J. Feagin (siehe [Red99]) zeigen eine gute Übereinstimmung mit den experimentell gewonnen Daten, zumindest solange die beiden Elektronen den gleichen kinetischen Energiebetrag erhalten. Im Gegensatz dazu bewertet die hochkorrelierte 5C-Theorie nach M. Walter et al. (siehe [Wal99]) den Einfluss des attraktiven nuklearen Zweizentren-Potentials zu hoch. Vorläufige Ergebnisse einer CCC-Rechnung von A. Kheifets et al. (siehe [Khe02]) zeigen eine sehr akkurate Übereinstimmung mit den gemessenen Winkelverteilungen. Minimiert man die Elektron-Elektron Wechselwirkung, indem man eine rechtwinklige Emission der beiden Elektronen fordert (dies kommt einer Ionisation eines H2 +-Ions gleich), so findet man keine starken Fokussierungseffekte vor, wie man sie von Ionisationsprozessen von N2 und CO her kennt (siehe [Lan01, Web01b, Jah02a und Web02]). Stattdessen beobachtet man die Emission eines langsamen Elektrons auf dem nuklearen Sattelpunktspotential, wie man es nach einer halbklassischen Beschreibung erwarten kann. Zusätzlich ist eine hochstrukturierte Winkelverteilung zu beobachten, die auf höhere Drehimpulsbeiträge schliessen lässt (vergleichbar der Parametrisierung bei der PDI von Heliumatomen nach L. Malegat et al., siehe [Mal97d]). Die Verteilung ist sehr sensitiv auf die Energie der Elektronen und die Orientierung der Molekülachse, was weder angemessen durch auslaufende, ebene Wellen noch durch die 5C-Theorie beschrieben werden kann. Für diese Ereignisse erzwingen große internukleare Abstände eine Emission der Elektronen entlang des Polarisationsvektors, während für kleine Abstände die Elektronen vorwiegend rechtwinklig zur Molekülachse ausgesendet werden. Anhand dieser Tatsachen kann man auf einen merklichen Einfluss des Anfangszustands auf die Winkelverteilung der Elektronen zurückschließen. Das ganze Szenario ändert sich sobald man die Elektron-Elektron Wechselwirkung wieder "einschaltet", indem man fordert, dass die Fragmentation in einer Ebene stattfindet. Hier bestimmt die Relativbewegung der beiden Elektronen die Form der Wirkungsquerschnitte. Es zeigen sich nur geringfügige Änderungen in Abhängigkeit zum internuklearen Abstand. Es kann aber teilweise eine dreifache Keulenstruktur ausgemacht werden. Diese Substruktur ändert ihre Amplitude und Richtung als Funktion des Molekülabstandes. Eine direkte Emission entlang des Polarisationsvektors scheint dabei verboten zu sein. In dieser Darstellung zeigt das elektronische Emissionsmuster einen sehr heliumähnlichen Charakter für kleine Bindungslängen. Für größere Abstände der Kerne werden langsame Elektronen deutlich unter einem Zwischenwinkel von 180° (back-to-back-emission) gegen das schnelle Referenzelektron emittiert. Referenzen: [Bri00] J.S. Briggs et al., J. Phys. B: At. Mol. Opt. Phys., 33, (2000), S. R1 [Dör98b] R. Dörner et. al., Phys. Rev. Lett., 81, (1998), S. 5776 [Fea98] J. Feagin, J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. L729 [Jah02a] T. Jahnke et. al., Phys. Rev. Lett., 88, (2002), S. 073002 [Khe02] A. Kheifets, private Mitteilung, (2002) [Lan01] A. Landers et al., Phys. Rev. Lett., 86, (2001), S. 013002 [Mal97d] L. Malegat et al., J. Phys. B: At. Mol. Opt. Phys., 30, (1997), S. 251 [Red97] T. Reddish et al., Phys. Rev. Lett., 79, (1997), S. 2438 [Red99] T. Reddish et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2473 [Wal00c] M. Walter et al., Phys. Rev. Lett., 85, (2000), S. 1630 [Wal99] M. Walter et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2487 [Web01b] Th. Weber et al., J. Phys. B: At. Mol. Opt. Phys., 34, (2001), S. 3669 [Web02] Th. Weber et al., Phys. Rev. Lett., (2002), eingereicht zur Veröffentlichung [Wig98] J.P. Wightman et al., J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. 1753
Die Physik beschäftigt sich seit jeher mit der Frage nach dem Aufbau und der Struktur der Materie. Die Antworten änderten sich im Laufe der Zeit, der gegenwärtige Stand der Erkenntnis ist im sogenannten Standardmodell zusammengefasst. Dort werden die Elementarteilchen in Leptonen und Quarks unterteilt, die Wechselwirkungen zwischen ihnen beschreibt man durch vier fundamentale Kräfte: die Gravitation, die elektromagnetischen Kraft, die schwache und die starke Kernkraft. Gemäß dem Standardmodell sind Nukleonen, also Protonen und Neutronen, aus Quarks aufgebaut. Das Proton ist beispielsweise ein gebundener Zustand aus zwei up und einem down Quark. Die Nukelonen bilden ihrerseits die Atomkerne, welche die Systematik der Elemente bestimmen. Quarks treten in sechs verschiedenen Arten (flavours) auf: up, down, strange, charm, bottom und top. Freie Quarks konnten bislang nicht nachgewiesen werden, sie werden nur als Quark-Antiquark Paar (Meson) oder als Kombination aus drei Quarks (Baryon) beobachtet. Mesonen und Baryonen werden unter dem Begriff Hadronen zusammengefaßt. Die starke Kernkraft beruht letztlich auf der Wechselwirkung zwischen Quarks, diese wird durch die Quantenchromodynamik (QCD) beschrieben. Ähnlich der Glashow- Salam-Weinberg Theorie (GSW), die die elektromagnetische und die schwache Kernkraft beschreibt, ist die Quantenchromodynamik durch Austauschteilchen charakterisiert. Im Fall der GSW wurden die Photonen bzw. W± oder Z-Teilchen als Austauschteilchen identifiziert, in der QCD fungieren Gluonen als Austauschteilchen. Photonen vermitteln die elektromagnetische Kraft zwischen allen Teilchen, die elektrische Ladung tragen. Analog wirkt die Kraft, die durch den Austausch von Gluonen beschrieben wird, zwischen Teilchen, die eine Farbladung tragen. Anders als das neutrale Photon trägt das Gluon selbst Farbe und wechselwirkt daher mit anderen Teilchen, die Farbe tragen. Dieser Umstand zeigt bereits, dass in der QCD ganz andere Phänomene zu erwarten sind als in der GSW. Die Tatsache, dass Quarks nur in gebundenen Zuständen vorliegen, erschwert die direkte Beobachtung der Wechselwirkung zwischen ihnen. Ein indirekter Weg, um die Wirkungweise diese Kraft zu untersuchen, liegt in der Erzeugung hoher Kernmateriedichten und hoher Kerntemperaturen. Die Idee besteht darin, das Phasendiagramm von Kernmaterie experimentell zu bestimmen (Abbildung 1.3) und dann auf die zugrundeliegende Kraft zu schließen. Unter anderem führen die Kräfte, die zwischen den Einzelteilchen des Mediums herrschen, zu charakteristischen Phasenübergängen. Im Fall der Kernmaterie hofft man insbesondere, den Übergang von gebundenen Zuständen in eine Quark-Gluon-Plasma Phase (QGP), in der sich Quarks und Gluonen frei bewegen, zu beobachten. Zwei prominente Beispiele demonstrieren, warum die Eigenschaften dieses Materiezustandes - und ob er überhaupt existiert - auch für andere Teilgebiete der Physik von großem Interesse sind. Zum einen geht man davon aus, dass in der Frühphase des Universums, 10-12 s nach dem Urknall, die Energiedichte so hoch war, dass die Materie in einem Plasmazustand vorlag. In diesem Bild führt die Expansion des Raumes zu einer Abkühlung des Plasmas und schließlich zum Ausfrieren in Hadronen. Zum anderen zeigen viele Modellstudien, dass im Innern von Neutronensternen mit extremen Dichten zu rechnen ist. Unter Umständen werden Energiedichten erreicht, die hoch genung sind, um einen Phasenübergang in ein Quark Gluon Plasma zu erzwingen. Die Beschreibung dieser astronomischen Objekte setzt somit auch die Kenntnis der Kräfte zwischen den Quarks voraus. Der einzige Weg, dichte Kernmaterie im Labor zu erzeugen, stellen Schwerionenreaktionen dar. Wenn zwei ultrarelativistische schwere Kerne zentral kollidieren, entsteht für kurze Zeit eine Region hoher Energiedichte (Abbildung 1.1). QCD-Gitter-Rechnungen deuten darauf hin, dass die Dichte, die man in Schwerionreaktion gegenwärtig erreicht, hoch genung ist, um einen Übergang der Kernmaterie in eine Plasma-Phase zu erzwingen. Aufgrund des hohen Drucks expandiert die verdichtete, heiße Kernmaterie in longitudinaler (entlang des Strahls) und transversaler (senkrecht zum Strahl) Richtung und die Dichte nimmt ab. Vorausgesetzt am Anfang der Reaktion wurde ein Quark-Gluon-Plasma erzeugt, dann friert diese Phase in Hadronen aus (chemisches Ausfrieren), wenn Dichte und Temperatur einen kritischen Wert unterschreiten. Die erzeugten Hadronen wechselwirken zunächst noch elastisch miteinander, d.h. die Impulse der Teilchen ändern sich, die Identität der Teilchen bleibt jedoch erhalten. Schließlich enden auch diese Wechselwirkungen (thermisches Ausfrieren), und die Teilchen verlassen die Reaktionszone (Abbildung 1.4). Der Ablauf einer solchen Schwerionenreaktion dauert einige 10-23s und ihre räumliche Ausdehnung liegt in der Größenordnung von 10-15m, damit ist die Reaktion selbst nicht beobachtbar. Nur der Endzustand, also die Identitäten und Impluse der emittierten Teilchen, kann bestimmt werden. Um den Ablauf der Reaktion zu rekonstruieren, ist man daher auf Modellrechnungen angewiesen. Aufgrund dieser Modellrechnungen wurden einige Observablen vorgeschlagen, die einen Phasenübergang kennzeichnen. Neben anderen Signaturen führt ein Phasenübergang wahrscheinlich zu einer verlängerten Emissionsdauer. Dieser Effekt kann möglicherweise durch die Analyse von Zwei-Teilchen-Korrelationen sichtbar gemacht werden. Ganz allgemein stellt die Untersuchung von Teilchenkorrelationen die einzige Möglichkeit dar, die raum-zeitlichen Strukturen während des thermischen Ausfrierens experimentell zu bestimmen. Korrelationen zwischen Teilchen, die von einer hinreichend kleinen Quelle emittiert werden, haben verschiedene Ursachen. Betrachtet man beispielsweise die Häufigkeitsverteilung der Impulsdifferenz zwischen zwei elektrisch gleich geladenen Teilchen, so stellt man fest, dass Paare mit geringer Impulsdifferenz weniger häufig vorkommen, als man anhand der Ein-Teilchen Impulsverteilung vorhersagen würde. Dieser Effekt ist auf die Abstoßung zwischen zwei elektrisch gleich geladenen Teilchen zurückzuführen, die mit kleiner Impulsdifferenz emittiert wurden. Eine weniger offensichtliche Korrelation wird durch den Quantencharakter identischer Teilchen verursacht. Zwei identische Bosonen, die im Phasenraum nahe beieinander liegen, können gemäß den Prinzipien der Quantentheorie nicht unterschieden werden. Die Wellenfunktion, die diesen Zwei-Teilchen-Zustand beschreibt, muß beim Vertauschen der Teilchen erhalten bleiben. Diese Forderung führt zu einem Interferenzterm in der Zwei-Teilchen Intensitätsverteilung. Diese Verteilung ist proportional zur Wahrscheinlichkeit, ein Teilchenpaar mit der Impulsdifferenz q zu messen. Berechnet man die Impulsdifferenzverteilung von Pionenpaaren und berücksichtig nur quanten- statistische Effekte, so findet man, dass Paare mit geringem Impulsunterschied bis zu zweimal häufiger vorkommen, als man aufgrund einfacher statistischer Überlegungen erwarten würde. Um diesen Effekt experimentell sichtbar zu machen, konstruiert man die Korrelationsfunktion, die die gemessene Impulsdifferenzverteilung in Relation zu einer Untergrundverteilung setzt. Experimentell gewinnt man diese Referenzverteilung, indem Paare aus Spuren aus verschiedenen Ereignissen gebildet werden. Die Referenzverteilung entspricht damit der Verteilung, die man messen würde, wenn die Teilchen nicht der Quantenstatistik unterlägen. Die Korrelationsfunktion wird im allgemeinen durch eine Gauß-Funktion angenähert. Das Inverse der Standardabweichung dieser Funktion wird nach den Pionieren der Intensitätsinterferometrie R. Hanbury Brown und R. Twiss als HBT-Radius bezeichnet. Teilchen interferieren nur dann, wenn sie im Phasenraum nahe beieinander liegen, das heißt sowohl die Impulsdifferenz als auch der räumliche Abstand muß hinreichend klein sein. Diese Bedingung kann genutzt werden, um von der gemessenen Korrelationsfunktion, die nur auf den Impulskomponenten basiert, auf die räumliche Verteilung der Teilchenproduktion zu schließen. Eine detaillierte Betrachtung erlaubt sogar, aufgrund der gemessenen Korrelationsfunktion quantitative Aussagen über die räumlichen Aspekte der Teilchenquelle zu machen. Beispielsweise können im Rahmen eines Modells die Stärke der transversalen Expansion oder die Emissionsdauer in Relation zu den HBT-Radien gesetzt werden. In Kapitel 2 sind die Grundlagen der Teilcheninterferometrie ausführlicher dargestellt. Der eigentliche Gegenstand dieser Arbeit ist experimentelle Analyse der Zwei- Teilchen-Korrelationen in einer Schwerionenreaktion. Dazu wird zunächst in Kapitel 3 das STAR Experiment am RHIC vorgestellt, in dem die Daten aufgezeichnet wurden, die Grundlage dieser Analyse sind. Am RHIC-Beschleuniger am BNL in den USA werden AuAu Kollisionen bis zu einer Schwerpunktsenergie von Wurzel aus SNN=200 GeV erzeugt. Figur 3.1 zeigt den Beschleuniger-Ring und die vier Experimente Brahms, Phenix, Phobos und STAR. Der hier analysierte Datensatz wurde bei der Datennahme im Jahr 2000 aufgezeichnet. Zu dieser Zeit wurde am RHIC eine Schwerpunktsenergie von Wurzel aus SNN=130 GeV erreicht. Bei einer zentralen AuAu Kollision werden mehrere Tausend Teilchen produziert. Der STAR Detektor ist dafür konzipiert, hadronische Teilchen kleiner Rapidität (d.h. großer Winkel zur Strahlachse) zu messen, innerhalb der Akzeptanz werden etwa 80% der produzierten geladenen Teilchen nachgewiesen. Der schematische Aufbau des STAR Detektorsystems ist in Figur 3.2 dargestellt. Der zentrale Detektor ist eine TPC (Zeit-Projektions-Kammer). Dieser Detektor basiert darauf, dass geladene Teilchen beim Durchgang durch ein Messgas eine Spur von Ionen hinterlassen. Ein starkes elektrisches Feld driftet die Elektronen, die bei den Ionisationsprozessen freigesetzt wurden, zu einer Ausleseebene. Der Punkt, an dem die Elektronen auf der Ausleseebene ein Signal erzeugen, entspricht der Projektion des Ionisationpunktes auf die Ausleseebene. Die dritte Komponente, die den Raumpunkt der Ionisation festlegt, ist durch die Driftzeit bei bekannter Driftgeschwindigkeit gegeben. So erscheint eine Teilchenspur als eine Kette von Ionisationspunkten im Detektorgas. Ein magnetisches Feld parallel zur Strahlachse führt zu einer Ablenkung der geladenen Teilchen. Die Krümmung der Spur ist dabei umgekehrt proportional zum transversalen Impuls. Abbildung 3.6 zeigt ein typisches Ereignis mit etwa 105 Ionisationspunkten und den entsprechenden Teilchenspuren. Der spezifische Energieverlust eines Teilchens beim Durchgang durch das Messgas hängt von seinem Impuls und seiner Masse ab. Die Stärke des auf der Ausleseebene induzierten Signals erlaubt den spezifischen Energieverlust zu bestimmen. Da der Impuls durch die Krümmung der Spur bekannt ist, kann so die Masse und damit die Identität des Teilchens bestimmt werden (siehe Abbildung 3.7). In Kapitel 4 wird der Datensatz beschrieben, der als Grundlage für diese Analyse dient. Während der Datennahme werden die digitalisierten Daten der TPC auf ein Speichermedium geschrieben. Der erste Schritt bei der Rekonstruktion der Ereignisse besteht darin, die Ionisationspunkte zu lokalisieren. Dies leistet der Clusterfinder- Algorithmus, der in Kapitel 4.1.1 beschrieben ist. Die Spurpunkte werden dann durch den Tracking-Algorithmus zu Teilchenspuren verbunden. Die erreichte Effizienz, Akzeptanz und Impulsauflösung der Rekonstruktion sind in Kapitel 4.1.2 zusammengefaßt. Die Zwei-Teilchen-Korrelationen werden nur für zentrale Kollisionen betrachtet, das sind Ereignisse mit kleinem Stoßparameter. Die Multipliztät der gemessenen Spuren ist in erster Näherung ein Maß für die Zentralität des Ereignisses. Für diese Analyse werden nur die 12% zentralsten Ereignisse zugelassen. Die Selektion der Ereignisse ist in Kapitel 4.2 beschrieben. Die Auswahl der Spuren, die in der Analyse verwendet werden, ist in Kapitel 4.3 beschrieben. Es werden nur Spuren zugelassen, deren Impulse in einem Bereich hinreichend hoher Akzeptanz und Effizienz liegen. Außerdem werden die Spuren ausgewählt, die mit hoher Wahrscheinlichkeit von Pionen stammen. Eine weitere Auswahl wird auf der Paarebene getroffen. Die Korrelationsfunktion wird in einzelnen Intervallen transversalen Paarimpulses kt und Paarrapidität Yðð gebildet. Damit kann die Abhängigkeit der HBT-Radien von diesen Größen dargestellt werden. Zwei weitere Auswahlkriterien sollen die Qualität der Spurpaare garantieren. Zum einen werden solche Paare verworfen, die im Detektor zu nahe beieinander liegen. Für die HBT-Analyse sind Paare mit geringem Impulsunterschied entscheidend, ein geringer Impulsunterschied heißt notwendigerweise, dass die Spuren räumlich nicht sehr weit getrennt sind. Wenn die Spuren aber zu nahe liegen, können sie vom Detektor und von der Rekonstruktionskette nicht mehr aufgelöst werden. Damit verliert man einen Teil der Paare in der Signalverteilung, nicht aber in der Untergrundverteilung, da in diesem Fall die endliche Zwei-Spur-Auflösung keine Rolle spielt. Um die Korrelationsfunktion nicht durch einen Detektoreffekt zu verfälschen, entfernt man die Paare, die im Detektor nahe beieinander liegen, sowohl in der Signal- als auch in der Untergrundverteilung. Ein weiteres Problem stellen "gebrochene" Spuren dar. In einigen Fällen wird eine Teilchenspur von der Rekonstruktionskette nicht als Ganzes erkannt, vielmehr werden zwei Spurstücke im Dektor gefunden. Da diese Spurstücke vom selben Teilchen stammen, haben sie eine sehr geringe Impulsdifferenz. Diese Paare können anhand ihrer Topologie im Detekor erkannt werden. Wie im Fall der begrenzten Zwei-Spur-Auflösung werden sie sowohl für die Signal- als auch für die Untergrundverteilung nicht zugelassen. In Kapitel 5 werden schließlich die Ergebnisse der Korrelationsanalyse dargestellt. Die Korrelationsfunktion wird in verschiedenen Parametrisierungen betrachtet. In der einfachsten Form betrachtet man nur den Betrag des Impulsdifferenzvektors. Dieser Ansatz bedeutet aber, dass der entsprechende HBT-Radius alle Raum-Zeit Komponenten mischt und damit nur wenig Aussagekraft bezüglich der Quellfunktion besitzt. Eine differenzierte Analyse in drei unabhängigen Komponenten ermöglichen die Pratt-Bertsch (PB) und die Yano-Koonin-Podgoretskii (YKP) Parametrisierung. Die beiden Parametrisierungen unterscheiden sich in der Zerlegung des Impulsdifferenzvektors in drei unabhängige Komponenten. Im ersten Fall bezeichnet man die Komponenten als qout, qlong und qside, im zweiten Fall als qpara, qperp und q0 (Kapitel 2.7 und 2.8). Die entsprechenden Korrelationsfunktionen sind in Gleichung 2.31 bzw. 2.34 gegeben. Die jeweiligen HBT-Radien Rout, Rlong und Rside bzw. Rpara, Rperp und R0 können in Relation zu den Parametern der Quellfunktion (Gleichung 2.43) gesetzt werden. Die beiden Parametrisierungen liefern im Prinzip die gleiche Information und die beiden Sätze von HBT-Radien können in Beziehung zueinander gesetzt werden (Gleichung 2.41). Beispielsweise entspricht der HBT-Radius R0 in der YKP-Parametrisierung in erster Näherung der Emissionsdauer, während in der PB- Parametrisierung diese Größe Verhältnis von Rout zu Rside abhängt. Zusätzlich zu den Radien enthält die YKP-Parametrisierung einen Parameter ß, der erlaubt, die longitudinale Geschwindigkeit des betrachteten Quellelementes zu bestimmen. Die Abbildungen 5.7 bis 5.10 zeigen die HBT-Radien beider Parametrisierungen in Abhänigigkeit vom transversalen Paarimpuls kt und von der Paarrapidität Yðð. Die Größe der gemessenen Radien bewegt sich zwischen 3 und 7 fm. Nur der Radius R0 verschwindet in den meisten kt-Yðð Intervallen. Die anderen Radien nehmen mit steigendem kt ab und sind unabhängig von Yðð . Abbildung 5.11 demonstriert, dass die beiden Parametrisierungen -dort wo sie vergleichbar sind- konsistente Ergebnisse liefern. Eine Diskussion der Ergebnisse schließt sich in Kapitel 6 an. Die Abhänigigkeit des Parameters ß von Yðð zeigt eine starke longitudinale Expansion an. Ein ähnliches Verhalten wurde bei niedrigeren Schwerpunktsenergien beobachtet, wo man allerdings eine schwächere longitudinale Expansion erwarten würde. Die Lebensdauer der Quelle, also die Zeit vom anfänglichen Überlapp der Kerne bis zum thermischen Ausfrieren, bestimmt die kt-Abhänigigkeit des Parameters Rlong. Dieser Zusammenhang wurde von Mahklin und Sinyukow formuliert, eine Anpassung der entsprechenden Funktion an die gemessene kt Abhänigigkeit von Rlong ergibt eine Lebensdauer von etwa 8 fm/c bei einer Ausfriertemperatur von etwa 126 MeV. Entsprechende Messungen bei niedrigeren Kollisionsenergien lieferten ähnliche Resultate. Die kt-Abhängigkeit des Parameters Rside ist mit der Stärke der transversalen Expansion gemäß Gleichung 6.3 verknüpft. Da die Relation nicht eindeutig ist, muß entweder eine feste Ausfriertemperatur angenommen werden oder es werden gleichzeitig Einteilchenspektren betrachtet, um die Mehrdeutigkeit zu eliminieren. Eine vorläufige Abschätzung ergibt eine mittlere transversale Expansions- geschwindigkteit von v ungefähr gleich 0.6 und einen gemetrischen Radius von RG ungefähr gleich 7.4 fm . Auch diese Ergebnisse sind vergleichbar mit entsprechenden Resultaten bei niedrigeren Kollisionsenergien. Ein weiterer Parameter der Quellfunktion ist die Emissionsdauer. Die Pionen werden nicht zu einem festen Zeitpunkt emittiert, man geht vielmehr davon aus, dass die Zeitpunkte der letzten elastischen Wechselwirkung in der Quelle gaußförmig verteilt sind. Den Mittelwert dieser Verteilung bezeichnet man als Lebensdauer der Quelle, die Breite als Emissionsdauer. Entsprechend Gleichung 6.4 bzw. 6.5 ist die Emissionsdauer mit dem Radius R0 bzw. dem Verhältnis Rout zu Rside verbunden. Wie in Abbildung 5.8 ersichtlich verschwindet der Parameter R0 , außer im kleinsten kt Intervall. Dies entspricht in der PB-Parametrisierung der Tatsache, dass das Verhältnis Rout zu Rside bei hohen kt kleiner als eins ist. Diese Resultate sind nicht vereinbar mit herkömmlichen Modellen. Insbesondere weil eine verlängerte Emissionsdauer als Signatur für die Bildung eines Quark-Gluon-Plasmas vorgeschlagen wurde, wird dieses Ergebnis derzeit intensiv diskutiert. Die Ergebnisse dieser Analyse sind sowohl mit bereits publizierten Daten der STAR Kollaboration als auch mit Resultaten von anderen RHIC Experimenten verträglich (siehe Abbildung 6.8). In Abbildung 6.9 ist die Abhängigkeit der HBT-Radien von kt bei verschiedenen Schwerpunktsenergien dargestellt. Im Gegensatz zu vielen anderen Observablen ändern sich die HBT Radien nur geringfügig. Da man erwartet, dass die Reaktion bei hohen Energien vollkommen anders abläuft, würde man auch davon ausgehen, dass sich die Ausfrierbedingungen ändern. Dass dies nicht in den Zwei-Teilchen- Korrelationen sichtbar wird, deutet darauf hin, dass die Näherungen die notwendig sind, um die gemessenen Radien mit Modellparametern zu verbinden, nicht gültig sind. Die Systematik der HBT Parameter als Funktion der Schwerpunktsenergie enthält damit keinen direkten Hinweis, dass die kritische Energiedichte überschritten wurde, ab der die Kernmaterie in einer Plasmaphase vorliegt. Andererseits werden weder die verschwindende Emissionsdauer noch die Tatsache, dass die anderen HBT-Parameter sich nur wenig mit der Schwerpunktsenergie ändern, als Argument dafür gewertet, dass die kritische Energiedichte nicht überschritten wurde. Die Frage, ob ein Quark- Gluon-Plasma im Labor erzeugt und analysiert werden kann, bleibt damit offen. Das thermische Ausfrieren einer Pionenquelle scheint hingegen anders zu verlaufen, als bisher angenommen wurde. Systematische Studien der Korrelationsfunktion in AA Kollisionen am RHIC in Kombination mit Fortschritten im theoretischen Verständnis der Teilcheninterferometrie in Schwerionenreaktion werden in Zukunft hoffentlich erlauben, die gemessenen Radien in ein konsistentes Bild einzuordnen. In zukünftigen Experimenten am LHC werden noch weit höhere Dichten erreicht als bisher, damit sollten sich auch die Ausfrierbedingungen stark verändern. Es wird sich dann zeigen, ob die Teilcheninterferometrie das geeignete Instrument ist, um die Quellfunktion einer Schwerionenreaktion zu messen.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
Der STAR Level-3 Trigger
(2002)
Schwerionen-Collider-Experimente, wie das STAR-Experiment am RHIC (BNL) oder das geplante ALICE-Experiment am LHC (CERN) untersuchen Schwerionenkollisionen bei Schwerpunktsenergien von Wurzel aus SNN = 200 GeV (RHIC), bzw. Wurzel aus sNN = 5, 5 TeV (ALICE). In diesen Kollisionen werden mehrere tausend geladene Teilchen produziert, die in STAR und ALICE in großvolumigen TPCs gemessen werden. Das Datenvolumen erreicht dabei bis zu 10 MB (STAR) und 60 MB (ALICE) pro Ereignis. Aufgrund der hohen Luminosität der Collider könnten die Experimente zentrale Schwerionenkollisionen mit einer Rate bis zu 100 Hz bzw. 200 Hz (ALICE) untersuchen. Die dabei entstehenden Datenraten im Bereich mehrerer GB/s sind mit heutiger Technologie jedoch nicht mehr einfach zu speichern. Deshalb kann nur ein Bruchteil der zur Verfügung stehenden Ereignisse aufgezeichnet werden. Aufgrund der exponentiellen Entwicklung der CPU-Leistung wird es jedoch möglich, die Rekonstruktion von Ereignissen während der Datennahme in Echtzeit durchzuführen. Basierend auf den rekonstruierten Spuren in den Detektoren kann die Entscheidung getroffen werden, ob ein Ereignis gespeichert werden soll. Dies bedeutet, dass die begrenzte Speicherbandbreite gezielt mit Ereignissen, die eine interessierende physikalische Observable beinhalten, angereichert werden kann. Ein solches System zur Ereignisselektion wird als Level-3-Trigger oder allgemeiner als High Level Trigger bezeichnet. Am STAR-Experiment wurde erstmals in einem Schwerionenexperiment solch ein Level-3-Triggersystem aufgebaut. Es besteht aus 432 i960-CPUs, auf speziell gefertigten Receiver Boards für die paralelle Clusterrekonstruktion in der STARTPC. 52 Standard-Computer mit ALPHA- bzw. Pentium-CPUs rekonstruieren die Spuren geladener Teilchen und tre.en eine Triggerentscheidung. Dieses System ermöglicht die Echtzeit-Rekonstruktion zentraler Au-plus-Au-Kollisionen mit anschliessender Analyse durch einen Trigger-Algorithmus mit einer Rate von 40-50 Hz. Die Qualität, die mit dieser schnellen Analyse erreicht wird, kann mit der Qualität der STAR-Offline-Rekonstruktion verglichen werden. Der Level-3-Clusterfinder erreicht in Bezug auf Ortsauflösung und Rekonstruktionseffizienz dieselbe Qualität wie der Offline-Clusterfinder. Der Level-3-Trackfinder erreicht bei Rekonstruktionseffizienz und Impulsauflösung 10-20% schlechtere Werte als der Offline- Trackfinder. Die Anwendung eines Level-3-Triggers besteht in der Messung von seltenen Observablen ("rare Probes"), die ohne eine Anreicherung nicht, oder nur schwer, meßbar wären. In den Jahren 2000 und 2001 wurden erste Triggeranwendungen für das STARLevel- 3-System erprobt. In ultraperipheren Au-plus-Au-Kollisionen wurden po-Kandidaten schon im Jahr 2000 selektiert. Während der Strahlzeit des Jahres 2001 wurde das Level-3-System erstmals zum Triggern in zentralen Au-plus-Au-Kollisionen eingesetzt. Die Triggeralgorithmen beinhalteten einen Õ-Trigger, einen 3He-Trigger und einen Algorithmus zur Anreicherung von Spuren hohen Impulses in der Akzeptanz des RICH-Detektors. Das STAR Level-3-System ist in der Lage zehnmal mehr Ereignisse zu analysieren, als gespeichert werden können. Aufgrund der begrenzten Luminosität des RHIC-Beschleunigers, konnten die Level-3 Trigger erst zum Ende der Strahlzeit eingesetzt werden. Den genannten Algorithmen standen zusätzlich zu den 3 · 10 hoch 6 gespeicherten zentralen Ereignissen, 6 · 10 hoch 5 zentrale Ereignisse zur Analyse zur Verfügung. Mit diesem begrenzten Anreicherungsfaktor von 20% blieb das System hinter seinen Möglichkeiten zurück. Es konnte jedoch gezeigt werden, dass das STAR Level-3-System in der erwarteten Qualität und Stabilität funktioniert.
Die auf dem ACDM-Modell beruhenden numerischen Simulationen der gravitativen Strukturbildung sind auf Skalen M >> 10 hoch 10 M sehr erfolgreich, insbesondere konvergieren die Verfahren hinsichtlich des vorhergesagten Masseanteils der Halos an der Gesamtmasse von Galaxien. Jedoch konvergieren die Simulationen nicht bezüglich der lokalen Überdichten von CDM in den Halos, vielmehr setzt sich gravitative Strukturbildung auf immer kleinere Skalen fort. Numerisch kann keine Massen-Schwelle berechnet werden, unterhalb derer keine CDM-Strukturen mehr gravitativ gebildet werden. Die Kenntnis der lokalen Überdichten in den CDM-Wolken und die Verteilung der CDM-Wolken ist jedoch für Experimente zum direkten und indirekten Nachweis von CDM-Teilchen essentiell. Aus den lokalen Überdichten folgen für Experimente zum direkten Nachweis die einfallende Stromdichten der CDM-Teilchen und für Experimente zum indirekten Nachweis die Stromdichte der Annihilationsprodukte. Außerdem können die lokalen Überdichten als Gravitationslinsen wirken. In dieser Arbeit werden Massen Schwellen analytisch berechnet, unterhalb derer akustische Störungen in CDM nicht mehr zur gravitativen Strukturbildung beitragen können. Das Massen-Spektrum von lokalen Überdichten ist nach unten durch zwei unterschiedliche Mechanismen beschränkt: (1) Während der kinetischen Entkopplung formieren sich Nichtgleichgewichtsprozesse, die sich kollektiv als Reihungsphänomene konstituieren. Im lineare Regime sind dies die Volumenviskosität, die Scherungsviskosität und die Wärmeleitung. Die dissipativen Prozesse deponieren Energie und Impuls der akustischen Störungen in die Ebene senkrecht zur Ausbreitungsrichtung der Störungen und schmieren diese so aus. (II) Nach dem kinetischen Entkopplungsprozeß strömt CDM frei auf Geodäten. Dies ermöglicht einen Strom von Teilchen von überdichten in unterdichte Regionen, so daß die Amplituden der lokalen Überdichten weiter gedämpft werden. Die lokalen Transportkoeffizienten in (1) werden durch einen legitimen Vergleich von hydrodynamischer und kinetischer Beschreibung schwach dissipativer Prozesse gewonnen. Dissipative Prozesse induzieren eine Dämpfungsmasse Mc ungefähr gleich 10 hoch minus 9 M in SUSY-CDM und beschränken damit das Spektrum akustischer Störungen in SUSY-CDM. Freies Strömen (II) von CDM-Teilchen auf Geodäten induziert eine weitere Dämpfungsmasse M fs ungefähr gleich 10 hoch minus 6 M in SUSY-CDM, wobei das berechnete M d als Anfangswert dient. Die berechneten Schwellen liefern konsistente Schranken für numerische Simulationen, die weit unterhalb des momentanen numerischen Auflösungsvermögens liegen. Weiterhin folgt aus den Schwellen die Masse der ersten rein gravitativ gebundenen CDM-Wolken. Aus diesen bilden sich im Rahmen der hierarchischen Strukturbildung größere Substrukturen bis hin zu den heute vorhandenen CDM-Halos.