Refine
Year of publication
- 2002 (23) (remove)
Document Type
- Doctoral Thesis (15)
- diplomthesis (7)
- Part of Periodical (1)
Language
- German (23) (remove)
Has Fulltext
- yes (23)
Is part of the Bibliography
- no (23)
Keywords
- Aluminiumarsenid (1)
- Bleitarget ; Blei-Reaktion ; Lambda-Hyperon (1)
- Galliumarsenid (1)
- Hall-Effekt (1)
- Hochdruckentladung (1)
- Ionenstrahl (1)
- Kernmaterie (1)
- Magnesiumlegierung (1)
- Quasikristall (1)
- Schwerionenstoß (1)
Institute
- Physik (23) (remove)
Die auf dem ACDM-Modell beruhenden numerischen Simulationen der gravitativen Strukturbildung sind auf Skalen M >> 10 hoch 10 M sehr erfolgreich, insbesondere konvergieren die Verfahren hinsichtlich des vorhergesagten Masseanteils der Halos an der Gesamtmasse von Galaxien. Jedoch konvergieren die Simulationen nicht bezüglich der lokalen Überdichten von CDM in den Halos, vielmehr setzt sich gravitative Strukturbildung auf immer kleinere Skalen fort. Numerisch kann keine Massen-Schwelle berechnet werden, unterhalb derer keine CDM-Strukturen mehr gravitativ gebildet werden. Die Kenntnis der lokalen Überdichten in den CDM-Wolken und die Verteilung der CDM-Wolken ist jedoch für Experimente zum direkten und indirekten Nachweis von CDM-Teilchen essentiell. Aus den lokalen Überdichten folgen für Experimente zum direkten Nachweis die einfallende Stromdichten der CDM-Teilchen und für Experimente zum indirekten Nachweis die Stromdichte der Annihilationsprodukte. Außerdem können die lokalen Überdichten als Gravitationslinsen wirken. In dieser Arbeit werden Massen Schwellen analytisch berechnet, unterhalb derer akustische Störungen in CDM nicht mehr zur gravitativen Strukturbildung beitragen können. Das Massen-Spektrum von lokalen Überdichten ist nach unten durch zwei unterschiedliche Mechanismen beschränkt: (1) Während der kinetischen Entkopplung formieren sich Nichtgleichgewichtsprozesse, die sich kollektiv als Reihungsphänomene konstituieren. Im lineare Regime sind dies die Volumenviskosität, die Scherungsviskosität und die Wärmeleitung. Die dissipativen Prozesse deponieren Energie und Impuls der akustischen Störungen in die Ebene senkrecht zur Ausbreitungsrichtung der Störungen und schmieren diese so aus. (II) Nach dem kinetischen Entkopplungsprozeß strömt CDM frei auf Geodäten. Dies ermöglicht einen Strom von Teilchen von überdichten in unterdichte Regionen, so daß die Amplituden der lokalen Überdichten weiter gedämpft werden. Die lokalen Transportkoeffizienten in (1) werden durch einen legitimen Vergleich von hydrodynamischer und kinetischer Beschreibung schwach dissipativer Prozesse gewonnen. Dissipative Prozesse induzieren eine Dämpfungsmasse Mc ungefähr gleich 10 hoch minus 9 M in SUSY-CDM und beschränken damit das Spektrum akustischer Störungen in SUSY-CDM. Freies Strömen (II) von CDM-Teilchen auf Geodäten induziert eine weitere Dämpfungsmasse M fs ungefähr gleich 10 hoch minus 6 M in SUSY-CDM, wobei das berechnete M d als Anfangswert dient. Die berechneten Schwellen liefern konsistente Schranken für numerische Simulationen, die weit unterhalb des momentanen numerischen Auflösungsvermögens liegen. Weiterhin folgt aus den Schwellen die Masse der ersten rein gravitativ gebundenen CDM-Wolken. Aus diesen bilden sich im Rahmen der hierarchischen Strukturbildung größere Substrukturen bis hin zu den heute vorhandenen CDM-Halos.
Gemessen wurden der gerichtete und der elliptische Fluss von Pionen und Protonen in Blei-Blei-Stößen bei einer Laborenergie des Projektils von 40 GeV pro Nukleon. Bestimmt wurde die Abhängigkeit der beiden Flusskomponenten von der Zentralität des Stoßes sowie von der Rapidität und dem Transversalimpuls der gemessenen Teilchen. Zur Rekonstruktion des Flusses wurde die Methode der Korrelation der Teilchen mit der abgeschätzten Reaktionsebene verwendet. Zur Korrektur der azimutalen Anisotropien des Detektors wurde die Methode des Zentrierens der Teilchenverteilung in Abhängigkeit von Rapidität und Transversalimpuls angewendet. Für den v2 wurde eine Abänderung des Korrelationsterms nötig, um den Einflüssen durch die schlechte Akzeptanz entgegenzuwirken. Weiterhin wurde der Einfluss von Nicht-Fluss-Korrelationen zwischen den gemessenen Teilchen auf den Fluss untersucht. Dabei erkannte man einen starken Einfluss der Transversalimpulserhaltung im v1, der durch eine Korrektur behoben werden konnte. Einen weniger starken Einfluss konnte man bei der Untersuchung im Phasenraum kurzreichweitiger Korrelationen feststellen. Es wurde erstmals deutlich ein negativer gerichteter Fluss von Protonen nahe der Schwerpunktsrapidität beobachtet, der bereits mittels meherer theoretischer Rechnungen vorhergesagt wurde. Sowohl der gerichtete als auch der elliptische Fluss erreicht bei 40 AGeV Laborenergie annähernd die gleichen Werte, die von NA49 bei 158 AGeV Laborenergie gemessen wurden. Die für den Fluss gemessenen Werte befinden sich teilweise in Übereinstimmung mit denen des Experimentes CERES/NA45, ist allerdings nur bedingt möglich, da bisher nur einzelne vorläufige Resultate veröffentlicht wurden. Die für den elliptischen Fluss gemessenen Werte bei der Schwerpunktsrapidität und einer Zentralität von 25% liegen etwas höher als man aus der beobachteten Systematik der Energieabhängigkeit zwischen den Experimenten E877 (mit 10 AGeV Laborenergie am AGS), CERES und NA49 (bei einer Energie von und 160 AGeV am SPS) sowie STAR (am RHIC bei einer Energie von psNN = 130GeV) erwartet hat. So wird von den Werten am AGS bei voller Energie zu denen am SPS bei 40 AGeV ein Anstieg von 2% auf 3,3% beobachtet. Von 40 AGeV zu 158 AGeV Laborenergie am SPS ändert sich der Wert nur minimal von 3,3% auf 3,2%. Zwischen der höheren SPS-Energie von 158 AGeV und der RHIC-Energie von psNN = 130GeV wird ein weiterer Anstieg von 3,2% auf 5,6% gemessen. Das ist ein Anzeichen für eine Anomalie, die im Bereich der SPS-Energien vorliegen könnte. Eine genauere Bestimmung des Flusses ist noch möglich, da für die Analyse dieser Arbeit erst eine Hälfte der gemessenen Daten zur Verfügung stand. Mit Hilfe dieser Daten ließe sich die Energieabhängigkeit des Flusses genauer untersuchen und die gefundene Anomalie bestätigen.
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
Der STAR Level-3 Trigger
(2002)
Schwerionen-Collider-Experimente, wie das STAR-Experiment am RHIC (BNL) oder das geplante ALICE-Experiment am LHC (CERN) untersuchen Schwerionenkollisionen bei Schwerpunktsenergien von Wurzel aus SNN = 200 GeV (RHIC), bzw. Wurzel aus sNN = 5, 5 TeV (ALICE). In diesen Kollisionen werden mehrere tausend geladene Teilchen produziert, die in STAR und ALICE in großvolumigen TPCs gemessen werden. Das Datenvolumen erreicht dabei bis zu 10 MB (STAR) und 60 MB (ALICE) pro Ereignis. Aufgrund der hohen Luminosität der Collider könnten die Experimente zentrale Schwerionenkollisionen mit einer Rate bis zu 100 Hz bzw. 200 Hz (ALICE) untersuchen. Die dabei entstehenden Datenraten im Bereich mehrerer GB/s sind mit heutiger Technologie jedoch nicht mehr einfach zu speichern. Deshalb kann nur ein Bruchteil der zur Verfügung stehenden Ereignisse aufgezeichnet werden. Aufgrund der exponentiellen Entwicklung der CPU-Leistung wird es jedoch möglich, die Rekonstruktion von Ereignissen während der Datennahme in Echtzeit durchzuführen. Basierend auf den rekonstruierten Spuren in den Detektoren kann die Entscheidung getroffen werden, ob ein Ereignis gespeichert werden soll. Dies bedeutet, dass die begrenzte Speicherbandbreite gezielt mit Ereignissen, die eine interessierende physikalische Observable beinhalten, angereichert werden kann. Ein solches System zur Ereignisselektion wird als Level-3-Trigger oder allgemeiner als High Level Trigger bezeichnet. Am STAR-Experiment wurde erstmals in einem Schwerionenexperiment solch ein Level-3-Triggersystem aufgebaut. Es besteht aus 432 i960-CPUs, auf speziell gefertigten Receiver Boards für die paralelle Clusterrekonstruktion in der STARTPC. 52 Standard-Computer mit ALPHA- bzw. Pentium-CPUs rekonstruieren die Spuren geladener Teilchen und tre.en eine Triggerentscheidung. Dieses System ermöglicht die Echtzeit-Rekonstruktion zentraler Au-plus-Au-Kollisionen mit anschliessender Analyse durch einen Trigger-Algorithmus mit einer Rate von 40-50 Hz. Die Qualität, die mit dieser schnellen Analyse erreicht wird, kann mit der Qualität der STAR-Offline-Rekonstruktion verglichen werden. Der Level-3-Clusterfinder erreicht in Bezug auf Ortsauflösung und Rekonstruktionseffizienz dieselbe Qualität wie der Offline-Clusterfinder. Der Level-3-Trackfinder erreicht bei Rekonstruktionseffizienz und Impulsauflösung 10-20% schlechtere Werte als der Offline- Trackfinder. Die Anwendung eines Level-3-Triggers besteht in der Messung von seltenen Observablen ("rare Probes"), die ohne eine Anreicherung nicht, oder nur schwer, meßbar wären. In den Jahren 2000 und 2001 wurden erste Triggeranwendungen für das STARLevel- 3-System erprobt. In ultraperipheren Au-plus-Au-Kollisionen wurden po-Kandidaten schon im Jahr 2000 selektiert. Während der Strahlzeit des Jahres 2001 wurde das Level-3-System erstmals zum Triggern in zentralen Au-plus-Au-Kollisionen eingesetzt. Die Triggeralgorithmen beinhalteten einen Õ-Trigger, einen 3He-Trigger und einen Algorithmus zur Anreicherung von Spuren hohen Impulses in der Akzeptanz des RICH-Detektors. Das STAR Level-3-System ist in der Lage zehnmal mehr Ereignisse zu analysieren, als gespeichert werden können. Aufgrund der begrenzten Luminosität des RHIC-Beschleunigers, konnten die Level-3 Trigger erst zum Ende der Strahlzeit eingesetzt werden. Den genannten Algorithmen standen zusätzlich zu den 3 · 10 hoch 6 gespeicherten zentralen Ereignissen, 6 · 10 hoch 5 zentrale Ereignisse zur Analyse zur Verfügung. Mit diesem begrenzten Anreicherungsfaktor von 20% blieb das System hinter seinen Möglichkeiten zurück. Es konnte jedoch gezeigt werden, dass das STAR Level-3-System in der erwarteten Qualität und Stabilität funktioniert.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
Mikroentladungen bei hohem Druck und mit Gasfluss stellen eine vielseitig nutzbare Quelle für Ionen und kalte metastabile Atome dar. In dieser Arbeit werden grundlegende Untersuchungen an dieser neuen Hochdruckentladung zur Erzeugung von metastabilen Atomen und einfachgeladenen Ionen vorgestellt. Der innovative Ansatz ist die Nutzung mikrostrukturierter Elektroden (MSE) zur Erzeugung von nichtthermischen Entladungen mit Gleichspannung. Die spezielle porenförmige Geometrie erlaubt die Erzeugung von Entladungen bei einem Druck > 1000 hPa. Die Mikroentladung produziert metastabile Atome und Ionen in einem lokalisierten Volumen durch Stöße mit energiereichen Elektronen, wobei das Neutralgas in der Entladung im Vergleich zu den Elektronen kalt ist. Außerdem kann die Entladung mit erzwungenem Gasfluss durch die Pore betrieben werden, so dass die Plasmabestandteile (neutrale/angeregte Atome, Radikale, Ionen, etc.) extrahiert werden. Mit dieser neuen Methode kann bei der adiabatischen Expansion des Gases ins Vakuum ein gerichteter Gasstrahl, mit geringer interner Temperatur, im Bereich von einigen K erzeugt werden. Die Verweildauer des Gases in der Mikropore ist < 0,1 µs, so dass auch Zustände mit kurzer Lebensdauer extrahiert werden können. Die MSE lässt sich aufgrund der kleinen Abstände im µm Bereich als Mehrschichtsystem, aus zwei metallischen Elektroden, die durch einen Isolator getrennt sind, realisieren. Dieses Grundmaterial wird mit einzelnen oder einer Vielzahl von Poren mit typischerweise 100 µm Durchmesser versehen. Mit Hilfe dieser Mikrostrukturen lassen sich stabile, nicht filamentre, homogene Entladungen mit Gleichspannung in allen Gasen als auch Gasgemischen in einem weiten Druckbereich von 600 hPa bis 4000 hPa erzeugen. Die Druckverhältnisse in der Pore lassen sich durch den Gasfluss zwischen einigen ml/min bis l/min variieren. Die Verweildauer des Gases in der Pore kann durch den Gasfluss gesteuert werden. Zur Diagnose werden die Bestandteile des Plasmas mit dem Gasstrom extrahiert und expandieren adiabatisch ins Vakuum. Der Einfluss von Vordruck, Gasfluss, Entladestrom und Gaszusammensetzung auf die Eigenschaften des Plasma-Jets konnte auf diese Weise bestimmt werden. Durch die Kühlung der Mikroentladung konnte die interne Temperatur des Targets nochmals gesenkt und die Geschwindigkeit gezielt reduziert werden. Die Messung des Geschwindigkeitsprofils, die Zusammensetzung, etc. geben einen indirekten Einblick in die komplexen Prozesse der Mikroentladung, die mit konventionellen Analysemethoden nur schwer zugnglich sind. Die gemessenen Eigenschaften der MSE- unterstützten Hochdruckentladung sind vergleichbar mit klassischen Glimmentladungen, jedoch ist die Anregungs- und Ionisationswahrscheinlichkeit aufgrund der Geometrie größer. Unter definierten Rahmenbedingungen erlaubt diese neue Technik die Erzeugung eines gerichteten Plasma-Jets bestehend aus kalten metastabilen Atomen, Ionen, etc. Basierend auf diesem Prinzip wurde eine Quelle für metastabile Heliumatome aufgebaut und mit verschiedenen Methoden analysiert. Der 23S1- Zustand wird aufgrund seiner atomaren Struktur effektiv durch die energiereichen Elektronen in der Entladung angeregt. Die Gasströmung bestimmt den Druck und die Verweildauer im aktiven Volumen. Die Untersuchungen haben gezeigt, dass mit diesem Aufbau kalte, metastabile Atomstrahlen mit einer Intensität von 6 mal 10 hoch 13 (s mal sr) hoch minus 1 und Geschwindigkeiten von 900-1800 m/s erzeugt werden können. Bei den gemessenen Dichten in der Pore von 6 mal 10 hoch 12 (cm) hoch minus 3 ist die Ausbeute durch das Quenching der metastabilen Atome beschränkt. Die Eigenschaften dieses exotischen Atomstrahls sind hinsichtlich der absoluten Geschwindigkeit und der Geschwindigkeitsverteilung identisch mit einem konventionellen Überschall-Gasstrahl. Die Qualität des Strahls, aufgrund seiner geringen internen Temperatur von einigen K, erlaubt die Trennung und Fokussierung des gewünschten Zustandes. In Kombination mit der Separationseinheit wurde die Mikroplasmaquelle zur Erzeugung eines metastabilen 2 3 S 1-Heliumtargets mit polarisiertem Elektronenspin verwendet. Bei der Separation wird durch den außermittigen Einschuss in den permanentmagnetischen Hexapol eine hervorragende räumliche Trennung der verschiedenen Zustände erreicht und die Ausdehnung des Targets im Fokus auf 1 mm hoch 2 reduziert. Die erreichte Targetdichte für den spinpolarisierten 2 3 S 1-Zustand liegt im Fokus bei 10 hoch 6 cm hoch -2. Die Charakterisierung des Strahlverlaufs als auch die Time-of-Flight-Messungen zeigen, dass es sich bei der MSE unterstützten Hochdruckentladung um eine nichtthermische Entladung mit vergleichbaren Eigenschaften wie Niederdruckglimmentladung handelt, d.h. neutrale/angeregte Atome und Elektronen sind nicht im Temperaturgleichgewicht. Die Gastemperatur wird somit in der Mikroentladung nicht erhöht. Die Messungen mit Düsentemperatur von 80 K haben dies ausnahmslos bestätigt. Mit dieser Quelle lassen sich auch feine Ionenstrahlen bei hohem Druck erzeugen. Bei erzwungener Gasströmung durch die Entladung werden die Ionen aus dem Bereich der Entladung extrahiert und können zur Diagnose der Hochdruckentladung ins Vakuum überführt werden. Die Ionenausbeute wurde für verschiedene Gase und Gasgemische in Abhängigkeit von Gasfluss, Entladestrom, Extraktionsspannung untersucht. Die Elektronenenergie reicht ausschließlich zur Produktion von einfachgeladenen Ionen bzw. Molekülen aus. Der Anteil an Metallionen zeigt deutlich, dass die Geometrie die Erzeugung von Sekundärelektronen an der Kathode unterstützt. Die Wechselwirkung der Ionen mit dem Überschall-Gasstrahl im Bereich zwischen Düse und Skimmer führt zu einer starken Energieverbreiterung. Dies kann jedoch durch eine modifizierte Extraktionsgeometrie reduziert werden, hierbei ist insbesondere auf die Raumladung im Bereich zwischen Düse und Skimmer zu achten. Die vorgestellten Messungen haben exemplarisch für Helium gezeigt, dass gerichtete, kalte, metastabile Atomstrahlen mit ausreichender Intensität für atomphysikalische Experimente erzeugt werden können. Auf Basis der grundlegenden Erkenntnisse lässt sich das spinpolarisierte Target im nächsten Schritt hinsichtlich der erreichten Ausbeute optimieren. Dazu ist es notwendig, die Bedingungen in der Expansionskammer zu verbessern, so dass die Plasmaquelle mit höherem Vordruck betrieben werden kann. In diesem Zusammenhang sollte auch der Abstand Düse Skimmer verringert und die Separationseinheit auf diese modifizierten Rahmenbedingungen angepasst werden. Durch diese Modifikation kann die Targetdichte für spinpolarisiertes, metastabiles Helium nochmals gesteigert werden. Mit der erreichten Targetdichte sind die grundlegenden Voraussetzungen für atomphysikalische Messungen an einem spinpolarisierten Target geschaffen. Durch Anpassung der Separationseinheit ist es prinzipiell auch möglich, andere exotische metastabile Targets mit polarisiertem Elektronenspin zu erzeugen.
Untersuchungen zum technischen und teilchenoptischen Design kompakter Speicherringe für Ionen
(2002)
Die vorliegende Arbeit befasst sich mit der Berechnung und dem Bau von elektrostatischen Speicherringen. Eine solche Maschine kann als eine Kreuzung zwischen elektrostatischen Fallen und "klassischen" magnetischen Ringen angesehen werden. Kompakte Bauform, gute Zugänglichkeit der Elemente und vergleichsweise niedrigen Kosten werden mit hoher Flexibilität in Bezug auf mögliche Experimente kombiniert. Im 1. Kapitel werden zunächst die Unterschiede der Bewegung von Ionen in elektrostatischen und magnetischen Speicherringen untersucht. Die Massenunabhängigkeit der Teilchenbewegung bei gegebener Energie und Ladung in rein elektrostatischen Feldern erlaubt es, unterschiedlichste Ionen im Prinzip in direkter Folge in einen elektrostatischen Ring einzuschießen, ohne dass die Felder der optischen Elemente verändern werden müssen. Die Felder in den für einen Speicherring notwendigen Strahlführungskomponenten werden berechnet, die zugehörigen Bewegungsgleichungen aufgestellt und in linearer Näherung gelöst. Dabei werden zunächst die Bahnen einzelner Teilchen untersucht und dann das Strahlverhalten insgesamt durch Übergang auf einen Matrizenformalismus beschrieben. Die aus dieser Darstellung resultierenden Trajektorien stellen eine starke Vereinfachung dar. Die Untersuchung der realen Teilchenbewegung mit Einfluss von Randfeldern, Positionierungsfehlern und die Berechnung der dreidimensionalen Feldverteilung ist Gegenstand des 2. Kapitels. Ein kritischer Punkt bei der Bewegung von Teilchen in Ringbeschleunigern sind durch Feldfehler induzierten Resonanzerscheinungen. Zur Diskussion der verschiedenen möglichen Resonanzen werden im 3. Kapitel die Effekte durch zusätzliche Dipol- und Quadrupolfelder analysiert, dargestellt und schließlich anhand eines Resonanzdiagramms erläutert. In den geplanten Speicherring werden Ionen in einem einzigen Bunch, mit einer Ausdehnung von rund dem halben Ringumfang, injiziert. Ihre Lebensdauer hängt wesentlich von dem erzielbaren Vakuumenddruck ab. Die vorgesehenen Getterpumpen weisen eine sehr hohe Pumpleistung für die meisten Gase auf. Ihre Wirkungsweise wird im 4. Kapitel beschrieben und praktische Aspekte ihrer Handhabung diskutiert. Für den Betrieb eines Speicherrings ist es notwendig, die Parameter des umlaufenden Strahls zu jeder Zeit zu kennen und gegebenenfalls modifizieren zu können. Zentrales Element des Kontroll- und Diagnosesystems sind Strahlpositionsmonitore. In elektrostatischen Pickup-Elektroden induziert der Strahl beim Durchgang Spannungen über die eine Positionsbestimmung möglich ist. Die Wirkungsweise dieser Sonden wird in der zweiten Hälfte des 4. Kapitels diskutiert und Methoden zur Signalaufbereitung und -analyse beschrieben. Die allgemeinen Ergebnisse der Überlegungen zu elektrostatischen Speicherringen aus den ersten Kapiteln werden schließlich auf spezielle Fälle übertragen. Im Rahmen dieser Arbeit wurden verschiedene Entwürfe für einen elektrostatischen Speicherring angefertigt und ein Viertelringsegment zu Testzwecken entworfen und aufgebaut. Die Ergebnisse sind Inhalt des abschließenden 5. Kapitels. Mit den in dieser Arbeit vorgestellten Methoden ist es möglich, elektrostatische Speicherringe detailliert zu berechnen und an die experimentellen Rahmenbedingungen anzupassen. Sämtliche Rechnungen wurden im Hinblick auf den geplanten Bau eines Rings für Teilchen mit Energien bis 50 keV durchgeführt.
Im Rahmen dieser Diplomarbeit wurde ein Slow-Control-System für die HADES-Driftkammern konzipiert und umgesetzt. Ebenso wurden Teile des Konzepts erfolgreich für die Nutzung durch den RICH- und Showerdetektor angepasst. Durch die Nutzung in verschiedenen Strahlzeiten hat sich gezeigt, dass das System den gestellten Anforderungen gerecht wird. Die aufgezeichneten Daten lassen sich den Ereignissen während des Betriebs chronologisch zuordnen. Somit ist es möglich, zu jedem Zeitpunkt die Betriebsund Umgebungsbedingungen zu Analysezwecken zu rekonstruieren. Auch die Genauigkeit der aufgezeichneten Daten ermöglicht es, besondere Ereignisse wie z.B. Funkenüberschläge zu erkennen. Design und die Funktionalität der entwickelten GUI’s haben sich im Einsatz ebenfalls bewährt. Für die ermittelten und gesetzten Alarmwerte stellte sich heraus, dass einige Werte größeren Schwankungen unterliegen als die im April 2002 gewonnenen Daten vermuten ließen. Als Beispiel hierfür kann der gemessene Wert für die Sauerstoffkontamination dienen. Die im April aufgenommene Werte lagen für den besten Reinigungszustand wesentlich niedriger, als während der Strahlzeit im November 2002. Es wurde daher eine Anpassung der Alarmwerte nach oben notwendig. Dies gilt ebenfalls für andere Bereiche des Systems, wie Temperaturen, Ströme und Spannungen. Die individuelle Anpassung und Optimierung der einzelnen Alarmwerte ist ein langwieriger Prozess, der nur durch die gesammelten Erfahrungen über einen langen Betriebszeitraum erfolgreich umgesetzt werden kann.
In der vorliegenden Arbeit wurden die Eigenschaften heißer dichter Kernmaterie in relativistischen Schwerionenkollisionen mit Hilfe transporttheoretischer Methoden untersucht. Dabei wurden über einen weiten Energiebereich von 1 A GeV am GSI/SIS18 über BNL/AGS und GSI/SIS200 bis hin zu 160A GeV Einschußenergie am CERN/SPS verschiedene Observablen diskutiert und mit eigenen Modellrechnungen verglichen. Zunächst wurden in Kapitel 1 in die theoretischen Grundlagen der mikroskopischen Transporttheorie eingeführt und die wichtigsten semiklassischen mikroskopischen Transportmodelle vorgestellt. Das unter eigener Mitwirkung am Institut für Theoretische Physik entstandene Transportmodell, das UrQMD-Modell, wurde im Rahmen dieser Arbeit bis zur Versionsnummer 1.3 verbessert und erweitert. Das Modell und ein Überblick verschiedener Observablen im Modell wurden bereits früher gemeinsam publiziert. Die ausführliche Diskussion dieses Modells in der jetzigen Fassung findet sich in Kapitel 2. Besonders der komplexe Kollisionsterm wird detailliert und systematisch beschrieben. Wo vorhanden, werden die implementierten Kanäle und Wirkungsquerschnitte den experimentellen Daten gegenübergestellt. In Kapitel 3 wurde eine Methode zur relativistisch korrekten Berechnung von Baryon und Mesonendichten sowie von Energiedichten entwickelt. Mit dieser Methode konnten Zeitentwicklungen und Ortsraumverteilungen von Dichten im Bereich von 1 bis 160 A GeV erstellt werden. Im Vordergrund der Analysen stand die Fragestellung, welches Raum-Zei-tVolumen die Hochdichtephase in Abhängigkeit von der Einschuß energie einnehmen kann. Bemerkenswertes Ergebnis dieser Untersuchungen war, daß die maximal erreichbare Dichte zwar mit der Einschußenergie monoton ansteigt, je doch eine besonders ausgedehnte und langlebige Phase hoher Baryonendichte bei Einschußenergien zwischen 5 und 10 GeV/Nukleon erreicht wird. Auch wurde am Beispiel des Systems Uran-Uran bei 23 A GeV untersucht, inwieweit durch den Einsatz deformierter Kerne die Hochdichtephase intensiviert werden kann. Die Rechnungen haben gezeigt, daß die vorhergesagte Steigerung der Baryondichte um 30% bei Verlängerung der Hochdichtephase um 50% nicht realistisch ist. In weiteren Analysen wurden die in Schwerionenkollisionen erreichbaren Energiedichten diskutiert, sowie eine Interpretation der nichtformierten Hadronen als ein "partonischer" Freiheitsgrad vorgestellt. Es hat sich gezeigt, daß der partonische Beitrag zur Energiedichte vor allem in der Frühphase der Kollision bei weitem überwiegt. Im Kapitel 4 wurde ein Modell zur Produktion von Kaonen in der Nähe der Produktionsschwelle vorgestellt. Die elementaren Produktionskanäle wurden hier über hoch massige Resonanzen modelliert, im Gegensatz zu anderen vorgeschlagenen Modellen, die direkte Parametrisierungen vornehmen. Desweiteren wurden alle implementierten Produktions und Streukaäale von seltsamen Hadronen im Vergleich mit experimentellen Daten diskutiert. Das Kapitel 5 widmete sich ausschließlich der Produktion von Mesonen bei SIS18 Energien. Zunächst wurde ausführlich auf den Produktions und Absorptionsprozeß von Pionen im System Pi-N-Delta eingegangen. Sowohl Spektren als auch Multiplizitäten in Abhängigkeit von der Anzahl an Partizipanten im UrQMD wurden mit experimentellen Daten von TAPS und FOPI verglichen. Die Ergebnisse legen nahe, daß die Pionproduktion bis 2 A GeV im Rahmen der mikroskopischen Transporttheorie vollständig verstanden werden kann, wenn neben dem Delta1232 auch alle höheren Resonanzzustände sowie multiste-pAnregungen in die Rechnung einbezogen werden. Auch die Produktion von Kaonen in Abhängigkeit von der Anzahl an Partizipanten und der Systemgröße wurde diskutiert. Auch hier können die gemessenen Zusammenhänge qualitativ im Rahmen des mikroskopischen Modells verstanden werden. Zum Abschluß des Kapitels wurden Ausfrierzeiten, radien und dichten für einzelne Baryonen und Mesonenspezies analysiert. Zentrales Ergebnis dieser Untersuchungen ist, daß es bei einer Schwerionenreaktion keineswegs zu einem simultanen Ausfrieren aller Hadronspezies bei gleicher Dichte und gleichem Radius kommt, sondern daß die Ausfrierverteilungen eine komplexe Zeit und Ortsraumstruktur aufweisen, die u.a. von den Wirkungsquerschnitten und Produktionsmechanismen für die einzelnen Spezies abhängt. In Kapitel 6 wurden die erst kürzlich publizierten Daten der NA49Kollaboration bei 40, 80 und 160 A GeV einer detaillierten Analyse mit dem UrQMD-Modell unterzogen, sowie Vorhersagen für die geplanten Messungen bei 20 A GeV gemacht. Es konnte gezeigt werden, daß es für den Vergleich von Modellrechnung mit dem Experiment notwendig ist, genau die gleiche Zentralitätsbestimmung wie im Experiment zu benutzen. Eine einfache Beschränkung auf ein festes Stoßparameterintervall führt zur Selektion einer falschen Gruppe von Ereignissen. Ein Vergleich des Abstoppverhaltens von Protonen, Hyperonen, Antiprotonen und Antihyperonen hat gezeigt, daß zwar die Dynamik der Baryonen im Rahmen des UrQMD-Modells gut verstanden werden kann, jedoch die Produktion der Antibaryonen um ein mehrfaches unterschätzt wird. Verschiedene Erklärungsmodelle, wie screening oder die Verletzung des detaillierten Gleichgewichts bei Stringzerfällen wurden diskutiert. Auch der starke Einfluß der Implementierung von Annihilationskanälen konnte aufgezeigt werden. Zum Schluß des Kapitels wurde die Produktion von Kaonen und Antikaonen im Modell und im Experiment einer genauen Analyse unterzogen. Die Modellrechnungen legen nahe, daß bei SPS-Energien weder Kaonen noch Antikaonen als direkte Signael der frühen Phase der Kollision betrachtet werden können. Zwar wird die Gesamtseltsamkeit des Systems im wesentlichen in den ersten, harten Kollisionen erzeugt, jedoch finden hinterher noch zahllose Kollisionen mit Seltsamkeitsaustausch statt, bevor Kaonen und Antikaonen endlich ausfrieren. Im letzten Kapitel schließlich wurden die Analysen auf die Daten vom BNL/AGS ausgedehnt und ein vergleichender Überblick über den gesamten Energiebereich von SIS18 bis SPS vorgenommen. Um die Robustheit sowohl der Observablen als auch der mikroskopischen Transporttheorie zu testen, wurden bei acht Energien die Form der Spektren von Protonen, Pionen, Kaonen, Lambdas und Sigmas in Rechnungen mit zwei unabhängigen Transportmodellen und den experimentellen Daten verglichen. Desweiteren wurden für alle Spektren sowohl die 4-Pi -Daten als die Werte bei Mittrapidität ermittelt und als Funktion der Einschußenergie mit den experimentellen Daten verglichen. Schließlich wurden aus den Multiplizitäten Hadron-Hadron-Verhältnise gebildet und diese wiederum mit den Daten verglichen. Neben vielen interessanten Detailerkenntnissen konnte das folgende grobe Bild entwickelt werden: Die korrekte Produktion von Seltsamkeit, sowohl in Hyperonen als auch in Kaonen, gelingt beiden hadronischen Modellen, ohne daß besondere nichthadronische Effekte angenommen werden müßten, über den gesamten Energiebereich. Die Pionproduktion wird bei den verschiedenen Energien mal von dem einen, mal von dem anderen Modell besser beschrieben, nie jedoch sind die Abweichungen größer als etwa 20%. Die Teilchenverhältnisse, deren qualitativer Verlauf ein mögliches Signal für einen Phasenübergang sein soll, werden trotz guter Beschreibung der Pionen und sehr guter Beschreibung der Kaonen von beiden Modellen qualitativ völlig unterschiedlich vorhergesagt. Die im Rahmen dieser Arbeit durchgeführten Rechnungen legen also nahe, daß zum einen die Rolle der Seltsamkeitsproduktion als Indikator für nichthadronische Physik überdacht werden sollte, und zum anderen der qualitative Verlauf des K +/Pi -Verhältnisses aufgrund der geringen Fehlertolleranz nicht als belastbarer Beweis eines Phasenübergangs gesehen werden sollte.