Refine
Year of publication
Document Type
- Doctoral Thesis (595) (remove)
Has Fulltext
- yes (595) (remove)
Is part of the Bibliography
- no (595) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
- Zeitprojektionskammer (5)
- ALICE (4)
- HADES (4)
- Kernmaterie (4)
- QCD (4)
- RFQ (4)
- RFQ-Beschleuniger (4)
- Renormierungsgruppe (4)
- Spektroskopie (4)
- particle physics (4)
- quantum chromodynamics (4)
- Beschleuniger (3)
- CBM (3)
- Datenanalyse (3)
- Dileptonen (3)
- Dissertation (3)
- Emittanz (3)
- FAIR (3)
- FT-IR-Spektroskopie (3)
- Functional Renormalization Group (3)
- Hadron (3)
- Hadronenjet (3)
- Heisenberg-Modell (3)
- Heliumatom (3)
- Kernphysik (3)
- Kristallzüchtung (3)
- Laser (3)
- Neutron Star (3)
- Photoionisation (3)
- Photon (3)
- Quantenelektrodynamik (3)
- Quantum chromodynamics (3)
- Quark <Physik> (3)
- Relativistische Hydrodynamik (3)
- Rückstoßimpulsspektroskopie (3)
- Schwerionenkollisionen (3)
- Schwerionenreaktion (3)
- Speicherring (3)
- Strahldynamik (3)
- Teilchenerzeugung (3)
- Theoretische Physik (3)
- Ultrarelativistischer Bereich (3)
- detector (3)
- lattice (3)
- ALICE <Teilchendetektor> (2)
- Akustik (2)
- Anisotropie (2)
- Blei (2)
- Blei-208-Reaktion (2)
- Boltzmann-Gleichung (2)
- Bose-Einstein-Kondensation (2)
- CBM Experiment (2)
- CBM experiment (2)
- CERN SPS (2)
- Chirale Symmetrie (2)
- Computersimulation (2)
- Control System (2)
- Correlations (2)
- Darmstadt / Gesellschaft für Schwerionenforschung (2)
- Dauerstrichbetrieb (2)
- Delaunay-Triangulierung (2)
- Detector (2)
- Detektor (2)
- Dimere (2)
- Dirac-Gleichung (2)
- Dirac-Vakuum (2)
- EPICS (2)
- Elementarteilchen (2)
- FRANZ-Projekt (2)
- FT-IR-Spectroscopy (2)
- Feldtheorie (2)
- Flow (2)
- Fluktuation <Physik> (2)
- Funktionale Renormierungsgruppe (2)
- Gabor lens (2)
- Gammaspektroskopie (2)
- H/D Austausch (2)
- Heavy-ion Collisions (2)
- Helium (2)
- Hochenergiephysik (2)
- Ionenbeschleuniger (2)
- Ionenoptik (2)
- Ionenquelle (2)
- Kalibrieren <Messtechnik> (2)
- Linac (2)
- Linearbeschleuniger (2)
- MAPS (2)
- Membranproteine (2)
- Molekulardynamik (2)
- Multiplizität (2)
- Neuronales Netz (2)
- Neutron star (2)
- Neutronenstern (2)
- Nukleosynthese (2)
- Numerical Relativity (2)
- Paarerzeugung (2)
- Phasendiagramm (2)
- Phasenumwandlung (2)
- Photoabsorption (2)
- Physics (2)
- Plasma (2)
- Poisson-Gleichung (2)
- Polarimetrie (2)
- Porin (2)
- Proteine (2)
- Proton (2)
- Quantenspinsystem (2)
- Quark-Gluon Plasma (2)
- Quarkconfinement (2)
- Radio Frequenz Quadrupol (2)
- Resonanzen (2)
- STAR <Teilchendetektor> (2)
- Schweres Ion (2)
- Schwerionen (2)
- Schwerionenkollision (2)
- Schwerionenstrahl (2)
- Simulation (2)
- Spinwelle (2)
- Spurselektion (2)
- Strangeness (2)
- Strangeness Enhancement (2)
- Symmetriebrechung (2)
- Toroidales Magnetfeld (2)
- Zustandsgleichung (2)
- beam dynamics (2)
- dileptons (2)
- emittance (2)
- energy system design (2)
- equation of state (2)
- heavy ion physics (2)
- heavy-ion collision (2)
- heavy-ion physics (2)
- in-Medium Modifikation (2)
- nnp (2)
- p-Kerne (2)
- photons (2)
- power transmission (2)
- quark gluon plasma (2)
- relativistic hydrodynamics (2)
- terahertz (2)
- thermal transition (2)
- thin films (2)
- track selection (2)
- vector mesons (2)
- 2D materials (1)
- 3-atomic-heteronuclear molecule (1)
- 325 MHz (1)
- ALICE <particle detector> (1)
- ALICE upgrade (1)
- ALICE, Teilchendetektor (1)
- ALTRO (1)
- ATR-Perfusionszelle (1)
- ATR-Spektroskopie (1)
- ATR-Technik (1)
- ATR-perfusion cell (1)
- ATR-spectroscopy (1)
- Abbremsen (1)
- Absolute Phase (1)
- Absolutkonfiguration (1)
- Absorptionsspektroskopie (1)
- Abstandsinformation (1)
- Accelerator (1)
- Activation (1)
- Activation experiment (1)
- Adaptronik (1)
- Ageing (1)
- Aktivierungsmethode (1)
- Akupunktur (1)
- Alignment parameter (1)
- Alignmentparameter (1)
- Aluminiumarsenid (1)
- Anderson Impurity model (1)
- Anderson-Modell (1)
- Angewandte Physik (1)
- Anisotropic flow (1)
- Anregung (1)
- Anregungsfunktion (1)
- Antenne (1)
- Antiproton (1)
- Aptamer (1)
- Artificial Intelligence (1)
- Arzneimitteldesingn (1)
- Arzneimittelentwicklung (1)
- Astrophysics (1)
- Atomic Physics (1)
- Atomphysik (1)
- Auditory cortex (1)
- Azimuthal angular distributions (1)
- Azimuthale Winkelverteilung (1)
- BEDT-TTF (1)
- Bariumverbindungen (1)
- Beam dynamics (1)
- Beamforming (1)
- Beliaev Dämpfung (1)
- Beliaev damping (1)
- Beschleunigung von Elektronen und Protonen (1)
- BetP (1)
- Betain (1)
- Betatronstrahlung (1)
- Bilderkennung (1)
- Bildladung (1)
- Binary (1)
- Binary Neutron Star Mergers (1)
- Binary encounter approximation (1)
- Biomembran (1)
- Biomoleküle (1)
- Biophysik (1)
- Black hole (1)
- Blei-208-Target (1)
- Blei-Reaktion (1)
- Bleikern (1)
- Bleitarget (1)
- Bleitarget ; Blei-Reaktion ; Lambda-Hyperon (1)
- Bohmian mechanics (1)
- Boltzmann equation (1)
- Bose Einstein condensation (1)
- Bosonisierung (1)
- Brechungsindex (1)
- Breitbandigkeit (1)
- Broadband (1)
- Brookhaven National Laboratory (1)
- Brownsche Bewegung (1)
- Bulk viscosity (1)
- CD-Spektroskopie (1)
- CD-spectroscopy (1)
- CERN ; Bleitarget ; Blei-Reaktion ; Quark-Gluon-Plasma (1)
- CERN PSB (1)
- CH-Struktur (1)
- CHO (1)
- CO2 emission reduction targets (1)
- COLTRIMS (1)
- CPS (1)
- CVD-Verfahren (1)
- CW (1)
- Calcium ATPase (1)
- Calcium-ATPase (1)
- Carrier Envelope Phase (1)
- Cerverbindungen (1)
- Chaostheorie (1)
- Charge-Ordering (1)
- Charge-Transfer Salts (1)
- Chinese hamster ovary (1)
- Chinon (1)
- Chiral Symmetry (1)
- Chiralität (1)
- Chiralität <Elementarteilchenphysik> (1)
- Chiralität, Elementarteilchenphysik (1)
- Chopper (1)
- Cluster (1)
- Cluster Hadronization (1)
- Collective Flow (1)
- Color Glass Condensate (1)
- Color superconductivity (1)
- Colour (1)
- Coltrims (1)
- Complex networks (1)
- Compressed Baryonic Matter (1)
- Compton scattering (1)
- Compton-Effekt (1)
- Confinement (1)
- Conformational transitions (1)
- Correlated systems (1)
- Coulomb Explosion Imaging (1)
- Coulombdissoziation (1)
- Coulombexplosion (1)
- Coulombspaltung (1)
- Cross section (1)
- Cuprate (1)
- Czochralski method (1)
- DLA Elektronen (1)
- DLS Puzzle (1)
- DLS puzzle (1)
- DNA Translocation (1)
- Dauerstrichlaser (1)
- Deep Learning (1)
- Delayline Detector (1)
- Density functional theory (1)
- Deoxymannojirimycin (1)
- Detektorentwicklung (1)
- Deuteriumion (1)
- Deuteronen (1)
- Diamant (1)
- Diamantdetektor (1)
- Diblockcopolymere ; Scherung ; Entmischung ; Röntgenstreuung (1)
- Dielectric Boundaries (1)
- Dielectron (1)
- Dielektronenspektroskopie (1)
- Differential Arrays (1)
- Dileptons (1)
- Dipol-Dipol-Wechselwirkung (1)
- Dirac vacuum (1)
- Dirac-Operator (1)
- Discontinous Galerkin methods for Numerical Relativity (1)
- Dotierter Halbleiter (1)
- Double-sided silicon microstrip detectors characterization readout quality assurance (1)
- Dreidimensionaler Raum (1)
- Dumpingsystem (1)
- Dynamical mean field theory (1)
- Dynamischer Strukturfaktor (1)
- Dünne Schicht (1)
- Dünnschichttransistor (1)
- E-beam induced deposition (1)
- EBID (1)
- Edelmetall (1)
- Edelmetallcluster (1)
- Effective Field Theory (1)
- Effective Lagrangians (1)
- Effektive Lagrangeans (1)
- Eichtheorie (1)
- Eindimensionaler Leiter (1)
- Eingebettetes optisches System (1)
- Einplatinene Kamera (1)
- Einzel-Elektronen-Transistor (1)
- Eisengranate (1)
- Electron capture (1)
- Elektrische Ladung (1)
- Elektrischer Strom (1)
- Elektrodenarray (1)
- Elektromagnetische Strahlung (1)
- Elektron (1)
- Elektron ; Impulsverteilung ; Heliumion (1)
- Elektronen-Korrelation (1)
- Elektronenanlagerungsreaktion (1)
- Elektronenpaar (1)
- Elektronenstrahlinduzierte Deposition (1)
- Elektrophysiologie (1)
- Elektrostatik (1)
- Elementarteilchenphysik (1)
- Emissionsspektroskopie (1)
- Emittanzmessung (1)
- Energietransduktion (1)
- Energy system design (1)
- Ensemble Inequivalance (1)
- Entarteter Zustand (1)
- Entwickler (1)
- Entwicklungspsychologie (1)
- Erbrechen (1)
- EuB6 (1)
- Evolutionäre Spieltheorie (1)
- Excitation (1)
- Exotic Hadrons (1)
- Exotic State (1)
- Exotische Hadronen (1)
- Exotischer Kern ; Quantenhadrodynamik (1)
- Experiment (1)
- Extraktion (1)
- Extraktor (1)
- Exziton; Quantenmechanisches System (1)
- FEBID (1)
- FLASH Effekt (1)
- FT-IR-spectroscopy (1)
- FTIR-Differenzspektroskopie (1)
- Fahrzeug (1)
- Faraday-Effekt (1)
- Farbsupraleitung (1)
- Feldeffekt (1)
- Feldeffekttransistor (1)
- Femtosekundenspektroskopie (1)
- Fermi-Fläche (1)
- Fermi-Flüssigkeit (1)
- Fermionensystem (1)
- Fermions (1)
- Ferromagnetische Spinkette (1)
- Festkörperoberfläche ; Ionenstreuung ; Sekundärionenemission (1)
- Festkörperphysik (1)
- Few-Cycle Laserpulse (1)
- Few-cycle pulses (1)
- Field-effect (1)
- Finger drift tube (1)
- Finite-Differenzen (1)
- Fluctuation (1)
- Fluctuations (1)
- Fluka (1)
- Fluktuationsspektroskopie (1)
- Fluoreszenz (1)
- Formulations of Einstein Field Equations (1)
- Fractional Delay Filters (1)
- Fractional-Delay-Filter (1)
- Fragmentierungsquerschnitte (1)
- Franck-Condon (1)
- Frankfurt <Main> / Institut für Kernphysik (1)
- Free-Electron-Laser (1)
- Freie-Elektronen-Laser (1)
- Fullerene (1)
- Funktionelle NMR-Tomographie (1)
- GABA Transporter Typ 1 (1)
- GEANT (1)
- Gabor-Linse (1)
- Galliumarsenid (1)
- Gammakalorimeter (1)
- Gammaspectroscopy (1)
- Gasionisationsdetektor (1)
- Gefangenendilemma (1)
- Gehirn (1)
- Geladener String (1)
- Geladenes Teilchen (1)
- General relativistic hydrodynamics (1)
- Germanium detectors (1)
- Germaniumdetektor (1)
- Gesellschaft für Schwerionenforschung (1)
- Gittereichtheorie (1)
- Glimmentladung (1)
- Global polarization (1)
- Globale Optimierung (1)
- Gluonenkondensat (1)
- Gold ; Schwerionenreaktion ; K-plus-Meson (1)
- Gold-197-Reaktion (1)
- Gold-197-Target (1)
- Graphentheorie (1)
- Gravitational Waves (1)
- Gravitational wave (1)
- Große Extradimensionen (1)
- Großhirnrinde (1)
- Größenkonstanzleistung (1)
- H/D exchange (1)
- HADES <Teilchendete (1)
- HADES <Teilchendetektor> ; Driftkammer ; Ausleseverfahren <Sensortechnik> (1)
- HBT (1)
- HITRAP (1)
- HLT (1)
- Hades (1)
- Hadron Spectroscopy (1)
- Hadronenspektrum (1)
- Hadronisierung (1)
- Hagedorn Zustände (1)
- Hagedorn states (1)
- Halbleiter (1)
- Halbleiterbauelement (1)
- Hall-Effekt (1)
- Harte Röntgenstrahlung (1)
- Hartree-Näherung (1)
- Heavy Ion Physics (1)
- Heavy Ions (1)
- Heavy-Ion Collision (1)
- Heavy-ion collision (1)
- Heavy-ion collisions (1)
- Heavy-ions (1)
- Heisenberg model (1)
- Heisenberg modell (1)
- Heliumatom ; Proton ; Antiproton ; Ion-Atom-Stoß ; Differentieller Wirkungsquerschnitt ; Rückstoßimpulsspektroskopie (1)
- Heliumdimere (1)
- Herzberg-Teller (1)
- High Energy Heavy Ion Collisions (1)
- High-Level Trigger (1)
- High-energy photoabsorption (1)
- High-k dielectric (1)
- High-k-Dielektrikum (1)
- Hirnforschung (1)
- Hirnstamm (1)
- Historie (1)
- Hochdruckentladung (1)
- Hochfrequenzplasma; Zyklotronresonanz (1)
- Hochfrequenzsputtern (1)
- Hochgeladene Ionen (1)
- Hochstrom-Ionenquelle (1)
- Hochtemperatursupraleiter (1)
- Homeostasis (1)
- Hubbard model (1)
- Hydrodynamic (1)
- Hyperon (1)
- ICD (1)
- Image Charge (1)
- Impact parameter (1)
- Impulslaser (1)
- Inclusive Reconstruction (1)
- Infrarot (1)
- Infrarotabsorption (1)
- Infrarotlaser (1)
- Infrarotspektroskopie (1)
- Inhibitoren (1)
- Injektionssystem (1)
- Instabilität (1)
- Intelligente Konstruktion (1)
- Interferometrie (1)
- Intermetallische Verbindungen (1)
- Internet (1)
- Interstellare Wolke ; Kohlenmonoxid ; Photodissoziation ; Turbulente Strömung (1)
- Inverse Kinematics (1)
- Ion Accelerator (1)
- Ion Beam (1)
- Ion Tail (1)
- Ion-Atom-Kollisions (1)
- Ion-Atom-Stoß (1)
- Ion-Atom-Stoß ; Kohlenstoffion <C2> ; Heliumatom ; Stoßionisation ; Monte-Carlo-Simulation (1)
- Ion-Molecule collisions (1)
- Ion-Molekül-Stoß (1)
- Ionenfokussierung (1)
- Ionenimplantation (1)
- Ionenstoß (1)
- Ionentemperatur (1)
- Ionentransport (1)
- Ionisationsdichte (1)
- Iron pnictides (1)
- Isotopenaustausch (1)
- Jet-Medium-Wechselwirkungen (1)
- Jitter-Effekt (1)
- K+ (1)
- K- (1)
- Kalman-Filter (1)
- Kanonische Unterdrückung (1)
- Kaon (1)
- Kaons (1)
- Katalysator (1)
- Katalyse (1)
- Katze ; Sehrinde ; Reizverarbeitung (1)
- Keldysh-Formalismus (1)
- Kern-Kern-Streuung (1)
- Kern-Kern-Stößen (1)
- Kinetic Theory (1)
- Kinetische Theorie (1)
- Kitaev model (1)
- Kleines Molekül (1)
- Kohlenstoff (1)
- Kohlenstoffion (1)
- Kohlenstoffmolekül (1)
- Kollektive Anregung (1)
- Konformationsübergänge (1)
- Kooperativität (1)
- Korrelation (1)
- Kraftmikroskopie (1)
- Kritischer Punkt (1)
- Kupfer-63 (1)
- LET (1)
- LINAC (1)
- Ladder-RFQ (1)
- Ladungstransfer (1)
- Lambda Hyperon (1)
- Lambda-1520-Resonanz (1)
- Lambda-Hyperon (1)
- Lambverschiebung (1)
- Langsame Extraktion (1)
- Lanthanverbindungen (1)
- Laser-induced Temperature-Jump (1)
- Laser-induzierter Temperatursprung (1)
- Lasererzeugtes Plasma (1)
- Lasererzeugtes Plasma ; FIR ; Puls <Technik> (1)
- Laserionisation (1)
- Laserspektroskopie (1)
- Lasertechnologie (1)
- Laserverstärker (1)
- Lattice Gauge Theory (1)
- Laute (1)
- Learning (1)
- Leitfähige Polymere (1)
- Lichtmikroskop (1)
- Linear Accelerator (1)
- Linearer Collider ; Hohlraumresonator ; Moden (1)
- Linearer Collider ; Hohlraumresonator ; Moden ; Dämpfung ; Güte <Schwingkreis> ; Messung (1)
- Linearer Collider ; Teilchenstrahl ; Fokussierung ; Mikrowelle (1)
- Luttinger liquid (1)
- Luttinger-Flüssigkeit (1)
- MIR (1)
- MYRRHA (1)
- Mach cone (1)
- Mach cones (1)
- Machkegel (1)
- Magnesiumlegierung (1)
- Magnetic field (1)
- Magnetoelektronik (1)
- Magnetooptik (1)
- Magnetooptischer Effekt (1)
- Magnons (1)
- Magon-Phonon-Wechselwirkung (1)
- Manganate (1)
- Many-body physics (1)
- Mars (1)
- Master Equations (1)
- Mathematisches Modell (1)
- Mean-Field-Theorie (1)
- Mehrdimensionale Systemtheorie (1)
- Mehrfach geladenes Ion (1)
- Membraneproteins (1)
- Mesonenaustauschmodell (1)
- Mesons (1)
- Messung (1)
- Messverfahren (1)
- Metallcluster (1)
- Metamagnetismus (1)
- Metasurfaces (1)
- Micro Vertex Detector (1)
- Microphones (1)
- Mikroelektrode (1)
- Mikrofone (1)
- Mikrokanalelektronenvervielfacher (1)
- Mikroskop (1)
- Mikrosonde (1)
- Minimale Länge (1)
- MjNhaP1 (1)
- Modal Subspace Decomposition (1)
- Modale Subraum-Zerlegung (1)
- Modifizierte Unschärferelation (1)
- Molekularbewegung (1)
- Molekularstrahlepitaxie (1)
- Molekülphysik (1)
- Molekülstoß (1)
- Molybdän (1)
- Mondphänomen (1)
- Mondtäuschung (1)
- Moonillusion (1)
- Mott Metal-Insulator Transition (1)
- Mott Transition (1)
- Multigrid Poisson Solver (1)
- Multimessenger (1)
- Multiplicity Fluctuations (1)
- Multiplizitätsfluktuationen (1)
- Multipole (1)
- Multipoles (1)
- NA61/SHINE (1)
- NMR-Tomographie (1)
- Na(+)/H(+) Antiporter (1)
- Natrium-Kalium-ATPase (1)
- Natrium-Wasserstoff-Antiport (1)
- Nausea (1)
- Neon (1)
- Nepomnyashchy theorem (1)
- Network model (1)
- Netzhaut ; Nervenzelle ; Inhibition (1)
- Netzwerktopologie (1)
- Neural Networks (1)
- Neural net (1)
- Neurophysiologie (1)
- Neutrales Teilchen (1)
- NhaA (1)
- Nicht-linearer Transport (1)
- Nichtgleichgewicht (1)
- Nichtgleichgewichts-Phasenübergang (1)
- Nichtinvasiv (1)
- Nichtlineare Optik (1)
- Nichtlineare Spektroskopie (1)
- Nichtrelativistisches Potentialmodell (1)
- Nickel-63 (1)
- Niederenergetischer Strahltransport (1)
- Niedrige Dimensionen (1)
- Non-coding RNA (1)
- Non-dipole (1)
- Nuclear Astrophysics (1)
- Nucleus dorsalis nervi vagi (1)
- Nucleus-Nucleus Collisions (1)
- Nukleare Astrophysik (1)
- Nukleon (1)
- Nukleon ; Formfaktor ; Twistor ; Vielteilchentheorie (1)
- Nukleon-Nukleon-Wechselwirkung (1)
- Nullter Schall (1)
- Numerical Renormalization Group (1)
- Numerisches Verfahren (1)
- O(4) conjecture (1)
- OmpF (1)
- OmpG (1)
- Ontogenie (1)
- Open Charm (1)
- Optimierung (1)
- Optische Eigenschaft (1)
- Optische Messung (1)
- Optische Spektroskopie (1)
- Optisches Potenzial (1)
- Optoelektronik (1)
- Organic Conductors (1)
- Osmosensor (1)
- Over-Barrier Modell (1)
- P-Typ-ATPasen (1)
- PHENIX <Teilchendetektor> (1)
- Particle Accelerator (1)
- Particle Dynamic (1)
- Particle yield ratios (1)
- Patch-clamp (1)
- Pepperpot (1)
- Pepperpot-Messung (1)
- Perowskitstruktur (1)
- Phase diagram (1)
- Phase transition (1)
- Phase transitions (1)
- Phasenraumkompressor (1)
- Phasenübergänge (1)
- Photoakustik (1)
- Photoionization (1)
- Photoisomerisation (1)
- Photoisomerization (1)
- Photokonduktive Antennen (1)
- Photon conversions (1)
- Photonen (1)
- Photonenspektrum (1)
- Photonic band gap (1)
- Photonic crystals (1)
- Photonische Bandlücke (1)
- Photonische Kristalle (1)
- Photonkonversionen (1)
- Photophysics (1)
- Photophysik (1)
- Physik (1)
- Pi0 (1)
- Pion (1)
- Plasmadiagnostik (1)
- Plasticity (1)
- Polyacetylene (1)
- Polyatomare Verbindungen (1)
- Polyfluorene ; Elektrolumineszenz ; Polarisiertes Licht (1)
- Polymerfilm (1)
- Polypeptide (1)
- Polypeptides (1)
- Population activity (1)
- Positron (1)
- Protein-Lipid Wechselwirkung (1)
- Proteinelektrochemie (1)
- Proteins (1)
- Proteorhodopsin (1)
- Proton-Proton-Reaktion (1)
- Protonen (1)
- Protonen Linac (1)
- Protonengegentransport (1)
- Psychophysik (1)
- Pulse Shape Analysis (1)
- Punktantwort (1)
- QCD phase diagram (1)
- QCL (1)
- QED (1)
- QGP (1)
- Quadrupol-Massenspektrometer (1)
- Quantencomputer (1)
- Quantenelektrodynamik (QED) (1)
- Quantenhadrodynamik (1)
- Quantenkaskadenlaser (1)
- Quantenphysik (1)
- Quantum Impurity System (1)
- Quantum electrodynamics (1)
- Quantum modified Gravity (1)
- Quark Model (1)
- Quark deconfinement (1)
- Quark-Gluon-Plasma ; Effektive Wirkung ; Supraleitung (1)
- Quark-Rekombination (1)
- Quark-gluon-plasma (1)
- Quarkonia (1)
- Quarkonium (1)
- Quasikristall (1)
- Quasikristalle (1)
- Quasiteilchen (1)
- RBW (1)
- RFQ-Accelerator (1)
- RHIC (1)
- RNA (1)
- Radiation hardness (1)
- Rastersondenmikroskop (1)
- Ratengleichungen (1)
- Raumladungskompensation (1)
- Raumladungslinse (1)
- Reaktions-Diffusionsgleichung (1)
- Reaktionskinetik (1)
- Reaktionsmikroskop (1)
- Recombination (1)
- Regler (1)
- Rekombination (1)
- Relativistic heavy-ion collisions (1)
- Relativistische Quantenfeldtheorie (1)
- Relativistische Schwerionenkollisionen (1)
- Representational drift (1)
- Resonances (1)
- Ribulosebisphosphat-Carboxylase (1)
- Riccati equation (1)
- Room temperature (1)
- Rutheniumverbindungen (1)
- Rydberg (1)
- SARAF (1)
- SIS (1)
- SPS (1)
- SYK model (1)
- Sarkoplasmatisches Retikulum ; Calcium ; ATP ; Wechselwirkung (1)
- Satz von Nepomnyashchy (1)
- Scanning Probes (1)
- Scattering-type Scanning Near-field Optical Microscopy (1)
- Schaum (1)
- Schlitz-Gitter (1)
- Schottky (1)
- Schwefel ; Gold ; Schwerionenstoß ; Photonenemission (1)
- Schwerionenbeschleuniger ; Energiereiches Teilchen ; Teilchendetektor (1)
- Schwerionenreaktion ; Kernspaltung ; Teilchendetektor (1)
- Schwerionenstreuung ; Kaon (1)
- Schwerionentherapie (1)
- Schwerpunkthöhe (1)
- Schwinger-Dyson equation (1)
- Schwinger-Dyson-Gleichung (1)
- Schätzverfahren (1)
- Scintillation (1)
- Secondary Structure (1)
- Sehrinde (1)
- Sekundärionenemission ; Rückstoßimpulsspektroskopie (1)
- Sekundärstruktur (1)
- Selbstorganisation (1)
- Self-triggered front-end electronics (1)
- Selten-Erd-Verbindungen (1)
- Seltenerdmetalllegierung (1)
- Seltsamkeitsüberhöhung (1)
- Sensor-Array (1)
- Septum (1)
- Shield (1)
- Shock Waves (1)
- Signalanalyse (1)
- Signalschweif (1)
- Silberhalogenid-Photographie (1)
- Silicide (1)
- Silicon Tracking System (1)
- Silicon tracking system (1)
- Slavkovska (1)
- Sodium-potassium ATPase (1)
- Solar power generation (1)
- Solid state theory (1)
- Soreq (1)
- Spectators (1)
- Spektralfunktion (1)
- Spieltheorie (1)
- Spin Hall (1)
- Spin Hamiltonians (1)
- Spin chain models (1)
- Spin wave (1)
- Spin-Liquid (1)
- Spin-orbit coupling (1)
- Spinpolarisation (1)
- Spinwaves (1)
- Spinwellen (1)
- Spinübergang (1)
- Spiral loaded cavity (1)
- Spiralresonator (1)
- Spontane und explizite Symmetriebrechung (1)
- Spontaneous and explicite symmetry breaking (1)
- Sputtern (1)
- Stabilität (1)
- Stahlenschäden (1)
- Standardmodell <Elementarteilchenphysik> (1)
- Starkes Feld (1)
- Statistische Mechanik (1)
- Statistische Physik (1)
- Storage Ring (1)
- Storage ring (1)
- Stoß (1)
- Stoßwelle (1)
- Strahldiagnose (1)
- Strahlenschaden (1)
- Strahlentherapie (1)
- Strahlextraktion (1)
- Strahltransport (1)
- Strange hadrons (1)
- Strange-Teilchen (1)
- Straßenverkehr ; Hindernis ; Bewegungsanalyse <Technik>; Schätzung; Bildfolgenverarbeitung; Monokulares Sehen (1)
- Streutheorie (1)
- Strontiumverbindungen (1)
- Störungstheorie (1)
- Stößparameter (1)
- Superconductivity (1)
- Superconductor 2nd Type (1)
- Superdirectivity (1)
- Superdirektivität (1)
- Supernova (1)
- Supraleiter 2. Art (1)
- Supraleitung (1)
- Synaptic plasticity (1)
- Synchronisierung (1)
- Synchrotron (1)
- Systemgrößenabhängigkeit (1)
- Szintillation (1)
- Säugling (1)
- THz (1)
- THz imaging (1)
- TNSA (1)
- TPSC (1)
- Teilchen (1)
- Teilchendetektor (1)
- Teilchendynamik (1)
- Teilchenoptik (1)
- Teilchenphysik (1)
- Teilchenquelle (1)
- Teilchenquelle Spinpolarisation Metastabiler Zustand (1)
- Teilchenspur (1)
- Teilchenstrahl (1)
- Teilchenzahlverhältnisse (1)
- Temperaturbeständigkeit (1)
- Temperatursprungmethode (1)
- Temperaturverhalten (1)
- TeraFET (1)
- Terahertz (1)
- Terahertzphonon (1)
- Terahertzstrahlung (1)
- Theoretical neuroscience (1)
- Theoretical physics (1)
- Thermal Expansion (1)
- Thermal Field Theory (1)
- Thermal Stability (1)
- Thermalisierung (1)
- Thermodynamik (1)
- Thermodynamische Eigenschaft (1)
- Theta-Pinch (1)
- Thin film transistor (1)
- Time projection chamber (1)
- Titan-Saphir-Laser (1)
- Topologische Zustände (1)
- Topology (1)
- Toroidal magnetic field (1)
- Toroidalen Magnetfeld (1)
- Transition Radiation Detector (1)
- Transport (1)
- Transport Approach (1)
- Transport Simulations (1)
- Transportmodellen (1)
- Transporttheorie (1)
- Tumortherapie (1)
- Ultrafast spectroscopy (1)
- Ultrakalte Quantengase (1)
- Ultraschnelle Magnetfeldsensorik (1)
- UrQMD (1)
- Vagus (1)
- Vakuum (1)
- Vakuumdeposition (1)
- Vakuumphysik (1)
- Vakuumpolarisation (1)
- Vakuumzerfall (1)
- Vakuumzustand (1)
- Van-der-Waals-Molekül (1)
- Vegetatives Nervensystem (1)
- Verdünnt magnetische Halbleiter (1)
- Verschränkter Zustand (1)
- Vertex Detector (1)
- Voronoi-Diagramm (1)
- Wahrnehmungsgröße (1)
- Walecka model (1)
- Walecka-Modell (1)
- Wasserstoffion (1)
- Wasserstoffmolekül (1)
- Wasserstoffmolekül ; Heliumion ; Ion-Molekül-Stoß ; Rückstoßimpulsspektroskopie (1)
- Weak Decays (1)
- Weiche Materie (1)
- Weißes Rauschen (1)
- Wellen (Physik) / shock waves in nuclear matter (1)
- Wigner function (1)
- Wind power generation (1)
- X-ray spectroscopy (1)
- Xhelaj (1)
- Xi-Hyperon (1)
- YAG-Laser (1)
- Yang-Mills-Theorie (1)
- YbNi4P2 (1)
- YbRh2Si2 (1)
- Yttrium-Eisengranat (1)
- Yttriumverbindungen (1)
- Zerfallsreaktion (1)
- Zinklegierung (1)
- Zweiteilchendichte (1)
- absolute phase (1)
- absorption spectra (1)
- accelerator physics (1)
- agent-based model (1)
- agentenbasierte Modelle (1)
- anisotropy (1)
- antennae (1)
- application (1)
- astrophysikalischer p-Prozess (1)
- atomare Strukturtheorie (1)
- atomic cluster deposition (1)
- atomic cluster on a suface (1)
- atomic physics (1)
- automotive (1)
- bc1-Komplex (1)
- beta-Hairpin Peptid (1)
- bilinear model (1)
- bilineares Modell (1)
- brightness (1)
- bunch-to-bucket (1)
- calibration (1)
- canonical suppression (1)
- carboxylation (1)
- carrier envelope phase (1)
- cell internal structure (1)
- chaos (1)
- charged string (1)
- chiral effect (1)
- chiral symmetry (1)
- chromium (1)
- circadian rhythm (1)
- closed orbit feedback system (1)
- cognition (1)
- coherent state (1)
- color superconductivity (1)
- commissioning (1)
- communication networks (1)
- complex networks (1)
- compression (1)
- confinement (1)
- conformational dynamics (1)
- constant of size (1)
- correlated electrons (1)
- correlation (1)
- critical systems (1)
- cw operation (1)
- dMM (1)
- data traffic (1)
- decelerated ions (1)
- deconfinement (1)
- default mode network (1)
- density isomers (1)
- detector characterization (1)
- detectors (1)
- deuterons (1)
- development (1)
- diagnostics (1)
- differentielle Arrays (1)
- dilepton spectroscopy (1)
- dipole-dipole interaction (1)
- distance information (1)
- dynamical mean-field theory (1)
- electrical characterization (1)
- electrical tests (1)
- electromagnetic fields (1)
- electromagnetic radiation (1)
- electron tunneling (1)
- energy transduction (1)
- estimation methods (1)
- excess yield (1)
- excitation function (1)
- fermi surface (1)
- field-effect transistor (1)
- field-effect transistors (1)
- fixed effects analysis (1)
- flow (1)
- fluctuations (1)
- frequency beating (1)
- fullerene (1)
- game theory (1)
- gasous detectors (1)
- generalized uncertainty principle (1)
- generative model (1)
- generatives Modell (1)
- gitterfrei (1)
- granular metals (1)
- granulare Metalle (1)
- graph theory (1)
- hadron jet (1)
- hadronic transport approach (1)
- haevy-ions (1)
- half-integer resonance (1)
- heavy fermions (1)
- heavy ion collisions (1)
- heavy ions (1)
- heavy-ion reactions (1)
- heavy-ions (1)
- height of COG (1)
- helium dimers (1)
- high-Tc superconductivity (1)
- high-energy physics (1)
- highly charged ions (1)
- hybrid approach (1)
- hydrodynamics (1)
- impulse response (1)
- in-medium modification (1)
- infancy (1)
- infrared laser test (1)
- infrared spectroscopy (1)
- instability (1)
- interacting bosons (1)
- ion beam (1)
- ion implantation (1)
- ionisierende Strahlung (1)
- ionizing radiation (1)
- jet-medium interactions (1)
- kaltes Gastarget (1)
- kinetic theory (1)
- kritische Systeme (1)
- large extra dimensions (1)
- large-scale integration of renewable power generation (1)
- large-scale integration of variable renewable generation (1)
- laser (1)
- laser characterization (1)
- laser test (1)
- laser-ion acceleration (1)
- laserakupunktur (1)
- lattice QCD (1)
- lattice-supersolid (1)
- licht-induzierter Spinübergang (1)
- light-induced spin-change (1)
- light-optical microscope (1)
- liver, pancreas (1)
- low dimensions (1)
- low-mass dilepton (1)
- magnon condensation (1)
- magnon-phonon interaction (1)
- magnon-phonon interactions (1)
- many-body blockade (1)
- many-body method (1)
- mathematical model (1)
- measuring technique (1)
- metall-organic compunds (1)
- metallorganische Komplexe (1)
- methodenkritik (1)
- mid-infrared (1)
- minimal length (1)
- model (1)
- molecular dynamics (1)
- monte carlo simulation (1)
- nano lithography (1)
- nano tools (1)
- nanocarbon (1)
- nanofractal formation (1)
- nanofractal fragmentation (1)
- nanolithographie (1)
- negative Ionen (1)
- negative Wasserstoffionen (1)
- networks (1)
- nicht invasive Blutzuckermessung (1)
- non-Condon (1)
- non-equilibrium (1)
- non-invasive glucose mesurement (1)
- non-invasive test (1)
- non-neutral plasma (1)
- nonequilibrium phase transitions (1)
- nonneutral plasma (1)
- nuclear fluid dynamics (1)
- nuclear physics (1)
- nuklear matter (1)
- nukleare Wirkungsquerschnitte (1)
- off-lattice (1)
- optimal wind/solar mix (1)
- optimization (1)
- optische Potentiale (1)
- organic semiconductor (1)
- organotypic slice culture (1)
- overcritical fields (1)
- p-Linac (1)
- partice accelerator (1)
- particle accelerators (1)
- phase diagram (1)
- phase shift (1)
- phase transition (1)
- phase transitions (1)
- photoacoustic (1)
- photocycle (1)
- photon (1)
- piezoresistivity (1)
- pion condensation (1)
- plasmonics (1)
- point spread function (1)
- polarimetry (1)
- pressure sensors (1)
- proteorhodopsin (1)
- proton countertransport (1)
- protons (1)
- quality assurance (1)
- quantum cascade laser (1)
- quantum criticality (1)
- quantum field theory (1)
- quantum hydrodynamics (1)
- quantum liquid (1)
- quantum mechanics (1)
- quantum spin system (1)
- quark matter (1)
- quark-gluon plasma (1)
- quark-gluon plasma temperature (1)
- quark-gluon-plasma (1)
- quasicrystals (1)
- quasiparticle expansion (1)
- r-Prozess (1)
- radiation hard sensor (1)
- random effects analysis (1)
- rare earth compounds (1)
- recoil ion momentum spectroscopy (1)
- renormalization group (1)
- resonances (1)
- resonant (1)
- resting state (1)
- rubisco (1)
- s-Prozess (1)
- schwere Ionen (1)
- selbstkonsistent (1)
- semiconductors (1)
- shock waves (1)
- sign problem (1)
- silicon detector (1)
- silicon sensor (1)
- single crystal growth (1)
- single-shot measurement (1)
- slowness Lernen (1)
- slowness learning (1)
- space charge (1)
- sparse coding (1)
- spectral function (1)
- spectroscopy (1)
- spin wave (1)
- spin-change (1)
- stability analysis (1)
- stability matrix eigenvalues (1)
- storage ring (1)
- strong correlations (1)
- su(2) x u(2) (1)
- superconductivity (1)
- supercritical field (1)
- supraleitend (1)
- surface reconstruction (1)
- synchronization (1)
- synchronization two rings (1)
- system size dependence (1)
- temperature (1)
- tetraquarks (1)
- theoretical biology (1)
- thermal field theory (1)
- thermalization (1)
- thermodynamics (1)
- thermoelectrics (1)
- thin film (1)
- time-resolved conformational dynamics (1)
- topological states (1)
- transmission grid extensions (1)
- transvers beam dynamics (1)
- ultracold quantum gases (1)
- vacuum decay (1)
- vacuum deposition (1)
- van der Waals (1)
- vibronic (1)
- visual perceptional size (1)
- wechselwirkende Bosonen (1)
- yttrium-iron garnet (1)
- zeitaufgelöste Konformationsdynamik (1)
- Äquivalenzprinzip <Physik> (1)
- Übergangsmetalloxide (1)
- Übergitter (1)
- Überschuss-Multiplizität (1)
- Übertragungsfunktion (1)
- überkritische Felder (1)
- überkritisches Feld (1)
Institute
- Physik (595) (remove)
Es wurde das Leitfähigkeitsverhalten von reinem, lufthaltigem Wasser bei kontinuierlicher und impulsgetasteter Röntgenbestrahlung (60 kV8) untersucht. Hierbei ergaben sich zwei einander überlagerte Effekte: 1. Ein der Röntgen-Dosisleistung proportionaler irreversibler Leitfähigkeitsanstieg, der vermutlich auf eine Strahlenreaktion des gelösten CO2 zurückzuführen ist, 2. eine reversible Leitfähigkeitserhöhung während der Bestrahlung, die sich mit der Entstehung einer Ionenart mit einer mittleren Lebensdauer von ca. 0,15 sec erklären läßt. Es wird angenommen, daß es sich dabei um Radikalionen O2⊖ handelt, welche durch die Reaktion der als Strahlungsprodukt entstehenden Η-Radikale mit dem gelösten Sauerstoff gebildet werden. Ein möglicher chemischer Reaktionsmechanismus wird angegeben, der zu befriedigender quantitativer Übereinstimmung der Versuchsergebnisse mit Ausbeutewerten und Reaktionskonstanten aus der Literatur führt.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
In the present paper we develop the essential theoretical tools for the treatment of the dynamics of High Energy Heavy Ion Collisions. We study the influence of the nuclear equation of state and discuss the new phenomena connected with phase transitions in nuclear matter (pion condensation). Furthermore we investigate the possibility of a transition from nuclear to quark matter in High Energy Heavy Ion Collisions. In this context we discuss exotic phenomena like strongly bound pionic states, limiting temperatures, and exotic nuclei.
Die vorliegende Arbeit befallt sich im theoretischen Teil mit den Grundlagen zu Strahl-Resonator-Wechselwirkungen bei Beschleunigerresonatoren und mit den sich daraus ergebenden Konsequenzen bei der Resonatorentwicklung für zukünftige lineare Kollider mit Multibunch-Betrieb. Zur Bekämpfung der vor allem im Multibunchbetrieb störenden Long-Range-Wakefelder müssen die schädlichen Moden möglichst so stark bedämpft werden, daß ihre Felder bis zum Eintreffen des nächsten Bunches auf ein erträgliches Maß abgeklungen sind. Im experimentellen Teil befaßt sich diese Arbeit daher mit der Entwicklung von Meßmethoden zur Bestimmung sehr kleiner Resonatorgüten sowie sehr kleiner transversaler Shuntimpedanzen bzw. sehr kleiner Feldpegel in stark störmodenbedämpften Beschleunigerresonatoren. Diese Meßmethoden sind an mehreren S-Band-Modellresonatoren (Betriebsfrequenz lag bei etwa 2.4 GHz) mit verschiedenen Dämpfungssystemen, die für den Einbau in einen normalleitenden Linearbeschleuniger für einen Kollider geeignet wären, erfolgreich getestet worden. Die Feldmessungen an den Modellresonatoren haben bisher unbekannte Gesetzmäßigkeiten bezüglich des Verhaltens dieser Dämpfungssysteme ergeben. In einer kurzen Beschreibung und Diskussion der sechs wichtigsten Vorschläge für zukünftige lineare Kollider wurde ein Überblick über die Unterschiede bei diesen verschiedenen Konzepten gegeben. Zunächst konnten über eine qualitative Diskussion der beim Linearbeschleuniger vom Iristyp vorkommenden Beam Blowup Phänomene, wie der regenerative BBU und der cumulative BBU, die Erscheinungsformen und die physikalischen Ursachen dieser BBU Phänomene verstanden werden. Hier zeigt sich, daß bei Irisstrukturen die HEM11-Moden die Hauptursache sowohl für den regenerativen- als auch für den cumulativen BBU sind. Der dritte Abschnitt führte in eine allgemeine Methode zur quantitativen Beschreibung der sogenannten Strahl-Resonator-Wechselwirkung ein. Diese Methode heißt Condon- Methode und erlaubt die Berechnung von BBU verursachenden Wakefeldern über eine Eigenwellenentwicklung aus den Eigenmoden des leeren Rersonators. Im vierten Abschnitt wurde durch die Herleitung des Theorems von Panofsky-Wenzel die Theorie der Strahl-Resonator-Wechselwirkung vervollständigt, wonach der einer Testladung während der Durchquerung eines felderfüllten Resonators mitgeteilte Transversalimpuls vollständig durch die räumliche Verteilung der elektrischen Longitudinalkomponente allein bestimmt ist. Damit erhält man also eine Aussage über die Wirkung der in Beschleunigerresonatoren feldanfachenden vorauslaufenden Ladungen auf die nachfolgenden. Dabei konnte auch die Frage geklärt werden, welche Moden zylindrischer Symmetrie wegen ihrer transversal ablenkenden Wirkung für den Teilchenstrahl gefährlich sind. Hier zeigt sich, daß alle BBU verursachenden Moden TM2np- bzw. TM2np-Moden sind, d.h., die Moden mit dipol- bzw. quadrupolartiger Symmetrie. Die Anwendung der in den Abschnitten drei und vier entwickelten Theorie zur Strahl-Resonator-Wechselwirkung konnte im Abschnitt fünf anhand dreier, für die Beschleunigerphysik sehr interessanter Beispiele gezeigt werden. Im ersten Beispiel gelang die Beschreibung der Wechselwirkung eines in Längsrichtung homogenen Strahls, welcher transversal Betatranschwingungen vollführt, mit der TM110-Mode eines Zylinderresonators. Dieses Beispiel ist von praktischer Bedeutung bei Linearbeschleunigern. die bei hohem Duty Cycle betrieben werden, also z.B. beim RACE TRACK Mikrotron oder bei supraleitenden Linacs. Beim zweiten Beispiel hat die Anwendung der Theorie auf eine Irisstruktur zu Formeln geführt, die sich Fair eine numerische Berechnung des Startstroms zum regenerativen BBU eignen, was jedoch relativ aufwendig ist. Es konnte aber auch eine einfache Abschätzungsformel für den Startstrom durch die Anwendung des Poyntingschen Satzes auf eine differentielle Länge des der Irisstruktur entsprechenden Wellenleiters abgeleitet werden. Aus der Bedingung, daß die durch den Strahl erzeugte Leistung pro Längeneinheit gleich den Leistungsverlusten pro Längeneinheit ist, findet man den Startstrom für den regenerativen BBU. Das letzte Beispiel, die Wechs 1 e Wirkung einer hochrelativistischen Punktladung mit einem beliebigen Resonator, ist auch das wichtigste. Hier wurden die Wakefelder aus einer simplen Energiebilanzbetrachtung abgeleitet, da eine Berechnung nach der Condon-Methode relativ aufwendig und langwierig wäre. Diese Vorgehensweise hat hier zu einem tieferen physikalischen Verständnis der Vorgänge im Resonator geführt. Die mit Hilfe einer Punktladung abgeleiteten Wakefelder sind Greensfunktionen. die zur quantitativen Beschreibung des cumulativen BBU’s bei linearen Kollidern benutzt werden können. Die Diskussion der anhand der Beispiele gewonnenen Ergebnisse am Ende des fiinften Abschnitts führte zu verschiedenen Maßnahmen zur Verringerung der schädlichen Strahl-Resonator-Wechselwirkung. Hier hat sich gezeigt, daß sowohl der regenerative BBU als auch der cumulative BBU u. a. durch eine Verringerung der Resonatorgüte der strahlstörenden Dipolmode verhindert werden können. Im sechsten Abschnitt erfolgte die noch ausstehende quantitative Beschreibung des cumulativen BBU mit Hilfe der im vorangehenden Abschnitt am dritten Beispiel gewonnenen Formeln für die Wakefelder. Die Berechnung der Strahlablage und Strahlrichtung geschieht hier über einen Matrizenformalismus, der aus der Idee heraus entstand, die Beschleunigersektionen des linearen Kolliders durch Resonatoren verschwindender Länge zu ersetzen. Uber den Matrizenformalismus konnte die durch den Einfluß von Beschleunigung, Fokussierung und Wakefeldern doch recht komplizierte Teilchenbewegung sehr elegant formuliert werden, jedoch eignet sich dieser Formalismus nur für numerische Zwecke. Abschätzungen sind in diesem allgemeinen Fall unmöglich. Durch die Einführung eines sehr restriktiven Modells, des sogenannten DAISY-CHAIN Modells, welches nur bei sehr stark bedämpften Beschleunigersektionen gültig ist. hat sich der Matrizenformalismus auf sehr einfache, der analytischen Berechnung zugängliche Gleichungen reduzieren lassen. Die Bedämpfung der Beschleunigersektionen muß dabei so stark sein, daß eine Ladung innerhalb einer ganzen Kette äquidistanter Ladungen nur ein signifikantes Wakefeld der unmittelbar vorrauslaufenden Ladung erfährt. Wie stark im Einzelfall bedämpft werden muß, um einen stabilen Transport einer Kette von Teilchenpaketen zu ermöglichen, konnte anhand zweier, in der Betriebsfrequenz unterschiedlicher Konzepte für normalleitende Linearbeschleuniger zukünftiger Kollider gezeigt werden. Dabei wurde deutlich, daß man bei ausschließlicher Anwendung von in Bezug auf die HEM11-pi-Mode stark bedämpften Beschleunigerstrukturen zur Kontrolle des cumulativen BBU bei einer hohen Betriebsfrequenz, z.B. im X-Band (11.45 GHz), sehr unbequem niedrige Gütewerte von ca. Q=5 erreichen muß. Das ist, wie sich im praktischen Teil der vorliegenden Arbeit gezeigt hat, vom technischen Aufwand her gesehen sehr schwierig. Für einen X-Band-Kollider wird man also eine Kombination von Maßnahmen zur Kontrolle des cumulativen BBU’s bevorzugen, z.B. neben dem Bedämpfen auch das sogenannte “Detunen” der Beschleunigersektionen. Bei einem Linearbeschleuniger im S-Band (Betriebsfrequenz bei 3 GHz) befindet man sich von vornherein bei ausschließlicher Verwendung gedämpfter Strukturen in bequemeren Gütebereichen Q ungefähr gleich 20-50, was ohne weiteres praktikabel ist. Aber auch hier kann man durch Zusatzmaßnahmen die Anforderungen an die Resonatordämpfung weiter reduzieren. Als erste Methode zur Bestimmung der Güte eines störmodenbedämpften Beschleunigerresonators wurde die Chipman-Methode angewendet. Meßobjekt war hier das dreizellige Modell einer Irisstruktur mit Halbzellenabschluß. Zur Auskopplung der dominanten Störmode, der sogenannten HEM11-Mode, war die mittlere Irisblende einseitig geschlitzt. Bei diesem Modell lag die Frequenz der als Beschleunigermode vorgesehenen TM010-2pi/3-Mode etwa bei 2.35 GHz und die Frequenz der dominanten Störmode, der HEM11-pi-Mode, lag bei etwa 2.81 GHz. Die mittlere geschlitzte Irisblende war austauschbar, so daß eine Messung der durch das Dämpfungssystem belasteten Güte QL bzw. des Koppelfaktors K in Abhängigkeit von der Schlitzhöhe möglich war. Die Messungen ließen sich bei diesem Koppelsystem ohne Schwierigkeiten durchrühren, bei der größten möglichen Schlitzhöhe von 10 mm wurde auch der größte Koppelfaktor mit 46 gemessen. Bei einer vom Dämpfungssystem unbelasteten Güte von Q0=4500 korrespondiert ein Koppelfaktor von K=46 mit einer durch das Dämpfungssystem belasteten Güte von QL = 100. Ein Mangel wurde bei der Anwendung der Chipman-Methode sofort sichtbar: Durch die Anregung der HEM11-pi-Mode von der Meßleitung aus sind im Koppelsystem offenbar Störmoden angeregt worden. Liegen diese Störmoden nahe bei der zu messenden Resonanz, dann ist eine präzise Bestimmung des Koppelfaktors unmöglich. Glücklicherweise war das hier nicht der Fall. Die Messungen mit der einseitig geschlitzten Irisblende haben gezeigt, daß dieses Dämpfungssystem Anwendung finden könnte bei Beschleunigerstrukturen im S-Band. wie sie z.B beim DESY/THD-Kollider vorgeschlagen wurden. Natürlich kann bei den hier erreichten Koppelfaktoren nicht die Dämpfung der schädlichen HEM11-pi- Mode die alleinige Maßnahme sein, die einseitig geschlitzte Irisblende könnte nur zusammen mit dem Detunen angewendet werden. Da die einseitig geschlitzte Irisblende auch eine Feldasymmetrie bei der Beschleunigermode erzeugt, müssen die Dämpfer entlang einer Beschleunigersektion alternierend angebracht werden, d.h. jeder Dämpfer ist im Bezug zum nächsten Nachbardämpfer um 90° gedreht. Die 90° ergeben sich aus der Notwendigkeit, auch die Dämpfung der zweit en Polarisationsebene der HEM11-pi-Mode zu gewährleisten. Als zweite, der Chipman-Methode sehr ähnliche Methode, wurde die Kurzschlußschiebermethode angewendet. Erstes Untersuchungsobjekt war die bei der Chipman- Methode bereits erwähnte dreizeilige Irisstruktur. Ein Vorteil im Vergleich zur Chipman-Methode ist vor allem die schnelle Durchführbarkeit der Messung bei wenig experimentellem Aufwand, wenn auch die Kurzschlußschiebermethode weniger präzise ist, und man auf einige Informationen, wie z.B. der Verlauf des Reflexionsfaktors und dessen Phase, verzichten muß. Im Vergleich mit der Chipman-Methode waren die mit der Kurzschlußschiebermethode gemessenen Koppelfaktoren immer um etwa 10-15% höher. Das liegt vor allem daran, daß die Theorie zur Kurzschlußschiebermethode von einem verlustfreien Resonator-Hohlleitersystem ausgeht, so daß die nach dieser Theorie ermitteten Koppelfaktoren prinzipiell zu groß sind. Auch bei dieser Methode hat sich gezeigt, daß eine Auswertung der Meßergebnisse scheitern muß, falls ein Modenüberlapp auftritt. Bei Experimenten mit komplizierteren Dämpfungssystemen, bestehend aus mehr als vier Hohlleitern an Resonatoren mit mehr als zwei Zellen ist deutlich geworden, daß eine Bestimmung des Koppelfaktors über die Kurzschlußschiebermethode durch die entstehende Modenvielfalt praktisch unmöglich ist. Es stellte sich heraus, daß bei der Auswertung der Meßergebnisse dadurch ein Fehler entsteht, wenigstens bei sehr starker Dämpfung, daß man die Feldverteilung als konstant animmt, denn bei dem Vergleich der unbelasteten Güte Q0 mit der vom Dämpfungssystem belasteten Güte QL geht man davon aus, daß die Feldverteilungen im ungedämpften- und gedämpften Fall identisch sind. Das kann bei Koppelfaktoren im Bereich von einigen zehn bis zu einigen hundert nicht mehr zutreffen, da das Feld der Mode immer stärker in das Dämpfungssystem eindringt, je stärker die Kopplung ist. Das ändert die Modengeometrie natürlich in dramatischer Weise und die belastete Güte QL kann dann nicht mehr einfach über die Gleichung QL=Q0/(1+ K) aus den gemessenen Größen Q, und K ausgerechnet werden, da der Koppelfaktor K nun nicht mehr konstant sein kann, sondern im Gegenteil sich sehr stark ändert, je nachdem an welcher Stelle die Felder gemessen werden. Ein weiterer Mangel bei beiden Methoden ist, daß über diese Methoden weder die longitudinale noch die transversale Shuntimpedanz bestimmt werden kann. Ein Ausweg aus diesem Dilemma war die Anwendung zweier neuer Meßmethoden, die Antennenmethode und die nichtresonante Störkörpermethode. Diese beiden Methoden beruhen im Gegensatz zu den ersten beiden Methoden auf einer direkten Bestimmung der Feldpegel bzw. der transversalen Shuntimpedanz im bedämpften Resonator was den Vorteil hat, daß im Resonator genau das Feld bzw. die Shuntimpedanz vermessen wird, welches die Teilchen bei der Durchquerung des Resonators auch tatsächlich sehen. Die Antennenmethode war eine komplette Neuentwicklung, während es sich bei der nichtresonante Störkörpermethode um die Anwendung einer seit 1966 bekannten, jedoch in Vergessenheit geratenen Theorie handelte. Beide Meßmethoden konnten am Beispiel eines im Bezug auf die TM110-Mode (Frequenz bei ca. 3.2 GHz) sehr stark bedämpften Zylinderresonators (Die Frequenz der TM010-Mode lag bei ca. 2.049 GHz) erfolgreich getestet werden. Die durch das Dämpfungssystem belastete Güte QL war hier ca. 10. Bei der Bestimmung der longitudinalen elektrischen Feldstärken bzw. der longitudinalen Shuntimpedanz der TM110-Mode in Abhängigkeit vom axialen Abstand vor und nach der Bedämpfung konnten zunächst folgende Feststellungen gemacht werden: 1) Die Modengeometrie im ungedämpften- und gedämpften Fall unterscheiden sich sehr stark voneinander. Dadurch mißt man verschiedene Koppelfaktoren, je nachdem an welcher Stelle man die Felder mißt. 2) der maximal gemessene Koppelfaktor liefert über die Gleichung QL=Q0/(1+K) die richtige beklastete Güte QL. 3) Der höchste Koppelfaktor wurde bei der Feldmessung in einem Achsortabstand vom halben Radius des Zylinderresonators gemessen. Da die beiden Meßmethoden das Verhältnis der elektrischen Feldstärkequadrate in Abhängigkeit vom Meßort vor und nach der Bedämpfung liefern, konnte die zweite Feststellung nur durch eine Kontrollmessung mit Hilfe der Kurzschlußschiebermethode, die hier dank des einfachen Aufbaus leicht durchfiihrbar war, gemacht werden. Die Kurzschlußschiebermessung lieferte eine Güte QL ungefähr gleich 9, während der höchste bzw. der niedrigste mit den beiden neuen Megmethoden ermittelte Koppelfaktor mit einer Güte von QL ungefähr gleich 11 bzw. mit einer Güte von QL ungefähr gleich 14 korrespondierte, d.h. also. daß der höchste gemessene Koppelfaktor für dieses Dämpfungssystem die richtige Resonatorgüte liefert. Anhand eines zweizeiligen Resonators (Die Frequenz der TM010-2pi/3-Beschleunigermode lag bei ca. 2.35 GHz) mit beidseitig geschlitzter Irisblende als Dämpfungssystem für die HEM11-pi-Mode (ca. 3.5 GHz) konnte gezeigt werden, daß die zweite Feststellung eine Gesetzmäßigkeit bei spiegelsymmetrischen Dämpfungssystemen ist. Im Unterschied zum Zylinderresonator wurde der höchste mit der richtigen bedämpften Güte QL ungefähr gleich 37 korrespondierend Koppelfaktor K ungefähr gleich 153 jedoch direkt auf der Resonatorachse gemessen. Die bedämpfte Güte wurde auch hier wieder mit Hilfe der Kurzschlußschiebermethode kontrolliert. Ein sehr interessantes Verhalten zeigte der gleiche zweizeilige Resonator mit einseitig geschlitzter Irisblende als Dämpfungssystem. Hier korrespondierte der in der Nähe der Resonatorwand gemessene niedrigste Koppelfaktor mit der bedämpften Güte QL ungefähr gleich 230 des Resonators. In Achsennähe hingegen war der Koppelfaktor etwa dreimal höher, K ungefähr gleich 82, als aus der der Güteerniedrigung K ungefähr gleich 35 nach der Dämpfung hervorgegangen wäre, die transversale Shuntimpedanz ist also auch etwa um den Faktor 3 erniedrigt. Durch dieses Verhalten ist der einseitig bedämpfte Resonator für die Verwendung bei einem linearen Kollider im S-Band (hier muß nicht so stark bedämpft werden) interessant geworden, denn wenn nur wenige Zellen einer Beschleunigersektion mit einem Dämpfungssystem ausgerüstet werden müssen, ist es wichtig in diesen Zellen ein effektives Dämpfungssystem bei Gewährleistung eines einwandfreien Transports der Feldenergie der HEM11-pi-Mode in diese gedämpften zu haben. Das funktioniert einerseits nur, wenn sich die Resonanzfrequenz der gedämpften Zellen in Bezug auf die HEM11-pi-Mode auf die Resonanzfrequenz der benachbarten ungedämpften Zellen einstellen läßt und andererseits die mit einer Dämpfung einhergehende schlechtere Anregungsfähigkeit dieser Störmode in den gedämpften Zellen nicht zu schlecht ist. Bei einer zu starken Dämpfung wäre beides nicht möglich. Zusammenfassend kann man sagen, daß durch die Antennen- und die nichtresonante Störkörpermethode ein für die Entwicklung von störmodenbedämpften Beschleunigerresonatoren für zukünftige lineare Kollider und natürlich auch anderer Elektronenbeschleuniger sehr wirksames Instrument zur Verfügung steht. Ein detailliertes Design eines für einen bestimmten Beschleuniger passenden Dämpfungssystems ist mit Hilfe dieser Meßmethoden möglich geworden, da kleine Unterschiede zwischen verschiedenen Ausführungen von Dämpfungssystemen meßbar sind. Durch die bei der Anwendung der Meßmethoden auf unterschiedliche bedämpfte Resonatoren gefundenen Gesetzmäßigkeiten ist unter anderem auch die Frage geklärt worden, auf welche Weise ein Dämpfungssystem auch auf numerischem Wege mit Hilfe von Computerprogrammen wie z.B. MAFIA berechnet werden kann.
Untersuchungen zu mikrowellenfokussierenden Beschleunigerstrukturen für zukünftige lineare Collider
(1993)
Zur Erforschung immer kleinerer Strukturen der Materie benötigt die Elementarteilchenphysik Teilchenstrahlen höchster Energie. Gegenwärtig sind das Higgs-Boson und das Top-Quarks‘ die Objekte des größten physikalischen Interesses. Das sog. “Top” ist das sechste und bisher noch nicht nachgewiesene Mitglied der Quark-Familie. Seine Masse wird unterhalb von etwa 180GeV vermutet. Das Higgs-Boson spielt im sog. Standardmodell der Elementarteilchen eine wichtige Rolle. Seine Masse wird ebenfalls im Bereich zwischen 100 und 200GeV vermutet. Es gibt eine gute Chance, das Top am Protonen- Antiprotonen-Beschleuniger TEVATRON des Fermilab in Chicago nachzuweisen. Seine physikalischen Eigenschaften lassen sich aber erst an zukünfligen Beschleunigem mit höherer Energie bestimmen. Gegenwärtig werden daher mehrere verschiedene Beschleunigerkonzepte erwogen oder sind bereits in Planung bzw. im Bau. Das Spektrum reicht dabei von Protonen-Antiprotonen- bis zu Elektronen-Positronen-Maschinen. Ein vielversprechender Ansatz zur Erzeugung der benötigten Teilchenenergien ist der lineare Elektronen-Positronen-Collider, im folgenden immer als linearer Collider bezeichnet. Das Verhältnis von Meßsignal zu Hintergrund ist bei e+-e-Kollisionen besser als bei Protonen-Kollisionen. Es entstehen keine Partonen, wodurch die zur Verfugung stehende Energie effektiver genutzt werden kann [ 11. Weiterhin ist der lineare Collider im Vergleich zu einer zirkularen Maschine gleicher Endenergie und Luminosität auf lange Sicht kostengünstiger, da keine zusätzliche Hf-Leistung zur Kompensation von Synchrotronstrahlungsverlusten nötig ist. Die für die Experimente erforderliche hohe Luminosität bedingt Teilchenstrahlen von niedrigster Emittanz und geringster Energieverschmierung sowohl innerhalb eines einzelnen Teilchenpaketes als auch zwischen den Bunchen selbst [2]. Zur Erhaltung der Strahlqualität über die volle Lange des Beschleunigers ist es deshalb notwendig, ein akkurates Strahlführungssystem zu entwickeln, das es gestattet, auftretenden Strahlinstabilitäten wirksam zu begegnen. Grund der Instabilitäten sind elektromagnetische Felder, sogenannte Wake- oder Kielwellenfelder, die die Teilchen bei der Durchquerung des Beschleunigers selbst anfachen. Die Teilchenpakete werden dadurch radial von der Achse abgelenkt, sie werden verformt und erfahren eine Impulsverschmierung. Transversale Einzelbunch-Instabilitäten (SBBU, Single Bunch Beam Breakup) kann man durch die Einführung einer Energieverschmierung innerhalb eines Teilchenpakets bekämpfen; in Verbindung mit einer äußeren Strahlführung erreicht man eine Bedämpfung der Instabilität [3]. Als Alternative oder Ergänzung zu äußeren Fokussierungsmaßnahmen erscheint es deshalb interessant, inwieweit man durch geeignete Modifikationen an den Beschleunigerstrukturen die Hochfrequenzfelder selbst zur Erzeugung der benötigten Fokussierung heranziehen kann. Da es sehr schwierig ist, die für das Experiment geforderte Luminosität mit einem einzelnen Bunch zu erzeugen, muß man mehrere Teilchenpakete in kurzem Abstand durch den Beschleuniger schicken. Jetzt erfährt aber jeder Bunch die aufsummierten Wakefelder der ihm vorausfliegenden Teilchenpakete. Um zu verhindern, daß die transversale Strahlablage inakzeptabel groß wird, müssen Maßnahmen zur Kontrolle dieser Vielteilchen-Instabilitäten (MBBU, Multibunch Beam Breakup) getroffen werden. Das bedeutet, die Güten dieser als Long-Range-Wakes bezeichneten Störmoden müssen, je nach Collider, durch konstruktive Maßnahmen auf Werte in der Größenordnung von zehn abgesenkt werden. Die vorliegende Arbeit befaßt sich mit theoretischen Anwendungsmöglichkeiten von hochfrequenzfokussierenden Beschleunigerstrukturen in linearen Collidem bei Einzel- und Multibunch-Betrieb. In Kap. 2 wird eine kurze Einführung in die Problematik von Höchstenergiebeschleunigem gegeben. Anschließend werden in Kap. 3 Irisstrukturen und ihre Kenngrößen behandelt. Kap. 4 gibt eine Einführung in das Wakefeld-Konzept. Es wird untersucht, welche Resonatormoden für den Strahl gefährlich sind; die Wakepotentiale werden mit Resonatorkenngrößen in Verbindung gebracht. In Kap. 5 schließt sich eine Betrachtung zum SBBU an. Es wird untersucht, inwieweit Irisstrukturen und Rechteckblendenstrukturen (MWQ-Strukturen) zur direkten Hochfrequenzfokussierung eingesetzt werden können. Die Eigenschaften einer MWQ-Struktur werden vermessen und mit theoretischen Vorhersagen verglichen. Beispiele fiir hypothetische Collider in verschiedenen Frequenzbereichen werden diskutiert. Im anschließenden Kap. 6 wird der Mechanismus des MBBU erläutert und Möglichkeiten zur Bedämpfung insbesondere von MWQ-Strukturen im Multibunch-Betrieb untersucht. Meßergebnisse an Modellstrukturen werden vorgestellt und am Beispiel von einem S- und X-Band- Collider diskutiert.
Im Rahmen dieser Arbeit wurde die katalytische Wirkung von massenselektierten Edelmetallclustern in photographischen Entwicklern an möglichst praxisnahen photographischen Modellsystemen untersucht, um die bei der Belichtung und der anschließenden Entwicklung von photographischen Filmmaterialien ablaufenden Prozesse besser verstehen zu können. Hierzu wurden präformierte und anschließend massenspektrometrisch größenselektierte Edelmetallclusterionen sanft auf photographische Emulsionskörner aufgebracht und anschließend untersucht, wie die deponierten Clusterionen die chemische Reduktion dieser gelatinefreien Silberhalogenid-Mikrokristalle im Entwickler beeinflussen. Apparatives Kernstück ist eine in den letzten drei Jahren in der Arbeitsgruppe von Prof. L. Wöste an der Freien Universität in Berlin entwickelte Anlage mit der es möglich ist, Edelmetallcluster definierter Größe in so ausreichender Menge durch Sputtern zu erzeugen, daß auch nach kurzen Depositionszeiten genügend viele Cluster auf Oberflächen deponiert werden können. Hohe Teilchenströme von Silbercluster-Kationen wurden über einen weiten Größenbereich (Ag1 + -Ag34+) erzeugt. Der Silbercluster mit der geringsten Intensität im Spektrum, das besonders interessante Ag4 +, wurde mit einem Clusterstrom von 800 pA bei guter Massenauflösung erzeugt. Für Silbercluster-Anionen erzielt man annähernd die gleichen Teichenströme wie für die entsprechenden -Kationen. Durch Sputtern von Gold-Silber-Mischtargets ließen sich AunAgm+-Clusterionen bis zu einer Masse von 2200 amu erzeugen. Um die Forderung nach einem langsamen Aufbringen der Cluster auf die Oberfläche („soft landing“) zu erfüllen, wurden die Cluster mit Hilfe von zwei mit Stoßgas gefüllten Quadrupolen abgebremst. Durch die so verwirklichte sanfte Deposition der Cluster ist es erstmals gelungen, die photographische Wirkung der auf primitive Emulsionskörner deponierten Cluster in definierter, reproduzierbarer und daher aussagekräftiger Weise zu untersuchen. Das war möglich, weil die Depositionsenergien der Cluster (< 1 eV) unterhalb der Bindungsenergien der hier deponierten Edelmetallcluster liegen und somit eine Verfälschung der Resultate durch Fragmentation der Clusterionen ausgeschlossen werden konnte. Es konnte nachgewiesen werden, daß erst ab Depositionsenergien von ³ 5 eV eine vermehrte Fragmentation der Cluster zu erwarten ist. Ob ein Silbercluster an einem Emulsionskorn dessen bevorzugte Entwickelbarkeit einleitet, hängt nicht nur von der Größe des Aggregates und seiner Ladung ab, sondern auch vom Redoxpotential des photographischen Entwicklers. Positiv geladene Silbercluster aus mindestens vier Atomen (Agn+, n³4) katalysieren den Entwicklungsprozeß der Emulsionskörner bei Redoxpotentialen, die negativer als -310 mV (Ag/AgCl-Referenzelektrode) sind. Aber auch Ag3+-Cluster führen noch zu einer Entwickelbarkeit, wenn das Redoxpotential unterhalb -350 mV liegt. Im Gegensatz zu Ag3+-Clustern können Ag3--Cluster, ebenso wie Ag4+-Cluster, die Entwicklung bereits bei einem Redoxpotential von -310 mV katalysieren. Kleinere Silberaggregate, ob positiv oder negativ geladen, führen nicht zu einer bevorzugten Entwickelbarkeit der mit ihnen belegten Silberhalogenidkörner. Ein Einfluß der Kornmorphologie (Kuben, Oktaeder, T-grains) auf die kritische Clustergröße konnte nicht nachgewiesen werden. Erstmals war es auch möglich, Gold-Silber-Mischclusterionen auf ihre photographische Wirkung hin zu untersuchen. Dabei zeigte sich, daß die katalytische Wirkung von Gold-Silber-Mischclusterionen auf die Entwickelbarkeit der sie enthaltenden Emulsionskörner allein durch den Silberanteil der Cluster bestimmt wird. Mischcluster Ag1Aum+ (m³2) und Ag2Aum+ (m³1) katalysieren die Entwicklung nicht, unabhängig vom Redoxpotential. Dagegen leiten Ag3Aum + (m³2), entsprechend den Agn+-Clustern (n³4) bei Redoxpotentialen negativer als -310 mV die Entwicklung ein. Mischcluster mit höherem Silberanteil (AgnAum+; n³4, m³1) ändern ihre katalytische Wirkung gegenüber reinen Silberclustern entsprechender Größe nicht. Erstmals konnte auch der Begriff „Goldlatensifikation“ präzisiert werden. Die hier gefundnen Ergebnisse zeigen eindeutig, daß von einer solchen nur dann gesprochen werden kann, wenn sich die Goldatome an das Trimer anlagern. Dagegen kann die alleinige Substitution von Silber durch Gold sowohl als empfindlichkeitssteigernder Mechanismus bei der Goldlatensifikation als auch bei der Goldreifung ausgeschlossen werden. Reine Goldcluster-Kationen bis zum Au7 + zeigen keine katalytische Wirkung.
Zwei- und Viel-Teilchen-Korrelationen in zentralen Schwerionenkollisionen bei 200 GeV pro Nukleon
(1995)
HADES : ein Dielektronenspekrometer hoher Akzeptanz für relativistische Schwerionenkollisionen
(1995)
Das Dielektronenspektrometer HADES (High Acceptance Dielectron Spectrometer) wird gegenwärtig am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) aufgebaut. Die Spektroskopie von Elektron-Positron-Paaren (Dielektronen) aus Kern-Kern-Kollisonen mit Projektilenergien von 1 bis 2 GeV/Nukleon verspricht einen Einblick in die Eigenschaften von Hadronen bei Dichten, die das Dreifache von normaler Kerndichte erreichen. Es wird erwartet, daß sich die Massenverteilung der unterhalb der Schwelle erzeugten leichten Vektormesonen rho. omega und phi anhand ihres Zerfalls in Dielektronen experimentell untersuchen läßt. Die Beobachtung von Massenänderungen kann Hinweise auf die Restauration der im Vakuum gebrochenen chiralen Symmetrie geben. Die Eigenschaften des Spektrometers wurden in der vorliegenden Arbeit mit Simulationsrechnungen (GEANT) untersucht und optimiert. Zur Leptonenidentifizierung dient ein ortsempfindlicher Cerenkov-Zähler (RICH1) mit Gasradiator, azimutal symmetrischem Spiegel und V-Photonendetektor. Durch die geometrische Anordnung des RICH und mit sechs supraleitenden Spulen in toroidaler Anordung erreicht HADES eine Polarwinkelakzeptanz von 18 bis 85 Grad. Die Feldverteilung ist der kinematischen Impulsverteilung angepaßt und garantiert Feldfreiheit im RICH. Je ein Paar Minidriftkammern vor und hinter dem Magnetfeldbereich messen die Trajektorie zur anschließenden Rekonstruktion von Impuls, Winkel und Vertex. Zuletzt passieren die Teilchen META, eine Detektorkombination von Szintillatoren und Schauerdetektor. Aus der Multiplizität geladener Teilchen in den Szintillatoren werden zentrale Kollisionen für den Trigger der ersten Stufe selektiert. Den Trigger der zweiten Stufe definieren zwei erkannte Ringe im RICH, die jeweils einem Elektronensignal in META zuzuordnen sind. HADES ist ein Experiment der zweiten Generation. Die Messungen mit dem Dileptonenspektrometer DLS am BEVALAC (Berkeley, USA) ergaben nur für leichte Stoßsysteme e+e- -Spektren guter Statistik. HADES besitzt mit 35% die hundertfache geometrische e+e- - Akzeptanz des DLS. Darüber hinaus können mit einer Massenauflösung von weniger als 1% (DLS 12%) die e+e- -Beiträge von omega- und rho-Meson getrennt werden. Es ist für die Anforderungen von Au+Au-Kollisionen bei hohen Kollisionsraten von 106 pro Sekunde konzipiert. Bei einer Anzahl von bis zu 170 Protonen und 20 geladenen Pionen sowie mehr als 0.1 e+e- -Paaren durch den pi 0-Zerfall werden pro zentralerKollision etwa 10 exp 6 Dielektronen aus dem rho- oder omega-Zerfall erwartet. Leptonen, die aus dem Zerfall verschiedener pi 0-Mesonen stammen, bilden kombinatorische e+e- -Paare, die auch im e+e- -Massenbereich der Vektormesonen beitragen können. Durch Rekonstruktion und durch Methoden der Untergrunderkennung wird der e+e- -Untergrund um nahezu zwei Größenordnungen unterdrückt, während die Effizienz für echte Dielektronen etwa 55% beträgt. Die Leptonen des verbleibenden Untergrunds stammen zu mehr als 50% aus dem pi-0-Dalitz-Zerfall und zu etwa 40% aus externer Paarkonversion von ..-Quanten des Zerfalls pi 0.. , wobei Konversionsprozesse im Radiatorgas und im Target zu gleichen Teilen beitragen. pi 0-Dalitz-Zerfall überwiegt im kombinatorischen Massenspektrum bis 500 MeV/c2 ; oberhalb von 500 MeV/c2 dominiert externe Paarkonversion.
Die hier vorliegende Arbeit stellt die experimentelle Bestimmung des Verhältnisses R der totalen Wirkungsquerschnitte von Doppel- zu Einfachionisation von Helium vor. Die Ionisation wurde durch Photonen der Energie von etwa 8 keV und 58 keV induziert. In diesem Energiebereich ist die Ionisation sowohl durch die Absorption eines Photons wie auch durch die Compton-Streuung möglich. Die genutzten Photonenenergien erlaubten, den asymptotischen Hochenergiebereich beider Prozesse zu untersuchen. Mit Hilfe der verwandten Methode der Rückstoßionen-Impulsspektroskopie (hier in der neuesten Generation COLTRIMS, nach COLd Target Recoil Ion Momentum Spectroscopy) konnten Photoabsorption und Compton-Streuung erstmals experimentell voneinander getrennt werden. Sie ermöglichte ebenfalls eine gegenüber anderen Meßmethoden deutlich gesteigerte Genauigkeit der Werte R. Die Kinematik der auslaufenden Teilchen unterscheidet sich in beiden Prozessen: In der Absorption überträgt das Photon seine volle Energie auf die Targetelektronen. Deren Impuls im auslaufenden Kanal ist groß gegenüber dem des einlaufenden Photons und muß vom Ion kompensiert werden. Dagegen findet die Streuung des Photons am Elektron statt, das Ion nimmt dabei die Rolle eines Zuschauers ein. Es besitzt im auslaufenden Kanal nur einen geringen Impuls. Die so wohlseparierten Strukturen in der Rückstoßionen-Impulsverteilung erlauben die Trennung beider Prozesse durch COLTRIMS. Das Resultat zur Photoabsorption im Hochenergielimit von Rph = (1.72 ± 0.12) % konnte erstmalig die theoretischen Vorhersagen dieses Wertes verifizieren. Der Wert von Rc = (1.22 ± 0.06) % bei etwa 8.8 keV bestätigt die Rechnung von Andersson und Burgdörfer (Phys. Rev. A50, R2810 (1994)). Das Ergebnis von Rc = (0.84 +0.08-0.11) % bei 58 keV stimmt mit dem für die Compton-Streuung vorhergesagten asymptotischen Grenzwert überein.
Die im Rahmen dieser Arbeit gewonnen Meßergebnisse zeigen, daß bei geringem Restgasdruck der Einsatz einer GPL zur Fokussierung eines hochperveanten Ionenstrahles niedriger Strahlenergie Vorteile gegenüber konventionellen Linsensystemen bietet. Neben einer kostengünstigen Realisation ist wesentlich die bei unterschiedlichen Linsenparametern hohe Linearität der Linsenfelder (und die damit verbunden geringen Aberrationen) bei gleichzeitig starker Fokussierung zu nennen. Auch die geringe Baulänge, vor allem im Vergleich zu den wegen der FODO-Struktur bei Quadrupolen i. a. notwendigen Tripletts, kann gerade bei de- bzw. teilkompensiertem Transport einen Vorteil darstellen. Die im zweiten Kapitel vorgestellten Arbeiten zur theoretischen Beschreibung des nichtneutralen Plasmas der GPL haben gezeigt, daß bei Berücksichtigung der Verlustmechanismen (longitudinal und radial) die Beschreibung der Elektronenverteilung in der Linse die Meßergebnisse wesentlich besser widerspiegelt als in der klassischen Theorie Gabors, die nur einen idealisierten Zustand maximaler Elektronendichte beschreibt. Die Integration der Verluste in die Simulation ist für den longitudinalen Verlustkanal gelungen. Die radialen Verluste entziehen sich bisher aufgrund der Komplexität der Vorgänge bei der Diffusion einer hinreichend genauen Beschreibung. Dies liegt vor allem an einer sehr schwierigen Abschätzung der hierbei dominierenden Heiz- bzw. Kühlprozesse im Linsenplasma. ...
Die vorliegende Arbeit befaßt sich mit der Untersuchung von Photonenemissionsmustern im einzelnen Ereignis, wie sie bei einer Schwerionenkollision von Schwefel auf Gold bei einer Energie von 200 GeV pro Nukleon produziert werden. Diese Ereignisse wurden mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment am CERN aufgenommen. Die globalen Observablen einer ultrarelativistischen Schwerionenkollision, wie z.B. Multiplizitäts- und Energieverteilungen der Teilchen, lassen sich durch Rechnungen mit dem String-Modell VENUS3.11 gut beschreiben. In diesem Modell werden alle bekannten, in einer Kern-Kern-Kollision ablaufenden physikalischen Prozesse eingebaut. Ein Vergleich von Verteilungen globaler Meßgrößen aus dem Experiment mit solchen aus Modellrechnungen zeigt, welche Resultate durch schon bekannte, in dem Modell berücksichtigte, physikalische Vorgänge verursacht sind und welche auf noch unbekannten Vorgängen oder auf Detektoreffekten beruhen. Um aus solchen Vergleichen den Einfluß noch unbekannter physikalischer Prozesse auf Verteilungen zu erkennen, muß die Veränderung der physikalischen Observablen bei der Messung durch den Detektor selbst berücksichtigt werden. Die Wechselwirkung der aus der Reaktionszone emittierten Teilchen mit der im Experiment befindlichen Materie der Detektoren wird mit dem Detektorsimulationsprogramm GEANT dargestellt. Der Einfluß der Detektoren kann für globale Observablen sehr zufriedenstellend beschrieben werden, was sich in der guten Übereinstimmung der Multiplizitäts- und Rapiditätsverteilung der im WA93-Experiment nachgewiesenen Photonen mit den Verteilungen aus Modellrechnungen zeigt. Auch die Dynamik der Kollision, sichtbar in der Verteilung der transversalen Energie, wird durch das Modell wiedergegeben. Auf dem Niveau von Einzelereignissen und der Verteilung von Photonen innerhalb eines Ereignisses ist es äusserst wichtig, den Einfluß der Detektoreffekte auf die Verteilungen zu bestimmen. Bei der Untersuchung von Fluktuationen und Korrelationen auf der Basis von Einzelereignissen wurde deshalb ein Vergleich zu Mixed Events angestellt, bei denen die Detektoreffekte beibehalten, aber alle vorhandenen Korrelationen aufgelöst werden. In dieser Arbeit wurden die Photonenemissionsmuster der Einzelereignisse (eventby- event-Analyse) mit der Minimal-Spanning-Tree (MST)-Methode auf Dichtefluktuationen hin untersucht. Die emittierten Photonen geben einen Hinweis auf die Emissionsstruktur von Mesonen, insbesondere der leichten pi0-Mesonen, weil Photonen überwiegend durch den Zerfall produzierte Teilchen sind und die räumliche Verteilung ihrer Ursprungsteilchen weitgehend widerspiegeln. Die Untersuchung von Teilchendichtefluktuationen, insbesondere der durch die Kollision produzierten Mesonen, kann zum besseren Verständnis des Verhaltens der Kernmaterie bei hohen Dichten und hohen Temperaturen beitragen. Waren Dichte und Temperatur in der Reaktionszone ausreichend hoch, könnte sich ein Quark-Gluon-Plasma gebildet haben. Die bei der anschließenden Expansion und Abkühlung stattfindende Kondensation zu Hadronen könnte ein Phasenübergang erster Ordnung sein. Die Größe der Fragmente, in diesem Fall die Hadronen und alle Gruppierungen daraus, sollte eine Verteilung ergeben, die mit einer Funktion Sa angenähert werden kann, wie es von verschiedenen Autoren im Zusammenhang mit Phasenübergängen erster Ordnung beobachtet wurde. Dabei ist S die Fragmentgröße und a eine negative Konstante. Die MST-Methode ist geeignet, das Emissionsmuster einzelner Photonenereignisse aus Schwerionenreaktionen in Cluster zu unterteilen. Die mit der MST-Methode definierten Cluster ergeben sich direkt aus der unterschiedlichen Dichteverteilung der Photonen auf der Detektorfläche in einem Einzelereignis. Die Cluster werden mit den obengenannten Fragmenten in Zusammenhang gebracht, wobei die Zahl der Photonen in einem Cluster die Fragmentgröße S darstellt. Ein wesentlicher Vorteil der MST-Methode besteht darin, daß sie zunächst keinerlei Einschränkung in der Art der zu suchenden Strukturen erfordert. Es müssen keine räumlichen Strukturen vorgegeben werden, nach denen dann in der Punkteverteilung gesucht wird, wie das in anderen Analysemethoden der Fall ist. Aus der durchgeführten Analyse hat sich ergeben, daß die MST-Methode sehr sensitiv auf Fluktuationen in der räumliche Dichteverteilung der Treffer im Einzelereignis ist. Die zweidimensionalen Räume, in denen die Dichteverteilung untersucht wird, können beliebig festgelegt werden und sind durch die Metrik, in der die Abstände des Minimal-Spanning-Trees berechnet werden, definiert. In dieser Arbeit wurden der x-y- Raum (Metrik 1) und der h-j-Raum (Metrik 2) benutzt. Dabei gibt Metrik 1 im wesentlichen Effekte in der Detektorgeometrie wieder und Metrik 2 ist eher dem Phasenraum und damit der Physik angepaßt. Zum Vergleich mit den Ergebnissen aus WA93-Datenereignissen wurden Cluster auf die gleiche Weise in Mixed Events, in Ereignissen aus Modellrechnungen und in Ereignissen mit Zufallsverteilungen von Punkten bestimmt. Die räumliche Verteilung der in den WA93-Datenereignissen gefundenen Cluster auf der Ebene des Detektors weist auf starke Inhomogenitäten in der Photonenverteilung hin. Der Vergleich mit entsprechenden Verteilungen der Cluster in Mixed Events und berechneten Ereignissen zeigt, daß ein Großteil dieser Inhomogenitäten durch Detektoreffekte verursacht wird. Zu diesen Detektoreffekten zählt auch die hohe Ansprechwahrscheinlichkeit für geladene Hadronen, so daß durch den Einsatz des Dipolmagneten eine inhomogene Verteilung der Treffer auf dem PMD verursacht wird. Diese durch Detektoreffekte verursachten Inhomogenitäten in den Photonenemissionsmustern können mögliche, durch physikalische Ursachen während der Kollision hervorgerufene, Dichtefluktuationen überlagern. Die Größenverteilung der Cluster in den WA93-Daten konnte mit einer Funktion Sa angenähert werden. Die Konstante a ergab sich dabei zu -3.0 für die in Metrik 1 gefundenen Cluster und -2.7 für die in Metrik 2 gefundenen Cluster. Die Größenverteilung der in den WA93-Datenereignissen mit Metrik 1 bestimmten Cluster zeigt keine großen Abweichungen zu den aus Mixed Events und aus simulierten Ereignissen gewonnenen Größenverteilungen. Die Größenverteilung, die mit Metrik 1 aus einer reinen Zufallsverteilung von Punkten erhalten wurde, liegt unterhalb der anderen drei Verteilungen. In den Verteilungen der Größe der in Metrik 2 definierten Cluster bestehen jedoch deutliche Unterschiede von WA93-Datenereignissen zu den Verteilungen aus anderen Ereignissen mit vergleichbaren Pseudorapiditätsverteilungen. Es wird eine Erhöhung der Wahrscheinlichkeit für große Cluster mit mehr als 20 Photonen in realen Datenereignissen beobachtet. Zunächst wurde angenommen, daß diese Erhöhung der Wahrscheinlichkeit für große Cluster die Folge der starken Inhomogenitäten in der zugrundeliegenden Trefferverteilung sein könnte. Wie die detaillierte Untersuchung der räumlichen Verteilung der Cluster jedoch gezeigt hat, ist diese inhomogene Verteilung der Photonen auch in den Mixed Events zu finden; die Erhöhung der Wahrscheinlichkeit für große Cluster tritt allerdings nicht auf. Daß diese Beobachtung in den Mixed Events nicht gemacht wird, könnte ein Hinweis darauf sein, daß die Erhöhung in der Größenverteilung der Cluster durch physikalische Ursachen hervorgerufen wird. Ein weiterer Hinweis darauf, daß die Ineffizienzen des Detektors allein nicht zu großen Clustern führen, zeigt der Vergleich von Mixed Events zu den Datenereignissen mit zufälligem Azimut. Trotz der Unterschiede in der räumlichen Verteilung der Cluster ergibt sich eine annähernd gleiche Wahrscheinlichkeitsverteilung. Die in dieser Arbeit mit der MST-Methode durchgeführten Analyse hat gezeigt, daß „saubere“, d.h. untergrund- und detektoreffektfreiere Photonendaten notwendig sind, bevor Rückschlüsse auf zugrundeliegende physikalische Ursachen gemacht werden können. Dazu ist eine wesentliche Verbesserung der Datenauslese erforderlich, um die großen Unterschiede zwischen den einzelnen Auslesemodulen zu vermeiden. Eine Weiterentwicklung in der Datenaufbereitungsmethode könnte zu einer besseren Separation von Hadronen und Photonen und damit zu einer untergrundfreieren Photonenmessung führen. Erforderlich ist auch eine sehr genaue Simulation der Detektoreffekte durch Angabe aller Details des Experiments im GEANT-Programm. Nach den Schwerionenexperimenten mit Sauerstoff- und Schwefelstrahlen wurde das Schwerionenprogramm am CERN 1994 durch den Bleistrahl 208Pb mit der Energie von 158 GeV pro Nukleon weitergeführt. Mit der Vergrößerung des Reaktionssystems erwartete man nicht unbedingt eine Erhöhung der Energiedichte, aber einen größeren Thermalisierungsgrad des Systems. Ziel blieb immer noch der Nachweis des Quark- Gluon-Plasmas und die Erforschung von Materie unter extremsten Bedingungen. Um eine möglichst universelle Aussage über den Ablauf einer ultrarelativistischen Schwerionenreaktion machen zu können, wurde ein Experiment, das WA98-Experiment, mit einer großen Akzeptanz für die Messung von Photonen und Hadronen entworfen. Die Kombination von Signalen verschiedener Detektoren sollte es ermöglichen unterschiedliche Charakteristika der Stoßprozesse parallel zu untersuchen. Basierend auf den Erfahrungen mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment, auch die im Zusammenhang mit dieser Arbeit gewonnenen Erkenntnisse, wurde ein größerer und verbesserter Detektor für den Einsatz im WA98- Experiment gebaut. Der Detektor wurde erstmals 1994 zur Messung von Photonenverteilungen in Pb-Pb Kollisionen bei Energien von 158 GeV pro Nukleon am CERN SPS eingesetzt.
Im Rahmen dieser Arbeit wurde der Aufbruchsmechanismus des Projektilspektators im relativistischen Energiebereich untersucht. Es zeigte sich dabei, daß die in vorherigen Experimenten beobachtete Targetunabhängigkeit der Fragmentproduktion bei 600 AMeV sich als universelle Eigenschaft des Zerfalls von angeregter und expandierter Kernmaterie erweist. Die Untersuchung von Ladungskorrelationen zeigte ebenfalls weder eine Energie- noch Projektilabhängigkeit im Rahmen der experimentellen Auflösung. Diese Ergebnisse sind im wesentlichen auch zu höheren und niedrigeren Energien von anderen Experimenten bestätigt worden. Mit diesem experimentellen Befund kann eindeutig der Beweis für die Existenz einer Multi-Fragmentproduktion bei relativistischen Energien gegeben werden. Im Rahmen von Modellen können die beobachteten Ladungsobservablen mit einem statistisch dominierten Zerfall erklärt werden. Die sich daran anschließende Frage nach dem Aufbruchsmechanismus und dessen Eigenschaften wurde weiterführend mit Ausrichtung auf kinematische und thermodynamische Eigenschaften des Systems untersucht. Dabei ergab sich, daß die kinematischen Observablen der Projektilquelle einen thermisch äquilibrierten Zustand widerspiegeln, unabhängig vom Stoßparameter und der Einschußenergie. Die hierbei beobachtete Emission von leichten Teilchen, die nicht eindeutig einer intermediären oder Projektilquelle zugeordnet werden konnten, ist hierbei Hinweis auf Nicht-Gleichgewichtsanteile, die in der frühen Phase der Reaktion gebildet werden. Mit der Untersuchung von kollektiven Eigenschaften des zerfallenden Systems wurde versucht, einen quantitativen Einblick in die Reaktionskinematik und den damit zusammenhängenden Energietransfer in den Projektilspektator zu erhalten. Diese Analysen ergaben, daß es bei gleichem Stoßparameter eine starke Abhängigkeit des "Bounce Off" von der Targetmasse gibt, während zu höheren Energien, beim gleichen System, nur ein kleiner Effekt zu höheren Impulsüberträgen (5-10 MeV/c) beobachtet wird. Die Energiebilanz des Systems und die hieraus extrahierten Anregungsenergien zeigten zum ersten Mal in experimentellen Daten ohne Zuhilfenahme von theoretischen Modellen, daß für die stark asymmetrischen Systeme nicht der gleiche Zusammenhang zwischen Anregungsenergie und Z bounce; erhalten wird wie bei den symmetrischen Systemen. Dies zeigt sich bei den asymmetrischen Systemen durch eine Saturation der Anregungsenergie mit kleiner werdendem Z bounce, im Gegensatz zu den symmetrischen Systemen, die einen weiteren Anstieg zeigen. Die absoluten Werte der maximalen Anregungsenergie von <E0/A0> ~ 21-23 MeV bei halbzentralen Reaktionen von 197 Au + 197 Au bei 800 AMeV und <E0/A0> ~27 MeV bei 238 U + 238 U 1000 AMeV sind verschieden bei gleichem Z bound. Es stellt sich jedoch heraus, daß mit Ausnahme der stark asymmetrischen Systeme die Anregungsenergie pro herausgeschlagenem Nukleon (<E Knock/A>) in Abhängigkeit von der prozentualen Größe des Prefragments zu peripheren Reaktionen monoton und energieunabhängig steigt.Werden die experimentell bestimmten Anregungsenergien verglichen mit denen aus theoretischen Modellen, so sind diese immer deutlich geringer. Im statistischen Modell von Botvina und Mitarbeitern, das von D´esesquelles mit unseren Daten verglichen wurde [D´ese 96] [D´ese 95], ergaben sich maximale Anregungsenergien von <E0/A0> ~ 7-8 MeV in zentralen Reaktionen. Ein Vergleich mit QMD + SMM ergibt, daß für die asymmetrischen Systeme (197AU + 12C)mit einer Anregungsenergien von maximal <E0/A0> ~ 8-9 MeV eine Beschreibung der Daten möglich ist. Für die symmetrischen Systeme zeigt sich eine zunehmende Diskrepanz mit zunehmender Targetmasse zwischen den experimentellen und theoretischen Anregungsenergien. Die Ladungsobservablen der Daten werden von der verwendeten QMD + SMM-Rechnung und der QMD (SACA)-Rechnung gut wiedergegeben. Durch Anpassung von Rechnungen mit dem Quantenstatischen Modell [Hahn 88b] (QSM) an die experimentellen Daten ergaben sich Aufbruchsdichten bei zentralen Reaktionen von rho/rho 0 ~ 0.3 bis 0.4, diese sind konsistent mit dem Aufbruch eines äquilibrierten und expandierten Systems. Die aus QSM erhaltenen Temperaturen des Quellsystems in Abhängigkeit von der Anregungsenergie geben im wesentlichen den von Pochodzalla und Mitarbeitern beobachteten Verlauf der kalorischen Kurve wieder. Die Frage, ob dieser Verlauf einen Phasenübergang von flüssig zu gasförmig darstellt, ist anhand dieser Methode nicht zu entscheiden. Die Ergebnisse der Ladungsobservablen in Verbindung mit den kollektiven Eigenschaften zeigen, daß die Anregungsenergie, die zum Erreichen des Maximums der M Fragmentproduktion ( <M IMF> ~ 4.4) nötig ist <E0/A0> ~ 11 MeV, einen geringeren absoluten Wert hat als der Bereich des möglichen Phasenübergangs <E0/A0> ~17 MeV. Im Gegensatz dazu stellt sich das Maximum der mittleren IMF -Produktion energie-, target- und projektilunabhängig bei <E0/A0> ~11 MeV ein. Mit diesemVergleich wird deutlich, daß zur näheren Untersuchung des Phasenübergangs von Kernmaterie nicht die in der Anregungsenergie saturierenden asymmetrischen Projektil-Target Kombinationen benutzt werden können. Die physikalische Fragestellung einer neuen Generation von Experimenten mit dem ALADIN-Detektor müßte in der Quantifizierung des Phasenübergangs und seiner dynamischen Observablen liegen. Dabei ist Beantwortung der Frage nach der zeitlichen Entwicklung der Fragmentproduktion über Korrelationen der Fragmente im Bereich des Phasenübergangs im Vergleich zum Maximum der universellen Kurve sowie die ereignisweise Bestimmung von dynamischen Observablen anzustreben.
Analyse der hadronischen Endzustandsverteilungen in ultra-relativistischen Blei-Blei-Kollisionen
(1997)
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen der hochangeregten hadronischen Kernmaterie führen möglicherweise zu einem Übergang in eine partonische Phase ohne Einschluß der Quarks und Gluonen in Hadronen (Quark-Gluon Plasma). Dieser Kontinuumszustand der Quantenchromodynamik wird in der frühen Anfangsphase des Universums bei sehr hohen Temperaturen und im Inneren von Neutronensternen bei einem Vielfachen der Grundzustandsdichte von Kernmaterie erwartet. Im Herbst 1994 wurden am europäischen Kernforschungszentrum CERN im Rahmen des NA49-Experimentes zentrale 208Pb + 208Pb - Kollisionen am SPS bei einer Einschußenergie von 158 GeV pro Nukleon untersucht. Die Daten wurden in einer der Spurendriftkammern (VTPC2) aufgenommen, die zur präzisen Messung des Impulses in einem Magnetfeld positioniert wurde. Aus diesem Datenensemble wurden in dieser Arbeit 61000 Ereignisse in Hinblick auf die Produktion negativ geladener Hadronen (h-) und die Endzustandsverteilungen der an der Reaktion teilnehmenden Nukleonen (Partizipanten) analysiert. Die Phasenraum-Akzeptanz der VTPC2 erstreckt sich für die negativ geladenen Hadronen im Rapiditätsintervall yPi = [3.2 5.0] und für die Netto-Protonen bei yp = [3.0, 4.4] über den Transversalimpuls-Bereich von p..=[0.0 2.0] GeV/c. Die statistischen Fehler der vorgestellten Ergebnisse reduzieren sich durch die große Statistik zu << 1%, die systematischen Fehler der Impulsmessung liegen im Bereich <= 2%. Die Korrektur auf Ineffizienzen des verwendeten Spur-Rekonstruktionsalgorithmus ist mit der lokalen Spurdichte und der Ereignismultiplizität korreliert und trägt wesentlich zum systematischen Fehler bei: für die negativ geladenen Hadronen im Bereich von 5%, für die Netto-Protonen 15-20%. Die Untersuchung der Effekte hoher Raumladungsdichten in verschiedenen Zählgasen der Spurendriftkammern führte zu einer Optimierung der Betriebsparameter der Detektoren und damit zu einer Reduzierung der Zahl saturierter Auslesekanäle. Die erhöhte Effizienz der Spurpunkt-Rekonstruktion verbesserte die Zweispurauflösung auf 100% bei einem mittleren Abstand von 2 cm zwischen zwei benachbarten Spuren, die Ortsauflöosung in der VTPC2 liegt im Bereich von 270-350 Mikrom in longitudinaler und transversaler Richtung und die relative Impulsauflösung beträgt dp/p exp 2 ~ 2 x 10 exp (-4) (GeV/c) exp (-1). Die in zentralen Blei-Blei-Stößen produzierten negativ geladenen Hadronen weisen mittlere Transversalimpulse von <p..> ~ 366 MeV/c bei y Pi = 4.3 bis <p..> ~ 300 MeV/c bei y Pi auf; für die Netto-Protonen fällt der aus dem mittleren Transversalimpuls berechnete Temperaturparameter von 275 MeV bei midrapidity bis zu 230 MeV bei yp = 4.3 ab. Im Vergleich mit anderen Stoßsystemen als Funktion der Anzahl produzierter Teilchen wird ein leichter Anstieg von <p..> beobachtet. Die Rapiditätsabhängigkeit des mittleren Transversalimpulses der produzierten h- in Nukleon-Nukleon- und zentralen Schwefel-Schwefel-Reaktionen ist mit denen der untersuchten Pb-Kollisionen in Form und Breite der Verteilung vergleichbar. Die Analyse der Transversalimpuls-Spektren von h- und (p-anti-p) fürt zu inversen Steigungsparametern von <T Pi> ~ 165 MeV und <T Pi> ~ 255 MeV, die teilweise über der von Hagedorn vorhergesagten Grenztemperatur eines hadronischen Gases liegen. Zudem zeigen die Spektren des invarianten Wirkungsquerschnittes deutliche Abweichungen von dem in einem thermischen Modell erwarteten exponentiellen Verlauf bei kleinen und großen <p..>. Innerhalb eines hydrodynamischen Modells sind diese Abweichungen vom idealen Verlauf mit einer kollektiven transversalen Expansion kompatibel, die mittleren transversalen Flußgeschwindigkeiten betragen <v..> ~ 0.6 c, die Ausfriertemperaturen <T PI, f0> ~ 95 MeV und <T P, f0> ~ 110 MeV. Die im Vergleich zu Nukleon-Nukleon-Stößen in Schwerionenreaktionen erhöhte Produktion von h- bei kleinen Transversalimpulsen wird in allen betrachteten y Pi -Intervallen zu 10-20% bestimmt. Im Gegensatz zu Messungen des NA44-Experimentes mit <h->/<h+> = 1.8 kann aus dem Verhältnis des invarianten Wirkungsquerschnittes von negativ zu positiv geladenen Hadronen bei kleinen transversalen Energien nur eine moderate Erhöhung um <h->/<h+> = 1.2 festgestellt werden, was auf keinen signifikanten Coulomb-Effekt durch eine mitbewegte positive Ladung schließen läßt. Die Erweiterung der Akzeptanz der (p - anti p)-Rapiditätsverteilung in der VTPC2 durch Messungen der MTPC bei großen Rapiditäten führt zu einer mittleren Gesamtmultiplizität von 151 +- 9 an der Reaktion teilnehmenden Protonen pro Ereignis. Der durchschnittliche Rapiditätsverlust der Projektilprotonen beträgt <delta y> = 1.99 +- 0.19, für zentrale Kollisionen des S+S-Systems ergibt sich ein um 20% niedrigerer Wert. Das Verhältnis der Dichte der hochkomprimierten Materie im Reaktionsvolumen zur Grundzustandsdichte von Kernmaterie ist im Rahmen von Modellvorhersagen rho/rho ~ 7.3. Der mittlere Energieverlust pro Nukleon im Schwerpunktsystem wurde bei einer zur Verfügung stehenden Eingangsenergie von sqrt(s) = 8.6 GeV/Nukleon zu <dE> exp (cms) N = 5.4 GeV ermittelt: die Stopping Power ergibt P = 63 %. Aus der Baryonen-Dichte bei midrapidity läßt sich in einem einfachen 2-Flavour Modell das baryo-chemische Potential zu mü-B = 182 MeV berechnen. Die ermittelte Gesamtmultiplizität der h- beträgt 716 +-11, die Breite einer angepaßten Gauß-Verteilung ist mit Rhp -Pi = 1.37 um 40% breiter als die dn/dy-Verteilung einer stationären, thermisch emittierenden Quelle: zusammen mit Messungen der Quellgrößen und einer longitudinalen Expansionsgeschwindigkeit innerhalb der HBT-Analyse ergibt sich das Bild einer elongierten, longitudinal boost-invariant expandierenden Quelle. Die dn/dy-Verteilungen der h- aus <N + N>- und Pb+Pb-Reaktionen zeigen die Andeutung eines Plateaus um die Schwerpunktsrapidität, was auf eine Teilchenproduktion gemäß dem Bjorken-Bild entlang eines zylinderförmigen Reaktionsvolumens schließen läßt. Die Zahl der produzierten negativ geladenen Hadronen pro Partizipant beträgt in den analysierten Ereignissen <h->/<N B - AntiB> = 1.88 und steigt im Vergleich mit den Werten aus den symmetrischen Stßsystemen <N+N> und S+S leicht an. Die im Reaktionsvolumen deponierte Energie aus dem Energieverlust der partizipierenden Nukleonen wird somit nur geringfügig für die erhöhte Produktion von h- verwendet. Die h-Multiplizität als Maß für die System-Entropie zeigt - ebenso wie die im NA35-Experiment gemessenen zentralen S+S-Kollisionen bei 200 GeV pro Nukleon - als Funktion der Einschußenergie der Projektilkerne eine Überhöhung im Vergleich zu Reaktionen bei niedrigeren Energien, was einem möglichen Anstieg der Zahl der Freiheitsgrade und damit der Formation einer partonischen Phase bei ultra-relativistischen Schwerionenkollisionen entsprechen könnte. Aus den Messungen der Netto-Baryonen und der produzierten h- wurde im Bjorken-Bild die Energiedichte im zentralen Reaktionsvolumen zu E = 2.14 GeV/fm exp 3 bestimmt.
Mit der Bereitstellung des 208Pb-Strahls durch das CERN-SPS können seit Herbst 1994 Kollisionen schwerster Kerne bei den höchsten zur Zeit in Schwerionenbeschleunigern erreichten Einschußenergien untersucht werden.
Ziel dieser Arbeit ist die Untersuchung der raumzeitlichen Entwicklung von zentralen Pb-Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des Experimentes NA49 durchgefüuhrt und stützt sich auf die Analyse von Bose-Einstein-Korrelationen identischer Pionen. Die Auswertung von rund 40000 zentralen Ereignissen, die in zwei verschiedenen Magnetfeldkonfigurationen mit der zweiten Vertex-Spurendriftkammer des NA49-Experimentes aufgezeichnet wurden, erlaubt hierbei eine annähernd vollständige Untersuchung des pionischen Phasenraumes zwischen zentraler Rapidität und der Projektilhemisphäre.
Auf der experimentellen Seite stellt der Nachweis von mehreren hundert geladenen Teilchen pro Ereignis eine große Herausforderung dar. Daher werden in dieser Arbeit die Optimierung von Spurendriftkammern sowie die verwendeten Analyseverfahren und die erreichte experimentelle Auflösung ausführlich diskutiert. Dabei zeigt sich, daß der systematische Einfluß der erreichten Impuls- und Zweispurauflösung auf die Bestimmung der Bose-Einstein-Observablen vernachlässigbar ist.
Die Messung von Korrelationen ungleich geladener Teilchen bestätigt die Beobachtungen früherer Untersuchungen, wonach die Gamowfunktion als Coulombkorrektur der Bose-Einstein-Korrelationsfunktionen in Schwerionenexperimenten nicht geeignet ist. Ein Vergleich mit einem Modell zeigt, daß diese Messungen konsistent sind mit der Annahme einer endlichen Ausdehnung der Pionenquelle von rund 6 fm. In dieser Arbeitwird zur Korrektur daher eine Parametrisierung der gemessenen Korrelationsstärke ungleich geladener Teilchen benutzt, wodurch die systematischen Unsicherheiten bei der Auswertung der Bose-Einstein-Korrelationsfunktionen erheblich reduziert werden konnten.
Die Auswertung der Bose-Einstein-Korrelationen im Rahmen des Yano-Koonin-Podgoretskii-Formalismus erlaubt eine differentielle Bestimmung der longitudinalen Expansionsgeschwindigkeit. Dabei ergibt sich das Bild eines vornehmlich in longitudinaler Richtung expandierenden Systems, wie es bereits in Schwefel-Kern-Reaktionen bei vergleichbaren Einschußenergien beobachtet wurde. Die Transversalimpulsabhängigkeit der transversalen Radiusparameter ist moderat und verträglich mit einer mäßigen radialen Expansion, deren quantitative Bestätigung allerdings im Rahmen von Modellrechnungen erfolgen muß.
Im Rahmen eines einfachen hydrodynamischen Modells kann die Lebensdauer des Systems zu 7-9 fm/c bei schwacher Abhängigkeit von der Rapidität bestimmt werden. Die Zeitdauer der Pionenemission beträgt etwa 3-4 fm/c und wird damit erstmals in ultrarelativistischen Schwerionenreaktionen als signifikant von Null verschieden beobachtet.
Die Auswertung der Korrelationsfunktion unter Verwendung der Bertsch-Pratt-Parametrisierung liefert Ergebnisse, die mit denen der Yano-Koonin-Podgoretskii-Parametrisierung konsistent sind. Dasselbe gilt für den Vergleich der Analyse positiv und negativ geladener Teilchenpaare sowie unter Verwendung verschiedener Bezugssysteme.
Ein Vergleich mit den Ergebnissen von Schwefel-Kern-Reaktionen deutet an, daß die in Pb-Pb ermittelten Ausfriervolumina nicht mit dem einfachen Bild eines Ausfrierens bei konstanter Teilchendichte vereinbar sind. Vielmehr scheint das Pb-Pb-System bei niedrigerer Dichte auszufrieren. Dies läßt darauf schließen, daß die Ausfrierdichte über die mittlere freie Weglänge mit der Größe des Systems zum Zeitpunkt der letzten Wechselwirkung verknüpft ist.
In dieser Arbeit konnten erstmals differentielle Ionisationswirkungsquerschnitte für Antimaterie-Materie-Stöße gemessen werden. Mit Hilfe der COLd Target Recoil Ion Momentum Spectroscopy (COLTRIMS) wurden die Stoßsysteme p± + He ® p± + He+1 + ebei einer Einschußenergie von etwa 1 MeV untersucht. Die experimentellen Ergebnisse für die Einfachionisation von Helium durch Antiprotonenstöße werden mit denen für Protonenstöße verglichen. Dies erlaubt den Stoßmechanismus in Abhängigkeit von der Richtung der störenden Kraft zu studieren. Als Ergebniss konnte die Post-Collision-Interaction (PCI) in der longitudinalen Richtung des Stoßes (Projektilrichtung) quantitativ bestimmt werden. Trotz der großen experimentellen Schwierigkeiten (hochenergetischer Antiprotonenstrahl, geringer Antiprotonenstrom, große Strahldivergenz und Strahlungsuntergrund durch Antiprotonenzerfall) konnten absolute die Wirkungsquerschnitte in Abhängigkeit vom Longitudinalimpuls gemessen werden. Innerhalb der experimentellen Fehler zeigen die Longitudinalimpulsverteilungen keine Abhängigkeit vom Projektilvorzeichen. Die folgende Tabelle faßt die mittleren Impulse des Elektrons und des Rückstoßions für Antiprotonen- und Protonenstöße zusammen Rückstoßion Elektron Antiproton 0.07±0.045 a.u. 0.087±0.039 a.u. Proton 0.075±0.025 a.u. 0.075±0.007 a.u. Die Tabelle zeigt, daß nach dem Stoß die Elektronen in beiden Stoßsystemen etwas nach vorne emittiert werden. Das steht im Widerspruch zu den theoretischen Vorhersagen, wonach erwartet wird, daß die Elektronen im Protonenstoß etwas nach „vorne“ und im Antiprotonenstoß etwas nach „hinten“ emittiert werden. Das Rückstoßion agiert in beiden Systemen als Beobachter. Dies widerspricht ebenfalls den Vorhersagen, wonach erwartet wird, daß das Rückstoßion im Protonenstoß etwas nach hinten und im Antiprotonenstoß etwas nach vorne emittiert wird. Die experimentellen Ergebnisse zeigen eine bessere Übereinstimmung mit den Continuum-Distorted-Wave (CDW) Rechnungen als mit den Classical- Trajectory-Monte-Carlo (CTMC) Rechnungen. Im Vergleich zur Stößen mit schnellen hochgeladenen Ionen zeigen die Daten dieser Arbeit, daß die Elektronen die Impulsverluste des Projektils kompensieren, während in hochgeladenen Ion-Atom-Stöße die Rückstoßionen den Impuls der Elektronen kompensieren.
Im Rahmen der vorliegenden Arbeit wurden am Schwerionensynchrotron (SIS) der Gesellschaft für Schwerionenforschung/Darmstadt (GSI) Untersuchungen zur Produktion geladener K-Mesonen in Kohlenstoff induzierten Schwerionenreaktionen durchgeführt. Im Energiebereich von 1 bis 2 AGeV wurden dazu spektrale Verteilungen von Pionen, Kaonen und Antikaonen aus Kernreaktionen der Stoßsysteme C + C und C + Au unter verschiedenen Laborwinkelbereichen mit dem Kaon-Spektrometer (KaoS) aufgenommen. Da es sich um Kaonproduktion unterhalb der Nukleon-Nukleon-Schwelle handelt, spielen Eigenschaften der Kernmaterie eine Rolle, die Gegenstand dieser Arbeit sind. Sowohl für Kaonen als auch für Antikaonen wurde eine polare Anisotropie der Winkelverteilung festgestellt. Die unter verschiedenen Laborwinkelbereichen aufgenommenen K+- -Spektren decken im Schwerpunktsystem einen Winkelbereich von 60 Grad < Theta CM < 150 Grad ab und lassen sich gut durch eine Winkelverteilung der Form sigma inv alpha (1 + a2 cos exp 2 Theta CM) beschreiben. Im Rahmen der Meßgenauigkeit konnte keine Abhängigkeit der polaren Anisotropie von der kinetischen Energie der Kaonen und Antikaonen festgestellt werden. Es lässt sich jedoch zeigen, dass es von der Einschussenergie abhängig eine Winkeleinstellung gibt, bei der der totale Wirkungsquerschnitt vom Anisotropieparameter a2 unabhängig bestimmt werden kann, wenn die oben angegebene Parametrisierung der wahren Winkelverteilung genügt. Die Anregungsfunktion sigma K+- (E Beam) für Antikaonen ist steiler als die für Kaonen, jedoch lassen sich beide Produktionswirkungsquerschnitte als Funktion der Differenz aus der pro Nukleon normierten Gesamtenergie und der Energie an der NN-Schwelle durch sigma K alpha (mK + sqrt s - sqrt s th) beschreiben. Es konnte gezeigt werden, dass sich dieses identische Verhalten der derart auf die Excess-Energie korrigierten Kaon- und Antikaonproduktion jedoch nicht nur in den totalen Wirkungsquerschnitten, sondern auch in der Form der spektralen Verteilungen widerspiegelt. Ebenso scheinen die pro Partizipant normierten K+- -Multiplizitäten bei gleicher Excess-Energie gleichermaßen stark von der Größe des Stoßsystems abzuhängen. Das etwa um einen Faktor 10 erhöhte K-/K+-Verhältnis im Vergleich zur K+- -Produktion in Proton-Proton-Stößen konnte nicht durch triviale Mediumeffekte wie Absorption oder sequentielle Mehrfachstöße erklärt werden. Dies kann als Hinweis auf eine eventuelle Modifikation der effektiven K+- -Massen in dichter Materie verstanden werden, wie sie die theoretische Hadronenphysik auf der Basis von QCD und chiraler Störungstheorie vorhersagt. Das benutzte relativistische RBUU-Modell kann die gemessenen Kaon- und Antikaonverteilungen nur unter der Annahme solcher Massenmodifikationen erklären. Die K- -Massenmodifikation hat interessante Konsequenzen für die Astrophysik und stellt somit eine Verbindung zu einem weiteren faszinierenden Teilgebiet der modernen Physik dar. Aufgrund der K- -Massenmodifikation erwarten G. E. Brown und H. A. Bethe ein Kaonkondensat in Neutronensternen ab einer Dichte von rho ~ 3 rho 0. Dies limitiert die Masse von Neutronensternen auf etwa 1.5 M ?. Für Supernovaüberreste von mehr als 1.5 M ?. erwarten sie die Bildung von schwarzen Löchern. Für das asymmetrische Stoßsystem 12C + 197 Au kann das Schwerpunktsystem nur berechnet werden, wenn z. B. mit dem geometrischen Modell mittlere Projektil- und Targetpartizipantenanzahlen (< A Projectile part >= 6 bzw. < A Target part >= 16 ) angenommen werden. Die damit ermittelten Wirkungsquerschnitte deuten auf eine stärkere polare Anisotropie als für das 12C + 12C-System hin. Wird aus der in symmetrischen Stößen gemessenen Abhängigkeit der K+- -Produktion von der Systemgröße die Anzahl der Partizipanten im 12C + 197Au-System ermittelt, so stimmt diese für K+ mit den Vorhersagen des geometrischen Modells in etwa überein, für K- werden hingegen nur halbsoviel Partizipanten ermittelt. Dies deutet auf eine starke K- -Absorption in der Targetspektatormaterie hin. Abschließend sei noch angemerk, dass die KaoS-Kollaboration bereits weitere Messungen zur K+- -Produktion in den Stoßsystemen Ni+Ni und Au+Au sowie in asymmetrische, protoninduzierten p + A Reaktionen durchgefüuhrt hat. Nach dem innerhalb der nächsten zwei Jahre zu erwartenden Abschluss der Analyse dieser Daten liegt somit eine systematische Studie der K+- -Produktion unterhalb der NN-Schwelle vor, die einen maßgeblichen Beitrag zum Studium der Eigenschaften von Hadronen in dichter Kernmaterie und zum Verhalten von Kernmaterie unter extremen Bedingungen liefern wird.
Diese Arbeit befaßt sich mit der Untersuchung des Emissionsverhaltens der K+ Mesonen in Au + Au Stößen bei 1AGeV. Das Experiment wurde mit dem Kaonen-Spektrometer KaoS am Schwerionensynchrotron SIS der Gesellschaft für Schwerionenforschung GSI durchgeführt. In zahlreichen Untersuchungen relativistischer Schwerionenstöße wurde eine kollektive Bewegung der Nukleonen beobachtet, die als Fluß bezeichnet wird. In nichtzentralen Stößen wurde u. a. ein gerichteter Seitwärtsfluß der Nukleonen und Pionen in die Reaktionsebene und ein elliptischer Fluß senkrecht zur Reaktionsebene gefunden. Der Nukleonenfluß wird als hydrodynamischer Effekt aufgrund des Drucks in der Reaktionszone interpretiert, während der Fluß der Pionen als Folge der Endzustandswechselwirkung verstanden wird. In dieser Arbeit wurde die Untersuchung des Flußphänomens auf die positiv geladenen Kaonen erweitert. Die Kaonen, die ein seltsames Quark enthalten, stellen eine besonders geeignete Sonde der dichten Reaktionszone dar. Wegen der großen mittleren freien Wegläange sollten die Kaonen fast ungestört nach außen emittiert werden. Zur Untersuchung dieser Fragestellung wurden die spektralen Energieverteilungen und die azimutalen Winkelverteilungen studiert. Um diese in Abhängigkeit von der Zentralität der Schwerionenreaktion zu untersuchen, wurden Stoßparameter und Anzahl der partizipierenden Nukleonen experimentell bestimmt. Dazu wurden die mit dem Großwinkel-Hodoskop bestimmte Teilchenmultiplizität und die mit dem Kleinwinkel-Hodoskop bestimmte Ladungssumme der Projektilspektatoren benutzt. Der Nachweis der Projektilspektatoren mit dem Kleinwinkel-Hodoskop erlaubt ferner, für jedes Ereignis die Reaktionsebene einer Schwerionenreaktion zu bestimmen. Der Emissionswinkel der positiv geladenen Kaonen konnte dann in Bezug auf die Reaktionsebene untersucht werden. Die Energiespektren der Kaonen, die bei Theta CM ~ 90° und Theta QCM ~ 130° in zentralen Stößen gemessen wurden, haben einen Steigungsparameter (Temperatur) von etwa 87MeV. Die transversalen kinetischen Energiespektren bei vier verschiedenen Rapiditätsintervallen in zentralen Stößen haben einen Steigungsparameter von etwa 90MeV und keine Abweichung von einem thermischen Verhalten innerhalb der Meßgenauigkeit. Die Ausbeuten sind dagegen unterschiedlich. Bei R¨uckw ¨ artswinkel bzw. bei Targetrapidität wurde ein fast doppelt so großer Wirkungsquerschnitt wie bei Schwerpunktrapidität gemessen. Die polare Winkelverteilung der positiv geladenen Kaonen ist also nicht isotrop. In dieser Arbeit konnte zum ersten Mal der elliptische Fluß der positiv geladenen Kaonen nachgewiesen werden: K+ Mesonen werden bevorzugt senkrecht zur Reaktionsebene emittiert. Die azimutale Anisotropie ist am stärksten für periphere und semi-zentrale Stöße und im Bereich der Schwerpunktrapidität. Im Gegensatz zu den Pionen zeigt die Stärke der Anisotropie keine Abhängigkeit vom Transversalimpuls. Während im Falle der Pionen die azimutale Anisotropie auf die Abschattung durch die Spektatoren zurückgeführt wird, kann dieser Effekt die Kaonendaten nicht erklären, da die K+ Mesonen eine große mittlere freie Weglänge in Kernmaterie besitzen. Mikroskopische Transportmodellrechnungen wie RBUU und QMD können den elliptischen Fluß der Kaonen nur unter Berücksichtigung des Kaon-Nukleon-Potentials im nuklearen Medium wiedergeben [Li97, Wan98a]. Als ein anderer experimenteller Hinweis auf das KN-Potential im Medium wurde das Verschwinden des gerichteten Seitwärtsflusses der Kaonen vorhergesagt [Li95a]. Die Analyse der experimentellen Daten in einem Rapiditätsintervall von y/yStrahl = 0:2 ~ 0:8 zeigt keine in die Reaktionsebene gerichtete Flußkomponente.
Der Ursprung der Masse bekannter Teilchen und der Einschlu der Quarks in Hadronen ist einer der grundlegendsten Fragestellungen der modernen Physik. Die Kenntnis des Verhaltens von Kernmaterie unter extremen Bedingungen ist unabdingbar zum Verstandnis der Evolution des Universums und zur Theoriebildung von stellaren Objekten wie Neutronensternen und schwarzen Löchern. Einen experimentellen Zugang zur Untersuchung dieser Problematik stellt die Erzeugung heier und dichter Kernmaterie in ultrarelativistischen Schwerionenkollisionen dar. Hierzu untersucht das NA49 Experiment seit Herbst 1994 am 208-Pb-Strahl des CERN-SPS Pb+Pb Kollisionen bei 158 GeV pro Nukleon. Ein Schwerpunkt des Forschungsprogrammes liegt in der Untersuchung des Zustandes der Materie in der frühen Phase der Reaktion. Nach gegenwartem Stand der Theorie wird bei genugent hoher Energiedichte der Einschlu der Quarks in Hadronen aufgebrochen und ein Zustand der Materie erzeugt, in welchen die eektiven Freiheitsgrade von Hadronen und Hadronen-Resonanzen in die von Quarks und Gluonen übergehen - das sogenannte Quark-Gluon-Plasma (QGP). Die Honung ist nun, da sich die Formation eines solchen QGP im hadronischen Endzustand wiederspiegelt. Es wird erwartet, da die Seltsamkeitsproduktion in einem QGP sich in ihrer Rate und ihren Gleichgewichtswerten von der in einem hadronischen Feuerball-Szenario unterscheidet und sich somit als Signatur fur die Erzeugung eines GQP eignet. Von besonderen Interesse ist hier die Produktion von Hyperonen. Schwerpunkt dieser Arbeit ist die Untersuchung der Produktion von doppelt seltsamen geladenen -Hyperonen in zentralen Pb+Pb Kollisionen. Zu diesem Zweck wurden 58000 zentrale Pb+Pb Ereignisse der im Herbst 1995 aufgezeichneten Reaktionen untersucht. Die Analyse der Daten wurde auschlielich mit der zweiten Spurendriftkammer (VTPC2) durchgeführt. Zur Rekonstruktion der -Hyperonen muten Verfahren entwickelt werden, um die typischen Zerfalls-Topologien der doppelt seltsamen Hyperonen aus der Vielzahl von ca. 700 in der Vertex-TPC gemessenen geladenen Teilchenspuren herauszulösen. Aus den in der kombinatorischen Analyse rekonstruierten 720 und 138 + - Hyperonen konnten Spektren des Transversalimpulses und Rapiditatsverteilungen ermittelt werden. Die gewonnene Phasenraum-Akzeptanz fur die in der VTPC2 gemessenen und + - Hyperonen beträgt ....
In der vorliegenden Arbeit beschäftigen wir uns mit der Frage, wie ein Regler für ein hochdimensionales physikalisch/technisches System strukturiert und optimiert werden soll. Diesbezüglich untersuchen wir einen neuen Ansatz, welcher versucht, Regel-Mechanismen des ökonomischen Marktes und Lern-Prozesse mit in den Regler einzubauen. Um eine anschauliche Vorstellung von der Wirkung des Reglers zu erhalten, wenden wir diesen auf ein einfaches physikalisches Model an, eine an ihren Enden eingespannte eindimensionale Federkette. Wir implementieren das Model auf einem Rechner und simulieren den Einfluß des Regelverfahrens auf die Bewegung der Kette. Dabei beschränken wir uns auf den Grenzfall kleiner Amplituden, um das System im Rahmen einer näherungsweise linearen Dynamik beschreiben zu können. Mit Hilfe eines schwachen destabilisierenden Zusatzpotentials erreichen wir, daß die niedrigen Eigenmoden der schwingenden Kette instabil werden und die ausgestreckte Kette eine instabile Gleichgewichtslage darstellt. Wir stellen uns die Aufgabe, diese unter Verwendung des Reglers zu stabilisieren. Anhand des Modells untersuchen wir den Einfluß verschiedener Anfangsbedingungen der Kette, den Einfluß der Markt-Regelung, den Einfluß verschiedener Kommunikationsstrukturen und den Einfluß des Lernverfahrens auf die Wirksamkeit und die Robustheit des Regelprozesses. Als wichtigstes Ergebnis erkennen wir, daß die Regelung mit dem Markt robuster im Vergleich mit der Regelung ohne Markt ist, aber im allgemeinen einen höheren Regel-Energieaufwand aufweist. Untersuchungen anhand des Lernverfahrens ergeben, daß sich das Lernen der Markt- und der Kommunikationsstruktur kombinieren läßt und dadurch die Wirksamkeit der Regelung gegen über der Verwendung von nur einem der beiden Lern-Ansätze erhöht werden kann. Unsere Ergebnisse zeigen, daß sich das Markt-Konzept vollständig auf den gegebenen technischen Regelprozeß übertragen läßt. In der Diskussion der Ergebnisse führen wir die erhöhte Robustheit und den erhöhten Energieaufwand der Markt-Regelung auf eine indirekte, nichtlineare Kopplung der Regeleinheiten zurück, die der Markt-Mechanismus in den Regelprozeß einführt. Die Nichtlinearität bewirkt, daß die von dem Regler bestimmten Regelkräfte bei kleinen Kontrollfehlern relativ größer sind als bei großen Kontrollfehlern. Daduch ist der Energieaufwand der Markt-Regelung bei kleinen Kontrollfehlern gegenüber der Regelung ohne Markt erhöht. Der Regler ist damit in der Lage, die Kette auch bei dem Ausfall einer Regeleinheit zu stabilisieren, da ausreichend große Regelkräfte durch die verbleibenden Regeleinheiten ausgeübt werden. Die Kopplung von benachbarten Massenpunkten durch Federn unterstützt die Robustheit der Regelung in dem untersuchten Ketten-Modell, da die Kopplung dazu führt, daß die Massenpunkte eine zur instabilen Gleichgewichtslage rücktreibende Kraft erfahren und dadurch in den Bereich von kleinen Kontrollfehlern und relativ hohen Regelkräften gelangen. Am Ende der Diskussion gehen wir kurz auf mögliche Anwendungen der gewonnen Ergebnisse ein. Dabei haben wir besonders technische Regelprozesse im Sinne von Smart Matter (intelligente Bauteile) im Auge.
Bei der Kollision ultra-relativistischer Schwerionen wird die Kernmaterie extrem verdichtet und erhitzt. Die dabei erzeugte Energiedichte könnte ausreichen, um für kurze Zeit in einem begrenzten Volumen ein Quark-Gluon-Plasma entstehen zu lassen. Dieser Zustand der Materie, bei dem die Quarks und Gluonen nicht mehr in Hadronen gebunden sind, lag möglicherweise innerhalb der ersten Millisekunde nach dem Urknall vor und wird im Inneren von schweren Neutronensternen erwartet. Das NA49-Experiment am SPS-Beschleuniger des CERN untersucht hauptsächlich die Produktion von Hadronen in ultra-relativistischen Blei-Blei-Kollisionen. Eine erhöhte Produktion seltsamer Teilchen ist eine der vorgeschlagenen Signaturen für das Auftreten eines Quark-Gluon-Plasmas. Neutrale seltsame Teilchen werden aus den Spuren ihrer geladenen Zerfallsprodukte, die diese in den großvolumigen Spurendriftkammern (TPC) des NA49-Experiments hinterlassen, rekonstruiert. Bei der Auslese der TPCs entstehen Datenmengen von ca. 8 TByte (8 x 10 exp 12 Byte) pro Strahlzeit. Diese riesigen Datenmengen und die aufwendige Spurrekonstruktion stellen hohe Anforderungen an die Software-Infrastruktur. Daher wurde zur Vereinfachung und Modularisierung der Software-Entwicklung eine Software-Entwicklungs- und Analyseumgebung konzipiert und implementiert. Sie basiert auf dem Client-Server-Prinzip und kann über ein heterogenes TCP/IPNetzwerk aus UNIX-Workstations verteilt werden. Der zentrale Bestandteil des Systems ist der Daten-Server, der Datenobjekte mit persistenten Relationen verwaltet und die Kommunikation mit den Clients zur Steuerung des Systems übernimmt. Programmierschnittstellen (API) für verschiedene Sprachen (C, FORTRAN, C++, Fortran90) erlauben eine einfache Entwicklung von Clients, beispielsweise für die Datenanalyse und -visualisierung. Für die Rekonstruktion neutraler seltsamer Teilchen wurden 93497 zentrale Blei-Blei-Ereignisse aus der Strahlzeit im Herbst 1995 analysiert. Aus den Rohdaten der zweiten Vertex-TPC (VTPC2), die zur Bestimmung der Impulse in einem Magnetfeld positioniert ist, wurden zunächst die Ladungs-Cluster und dann die Teilchenbahnen rekonstruiert. Mit diesen Spuren wurden anschließend die Zerfalls-Vertices von neutralen seltsamen Teilchen gesucht. Dabei wurde neben den tatsächlichen Vertices auch ein Untergrund von zufälligen Kombinationen gefunden. Das Verhältnis von Signal zu kombinatorischem Untergrund wurde durch die Anwendung von Qualitätskriterien optimiert. Die Phasenraumakzeptanz liegt für die drei untersuchten Teilchen Lambda, Antilambda und K 0 s in den Rapiditäts-Intervallen 2,9 < y lambda < 3,9, 3,0 < y antilambda < 3,8 und 3,25 <= yK < 4,05. Der verwendete Transversalimpuls-Bereich ist abhängig von der Teilchenspezies und dem betrachteten Rapiditätsintervall und liegt zwischen 0,6 GeV/c und 2,4 GeV/c. Die inversen Steigungsparameter der Transversalimpuls-Spektren sind rapiditätsabhängig. Im Rapiditätsintervall, das jeweils am nächsten an Midrapidity liegt, betragen sie T lambda = 281 +- 13 MeV, T antilambda = 308 +- 28 MeV und T K 0 s = 239 +- 9 MeV. Die beobachtete lineare Abhängigkeit der inversen Steigungsparameter von der Ruhemasse und die Überschreitung der Hagedornschen Grenztemperatur für ein ideales Hadronengas sind ein Indiz für die Existenz eines kollektiven transversalen Flusses. Im Rahmen eines hydrodynamischen Modells ergibt sich eine mittlere transversale Flußgeschwindigkeit <vT> ~ 0,65 c und eine Freeze-out-Temperatur T fo ~ 110 MeV. Während die Rapiditäts-Verteilungen für Antilamda und K 0 s bei Midrapidity ein deutliches Maximum aufweisen, zeigt die Rapiditäts-Verteilung der Lambda einen flachen Verlauf. Die Multiplizitäten im Rapiditätsintervall bei oder nahe Midrapidity betragen 19,2 +- 1,1 für Lambda, 3,2 +- 0,3 für Antilambda und 27,1 +- 1,8 für K 0 s . Aufgrund der in der Analyse verwendeten Qualitätskriterien kann angenommen werden, daß die Spektren von Lambda und Antilambda in erster Näherung frei von Lambda und Antilambda aus den Zerfällen mehrfach-seltsamer Baryonen sind. Aus dem Vergleich mit den Rapiditäts-Spektren, die von anderen NA49-Gruppen mit unterschiedlichen Analyseansätzen ermittelt wurden, konnte der systematische Fehler der Analyse auf etwa 20-30% abgeschätzt werden. Beim Vergleich der Rapiditäts-Spektren von verschiedenen Stoßsystemen bei der gleichen Energie besitzen die Lambda-Verteilungen für Schwefel-Schwefel- (S+S) und Blei-Blei-Stöße (Pb+Pb) die gleiche flache Form. Hingegen weist die p+p-Verteilung zwei deutliche Maxima auf. Die Rapiditäts-Verteilungen von K 0 s und Antilambda zeigen für alle drei Stoß-Systeme annähernd die gleiche Form. Während bei den Lambda- und K 0 s -Verteilungen die Teilchenausbeute beim Übergang von S+S zu Pb+Pb etwa mit der Anzahl der Partizipanten skaliert, ist der Anstieg bei den Antilambda nur halb so groß. Im Vergleich zu p+p nimmt die Produktion aller drei Spezies um etwa das Zweifache der Partizipanten-Anzahl zu. Die Lambda-Multiplizität bei Midrapidity wird durch Rechnungen des UrQMD-Modells sehr gut reproduziert. Allerdings scheint die Form des Lambda-Rapiditäts-Spektrums flacher als die des Modells zu sein. Bei den Antilambda - und K 0 s -Spektren wird die Form der Verteilung besser durch das Modell beschrieben, jedoch reproduziert es nicht die Gesamtmultiplizität. Während die K 0 s-Daten um 30% unter der UrQMD-Verteilung liegen, wird für die Antilambda nur ungefähr die Hälfte der tatsächlich gemessenen Multiplizität vorhergesagt. Eine Abschätzung für die Anzahl von s- und s-Quarks, die bei einem zentralen Blei-Blei-Stoß erzeugt werden, zeigt eine Übereinstimmung innerhalb der systematischen Fehler dieser Abschätzung und ist damit konsistent mit der erwarteten Erhaltung der Seltsamkeits-Quantenzahl. Das Antilambda/Lambda-Verhältnis bei Midrapidity beträgt 0,17 +- 0,02. Der Vergleich der Verhältnisse von seltsamen zu nicht-seltsamen Teilchen zeigt keinen signifikanten Unterschied zwischen Proton-Proton- und Proton-Kern-Stößen; beim Übergang zu S+S kommt es zu einer Erhöhung der Seltsamkeits-Produktion um etwa einen Faktor 2. In Blei-Blei-Kollisionen kommt es jedoch zu keiner weiteren Erhöhung. Mit steigender Anzahl der Partizipanten, die proportional zur Größe des Reaktionsvolumens ist, kommt es zu einer Sättigung der Strangeness-Produktion. Die Energieabhängigkeit der Strangeness-Produktion zeigt für Nukleon-Nukleon-Stöße (N+N) ein anderes Verhalten als für Kern-Kern-Kollisionen (A+A). Während sie für N+N-Stöße zwischen AGS- und SPS-Energien um einen Faktor 2 zunimmt, kommt es bei A+A-Kollsionen zu einer Sättigung auf dem AGS-Niveau. Dieser Unterschied kann durch eine Reduktion der Masse der Seltsamkeitsträger bei den A+A-Stößen erklärt werden, wie sie in einem Quark-Gluon-Plasma erwartet wird. Dies läßt vermuten, daß der Phasenübergang von einem Quark-Gluon-Plasma zu einem Hadronengas im Energiebereich zwischen AGS und SPS stattfindet.
Im NA49-Experiment wird der hadronische Endzustand von Kern und Protonen induzierten Reaktionen gemessen, um die Eigenschaften von Kernmaterie unter extremen Bedingungen zu untersuchen. Dabei stellt die Flugzeitmessung ein wichtiges Instrument zur Teilchenidentifizierung dar. Der von Yu.N. Pestov 1971 erstmal vorgestellte und nach ihm benannte Pestov-Zähler ist ein gasgefüllter Parallelplatten-Zähler, der im Funken/Überschlag-Modus betrieben wird. Die Besonderheit dieses Zählers ist die Lokalisierung der Entladung, die durch eine Anode aus halbleitendem Glas mit einem hohen spezifischen Widerstand und ein Zählgas mit großer Photonen-Absorption erreicht wird. In der Protonenstrahlzeit 1997 wurde der PesTOF-Detektor (Pestov Time Of Flight) bestehend aus zwölf einzelnen Zählern, erstmals im Vertex-1 Magneten des NA49-Experimentes eingesetzt. Neben der guten Zeitauflösung sind die Unempfindlichkeit gegenüber dem magnetischen Feld und die gute Ortsauflösung die auch bei großen Spurdichten ein korrektes Zuordnen der Treffer ermöglicht, die Voraussetzungen für diesen Einsatz. Der kinematische Akzeptanzbereich für die Identifikation von Pionen liegt bei Rapiditäten von y ~ 2-5 - 3 und Tranzversalimpulsen von pt <= 500 MeV/c. Der Akzeptanzbereich der Kaonen liegt bei einer Rapidität von y ~ 2 und Tranzversalimpulsen von pt <= 500 MeV/c. Der Detektor konnte über den gesamten Zeitraum stabil und zuverlässig betrieben werden. Die gemessene gaußförmige Zeitauflösung beträgt 78 ps, wobei die Hochspannung die 1.5fache Schwellenspannung betrug. Neben dem gaußförmigen Anteil der Zeitauflösung zeigt der Detektor jedoch auch einen asymmetrischen nicht gaußförmigen Anteil ("Tail"). Aufgrund einer verzögerten Funkenentwicklung im Zähler liegen etwa 12.6% der Signale außerhalb der gaußförmigen Verteilung bzw. sind etwa 4% der Signale um mehr als 500 ps verspätet. Neuere Untersuchungen mit anderen Zählgasen und Zählergeometrien haben gezeigt, dass der Anteil der verzögerten Signale in Zukunft deutlich reduziert werden kann. Der Verlauf der gemessenen pt und mt-Verteilungen der identifizierten Kaonen und Pionen kann durch Simulationen mit dem VENUS-Modell reproduziert werden. Mit der möglichen Verbesserung der Zeitauflösung und dem geplanten Ausbau des PesTOF-Detektors mit bis zu 80 einzelnen Zählern wird der Impuls- und Akzeptanzbereich, in dem Teilchen identifiziert werden können, deutlich vergrößert werden. Die Messungen dieser Arbeit geben einen Ausblick darauf dass es in Zukunft möglich sein wird, relevante physikalische Größen mit dem PesTOF-Detektor im NA49-Experiment zu messen. Insbesondere in nicht symmetrischen Stoßsystemen ist der Einsatz von Flugzeitdetektoren in dem rückwärtigen kinematischen Bereich der Reaktion interessant. Mit den in dieser Arbeit gefundenen positiven Eigenschaften und den sich abzeichnenden Modifikationen am Zählgas und Zähler ist der Pestov-Zähler ein interessanter Detektor für zukünftige Experimente.
Das Ziel der Untersuchung von ultra-relativistischen Schwerionenkollisionen ist die Suche nach dem Quark Gluon Plasma (QGP), einem Zustand hochdichter stark wechselwirkender Materie in dem der Einschluss von Quarks und Gluonen in Hadronen aufgehoben ist. Die bisher gewonnenen experimentellen Hinweise deuten daraufhin,daß in Schwerionenkollisionen bei den derzeit höchsten zur Verfügung stehenden Energien von 158 GeV/Nukleon in Pb+Pb Reaktionen am CERN-SPS die Rahmenbedingungen für einen Phasenübergang von hadronischer Materie zu einer partonischen Phaseerfüllt sind. Die exakte Phasenstruktur stark wechselwirkender Materie hingegen ist derzeit noch nicht vollständig verstanden. Da inklusive hadronische Observablen und "penetrierende Proben" nicht direkt sensitiv auf die Existenz und Natur des Phasenübergangs sind, wurde die Analyse von Einzelereignis-"event-by-event"-Fluktuationenvorgeschlagen. Das Fluktuationsverhalten von Einzelereignis-Observablen sollte direkt sensitiv auf die Natur des zu beobachtenden Phasenübergangssein. In dieser Arbeit wurden Fluktuationen in der "chemischen" Zusammensetzung der Teilchenquelle untersucht und erste Ergebnisse werden präsentiert.
A strong interest is currently going on in the physics of high intensity and high energy beams: intense proton or deuteron beams are required in various fields of science and industry, including sources of neutrons for research experiments and material processing, nuclear physics experiments, tritium production and nuclear waste transmutation. High current heavy ion beams are envisaged for power production facilities (inertial fusion). Several projects presently under study are based on rf linacs as driver, sometimes followed by accumulation and/or compressor rings [Acc98]. The critical issue for all of them is to be operated in a low loss regime, because of activation problems in the structure. For this reason careful investigations have to be performed in order to understand and control the beam behaviour, aiming at conserving the beam quality, reducing the emittance growth and filamentation and avoiding the formation of halo. The beam current to be accelerated is actually limited by the amount of beam losses, which depends upon the beam halo: in order to reduce induced radioactivity and to allow for hands-on maintenance, normally losses <1 W/m are considered as acceptable [Sto96]. One of the major facilities under study is the European Spallation Source (ESS), a project based on a H- linac accelerating a 107 mA peak current beam (360 ns pulse in the DTL) and on two compressor rings, producing 5 MW average beam power [ESS]. Also the USA are developing a proposal for a Spallation Neutron Source (SNS), providing a short pulse H- beam with average power of 1÷2 MW; a 30 mA linac is required [SNS]. The Accelerator for Production of Tritium (APT), studied at Los Alamos, requires a 100 mA proton beam current (cw) to produce a power of 130÷170 MW [APT]. A similar but smaller accelerator (40 mA, 40 MW beam power) would serve as driver for the Accelerator Driven Transmutation of Waste (ADTW) system [ATW]. The accelerator system for the International Fusion Material Irradiation Facility (IFMIF) will test the behaviour of materials to be used for magnetic fusion (e.g. ITER); it consists of two 125 mA deuteron beams in parallel, to generate a fusion-like neutron spectrum with 10 MW cw [IFM]. In the field of heavy ions, for about 20 years scientists have been working on inertial confinement fusion, as an alternative to magnetic confinement one, to find a practical and cleaner method for producing energy. Nuclear fusion occurs when the nuclei of lighter elements (in a state of matter called "plasma") merge to form heavier elements; the extremely high temperatures and densities needed to get the nuclei to collide in the proper way and release big amounts of energy are obtained in a small "pellet" of fusion fuel, which receives energy from laser or ion beams, implodes and its inertia compresses it hard enough to hold together the plasma until it reaches ignition. Both laser and accelerator facilities have been investigated as drivers, since a demonstration of ignition at low gains is more easily accessible by lasers, whereas the intrinsic properties of accelerators -efficiency and repetition rate- will be essential for a medium-gain power plant. One study for a fusion power system driven by heavy ion beams (HIBALL) was completed in Europe already in 1982 [Bad81]. When the USA declassified essential information on pellet design, "indirect drive" targets have been considered openly, where the pellet is hit by X-rays generated from laser or ion beams rather than directly from the beams. Main progress has been achieved during the latest years in the understanding of pellet dynamics after ignition, i.e. in plasma physics [Sym1][Sym2][Sym3][Bas97][Lut97], imposing also new requirements on the layout of the driver accelerator facilities. In 1994-95 Frankfurt University and several other European laboratories (leaded by GSI) started a new collaboration called HIDIF (Heavy Ion Driven Ignition Facility) in order to simplify the accelerator plant design owing to the new technique of indirectly driven targets and to some technological improvements. First studies were oriented towards the conceptual goal of a facility providing just enough beam energy for the ignition of fusion reactions at very low gain (a "proof of principle") [Hof98]. In a recent phase of the study, it was realized that the proposed concept would make this scheme a more appropriate choice for energy production rather than for ignition; the acronym HIDIF was therefore intended as Heavy Ion Driven Inertial Fusion, and the parameters are going to be modified accordingly [Hof96][Hof97][Hof98]. The scenario presently discussed by this group proposes the formation and acceleration of an intense beam (400 mA) of singly charged heavy ions of three different atomic species, with mass differences of about 10% (the reference one is 209Bi+) in a main rf linac; they are then injected into some storage rings at an energy of 50 MeV/u, bunched in induction linacs and finally transported to a target with different velocities in such a way that the three species merge on the pellet ("telescoping") at 500 TW peak power. In this thesis the main linac of the HIDIF proposal is extensively investigated as an example of a high intensity heavy ion linac. Results are presented from numerical simulations of multi-particle beam dynamics carried out for the first time in this context. After a short presentation of the HIDIF reference scenario (Ignition Facility), including a discussion of the motivations for a high current heavy ion linac, some elements of the theory of beam transport and acceleration are recalled [Con91][Hof82][Kap85] [Lap87][Law88][Mit78][Rei94][Str83]. Then the used simulation programs are described, and a particle dynamics layout of a conventional 200 MHz Alvarez DTL is discussed with respect to low emittance growth at high transmission, including large space-charge effects, taking into account the influence of different kinds of statistical errors and of input mismatch on the beam dynamics. The modifications needed for "telescoping" are investigated with simulations for the nominal mass difference (10%) and for a smaller one (5%); finally the transfer line between DTL and rings is discussed and studied both analytically and by numerical calculations. The large mass number (A= 209) helps to reduce the space-charge effects with respect to protons, therefore the behaviour of the beam is not space-charge dominated. Nevertheless the tune depression values (similar to those of the ESS linac e.g.) indicate that these effects cannot be neglected. For a linac with low duty cycle, as in the case of an ignition facility, the results from particle dynamics calculations can be considered as a reliable guideline for the DTL layout, since they indicate that such a high intensity linac can fulfill the requirements on smooth beam behaviour and low losses.
In dieser Arbeit wird die Elektronenemission aus langsamen He 2 HeStößen, d.h. bei Stoßenergien unterhalb von 25 keV/u, experimentell untersucht. Dabei wird auf den Vergleich der Einfachionisation (He 2 He ! He 2 He e \Gamma ) mit der Transferionisation (He 2 He ! He He 2 e \Gamma ) besonderes Gewicht gelegt. Die hier verwendete Meßtechnik ist von verschiedenen Arbeitsgruppen in den letzten Jahren entwickelt worden und unter dem Schlagwort COLTRIMS (Cold Target Recoil Ion Momentum Spectroscopy) [1, 2, 3] in der Literatur zu finden. Bei COLTRIMS werden die bei einer Reaktion in einem kalten Gastarget gebildeten Ionen in einem schwachen elektrischen Feld abgesaugt. Durch den ortsaufgelösten Nachweis und die Messung der Flugzeit von der Targetzone bis zum Detektor kann die Anfangsbedingung der Bewegung im Feld, d.h. der Vektor des auf das Targetatom übertragenen Impulses, berechnet werden. Diese Methode kommt ohne Blenden aus, so daß im relevanten Teil des Phasenraumes 4ß Raumwinkel erreicht werden. Der Nachweis des Elektrons erfolgt nach demselben Prinzip, jedoch stößt man dabei an die Grenzen der Flugzeitauflösung. Deshalb wurden in allen früheren Experimenten zu ähnlichen Reaktionen [4, 5, 6, 7, 8, 9] nur zwei der drei Impulskomponenten des Elektrons bestimmt. Die Konzipierung eines Spektrometers, welches in der Lage ist, den relevanten Phasenraum lückenlos zu erfassen und dabei alle drei Impulskomponenten der Elektronen zu bestimmen, war der wesentliche Teil der apparativen Entwicklung. Das durchgeführte Experiment ist nicht nur kinematisch vollständig, sondern erlaubt durch Anwendung des Energieerhaltungssatzes auch die Bestimmung der Schale, in der das Elektron im Endzustand gebunden ist. Die beiden oben genannten Reaktionen können somit getrennt nach Ereignissen mit und ohne Anregung untersucht werden, d.h., es wurden gleichzeitig vier verschiedene Ionisationskanäle vermessen. Für den Ionisationsmechanismus bei Stößen mit einer Projektilgeschwindigkeit unterhalb der klassischen Bahngeschwindigkeit der Elektronen hat sich in den letzten Jahren der Begriff ''Sattelpunkt''Prozeß durchgesetzt [10]. Quantenmechanische Beschreibungen für Einelektronensysteme, wie das Stoßsystem p H, wurden u.a. mit der semiklassischen GekoppelteKanäleMethode [11] in einem speziellen Basissatz [12, 13] und der ''HiddenCrossings''Theorie [14, 15] gegeben. Beide Modelle beschreiben das System aus Projektil und Target als Quasimolekül. Si sind lediglich in der Lage, die groben Strukturen in den Spektren zu erklären. Das gewählte Stoßsystem He 2 He, welches zwei Elektronen besitzt, erlaubt die Untersuchung von Korrelationseffekten. Die Messungen haben ergeben, daß die Impulsverteilung des emittierten Elektrons stark davon abhängt, wo und in welchem Bindungszustand das zweite Elektron nachgewiesen wird. Die gleiche Kernladung von Projektil und Target bedingt, da alle Eigenzustände des gebildeten Quasimoleküls die Symmetrie des Hamiltonoperators gegenüber Raumspiegelung besitzen, und durch diese Spiegeloperation gehen die Endzustände der Transferionisation und der Einfachionisation ineinander über. Durch die gleichzeitige Messung der differentiellen Wirkungsquerschnitte der verschiedenen Reaktionskanäle und deren Vergleich erhält man Einblick in die zugrundeliegenden Prozesse.
Elektron-Zyklotron-Resonanz-Ionenquellen dienen der Erzeugung von hochgeladenen Schwerionen. Die Erzeugung und Extraktion der Schwerionen beruht auf dem komplexen Zusammenspiel von physikalischen Prozessen aus der Atom, Oberflächen und Plasmaphysik sowie der Elektrodynamik. In dieser Arbeit werden grundlegende physikalische Prozesse in EZR-Ionenquellen experimentell untersucht, welche auf Grund der Komplexität bislang nicht vollständig verstanden sind. Als Schwerpunkt werden insbesondere die häufig angewendeten Methoden zur Steigerung der Ausbeute an hochgeladenen Ionen erforscht. Hierzu zählen die negativ vorgespannte Scheibe (eine Elektrode in axialer Nähe des Plasmas, biased Disk), die Beschichtung der Plasmakammerwände mit Isolatoren (Wall coating) und die Gasbeimischung von leichteren Gasen zum eigentlichen Arbeitsgas. Die Untersuchungen wurden an der Frankfurter EZR-(VE)RFQ-Beschleunigeranlage durchgeführt und mit aktuellen Theorien sowie Messungen an anderen EZR-Ionenquellen verglichen. Zur Diagnose wird erstmals die negativ vorgespannte Scheibe im gepulsten Betrieb eingesetzt, um die dynamische Auswirkung dieser Scheibe auf den Ionisationsprozeß und die Ionenextraktion zu studieren. Als erstaunlichstes Ergebnis wird die bisher vermutete und in der Literatur dargestellte physikalische Wirkungsweise der biased Disk, nämlich die Erhöhung der Plasmadichte und eine Verbesserung des Ionisationsprozesses, widerlegt. Dieses Ergebnis wird durch Messungen der Quellenemittanz, des dynamischen Ionisationsverlaufes durch Injektion von kurzen Neutralteilchenpulsen mittels Laserablation, der Spektroskopie der Röntgenbremsstrahlung und der optischen Spektroskopie des sichtbaren Lichtes bestätigt. Als neue Hypothese für die physikalische Auswirkung der negativ vorgespannten Scheibe auf die Ausbeute an hochgeladenen Schwerionen wird eine axiale Elektronenverteilung angenommen. Diese entsteht aus axial oszillierenden Elektronen, welche in einem Potentialtopf zwischen der negativ vorgespannten Scheibe und dem Extraktionsbereich der Ionenquelle eingeschlossen sind. Radial werden diese Elektronen durch die Magnetfeldlinien der beiden Magnetspulen geführt. Diese Elektronenverteilung beeinflußt die Ionendiffusion aus dem EZR-Plasma und die Ionenstrahlformierung im Extraktionsbereich der Ionenquelle positiv. In dieser Arbeit wird zudem gezeigt, daß die gezielte Steuerung der Ionenextraktion durch die vorgespannte Scheibe (biased Disk) mit sehr geringem Aufwand möglich ist. Insbesondere durch Pulsung der Disk-Spannung ist die Extraktion von gepulsten Ionenstrahlen aus einer EZR-Ionenquelle mit bislang nicht erreichten Wiederholungsfrequenzen möglich (bis einige 10 kHz). Die Ionenpulse weisen zudem höhere Intensitäten im Vergleich zur kontinuierlichen Extraktion auf. Eine weitere angewendete Diagnosemethode ist die Injektion von kurzen Pulsen an Neutralteilchen in das EZR-Plasma mit dem Ziel, die Ionenerzeugung und die Ionenextraktion zeitaufgelöst zu studieren. Die Neutralteilchenpulse werden mit Hilfe der Laserablation erzeugt und im EZR-Plasma sukzessive ionisiert. Das zeitliche Verhalten der extrahierten Ionen gibt Ausschluß über die Dynamik des Ionisationsprozesses, den Ioneneinschluß und die Extraktion der Ionen. Hierbei werden die Auswirkungen der Mikrowellenleistung, des Quellengasdruckes, der Gaszusammensetzung und der negativ vorgespannten Scheibe auf die Erzeugung von hochgeladenen Ionen in einer EZR-Ionenquelle untersucht. Auch diese Messungen werden durch die Untersuchung der Röntgenbremsstrahlung und der optischen Spektroskopie des sichtbaren Lichtes vervollständigt. Außerdem wird der Einfluß der injizierten Neutralteilchenpulse auf das bestehende Plasma in der Ionenquelle gemessen. Neben der Plasmadiagnose durch die Injektion von Neutralteilchenpulsen mittels Laserablation wurde auch die Erzeugung von gepulsten Strahlen hochgeladener Ionen verschiedenster Festkörperelemente untersucht. Es wird gezeigt, daß durch einen einfachen Versuchsaufbau hochgeladene Ionen von nahezu allen Festkörpern erzeugt werden können. Durch den Einsatz von speziellen Aluminium-Hohlzylindern mit metalldielektrischer Beschichtung (AlAl 2 O 3 ) in der Plasmakammer der EZR-Ionenquelle (Wall coating) und der dadurch gezielten Beeinflussung der Plasma-Wand-Wechselwirkung kann die Ausbeute an hochgeladenen Schwerionen (z. B. Ar 16 ) um bis zu einem Faktor 50 gesteigert werden. Die in dieser Arbeit angewandten Diagnosemethoden und das dadurch erzielte bessere Verständnis der physikalischen Prozesse und der Dynamik im EZR-Plasma ermöglichen die Erhöhung der Ausbeute an hochgeladenen Ionen, die effektive Erzeugung von hochgeladenen Festkörperionen und die Extraktion von gepulsten Ionenstrahlen mit bisher nicht erreichten Wiederholungsfrequenzen.
l-(1520)-Produktion in Proton-Proton- und zentralen Blei-Blei-Reaktionen bei 158-GeV-pro-Nukleon
(2000)
In ultrarelativistischen Schwerionenkollisionen ist es möglich, Dichten und Temperaturen von hochangeregter Kernmaterie zu erreichen, die einen Übergang einer hadronischen Phase in eine partonische Phase zur Folge haben. Der Einschluss von Quarks und Gluonen in den Hadronen hebt sich auf, so dass sie sich quasi frei bewegen (Quark-Gluon-Plasma). Gitter-QCD-Rechnungen zu Folge kann dieser Zustand bei einer zentralen 208 Pb 208 Pb-Kollision am CERN-SPS mit den dort zur Verfügung stehenden Einschussenergien erreicht werden. Ziel dieser Arbeit ist die Untersuchung der Delta(1520)Produktion in p p und zentralen Pb Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des NA49-Experimentes durchgeführt und basiert auf den Analysemethoden zur Rekonstruktion der invarianten Masse anhand von jeweis 400000 p p und Pb Pb-Ereignissen. Die gesamte Phasenraum-Akzeptanz der NA49-Spurendriftkammern liegt bei etwa 1200 nachgewiesenen geladenen Reaktionsprodukten, für das Delta(1520), das zu 22.5 % in ein Proton und ein negativ geladenes Kaon zerfällt, bei etwa 80 %. Da der Endzustand zu 90 % aus Pionen besteht, wird eine Teil chenidentifikation zur Reduzierung des kombinatorischen Untergrundes notwendig. Der mit einer Auflösung von besser als 5 % gemessene spezifische Energieverlust erlaubt eine Reduktion der Kombinationen um einen Faktor 11 bei einem Signal verlust von einem Faktor 2. Zur Extraktion des Signals vom kombinatorischen Untergrund wird dieser durch ein Mischverfahren erzeugt, bei dem die Kandidaten aus unterschiedlichen Ereignissen miteinander kombiniert werden und vom Origi nalspektrum subtrahiert werden. Die Analyse der Pb PbDaten stellt eine große Herausforderung an das Verfahren, da das SignalzuUntergrundverhältnis von et wa 1/600 im Vergleichz u der p pDatenanalyse sehr klein ist, bei der es bei 1/6 liegt, und somit das subtrahierte Spektrum von der genauen Beschreibung des kombinatorischen Untergrundes abhängt. Dabei hat sich gezeigt, dass ein für die p pAnalyse entwickeltes spurmultiplizitätsabhängiges Mischen die Form des Untergrundes im Maximum der Verteilung besser beschreiben kann als ein Mischen der nur benachbarten Ereignisse. Dies lässt sich jedoch nicht auf die Pb PbAnalyse übertragen. Nach vielen Untersuchungen bleibt in dem Signalspektrum eine syste matische Struktur zurück, die allein von der Anzahl der Kombinationen abhängt und durch die Mischmethode und die Form des Originalspektrums gegeben ist. Eine große Herausforderung der Pb PbAnalyse ist das Nichtvorhandensein ei nes signifikanten Signals im invarianten Massenspektrum, so dass der Einfluss der nötigen Qualitäts und Auswahlkriterien nicht direkt an dem Verhalten des Signals untersucht werden kann. Die Teilchenidentifikationskriterien wurden zur sinnvollen Optimierung des SignalzuUntergrundverhältnisses aus den dE/dxSpektren her geleitet und zur Kontrolle an dem #Signal überprüft. Die Optimierung von Signal S zu Untergrund BG erfolgt über die Signifikanz, die sich nach S/Wurzel aus B*G berechnet. Die Einträge des Signals werden mit den Korrekturfaktoren aus einer Simulati on auf die gesamte PhasenraumAkzeptanz zu einer totalen Multiplizität hochgerechnet. Dabei ergibt sich aus der p pDatenanalyse eine totale Multiplizät des Delta(1520) von 0.0121 ± 0.0020 ± 0.0010, die in guter Übereinstimmung mit den bisher veröffentlichten Literaturdaten liegt. Die Pb PbDatenanalyse liefert für die Multiplizät eine Abschätzung der oberen Grenze von 1.4 bei einem Confidence Level von 95 % (2#). Aus den Modellvorhersagen von Becattini ergibt sich eine Multiplizät von 3.5 für den chemischen Freezeout. Nach den Rechnungen von UrQMD erfahren die Zer fallsprodukte des Delta(1520) bis zum thermischen Freezeout noch Wechselwirkungen unter Energie und Impulsaustausch. Dies führt dazu, dass sich diese Teilchen nicht mehr zur invarianten Massen des Delta(1520) rekonstruieren lassen, was einen Verlust von 50 % darstellt. Damit hätten wir laut Becattini 1.7 nachweisbare Delta(1520). Eine weitere Möglichkeit liegt in der Theorie des dichten Mediums, in der die d Welle der Delta(1520)Resonanz an das Medium koppelt und somit ihren Charakter verändert, was eine Verbreiterung oder eine Verschiebung des Signals zur Folge haben kann. Eine solche Signaländerung kann durch den direkten Vergleich der Si gnale der p pAnalyse mit der Pb PbAnalyse im Bereich des statistischen Fehlers nicht bestätigt werden. Von der Experimentseite ist in ein paar Wochen noch mit der Verdopplung der Pb PbDatenz u rechnen, so dass diese Fragestellung mit besserer Statistik untersucht werden kann. Unter anderem kann auch die Phasenraumverteilung der Delta(1520)Resonanz bestimmt werden, für die es bis jetzt noch keine Messung gibt. Zum zeitlichen Ende dieser Arbeit wurde mit vielen Spurfindungs und dE/dx Verbesserungen von 4.5 % auf etwa 3.5 % der dE/dxAuflösung der Datensatz neu erstellt, der dann mit der hier angepassten Analyse untersucht wurde. Die Ana lyse brachte ein Delta(1520)Signal mit einer Signifikanz von 6 hervor, aus dem sich eine Multiplizität von 1.45 ± 0.29 ± 0.14 berechnen ließ. Im wesentlichen zeigt dies, dass die hier besprochene Vorgehensweise der Optimierung eines nicht signi fikanten Signals erfolgreich ist, da sie direkt auf den neuen Datensatz übertragen werden konnte, um die beste Signifikanz des Signals zu erhalten. Die obere Grenzabschätzung ohne Signal und die neu berechnete Multiplizität aus dem Signal sind im Bereich ihrer Fehler konsistent, so dass die am Ende folgende Diskussion sich nicht unterscheidet, und dieses Signal einen schönen Abschluss gibt und die vorher berechnete obere Grenze bestätigt. Die Analyse von Delta(1520) war der Auslöser der Idee, open charmTeilchen in NA49 zu messen. Der ebenfalls kleine Wirkungsquerschnitt der DMesonen liegt in der Größenordnung der Delta(1520)Resonanz. Anhand einer Simulation wurde unter Ver wendung der gleichen Analysemethode, die zur Bestimmung der Multiplizität der Delta(1520) verwendet wurde, die Signifikanz für ein Signal oder eine obere Grenze abgeschätzt [Gaz00]. Dies führte weiterhinz u dem Vorschlag mit dem NA49 Experiment eine größere Statistik an Pb PbEreignissen aufzuzeichnen, um das Programm der Delta(1520) und der open charmMessung fortzusetzen [Bot00], worauf in der Strahlzeit Herbst 2000 3.5 Millionen Ereignisse aufgezeichnet wurden.
Die Dokumente enthalten jeweils die gleiche Arbeit, allerdings in drei unterschiedlichen Varianten, die sich in der Qualität der Bilder und damit in der Filegröße unterscheiden: * Bilder in voller Druckqualität (8,2 MB): DissWFOM1.pdf (Dokument1) * Photos in reduzierter Auflösung (3,1 MB): DissWFOM2.pdf (Dokument2) * Photos und Zeichnungen in red. Auflösung (1,4 MB): DissWFOM3.pdf (Dokument3)
Zyklotronresonanzen von Ionen im hochfrequenz-modulierten magnetisch fokussierten Elektronenstrahl
(2000)
Ein Prototyp einer Kombination aus Penningfalle und EBIS/T wurde im Rahmen dieser Arbeit entwickelt. Dazu wurde ein Standard NMRMagnet erfolgreich so umgebaut, daß er in Bezug auf Vakuum, Temperatur und Temperaturbeständigkeit den Erfordernissen einer EBIS/T als Ionenfalle entspricht. Diese Apparatur ermöglicht nun die Untersuchung der in der EBIS/T erzeugten Ionen mit den Methoden der 'Fallenphysik'. Die Anregung der Ionen in der Falle wurde hier erstmals durch Hochfrequenzmodulation des Elektronenstroms über die Wehneltelektrode der Elektronenkanone durchgeführt. Messungen haben gezeigt, daß man in der EBIS/T erzeugte Ionen selektiv nach ihrem Verhältnis von Masse zu Ladung mit der Modulation in Resonanz bringen kann, bis sie den Elektronenstrahl verlassen. Die Ionen besitzen auch im dichten Elektronenstrahl eine charakteristische Eigenfrequenz, die zwar von der Raumladung in der Falle abhängt, mit der jedoch trotzdem eine Resonanzanregung durchgeführt werden kann. Im Experiment bestätigte sich die Vorhersage für die Mindestdauer der Anregung in der Größenordnung von Mikrosekunden und für Relaxionszeiten der kohärenten Ionenbewegungen im Bereich von Millisekunden, was eine grundsätzliche Voraussetzung für eine resonante Separation verschiedener Ionensorten darstellt. Die auftretenden Eigenfrequenzen der unterschiedlichen Ionen lassen sich theoretisch und im Einklang mit numerischen Simulationen beschreiben. Die Anregung der Eigenfrequenzen von Ionen über den Elektronenstrahl funktioniert bis zu so hohen Ionendichten, wie sie in einer EBIS vorkommen. Ionenmanipulationen, wie man sie von den Penningfallen her kennt, lassen sich auf ein Ionenensemble mit bis zu 10 10 Ionen pro cm 3 übertragen. Die gemessenen Verschiebungen der Eigenfrequenzen gegenüber der Zyklotronfrequenz geben darüber hinaus Aufschluß über den Kompensationsgrad des Elektronenstrahls in der EBIS/T und können damit als wichtiges Diagnosehilfsmittel für die Optimierung von ElektronenstrahlIonenquellen verwendet werden. Läßt man die Resonanzanregung kontinuierlich einwirken, so tritt überraschenderweise eine Erhöhung des Anteils an hochgeladenen Ionen in der EBIS/T auf. Darüberhinaus konnte experimentell gezeigt werden, daß die hochgeladenen Ionen auf der Achse des Elektronenstrahls konzentriert werden, während niedrig geladene Ionenen dort verschwinden und bevorzugt den äußeren Strahlbereich bevölkern. Die Erklärung dafür ist, daß durch kontinuierliches Entfernen dieser niedrig geladenen Ionen aus dem Elektronenstrahl eine vollständige Kompensation der Raumladung des Elektronenstrahls verhindert wird. Dadurch lassen sich Ionen in der Ionenquelle über einen längeren Zeitraum züchten. Vorteilhafterweise drängt die Anregung über eine Modulation des Elektronenstrahls im Gegensatz zu der normalen Dipolanregung bevorzugt niedrig geladenen Ionen, mit größerer Aufenthaltswahrscheinlichkeit am Rand, aus dem Elektronenstrahl. Dies führt zu einer verstärkten CoulombKühlung der hochgeladenen Ionen und konzentriert diese in der Mitte des Strahls, wo die Anregung fast unwirksam ist. Diese Kühlkraft wirkt als Zusammenspiel der attraktiven radialen Kraft des nicht vollständig raumladungskompensierten Elektronenstrahls und der Coulombstöße der Ionen untereinander. Durch diese Methode der Kühlung der Ionen untereinander können verstärkt Ionen hoher Ladungszustände in der Ionenquelle konzentriert werden. Der Vorgang der Kühlung durch Coulombstöße konnte mit einem Modell beschrieben werden, bei dem die thermische Verteilung aller Ionen im Elektronenstrahl einer Boltzmann Verteilung folgt. Das Modell benutzt vier Kräfte: die magnetische Kraft, die elektrische Haltekraft des Elektronenstrahls, die periodische elektrische Anregungskraft und die Reibung der Ionen proportional zu ihrer Geschwindigkeit und ihres Ladungszustandes bzw. die Stöße der Ionen untereinander. Die Resonanzanregung im Raumladungspotential sowie die Aufenthaltsverteilung der Ionen im Elektronenstrahl konnten damit dargestellt werden. Für Präzisionsexperimente an hochgeladenen Ionen bietet sich die Kombination aus einer EBIS/T mit integrierter Penningfalle an. Die Experimente haben gezeigt, daß es möglich ist, Ionenspektren mit einem eingekoppelten Wechselfeld in dem Ionisationsraum der EBIS/T zu separieren und zu reinigen. Für die Zukunft wünscht man sich aber eine größere Effektivität für das vollständige Entfernen bestimmter Ionensorten. Dies kann man erreichen, indem man den Elektronenstrahl noch dichter mit der Ionisationsröhre umschließt. Durch die kontinuierliche Resonanzanregung profitiert man von einer längeren Einschlußzeit für die stufenweise Ionisierung zu höheren Ladungszuständen und/oder eröffnet ElektronenstrahlIonenquellen neue Einsatzmöglichkeiten unter schlechteren Vakuumbedingungen. Die verstärkte Kühlung und Zentrierung der Ionen auf der Achse während dieses Betriebsmodus verbessert die Emmitanz von ElektronenstrahlIonenquellen. Für die Zukunft kann man sich eine EBIS mit moduliertem Elektronenstrahl auch im Strahlweg niederenergetischer hochgeladener Ionen zum Verbessern deren Emittanz vorstellen. Die im Elektronenstrahl erzeugten und sich selbst kühlenden Ionen wirken durch Coulombstöße als Kühlmedium ohne die Gefahr der Umladung wie bei gasgefüllten hfQuadrupolen.
Für Elektronenstrahlionenquellen sind die Stromdichte und die Energie die ausschlag gebenden Größen zum Erreichen hoher Ladungszustände. Herkömmliche EBIS/T verwenden ein externes magnetisches Feld zur Kompression des Elektronenstrahls. Im Rahmen dieser Dissertation wurde eine ''magnetfeldfreie" EBIS/T realisiert, mit der die Selbstkompression eines teilrelativistischen Elektronenstrahls nachgewiesen werden konnte, womit ein vielversprechender Meilenstein auf dem Weg zu einer SuperEBIS/T mit Energien im Bereich von 300 - 500 keV erreicht wurde. Es wurde eine Apparatur aufgebaut, die es ermöglichte, einen Elektronenstrahl unter verschiedenen Winkeln in die Ionenfalle einzuschießen. Durch numerische Simulationen wurde die Elektronenkanone mit dem Ziel einer möglichst kleinen rückwärtig projizierten Kathode optimiert, um die fokussierbare Stromdichte zu erhöhen. Um sphärische Aberrationen des abbildenden Linsensystems zu korrigieren, wurde die Driftstrecke zwischen Elektronenkanone und Ionenfalle mit ''clearing" Elektroden versehen, die es ermöglichten, einen definierten Kompensationsgrad im Elektronenstrahl einzustellen. Im Anschluß an den Kollektor wurden die Ionen mit einem Sektormagneten analysiert. Zunächst wurde experimentell bestätigt, daß sich sphärische Aberrationen korrigieren lassen, wenn der Elektronenstrahl im Bereich des Linsensystems gezielt partiell kompensiert wird. Mit dem nichtlinearen Kompensationsgrad konnte die defokussierende Kraft der Raumladung gerade so angepaßt werden, daß sie die radial zunehmende Fokussierung der Linse (sphärische Aberration) korrigiert. ''clearing" Elektroden sorgten dafür, daß im Außenbereich des Elektronenstrahls gebildete Ionen den Strahl verließen. Nur der innere Bereich konnte nach Maßgabe der Potentialdifferenz kompensieren. Messungen der Verlustströme an den Elektroden der Ionenfalle zeigten, daß nur mit dieser Kompensation der Elektronenstrahl bei hohen Strahlströmen durch die Ionenfalle transportiert werden konnte. Bei kontinuierlicher Ionenextraktion konnte bei Erhöhung des Gasdrucks in der Ionenquelle ein überproportionales Ansteigen des Ionenstroms gemessen werden. Mit der Annahme konstanter Stromdichte sollte der Ionenstrom lediglich linear steigen. Zusammen mit der gleichzeitigen Reduktion der Verlustströme auf die Fallenelektroden war dies ein erster Hinweis für die Erhöhung der Stromdichte durch zunehmende Kompensation der elektronischen Raumladung im Fallenbereich. Eine genaueres Bild über die Entwicklung der Stromdichte wurde aus Spektren abgeleitet, die bei gepulster Extraktion aufgenommen wurden. In einer Elektronenstrahlionenquelle werden Ionen durch sukzessive Ionisation gebildet. Die Ladungszustandsverteilung der gebildeten Ionen ist proportional zur Dichte der ionisierenden Elektronen und zur Einschlußzeit, der die Ionen dem Elektronenbeschuß ausgesetzt sind. Bei konstanter Stromdichte erreichen aufeinanderfolgende Ladungszustände maximale relative Häufigkeit ungefähr bei einer Verdopplung der Einschlußzeit. Die aufgenommenen Spektren wichen deutlich von diesem Schema ab. Anstelle einer regulären Ladungszustandsentwicklung wiesen die Spektren nach 20ms Einschlußzeit zwei Verteilungen auf. Die erste Verteilung hatte ein Maximum bei Ar 2 , während die zweite ihr Maximum bei Ar 8 hatte. Die höher geladene Verteilung war mit dem Auftreten hoher Ladungszustände bis Ar 12 verbunden. Bei einer weiteren Erhöhung der Einschlußzeit ging die niedrig geladene Verteilung in die hoch geladene über, bis bei 160ms nur noch ein hoch geladenes Spektrum vorhanden war. Ein Vergleich mit Modellrechnungen ergab für niedrig geladene Ionen (3Acm 2 für Ar 2 bei 20ms Einschluß) eine geringe Stromdichte und einen kontinuierlichen Übergang zu hohen Stromdichten (300Acm 2 für Ar 12 bei 20ms Einschluß) bei hoch geladenen Ionen. Aufgrund des ''evaporative cooling" sammeln sich hoch geladene Ionen in der Mitte des Elektronenstrahls. Da der Elektronenstrahl von innen nach außen kompensiert, setzt die Selbstkompression innen ein und führt dort zu hohen Stromdichten. Man erhält eine während der Einschlußzeit variierende Stromdichteverteilung im Elektronenstrahl. Eine Aussage über die Häufigkeitsverteilung der Stromdichtewerte gelang über die Wichtung der berechneten Stromdichte mit der Menge an ionischer Ladung, die in den Ladungszuständen vorhanden war. Mit diesen Werten konnten mittlere Stromdichtewerte für den Elektronenstrahl berechnet werden. Es wurde die mittlere Stromdichte für den gesamten Elektronenstrahl und für die beiden Ladungszustandsverteilungen berechnet. Dabei begann die mittlere Stromdichte des Elektronenstrahls mit der Stromdichte der niedrig geladenen Verteilung (13Acm 2 ; 5ms) und ging bei Erhöhung der Einschlußzeit in die mittlere Stromdichte der hoch geladenen Verteilung über (110Acm 2 ; 80ms). Das Maximum der mittleren Stromdichte für die hoch geladene Verteilung lag bei 170Acm 2 für 40ms Einschlußzeit. Nachdem der Elektronenstrahl bei 40ms kompensiert wurde, sanken die mittleren Stromdichten. Dies lag an der nun dominierenden Heizung durch Coulombstöße der Strahlelektronen an den eingeschlossenen Ionen, wodurch deren Ausbeute verringert wurde. Diese Ergebnisse stehen im Einklang mit numerischen Integrationen der Randstrahlgleichung. Dazu wurden Berechnungen für verschiedene Kompensationsgrade und Elektronenstrahlemittanzen durchgeführt. Für Emittanzwerte um 2×10 3 cm mrad ergab sich eine gute Übereinstimmung mit den gemessenen Stromdichten. Die Rechnungen bestätigten, daß die Emittanz und der Einschuß des Elektronenstrahls in die Ionenfalle die kritischen Größen sind, um eine Selbstkompression des Elektronenstrahls bei einer Energie von 22keV und 30mA Strahlstrom beobachten zu können. Die in dieser Arbeit untersuchte Selbstkompression des Elektronenstrahls kann genutzt werden, um bei einer XEBIS/T mit Elektronenstrahlenergien größer als 200keV deutlich höhere Stromdichten zu erzielen, als bei heute üblichen EBIS/T. Sie eignet sich deshalb besonders für die Erzeugung höchst geladener schwerer Ionen, weil die angewandte Technik bei kommerziellen ElektronenstrahlSchweißanlagen industriell ausgereift ist, wohingegen die herkömmlichen EBIS/T weltweit (Livermore, Dubna, Tokio, Freiburg) die gesetzten Erwartungen hinsichtlich der erreichbaren Elektronenenergien bisher verfehlen. Auch für den stets problematischen Einschuß niedrig geladener Ionen, die außerhalb der EBIS/T erzeugt werden, kann die Selbstkompression genutzt werden. Der Elektronenstrahl weist zu Beginn der Ionisierung einen großen Durchmesser auf, wodurch der Einschuß in den Strahl erleichtert wird. Während der Höherionisierung der eingefangenen Ionen komprimiert sich der Elektronenstrahl zu der zum Erreichen höchster Ladungszustände notwendigen Stromdichte dann von selbst.
In dieser Arbeit wurde versucht, das Phänomen des Metamagnetismus, wie es in den elektronisch hochkorrelierten Systemen auftritt und im Besonderen in CeRu2Si2, eingehender zu untersuchen. Hauptanliegen war die Rolle der Elektron-Gitter-Wechselwirkung zu analysieren. Hierzu wurde eine Messzelle konstruiert, die es ermöglichen sollte das Volumen während der Magnetfeldläufe durch das Ausüben von "passivem" uniaxialen Druck konstant zu halten. Die Experimente konnten an verschiedenen CeRu2Si2-Proben durchgeführt werden, mit stark unterschiedlichen Länge-zu-Breite-Verhältnissen. Die Messergebnisse an den zur Verfügung stehenden Chargen, den Lejay-Proben und der Onuki-Probe, sind in sich nicht schlüssig, führten doch die Magnetostriktions- und die Suszeptibilitätsmessungen unter Druck an den Lejay-Proben vermittels einer Beschreibung über die Skalierungsthese zu unterschiedlichen -Parametern. So ist über die Magnetostriktion ein Wert von =280Mbar-1 gewonnen worden und über die Suszeptibilität unter Druck resultierte letzten Endes unter Grundlage einer Kompressibilität von =0.64Mbar-1 ein Wert von =160Mbar-1. Die Onuki-Probe zeigte unterdessen eine stärkere Feldverschiebung unter Druck in den Suszeptibilitäts- sowie den realisierten Ultraschallmessungen einer longitudinalen Mode, die entlang der [110]-Richtung propagierte. Beide Messmethoden wiesen zwar ein eindeutiges Verhalten unter Druck auf, doch ist auch hier ebenfalls eine Abweichung des -Parameters gegenüber den aus der Literatur bekannten Werten von171-200Mbar-1, als auch gegenüber den ,,Lejay-Werten" festgestellt worden. So zeigte die Onuki-Probe im Rahmen einer Auswertung mit einer Kompressibilität von =0.64Mbar-1 kein schlüssiges Verhalten bei einer Zusammenschau der Suszeptibilitätsmessungen unter Druck sowie der Transformation der Magnetostriktions- auf die Magnetisierungsdaten, basierend auf Messungen der Lejay-Proben. Der erhaltene - Parameter von 250Mbar-1 steht hierbei dem Wert von 280Mbar-1 gegenüber. Diese Differenz entspricht einer Feldverschiebung von 0.7T. Kalkuliert man aus der Striktionsmessung entlang der [110]-Richtung die relative Volumenänderung, findet sich hingegen ein - Parameter von 170Mbar-1, der sich seinerseits wieder mit den Resultaten von Mignot deckt. Festzuhalten ist jedoch, dass für beide Proben ein erhöhter Grüneisenparameter aus den Experimenten mit ,,passivem Druck" gefunden wurde. Kann man das über die unterschiedlichen -Parameter deduzierte Verhalten beider Proben unter Druck noch auf eine eventuelle Probenqualität zurückführen, so bleibt immer noch die Tatsache kritisch, dass die experimentell bestimmten -Werte hier größer als die in der Literatur veröffentlichten und nicht alleine aus einem abweichenden Kompressibilitätswert zu erklären sind. Trotzdem ist ein wichtiges Ergebnis erzielt worden. An der Probe mit dem für uniaxialen Druck günstigen geometrischen Abmessungen wurde die Zwangsbedingung des konstanten Volumens verifiziert. Dies geschah durch ein von G.Bruls neu entwickeltes Dilatationsmessverfahren auf Ultraschallbasis. Es wurde durch eine Unterdrückung des Gitterfreiheitsgrades gezeigt, dass der Metamagnetismus intrinsischer Natur ist, wie es theoretische Überlegungen mit Hilfe des Skalierungsansatzes prognostizierten. Das kritische Feld ist jedoch im Gegensatz zum frei expandierenden System zu höheren Feldern verschoben und der Metamagnetismus wesentlich schwächer ausgebildet. Wodurch sich in der Diskussion um die Rolle des Gitters bei der Prägnanz des metamagnetischen Überganges deutlich dessen Relevanz abzeichnet. Ist aus der Skalierungsthese eine Beschreibung der physikalischen Vorgänge mit einem Parameter hinreichend, so bedingte, wie zuvor erwähnt, eine Adaption der Skalierungsthese auf die durchgeführten ,,passiven Druckexperimente" die Einführung eines gegenüber dem thermischen Grüneisenparameter erhöhten, renormalisierten Grüneisenparameters. Diese eventuelle druckbedingte Renormierung kann aber auch ursächlich als Erhöhung des magnetischen Grüneisenparameters gewertet werden, die als Indiz eines im Magnetfeld anwachsenden Sommerfeld-Wilson-Verhältnisses gedeuted wird. Abschließend wurde ein theoretisches Modell vorgestellt, das den metamagnetischen Übergang auf das Feldverhalten der hybridisierten Quasiteilchenbänder mit erhöhter Zustandsdichte zurückführt. Das Maximum in der Suszeptibilität ist dabei die Folge eines levelcrossings des spinup-Bandes mit der Fermikante, das von einem Abwandern der itineranten Elektronen in das obere spinup-Band begleitet wird. Als wichtig für die naturgemäße Beschreibung des Metamagnetismus in CeRu2Si2 hat sich hierbei die Berücksichtigung der Anisotropie der Hybridisierungswechselwirkung, sowie die durch das Kristallfeld bedingte korrekte Grundzustandswellenfunktion erwiesen. Mit diesem Modell gelingt auch eine Reproduktion des phänomenologisch gefundenen Skalierungsverhaltens mit dem die Magnetostriktionsdaten auf die Magnetisierungsdaten transformiert werden.
Der Einfluss von turbulenten Strömungen auf die Photodissoziation von CO in interstellaren Wolken
(2001)
Seit 1988 ist bekannt, dass die Photodissoziation von COMolekülen durch Linienabsorption von UVPhotonen stattfindet. Wie jede Linienabsorption ist damit auch die Photodissoziation von CO abhängig von Geschwindigkeitsfeldern innerhalb des absorbierenden Mediums. DopplerVerschiebung kann die Absorption in einen Frequenzbereich verschieben, in dem sich die lokale Intensität von der Intensität in der Linienmitte wesentlich unterscheidet. Jede Untersuchung, die sich mit der Bildung und Vernichtung von COMolekülen am Rand interstellarer Wolken beschäftigt, muss diese turbulenten Geschwindigkeitsfelder berücksichtigen. Da die Existenz von turbulenten Strömungen in interstellaren Molekülwolken unbestritten ist, wird in Untersuchungen üblicherweise der Dopplerparameter der Gaußschen Profilfunktion um eine Turbulenzgeschwindigkeit erweitert. Diese mikroturbulente Näherung ist die simpelste Möglichkeit zur Berücksichtigung von Turbulenz. In vorangegangenen Arbeiten (Albrecht, M.A., Kegel, W.H. (1987)), (Kegel, W.H., Piehler, G., Albrecht, M.A. (1993)), (Piehler, G., Kegel, W.H. (1995)) ist gezeigt worden, dass die Berücksichtigung eines turbulenten Geschwindigkeitsfeldes mit endlicher Korrelationslänge (Mesoturbulenz) jedoch wesentlich dazu beitragen kann, realistischere Linienprofile zu erhalten. Während in den letzten Jahren einiger Aufwand betrieben wurde, die Berechnung der chemischen und thermischen Struktur einer Molekülwolke zu verfeinern, ist der Modellierung des zugrundegelegten Strahlungstransports weniger Aufmerksamkeit gewidmet worden. Die Ergebnisse unserer Rechnungen zeigen, dass die Berück sichtigung eines mesoturbulenten Strahlungstransports den Verlauf der COHäufigkeit entlang des Sehstrahls wesentlich beeinflussen kann. Zusammengefasst haben wir folgende Ergebnisse erhalten: - Rechnungen mit einem EinzellinienModell zeigen den großen Einfluss von Korrelationslänge und Turbulenzgeschwindigkeit auf den Verlauf der Photodissoziationsrate und damit auch auf die resultierende COHäufigkeit. - Bei Mesoturbulenz werden die absorptionsrelevanten Linien schneller optisch dick als bei reiner Mikroturbulenz. Dadurch kann sich eine stabile Zone großer CODichte in Tiefen bilden, von denen bisher angenommen wurde, sie würden eine zu große UVIntensität aufweisen. - Rechnungen, die das volle UVSpektrum berücksichtigen, zeigen eine geringere Sensitivität der COHäufigkeit gegenüber Variationen der Turbulenzparameter als solche mit nur einer Linie. Trotzdem haben Korrelationslänge und Turbulenzgeschwindigkeit starken Einfluss auf die Tiefe, ab der eine stabile COHäufigkeit erreicht wird. - Im Vergleich zu Rechnungen mit einer parametrisierten Photodissoziationswahrscheinlichkeit fällt im mesoturbulenten Fall z CO wesentlich schneller ab. Das bedeutet, dass in größeren Tiefen der Wolke die Werte für z CO um einige Größenordnungen voneinander abweichen können. Für Größe und Isotopenverhältnis des Wolkenmodells kann das zu einer signifikanten Überschätzung der wahren Werte führen. - Das zugrundegelegte Modell der chemischen Reaktionen weist eine hohe Stabilität gegenüber Veränderungen der Turbulenzparameter auf. Auch wenn die COHäufigkeit davon relativ stark betroffen ist, wirken sich diese Veränderungen nur sehr langsam auf die chemische Gesamtstruktur der Wolke aus. - Die Anwendung unserer Ergebnisse auf Beobachtungen von NGC 2024 zeigen, dass sich die Werte, die man für Dichte und Größe der Region aus den Modellen ermittelt, stark von dem zugrundegelegten Strahlungstransportmodell abhängen. Folgerungen, die aufgrund einer zu einfachen Modellierung gemacht werden, sind somit mit einiger Vorsicht zu betrachten. Es zeigt sich, dass der numerische Aufwand, stochastische Strahlungstransportmodelle zu rechnen, durchaus gerechtfertigt ist. Möchte man die Bildung von CO Molekülen am Rand einer interstellaren Molekülwolke genauer verstehen, muss eine endliche Korrelationslänge berücksichtigt werden. Es macht wenig Sinn, immer detailliertere chemische Modelle zu entwickeln und die wichtigen Effekte mesoturbulenten Strahlungstransports zu vernachlässigen.
Nachdem 1953 von Bates und Griffing [BAT53] der Beitrag der Elektron-Elektron Wechselwirkung neben der Kern-Elektron Wechselwirkung bei der Projektilionisation im Ion-Atom Stoß postuliert und im Rahmen einer 1. Bornschen Näherung beschrieben wurde, gelang in dieser Arbeit zum ersten Mal die ereignisweise Trennung beider Beiträge im Stoß von 3.6 MeV/u C 2 mit Helium durch ein kinematisch vollständiges Experiment, indem die Impulsvektoren des Projektilelektrons ~ p epro , des Targetelektrons ~p etar sowie des ionisierten Targets ~ p R koinzident zum ionisierten Projektil vermessen wurden. Wie sich überraschenderweise herausstellte kann einfach durch Vergleich der Absolutbeträge der Impulsvektoren des Targetelektrons und des Targetkerns für jeden einzelnen Stoß bestimmt werden, ob das Targetelektron "passiv" war und nur das Potenzial des Targetkerns abschirmte ((n-e) Wechselwirkung) oder ob das Targetelektron "aktiv" war und das Projektilelektron in einem Elektron-Elektron Stoß ionisierte ((e-e) Wechselwirkung). Im zweiten Fall bleibt der Targetkern passiv, kompensiert aber ebenfalls ereignisweise das Comptonprofil des ionisierenden Targetelektrons. Der Summenvektor ~q = ~p R ~p etar repräsentiert daher bei der (e-e) Wechselwirkung den korrekten Impuls übertrag des quasifreien Elektron. Die kinematisch vollständige Information über alle beteiligten Stoffteilchen erlaubt es, neben einem detaillierten Einblick in die korrelierte Vier-Teilchendynamik, den gesamten Datensatz nach (n-e) bzw. (e-e) Ereignissen zu sortieren. Die (e-e) Ergebnisse können des weiteren in das Projektilsystem transformiert und dort im Sinne einer Elektronenstoß-Ionisation durch das quasifreie Targetelektron, welches nun Projektil ist, interpretiert werden. Wegen des großen Raumwinkels von Omega = 2pi bis 4 pi für alle Reaktionsfragmente wird im Gegensatz zu klassischen (e,2e) Experimenten weder der Impulsübertrag q noch die Energie Eb des ionisierten Elektrons während der Messung festgehalten. D.h. die Ergebnisse sind im Rahmen der jeweiligen Akzeptanz über alle Impulsüberträge sowie über alle möglichen Energien und Emissionswinkel des ionisierten Elektrons integriert. Prinzipiell können jedoch Impulsübertrag, sowie Elektronenenergie beliebig vorgewählt werden, indem bei der Analyse der Daten entsprechende Fenster gesetzt werden. Die im experimentellen Datensatz enthaltene, vollständige Information erlaubt die Projektion in jeden beliebigen Unterraum. Bei hinreichender Statistik könnten sowohl der dreifach-, als auch jegliche nieder-differentielle Wirkungsquerschnitte aus dem Datensatz extrahiert werden. Aufgrund mangelnder Statistik in dieser ersten Messung stehen jedoch bei zu engen Projektionsfenstern zu wenige Ereignisse zur Verfügung, um signifikante Aussagen treffen zu können. Innerhalb von 12 Stunden effektiver Messzeit konnten 20.000 (e- e) Ereignisse detektiert werden. Realistische Prognosen unterstützen die Annahme, dass während einer weiteren Strahlzeit innerhalb einer Woche 250.000 Ereignisse gemessen werden könnten. Dadurch würde die Einteilung der Daten in kleine Untermengen des Impulsübertrages, vom optischen Limit bis hin zu extrem binären Stößen, bei Elektronenenergien des ionisierten Elektrons von einigen meV an der Kontinuumsschwelle bis hin zu 100 eV Kontinuumsenergie sowohl in koplanarer als auch nicht-koplanarer Geometrie ermöglicht. Ein weitaus asymmetrischeres Stoßsystem ist jedoch für zukünftige Experimente wünschenswert und geplant. Dies bedeutet entweder ein leichteres Target, oder ein schwereres Projektil. Auch angeregte Targetatomen mit Elektronen in hohen (Rydberg-) Zuständen wären denkbar. Die Näherung des Targetelektrons als quasi-freies Elektron wird besser, je kleiner seine Bindungsenergie gegenüber der Bindungsenergie des zu ionisierenden Elektrons ist: Zwar kann das Comptonprofil des quasifreien Elektrons ereignisweise korrigiert werden, es muss aber immer auch ein minimaler Impulsübertrag zur Ionisation des Targets aufgebracht werden. Dieser Unterschied zum (e,2e) mit einem freien Elektron wird jedoch erst vernachlässigbar, wenn die Bindungsenergie des Targetelektrons sehr klein ist gegenüber der des Projektilelektrons, d.h., wenn der Anteil der Targetionisation am Impulsübertrag vernachlässigbar klein ist. (Im hier vorliegenden Fall war das Kohlenstoffelektron jedoch nur ca. doppelt so fest gebunden wie das Heliumelektron.) Weiterhin ist anzunehmen, dass mit kleinerem Z eff des Targets und mit größerem mittleren Radius des Targetelektrons die (n-e) Wechselwirkung an Bedeutung verliert, da die (e-e) Wechselwirkung bei vergleichsweise größeren Stoßparametern stattfindet und der Wirkungsquerschnitt für (n-e) Prozesse mit Z eff skaliert. Diese Überlegungen werden durch Ctmc-Ergebnisse von Olson et al. unterstützt. In Abb. 7.1 werden daher Rechnungen für das Stoßsystem 3.6 MeV/u C 2 auf angeregtes Wasserstoff mit einem Elektron in der n=2 Schale abgebildet. Der Anteil der (n-e) Wechselwirkung ist so klein, dass eine Sortierung der Daten nicht mehr nötig ist: Die Projektilionisation wird nun von der (e-e) Wechselwirkung beherrscht. Im Besonderen sind die im vorangegangenen Kapitel diskutierten Einflüsse der Drei- bzw. Vier-Teilchendynamik offensichtlich bei diesem Stoßsystem gänzlich vernachlässigbar. Die Reduzierung des H-Kerns als "Zuschauer" und somit auch die Reduzierung des Stoßes auf eine (in 1. Ordnung) 2-Teilchen Wechselwirkung zwischen Targetelektron und Projektil scheint nahezu uneingeschränkt gerechtfertigt. In Zukunft werden am Esr der Gsi (weitaus) asymmetrischere Stoßsysteme, wie wasserstoffähnliches Uran auf Helium, zugänglich. Im Esr können derzeit ca. 5 mal 10 hoch 8 Projektile gespeichert, gleichmäßig im Ring verteilt (Gleichstrom-Modus) oder in 1 - 2 "Pakete" von ca. 2 ns Zeitlänge gepackt werden. Die Umlauffrequenz für ein Ionen-Paket oder für ein einzelnes Ion beträgt ca. 2 MHz. Im Gegensatz zu einem Experiment am Strahlrohrende des Unilac passiert ein Projektil, das nicht ionisiert wurde, nach 500ns erneut die Reaktionszone (das Target). Die dadurch erzielte Luminosität erlaubt die Messung von Reaktionen mit vergleichsweise kleinen Wirkungsquerschnitten, welche am Strahlrohrende nicht zugänglich sind. Durch eine elektrische Pulsung des Rückstoßionendetektors in Koinzidenz zur Projektilumladung sowie zum Projektil- und Targetelektron wird man sich in Zukunft von unerwünschten Rückstoßionen aus der reinen Targetionisation befreien können, sodass auch Stoßsysteme, bei denen Targetionisation mehrere Größenordnung wahrscheinlicher ist als die simultane Ionisation von Projektil und Target, zugänglich werden. Die Detektion des hochenergetischen Projektilelektrons wird am Esr jedoch nicht mehr - wie in dieser Arbeit beschrieben - auf dem gleichen Detektor wie das niederenergetische Targetelektron erfolgen können, da diese Geometrie nur eine Akzeptanz für das Projektilelektron bis v p ungefähr gleich 15 a.u. hat und die Impulsauflösung prinzipiell (systematisch) beschränkt ist. In Abhängigkeit vom Stoßsystem kann das Projektilelektron (mit Projektilgeschwindigkeit) am Esr Energien von einigen 100 keV haben. Daher wird in Zukunft die Detektion des Projektilelektrons durch ein 0 0 -Magnetspektrometer in Strahlrichtung hinter dem Reaktions-Mikroskop erfolgen. Da die beiden getrennten Nachweissysteme (Reaktions-Mikroskop, 0 0 -Spektrometer) dann auf die zu detektierende Elektronenenergie optimiert werden können, wird die Impulsauflösung beider Elektronen erheblich verbessert werden. Ein neues Reaktions-Mikroskop, welchen im Rahmen dieser Arbeit geplant und konstruiert wurde, sowie das 0 0 -Magnetspektrometer sind im Aufbau befindlich, und Teile sind bereits im Esr implementiert. Abb. 7.2 zeigt eine technische Zeichnung des Aufbaus. Zu erkennen ist das interne Gasjet-Target des Esr. Der Ionenstrahl durchkreuzt die Kammer von rechts nach links. Das benötigte homogene Magnetfeld zur Führung der Targetelektronen wird durch ein 2m Helmholtz-Spulenpaar realisiert. Die Projektilelektronen, welche in einem kleinen kinematischen Kegel um 0 0 mit Projektilgeschwindigkeit emittiert werden, werden nach dem Durchgang durch das Reaktions-Mikroskop im 0 0 -Spektrometer energie- und winkeldispersiv detektiert. Die Inbetriebnahme erfolgt voraussichtlich in 2002. Bis dahin sind weitere Messungen am Unilac der Gsi für dasselbe Stoßsystem, aber auch mit anderen Projektilen (unterschiedlichen Störungen) geplant. Auch Theoretiker wurden auf die Fragestellungen dieser Arbeit aufmerksam und es sind bereits verschiedene quantenmechanische Rechnungen in Vorbereitung, sodass hoffentlich in naher Zukunft mehrfach-differentielle Wirkungsquerschnitte zur Elektronenstoß-Ionisation von Ionen mit quantenmechanischen Rechnungen höherer Ordnungen quantitativ verglichen werden können.
In dieser Arbeit wurde ein relativistisches Punktkopplungsmodell und seine Anwendbarkeit auf Probleme in der Kernstrukturphysik untersucht. Der Ansatz ist in der Kernstrukturphysik recht neu. Aus diesem Grund war es ein wichtiges Ziel festzustellen, wie gut sich das Modell zur Beschreibung von Grundzuständen von Kernen eignet. Während sich Modelle wie das Relativistic-Mean-Field-Modell mit Mesonenaustausch und Hartree-Fock-Rechnungen mit Skyrme-Kräften in vielen detaillierten Untersuchungen bewährt haben, musste dies für das relativistische Punktkopplungsmodell erst gezeigt werden. Als erster Schritt war eine sorgfältige Anpassung der Kopplungskonstanten des Modells erforderlich. Um möglichst einen optimalen Satz an Parametern zu erhalten, wurden verschiedene Optimierungsverfahren getestet und angewandt. Die Parameter der effektiven Mean-Field-Modelle sind untereinander stark korreliert. Zusammen mit der Nichtlinearität der Modelle führt diese Tatsache auf die Existenz vieler lokaler Minima der zu minimierenden x2-Funktion, was eine flexible Anpassungsmethode erfordert. Als besonders fruchtbar erwies sich eine Kombination aus der Methode Bevington-Curved-Step mit dem Monte-Carlo-Algorithmus simulated annea/ing. Durch die Anpassung der Kraft PC-F1 an experimentelle Daten in einem x2-Fit ist es gelungen, mit dem Punktkopplungsmodell eine Vorhersagekraft zu erreichen, die der etablierter RMF-FR- und SHF-Modelle gleicht. Dies ist nicht selbstverständlich, da die Modelle eine deutlich unterschiedliche Dichteabhängigkeit der Potenziale besitzen. Weiterhin haben wir gesehen, dass die Anpassungsprozedur der Parameter eine komplizierte Aufgabe darstellt und noch in mancher Hinsicht ausgearbeitet und verbessert werden kann. Das Punktkopplungsmodell mit der Kraft PC-F1 verhält sich für viele Observablen sehr ähnlich wie das RMF-FR-Modell. Dies betrifft die Beschreibung der bulk properties von symmetrischer Kernmaterie, Neutronenmaterie, Bindungsenergien, Spin-Bahn-Aufspaltungen, Observablen des nuklearen Formfaktors, Deformationseigenschaften von Magnesium-Isotopen, die Spaltbarriere von 240Pu sowie die Vorhersage der Schalenstruktur von überschweren Elementen. Dabei werden aber insbesondere Radien besser beschrieben als mit den RMF-FR-Kräften. Oberflächendicken werden, im Einklang mit dem RMF-FR-Modell, als zu klein vorhergesagt. Deutliche Unterschiede treten bei Deformationsenergien einiger Kerne auf (sie sind größer als beim RMF-FR-Modell und oft kleiner als die von dem SHF-Modell vorhergesagten) sowie bei Dichtefluktuationen in Kernen. Die vektoriellen Dichten der Nukleonen oszillieren nicht so stark wie die des RMF-Modells mit Mesonenaustausch, was auf die fehlende Faltung der nukleonischen Dichten zurückgeführt werden kann. Im Vergleich zum Skyrme-Hartree-Fock-Modell ergeben sich deutliche Unterschiede in der Beschreibung von symmetrischer Kernmaterie und Neutronenmaterie. Relativistische Modelle sagen eine höhere Sättigungsdichte und Bindungsenergie vorher. Die vorhergesagte Asymmetrieenergie ist deutlich größer als die Werte des SHF- bzw. Liquid-Drop-Modells. Die Beschreibung von Neutronenmaterie weicht stark von modernen Rechnungen [Fri8 1] und den Vorhersagen von Hartree-Fock-Rechnungen mit der Skyrme-Kraft SLy6 ab. Die Vorhersagen zu überschweren Kernen stimmen in Bezug auf magische Zahlen mit anderen relativistischen Modellen überein: Der doppelt-magische, überschwere Kern besitzt Z = 120 Protonen und N = 172 Neutronen. Im Einklang mit anderen selbstkonsistenten Vorhersagen zeigt seine Baryonendichte eine Semi-Blasenstruktur. Die Spaltbarrieren der Kerne 292 120 und 298 114 sind von ähnlicher Größenordnung wie die von anderen untersuchten RMF-Kräften. Die Lage des isomeren Zustandes im symmetrischen Spaltpfad liegt beim RMF-PC-Modell sehr tief, was auf eine geringe Oberflächenenergie schließen lässt. Die deutlichen Unterschiede zu den Vorhersagen von Hartree-Fock-Rechnungen mit Skyrme-Kräften zeigen, dass sich gewisse Eigenschaften der Modelle besonders stark bei überschweren Elementen auswirken. Überschwere Elemente sind ein sensitives Testfeld für die Modelle. Hier bedarf es dringender Untersuchungen, um längerfristig zuverlässige Vorhersagen machen zu können. Besonders in den Rechnungen von Bindungsenergien in Isotopen- und Isotonenketten sowie für Neutronenmaterie zeigt das Punktkopplungsmodell Schwächen im isovektoriellen Kanal der effektiven Wechselwirkung, die denen des RMF-FR-Modells ähneln. Dies bestätigt den Verdacht, dass dieser Kanal modifiziert werden muss. Deshalb wurden mehrere Varianten des RMF-PC-Modells mit Erweiterungen im isovektoriellen Kanal getestet. Ein interessantes Ergebnis der Untersuchungen zu den erweiterten Parametersätzen des Punktkopplungsmodells ist, dass sich eine Anpassung zusätzlicher Terme im isovektoriellen Kanal der Wechselwirkung mit den in dieser Arbeit verwendeten Fitstrategien nicht bewerkstelligen lässt. Andererseits zeigen die Modelle gerade in dieser Hinsicht noch unverstandene Schwächen. Dies zeigt, dass in der Zukunft eine Erweiterung der Fitstrategie wichtig wird. Kerne mit großem Isospin und z.B. Neutronenmaterie könnten hier Verwendung finden. Neue experimentelle Daten zu exotischen Kernen werden hierbei von großem Nutzen sein. Untersuchungen zur Natürlichkeit der angepassten Kopplungskonstanten mit Hilfe der naiven dimensionalen Analyse haben gezeigt, dass die Kraft PC-F1 dieses Kriterium erfüllt. Dies ist besonders interessant, da bei dieser Kraft alle Kopplungskonstanten frei im Fit variierbar waren. Die Kopplungskonstanten des Modells bzw. die korrespondierenden Terme absorbieren auch Vielkörpereffekte, weshalb es interessant ist, dass dieses Kriterium anwendbar ist. Parametersätze für erweiterte Punktkopplungsmodelle erfüllen bisher nicht das Kriterium der Natürlichkeit, was noch einmal ihre ungenügende Fixierungsmöglichkeit in den verwendeten Fitstrategien unterstreicht. Die Struktur des relativistischen Punktkopplungsmodells ermöglicht es, die Austauschterme der 4-, 6- und 8-Fermionen-Terme als direkte Terme umzuschreiben. Diese Möglichkeit ebnet den Weg für relativistische Hartree-Fock-Rechnungen für endliche Kerne, die numerisch kaum aufwendiger sind als die Rechnungen mit der Hartree-Version des Modells. Dabei bedürfen die Ableitungsterme gesonderter Behandlung. Allerdings muss dazu auch der Modellansatz erneut überdacht werden: das Pion bzw. die dazu korrespondierenden Terme sollten Bestandteil dieser Formulierung sein und durch die Austauschterme Beiträge zu den mittleren Potenzialen liefern. Relativistische Hartree-Fock-Rechnungen mit dem Punktkopplungsmodell werden es ermöglichen, den Zusammenhang zwischen relativistischen und nichtrelativistischen Hartree-Fock-Modellen systematisch und im Detail zu studieren. Längerfristig können diese Studien zu einer quantitativen Verbesserung der Modelle und damit einhergehend zu ihrem klaren Verständnis führen. Die mikroskopische und selbstkonsistente Beschreibung von Atomkernen ist eine faszinierende und spannende Herausforderung, sie anzunehmen war Ziel und Aufgabe dieser Arbeit.
In dieser Arbeit werden mit Hilfe von Röntgenstreuung Polymere untersucht, die auf molekularer Ebene eine lamellenartige Schichtstruktur aufweisen. Diese Ordnung wird bei hohen Temperaturen zerstört, das Polymer wandelt sich in eine homogene Schmelze um. Ziel dieser Arbeit ist es, die Ursachen dieser Phasenumwandlung, d.h. ihre treibenden Kräfte zu erforschen. Hierzu werden mehrere Polymere verschiedener Zusammensetzung untersucht und der Einfluss von mechanischem "Stress" auf die Phasenumwandlung überprüft. Die untersuchte Polymerklasse ist ein sogenanntes Diblockcopolymer , d.h. die Polymermoleküle bestehen aus jeweils zwei linearen Polymerkettenstücken verschiedener Polymersorten (hier: {\em Polystyrol} und {\em Polybutadien}), die "Kopf an Kopf" miteinander verbunden sind. Durch diese molekulare Verbindung ist eine Auftrennung auf makroskopischem Massstab, etwa vergleichbar der Entmischung von "Ol und Wasser, nicht möglich. Mikroskopisch kann das Polymer durch eine günstige Ausrichtung der Moleküle zueinander die Kontakte zwischen den Polystyrol- und Polybutadien-Teilketten minimieren. Diese Abnahme der Gesamt-Wechselwirkungsenergie führt zum Aufbau einer lamellaren Struktur und bedeutet gleichzeitig eine Absenkung der Entropie. Bei Erhöhung der Temperatur kann der entropische Beitrag zur freien Energie dominant werden, d.h. die Ordnung wird zerstört. Die Experimente wurden am Max-Planck-Institut für Polymerforschung in Mainz unter Betreuung von Herrn Prof. Dr. Manfred Stamm (inzwischen an der Universität Dresden) durchgeführt. Dort wurden die Polymere synthetisiert und eine vorhandene Röntgenkleinwinkelstreuanlage für die hier vorgestellten Messungen genutzt. Weiterhin wurde eine Scherapparatur so umgebaut, dass die gleichzeitige Messung von Scherung und Röntgenkleinwinkelstreuung im Time-Slicing-Verfahren möglich war. Im Rahmen dieser Arbeit wurde ein Röntgendetektor entwickelt, der die korrelierte Datenerfassung von Scherung und Röntgenstreuung im Zeitmassstab deutlich unter einer Sekunde ermöglicht. Die hier vorgestellten Experimente gliedern sich zum einen in statische Röntgenmessungen an verschiedenen Polymersystemen, welche die Temperaturabhängigkeit der inneren, molekularen Struktur untersucht, bei der Umwandlung von der lamellenartigen Schichtstruktur zur homogenen Schmelze und umgekehrt. Hierbei zeigen sich keine Hystereseeffekte und eine gute Übereinstimmung mit {\em MC-CMA}-Simulationen. Die einzelne Polymerkette wird beim Phasenübergang leicht gestreckt. Die beobachteten Phänomene werden durch feldtheoretische Modelle nicht vollständig wiedergegeben. Zum anderen wird der Einfluss von mechanischem "Stress" in Form einer oszillatorischen Verscherung auf diese Umwandlung und bei Temperaturen nahe dieser Umwandlung untersucht. Der anisotrope Aufbau der lamellenartigen Schichtstruktur bewirkt ein stark nichtlineares mechanisches Verhalten des Polymers, das mit dem Aufbau einer Vorzugsorientierung der Lamellen zur Richtung der Verscherung einher geht. Die Kinetik dieser Orientierungsphänomene wurde mit Hilfe der Röntgenkleinwinkelstreuung während der mechanischen Beanspruchung gemessen. Es ergibt sich innerhalb der Messungenauigkeit von 1-2\,K keine Erhöhung der Umwandlungstemperatur. Abhängig von den Scherparametern zeigen sich knapp unterhalb der Umwandlungstemperatur unterschiedliche Vorzugsorientierungen, deren zeitliche Abfolge irreversibel ist. Für das Auftreten der verschiedenen Vorzugsorientierungen zum Scherfeld werden verschiedene Parameter auf unterschiedlichen Größenskalen verantwortlich gemacht. Das komplexe Zusammenwirken dieser strukturellen Details kann durch die mechanische Beanspruchung "getestet" werden. Der Aufbau einer langreichweitigen Ordnung wird durch die externen Kräfte beschleunigt.
Im Rahmen dieser Promotionsarbeit wurden fünf verschiedene Experimente mit der Schwerionen-Mikrosonde der GSI durchgeführt. Vier dieser Experimente waren erfolgreich, bei einem Experiment wurden nicht die erhofften Ergebnisse erzielt. Alle Experimente haben Ziele und Fragestellungen verfolgt, die vornehmlich mit einer Ionen-Mikrosonde bearbeitet werden können. Es wurde gezeigt, dass durch die Anwendung fein fokussierter Ionenstrahlen physikalische und technische Probleme im Mikrometerbereich sehr effizient und erfolgreich aufgeklärt werden können. Die hohe örtliche Auflösung der Mikrosonde in Verbindung mit den bekannten auf Ionenstrahlen basierenden Analysemethoden ermöglicht den Zugriff auf Informationen, die auf anderem Wege gar nicht oder nur schwer zugänglich sind. Das erste der fünf Experimente an der Mikrosonde untersuchte die Eigenschaften von polykristallinem CVD Diamant, bei der Verwendung dieses Materials als Detektor für Schwerionen. Der große Nachteil dieses Detektormaterials ist die geringe Fähigkeit, im Detektor erzeugte Ladungsträger verlustfrei zu den Elektroden zu transportieren, um sie dort zu sammeln. Häufig werden bei diesem Transportprozess vom Entstehungsor t der Ladungsträger zu den Elektroden über 90 % der ursprünglich vorhandenen Ladungsträger von Ladungsträgerfallen im Diamantmaterial eingefangen. Es bestand der starke Verdacht, dass diese Fallen vorwiegend in den Korngrenzen zwischen den Diamanteinkrista llen lokalisiert sind. Aus diesem Verdacht begründete sich die Hoffnung, dass die Einkristalle im CVD Diamant ein wesentlich besseres Ladungssammlungsverhalten zeigen würden. Da die Ionenmikrosonde einen Ionenmikrostrahl mit einem lateralen Fokusdurchmesser von ca. 0,5 µm über eine Targetfläche von 1 x 1 mm² rastern kann und dabei Punkt für Punkt die Reaktion des Targetmaterials nachweisen kann, ist sie das geeignete Werkzeug zur Untersuchung von Ladungssammlungsprozessen im Bereich der Einkristalle und der Korngrenzen. Bei der Auswertung der Ergebnisse des Experiments ist aufgefallen, dass man für das CVD Diamantmaterial innerhalb der Ionenbestrahlung zwei verschiedene Zustände unterscheiden muss. Ein unbestrahlter CVD Diamant verhält sich in Bezug auf die Ladungssammlungs- eigenschaften wesentlich anders als ein bestrahlter CVD Diamant, der schon eine gewisse Ionendosis akkumuliert hat. Beim unbestrahlten Diamant ist zu beobachten, dass sowohl in den Einkristallen als auch in den Korngrenzen sehr effektive Ladungsträge rfallen existieren. Die generelle Aussage, dass Diamanteinkristalle eine bessere Ladungssammlung zeigen, kann hier nicht bestätigt werden. Es konnte aber gezeigt werden, dass es, im etwa 300 x 350 µm großen Scannfeld, Bereiche mit sehr guten Ladungssammlungseigenschaften (Effizienz über 90 % im Maximum der Verteilung) gibt und in unmittelbarer Nähe Bereiche mit geringster Ladungssammlungs- effizienz (etwa 8 % im Maximum der Verteilung) existieren. Es konnte nicht geklärt werden, ob diese Bereiche aus Einkristallen bestehen oder sich über Korngrenzen ausdehnen. Die beobachtete 90%ige Ladungssammlungseffizienz ist jedoch ein eindeutiger Nachweis der Möglichkeit, die Detektoreigenschaften dieses Materials wesentlich verbessern zu können, wenn es gelingt, die Besonderheiten dieses hocheffizienten Bereichs aufzuklären. CVD Diamantdetektoren, die schon eine gewisse Ionendosis akkumuliert haben, werden auch als gepumpte Detektoren bezeichnet. Das Pumpen des Detektors kann dabei auch durch andere Formen der Energiezufuhr, beispielsweise mit Hilfe eines Lasers erfolgen, wichtig ist nur, dass eine große Zahl der Ladungsträgerfallen mit Ladungsträgern gefüllt sind. Da diese Fallen im CDV Diamant relativ tief sind, werden gefüllte Fallen nicht schnell entleert und sie stören, so lange sie gefüllt sind, die Ladungssammlung nicht mehr. Die Ladungs- sammlungseffizienz gepumpter Diamantdetektoren verbessert sich sehr stark im Vergleich zum ungepumpten Material. Das Maximum der Verteilung des Ladungssammlungsspektrums verschob sich von etwa 15 % Effizienz beim ungepumpten Detektor zu mehr als 50 % Effizienz beim gepumpten Detektor gemittelt über das gesamte Scannfeld. Bei der Betrachtung des Einflusses der Korngrenzen im gepumpten Material konnte festgestellt werden, dass die Einkristalle nun tatsächlich wesentlich weniger zum Verlust der Ladungsträger beitragen als die Korngrenzen. Die Korngrenzen zeichneten sich beim gepumpten CVD Diamant deutlich als dominante Bereiche des Ladungsträgerverlustes ab. Somit haben wir die bestehende Vermutung über den dominierenden Ladungsträgereinfang in den Korngrenzen für den gepumpten CVD Diamanten bestätigen können, beim ungepumpten Material hingegen verwerfen müssen. Eine weitere Aufklärung der Unterschiede zwischen den beiden Zuständen wür de hier zu einem besseren Verständnis der Vorgänge führen. Zudem wurde am CVD Diamant eine Hochdosisbestrahlung vorgenommen, bei der bestimmt werden sollte ab, welcher Ionendosis das Material soweit geschädigt ist, dass eine Trennung der Detektorsignale von den Rauschsignalen nicht mehr möglich ist. Für einen 8,3 MeV/u 12C-Strahl war diese Trennung ab einer Dosis von 8,0 x 1013 Ionen/cm² nicht mehr möglich, was bedeutet, dass der Detektor hier seine Verwendbarkeit verliert. Eine weitere Gruppe von drei Experimenten befasste sich mit der Wirkung von schnellen, schweren Ionen auf Halbleiterbauelemente. Diese anwendungsorientierten Experimente sollten Ursachen für das Fehlverhalten mikroelektronischer Bauelemente bei Ionentreffern an bestimmten Orten und zu bestimmten Zeitpunkten untersuchen, beziehungsweise Grundlagen für die theoretische Betrachtung der Vorgänge liefern. Beim ersten der drei Experimente wurde das Auftreten von Single Event Upsets in Verbindung mit Single Event Latchups in SRAM Bausteinen untersucht. Die Latchups werden bei den üblichen Testverfahren durch einen Spannungsabfall an einem externen Widerstand in der Versorgungsleitung erkannt. Mit Hilfe der Mikrosonde wurde nachgewiesen, dass diese Methode der Latchupdetektion unzureichend sein kann. Da die internen Versorgungsleitungen in der Halbleiterstruktur selber Widerstände bilden, kann der Latchup am äußeren Widerstand unter bestimmten Bedingungen nicht erkannt werden. Hier spielt die Länge der integrierten Versorgungsleitung eine wesentliche Rolle. Die bild- gebenden Verfahren der Mikrosonde bei der simultanen Messung von Latchups und Upsets können hier Latchups entdecken, die im üblichen Testverfahren nicht erkennbar waren. Das zweite dieser drei Experimente hatte das Ziel, die Upsetempfindlichkeit einer getakteten CMOS- Struktur im Bereich der Schaltflanken zu bestimmen. Hierzu wurden die Schaltzeit- punkte des ICs mit dem vom UNILAC gelieferten Ionenstrahl synchronisiert. Einzelne Ionen trafen den Schaltkreis nur innerhalb eines Zeitfensters von 2 nsec um die Schaltflanke. Da der getaktete integrierte Schaltkreis im Bereich der Schaltflanken besonders empfindlich auf die vom Ion erzeugten zusätzlichen Ladungsträger reagiert, sollten die Upsetwahrscheinlichkeiten innerhalb des Schaltprozesses mit möglichst hoher zeitlicher Auflösung vermessen werden. Die Bestimmung der Trefferzeitpunkte mit einer zeitlichen Genauigkeit von 1 ns oder besser brachte jedoch eine Vielzahl von Problemen mit sich, die letztlich dazu führten, dass dieses Experiment nicht erfolgreich abgeschlossen werden konnte. Auf Grund seiner hohen technischen Bedeutung wurde es in dieser Arbeit aber beschrieben und sollte nach der Verbesserung der Treffererkennung erneut durchgeführt werden. Es wäre das erste Experiment, in dem die Empfindlichkeit einer CMOS- Struktur gegen Ionenstrahlen mit hoher örtlicher und zeitlicher Auflösung gemessen wird. Das dritte Experiment dieser Serie befasste sich mit der für theoretische Vorhersagen wichtigen Größe des elektronischen Durchmessers der Ionenspur. Aus der vom Schwerion erzeugten Spur breitet sich eine elektronische Stoßkaskade aus. Diese freien Ladungsträger können ungewollte Schaltvorgänge in integrierten Schalkreisen auslösen. Da die Integrationsdichte in modernen Baugruppen immer höher wird, kann die vom Ion erzeugte Spur aus freien Ladungsträgern mehrere Transistoren beeinflussen. Die Ausdehnung dieser Spur kann nicht mehr als vernachlässigbare Größe eingestuft werden. Um den Durchmesser der Spur zu bestimmen, wurde ein fein fokussierter 5,9 MeV/u Nickel-Strahl über eine Probe aus Mikrostreifen gerastert, und die in den Streifen gesammelten Ladungssignale wurden gemessen. Trotz einiger Probleme mit der kapazitiven Kopplung von Signalen zwischen den Streifen und dem Substrat und de n Streifen untereinander konnte der Durchmesser der elektronischen Spur bei diesem Test zu etwa 1,2 µm bestimmt werden. Es sollte der Versuch unternommen werden, diesen ersten experimentellen Wert durch weitere verfeinerte Messungen zu bestätigen und vor allem sollte versucht werden, das Dichteprofil der Elektronen in der Ionenspur mit dieser Technik zu bestimmen. Diese Informationen wären von großem Wert für theoretische Modelle zur Empfindlichkeit von integrierten Elektroniken gegen die Effekte einzelner Ionen. Im fünften und letzten Experiment dieser Arbeit wurde die Ionen-Mikrosonde als Werkzeug zur Strukturierung eines Hochtemperatur Dünnfilm Supraleiters eingesetzt. In der sogenannten Shubnikov-Phase können magnetische Flussquanten in den Supraleiter eindringen, obwohl der Zustand der Supraleitung noch vorhanden ist. Diese Flussquanten können durch säulenartige korrelierte Defekte im Supraleiter gebunden werden. Die Spuren schwerer Ionen bilden solche kolumnaren Defekte, die mit Hilfe der Mikrosonde aufgeprägt werden können. Da bei dieser Strukturierung eine hohe Defektdichte erforderlich war, konnte aus Zeitgründen eine Strukturierung mit dem schreibenden Ionenstrahl nicht realisiert werden. Stattdessen wurde eine Schlitzmaske verwendet, die mit Hilfe der Mikrosonde verkleinert auf der Oberfläche des Supraleiters abgebildet wurde. Auf diese Weise wur de dem Supraleiter eine Defektstruktur aus Stegen, die in einem bestimmten Winkel orientiert waren, aufgeprägt. An dem so erzeugten Supraleiter wurden dann an der Universität Mainz die elektrischen Transporteigenschaften des Materials unter dem Einfluss eines gepinnten magnetischen Feldes gemessen. Da die erwarteten Effekte aus dem Pinning der magnetischen Flussquanten erst dann eine messbare Größe annehmen, wenn dem Supraleiter Defektstrukturen in der Größenordnung von einigen µm aufgeprägt werden, ist auch hier die Ionen-Mirkrosonde das einzige verfügbare Instrument für diese Aufgabe. Mit dieser Arbeit wurde deutlich gemacht, dass eine Ionen-Mikrosonde ein vielseitig einsetzbares Instrument ist, das vor allem aufgrund der hohen Bedeutung von miniaturisierten Systemen in der modernen Forschung und Technik ein hohes Verwendungspotential besitzt. Alle hier vorgestellten Experimente wären ohne den Einsatz der Mikrosonde nicht durchführbar gewesen. Neben diesen Experimenten werden an der GSI noch eine Reihe weiterer Experimenten zum Beispiel im Bereich der Biophysik bearbeitet, die ihrerseits von der einzigartigen Möglichkeit der µm-genauen Platzierung schwerer Ionen profitieren.
Die Kinetik der Quantenkohärenz entarteter bosonischer Exzitonen bietet ein reiches Spektrum von interessanten Phänomenen, die in dieser Arbeit unter vielfältigen Aspekten untersucht wurden. Dabei lag das Interesse vor allem im Wechselspiel von kohärenten und inkohärenten Prozessen, die mit Hilfe der Vielteilchentheorie auf gemeinsamer Basis behandelt werden konnten. Dies ermöglichte die Beschreibung zweier völlig gegensätzlicher Prozesse: - Den Übergang einer nach Laserpulsanregung rein kohärenten Amplitude in eine Gleichgewichtsverteilung inkohärenter Bosonen unter totalem Verlust jeglicher Phase (Zerfall von Quantenkohärenz). - Den entgegengesetzen Vorgang des spontanen Aufbaus einer makroskopischen kohärenten Amplitude aus einer inkohärenten Verteilung von Exzitonen, den typischen Vorgang in einer BoseEinsteinKondensation (Aufbau von Quantenkohärenz). Die Arbeit begann mit einer getrennten Untersuchung der inkohärenten und der kohärenten Eigenschaften von Exzitonen in Quantendrähten. In diese Halbleiternanostrukturen führt das schwache Confinement zu Subbändern für Exzitonen und Biexzitonen, die sich auch in den komplizierten Auswahlregeln der ExzitonExziton und der ExzitonBiexzitonWechselwirkung bemerkbar machen. Dabei ergibt sich in sehr guter Übereinstimmung mit Experimenten in Würzburg ein überraschendes Phänomen: Streuraten werden durch stärkeres Confinement nicht immer vermindert. In der Tat wurde eine Erhöhung der ExzitonExzitonStreuung bei kleinerer Drahtbreite gefunden. Experimentell und theoretisch skalieren die Streuraten dabei mit dem inversen Quadrat der ConfinementLänge \Gamma XX / 1=L 2 x . Dies könnte durchaus auch Auswirkungen auf den Bau optischer Devices haben, bei denen die Streurate im Allgemeinen minimiert werden soll. Weiterhin wurde gezeigt, dass das Exzitonsystem durch die Kopplung an Biexzitonen für höhere Intensitäten in völlig irreguläres Verhalten übergeht. Daran anschließend wurde eine vereinheitlichende Kinetik mit Hilfe der Nicht gleichgewichtDiagrammtechnik formuliert, die kohärentes und inkohärentes Verhalten gemeinsam auf mikroskopischer Skala beschreibt. Die bosonische Diagrammtechnik war dabei zwar von Methoden für Nicht gleichgewichtsfermionen inspiriert, viele fundamentale Aspekte ohne Analogie in Fermionensystemen oder bosonischen Gleichgewichtssystemen mussten jedoch in dieser Arbeit neu entwickelt werden. Für die gesamte bosonische Einteilchendichtematrix, die sowohl eine kohärente Amplitude ha 0 (t)i als auch Besetzungszahlen ha k (t)a k (t)i und Paarkorrelationen ha k (t)a \Gammak (t)i bei endlichen Impulsen k enthält, wurde eine Markov Kinetik entwickelt. Mit deren Hilfe wurde dann die Dephasierungskinetik einer exzitonischen Polarisation nach Anregung mit einem kohärenten Laserpuls untersucht. Dabei konnte der gesamte Übergang von kohärent erzeugten Exzitonen zu einer inkohärenten Gleichgewichtsverteilung allein aufgrund der ExzitonExzitonWechselwirkung auf mikroskopischer Ebene simuliert und verstanden werden. Erstaunlicherweise stellt sich bei diesem Prozess die Berücksichtigung der Paarkorrelationen F k = ha k a \Gammak i, die zwei Exzitonen mit Impuls k und \Gammak korrelieren, als absolut notwendig heraus. Ohne diese Korrelation zerfällt eine einmal kohärent angeregte Exzitonpolarisation überhaupt nicht durch ExzitonExzitonStreuung und das System bleibt völlig kohärent. Bei diesen Berechnungen zur Dephasierung zeigte sich auch erstmals in dieser Arbeit, dass die prinzipielle Fähigkeit der Exzitonen zu einer Kondensation selbst unterhalb der kritischen Dichte die Kinetik der Polarisation beeinflusst. Dabei spielt eine Besonderheit der Kondensation von Exzitonen eine wesentliche Rolle, die keine Äquivalenz in atomaren Systemen hat: die Identität des Ordnungparameters der BoseEinsteinKondensation (BEC) mit der direkt messbaren optischen Polarisation. So zeigt sich ein auf den ersten Blick überraschendes Phänomen: In der Nähe des Phasenübergangs verliert die allgemein anerkannte lineare Dichteabhängigkeit der Dephasierungrate \Gamma XX (n) = fln (excitation induced dephasingi ) ihre Gültigkeit. Stattdessen erhält man eine signifikante Verlangsamung der Polarisationsdephasierung, wie man sie aus vielen Phasenübergängen für die Dynamik des Ordnungsparameters kennt (critical slowing downi ). Diese Tendenz der Gleichungen die Quantenkohärenz der InterbandPolarisation in der Nähe der Kondensation zu erhalten, kann als erstes experimentell messbares Kriterium für eine Annäherung an den Phasenübergang verwendet werden. Aufgrund der unvermeidlich kurzen ExzitonLebensdauer eignet sich dieses Nichtgleichgewichtsphänomen für eine Beobachtung der BEC von Exzitonen möglicherwiese besser als die üblichen Gleichgewichtsargumente. Um die Kinetik der Kondensation besser zu verstehen, wurde danach die MarkovKinetik von Exzitonen in Wechselwirkung mit einem Phononenbad behandelt. Als Anfangsbedingung wurde sowohl eine inkohärente Verteilung als auch eine rein kohärente Amplitude untersucht, die durch einen Lichtpuls erzeugt wurde. Bei der Herleitung der markovschen Ratengleichungen im Kondensationsregime sind beim thermodynamischen Limes und bei der Behandlung der detaillierten Bilanz einige subtile Punkte unbedingt zu beachten. Durch deren konsequente Berücksichtigung wurden Ratengleichungen erhalten, die von den Literaturüblichen abweichen. Die abgeleiteten Stoßterme wechseln oberhalb der kritischen Dichte für eine BEC spontan das Vorzeichen, was zum Aufbau eines Kondensates und erstmals auch asymptotisch zu einer Bose EinsteinKondensation des freien BoseGases innerhalb der Lebenszeit der Paraexzitonen von Cu 2 O führt. Auch die Dephasierungsrate der Polarisation nach Laserpulsanregung aufgrund von Phononenstreuung \Gamma XP zeigt in der Nähe des Phasenübergangs Abweichungen von der erwarteten Dichteunabhängigkeit und verschwindet quadratisch an der kritischen Dichte n c : \Gamma XP (n) / (n \Gamma n c ) 2 . Das Zerfallsgesetz ändert sich bei höheren Intensitäten in eine Potenzgesetzrelaxation zur stationären BEC. Beide Gesetze haben große experimentelle Relevanz bei der Suche nach einer BEC in Halbleitern. Obwohl in der MarkovKinetik die BEC des freien BoseGases erfolgreich simuliert wurde, geht diese Eigenschaft bei der Mitnahme der kohärenten ExzitonExzitonWechselwirkung sofort verloren. Die Gleichungen beschreiben dann entweder den Aufbau oder den Zerfall der Quantenkohärenz falsch. Der Grund hierfür wurde in der Unstimmigkeit zwischen markovschen Stoßtermen mit festen Energien und dem Aufbau des kohärenten BoseEinstein Kondensats des wechselwirkenden BoseGases gefunden, bei dem die Energien der Quasiteilchen zeitabhängig werden. Dieses Dilemma konnte im letzten Kapitel durch eine quantenkinetische Formulierung der Kinetik mit expliziten Gedächtnisintegralen als Stoßterme gelöst werden. Dabei werden die Deltafunktionen durch komplexe Integralkerne ersetzt, bei denen die zeitliche Evolution der Quasiteilchenspektren exakt berücksichtigt werden. Mit dieser Methode gelingt es erstmals, den zeitlichen Aufbau der BEC des wechselwirkenden BoseGases erfolgreich zu simulieren. Die involvierten Zeitskalen der Kondensation, die asymptotischen Verteilungsfunktionen der Exzitonen und die Kondensatanteile weichen dabei unter den Bedingungen typischer Experimente in Cu 2 O stark vom freien Gas ab. Die Beträge aller anomalen Größen (also auch p und F k ) erreichen den von der Gleichgewichtstheorie mit Wechselwirkung vorausgesagten Wert, oszillieren jedoch asymptotisch mit Vielfachen des chemischen Potentials, das in dieser Kondensation nicht verschwindet. Die erste theoretische Realisierung des Aufbaus der nichttrivialen BEC eines wechselwirkenden BoseGases, mit der allein z.B. viele Interferenzexperimente und Superfluidität erklärbar sind, ist von großem fundamentalen Interesse. Sie weist auch über das Thema dieser Arbeit hinaus und könnte Anstoß für ähnliche Simulationen der Kondensation in atomaren Fallen und anderen "meanfield" Phasenübergänge geben.
Diese Arbeit behandelt die Züchtung von La 1 x Sr x MnO 3 -Einkristallen. Auf- grund des hohen Schmelzpunktes und der Agressivität der Schmelze muss bei der Züchtung aus der Schmelze mit tiegelfreien Verfahren gearbeitet werden. Diese Bedingung wird von beiden in dieser Arbeit eingesetzten Züchtungsver- fahren erfüllt. Mit dem Skullverfahren, das Hochfrequenzheizung mit einem geschlossenen Eigentiegel aus dem zu schmelzenden Material kombiniert, werden mit einer Arbeitsfreuqenz von 100 kHz LaMnO 3 -Einkristalle mit einer Grösse von bis zu 5x5x5 mm 3 gezüchtet. Bei der Züchtung von La 1 x Sr x MnO 3 mit dem Skull- verfahren kommt es jedoch zu einem ungleichmässigen Einbau von Stronti- um. Dies ist auf einen Verteilungskoeffizienten von k eff < 1 für Strontium in La 1 x Sr x MnO 3 zurückzuführen. Für die Kristallzüchtung von La 1 x Sr x MnO 3 mit x > 0 wird ein lasergeheiztes tiegelfreies vertikales Zonenschmelzen eingesetzt. Dazu ist es nötig die Spiegel- optik einer für Materialien mit niedrigeren Schmelztemperaturen bereits ein- gesetzten Anlage für Materialien mit einem Schmelzpunkt von etwa 2200K zu optimieren. Dies wird durch eine Spiegelanordnung erreicht, die das Laserlicht senkrecht und homogen auf die Probe fokussiert. Der fokussierende Spiegel ist auswechselbar, so dass leicht Kristalle aus Materialien mit einem noch höheren Schmelzpunkt gezüchtet werden können. Dies macht die Anlage flexibel ein- setzbar. Mit einem Sinterverfahren gelingt es, die für das Laserzonenschmelzen benötigten geraden und homogenen keramischen Fütterstäbe herzustellen. Die aus diesen Stäben mit dem Laser gezüchteten La 1 x Sr x MnO 3 -Kristalle sind zy- linderförmig mit einem Durchmesser von etwa 2,5 mm und eine Länge von bis zu 35 mm und haben einen konstanten Strontiumgehalt. Mit dem Laserzonenschmelzen wird der Ein uss des Sauerstoffgehaltes der Züchtungsatmosphäre auf die Kristallzüchtung von LaMnO 3 untersucht. Es zeigt sich, dass Kristalle, die in Argonatmosphären mit einem Sauerstoffpar- tialdruck von 10 5 mbar und 10 2 mbar gezüchtet werden, Einschlüsse eines LaMnO 3 -MnO-Eutektikums enthalten. Solche Einschlüsse werden in Kristallen, die in Luft gezüchtet werden, nicht gefunden. Der für die Bestimmung des Mn 4 /Mn 3 -Verhältnisses wichtige Sauerstoffgehalt der Kristalle wird mittels Thermogravimetrie in einer reduzierenden Atmosphäre bestimmt. Der Sauer- stoffgehalt y der in Luft gezüchteten LaMnO y -Kristalle beträgt y=3,00 - 0,03. Die aus der Schmelze hergestellten Kristalle sind verzwillingt. Die einzelnen Domänen lassen sich mit Polarisations- und Ultraschallmikroskopie nachwei- sen. Zusammen mit Röntgendiffraktometrie und Laueverfahren wird die (112)- Ebene in orthorhombischen LaMnO 3 -Kristallen als Zwillingsebene identifiziert. In rhomboedrischen La 1 x Sr x MnO 3 -Kristallen findet man mit den gleichen Verfahren, dass die Zwillingsebenen parallel zu den pseudokubischen (100)- Ebenen liegen. Die für die Entstehung der Zwillinge verantwortlichen Phasenübergänge wer- den mit Röntgendiffraktometrie und Polarisationsmikroskopie bei hohen Tem- peraturen untersucht. Der strukturelle Übergang von orthorhombisch nach rhomboedrisch lässt sich mit Röntgendiffraktometrie nachweisen. Der Über- gang zu einer kubischen Phase in LaMnO 3 wird bis zu einer Temperatur von 1520 o C nicht gefunden.
Alignment, characterization and application of polyfluorene in polarized light-emitting devices
(2001)
Ziel im Rahmen der vorliegenden Dissertation war die Realisierung der polarisierten Elektrolumineszenz blau emittierender flüssigkristalliner Polyfluorene. Polymere Leuchtdioden, die aufgrund hoher Orientierung der Moleküle in der aktiven Schicht polarisiert emittieren, sind für eine Anwendung beispielsweise als Hintergrundbeleuchtung in Flüssigkristallanzeigen (LCDs) von Interesse. Es wurde gezeigt, dass sich mit der Ausrichtung von Polyfluoren auf Ori entierungsschichten auf der Basis von geriebenem Polyimid hohe Ordnungsgrade erzielen lassen. Die Dotierung mit lochleitenden Materialien erlaubte erstmals den Einbau solcher Orientierungsschichten in Leuchtdioden und ermöglichte die Realisierung polarisierter Elektrolumineszenz. Die Morphologie und Struktur sowohl der hoch orientierten Polyfluoren filme als auch lochleitender Orientierungsschichten wurden eingehend untersucht. Die ElektrolumineszenzEigenschaften von isotropen sowie polarisierten Leuchtdioden wurden ausführlich analysiert und anschließend durch chemische Modifizierung des Polyfluorens entscheidend verbessert. Zusätzlich wurde Polyfluoren mit fluoreszierenden Farbstoffen dotiert, um ausgehend von blauem Licht grüne und rote Emission zu erhalten. Hierbei wurde unter sucht, in welchem Maß FörsterEnergietransfer sowie Ladungsträgereinfang für die Emission der eingemischten Farbstoffe verantwortlich sind. Eine Einführung in die Grundlagen der Elektrolumineszenz konjugierter Polymere findet sich in Kapitel 2 dieser Arbeit. Da polarisierte Elektrolumineszenz ein hohes Maß an Anistotropie der emittierenden Schicht erfordert, werden anschließend verschiedene Methoden zur Ausrichtung von Polymeren besprochen, wobei besondere Betonung auf der Orientierung flüssigkristalliner Polymere liegt. Kapitel 3 behandelt die signifikanten Eigenschaften der Polymere sowie die experimentel len Methoden, die im Rahmen dieser Arbeit verwendet wurden. Neben Polyfluoren wird ein weiteres blau emittierendes Polymer, Polyphenylenethynylen (PPE), eingeführt. Bei der Cha rakterisierung der Polyfluorene wird im Anschluss an die Beschreibung der reinen Polymere insbesondere der positive Einfluss des Anbringens von lochleitende Endgruppen an die Hauptkettenenden auf wesentliche Eigenschaften bezüglich der Elektrolumineszenz aufgezeigt. Außerdem werden die wesentlichen Merkmale von Polyimid, welches die Matrix der Orientierungsschicht bildet, sowie von verschiedenen Polymeren, die der Lochleitung und der Lochinjektion dienen, besprochen. Die Beschreibung der Methoden zur Präparation isotroper und polarisierter Leuchtdioden sowie zur Untersuchung der optischen, elektrischen und mor phologischen Eigenschaften der Polymerfilme bilden den Abschluss dieses Abschnitts. Im vierten Kapitel dieser Arbeit werden unterschiedliche Verfahren zur Ausrichtung der Polymermoleküle auf Polyfluoren sowie auf PPE angewandt und hinsichtlich der erreichbaren Ordnungsgrade verglichen und beurteilt. Im Falle von Polyfluoren wurde gezeigt, dass eine Orientierung im flüssigkristallinen Zustand mit Hilfe zusätzlicher Orientierungsschichten, welche auf geriebenem Polyimid basieren, die einzige geeignete Methode zur Orientierung dieses Po lymers ist. Durch den Zusatz von niedrigmolekularen lochleitenden Materialien in geeigneter Konzentration in die PolyimidMatrix konnte das nichtleitende Polyimid so modifiziert wer den, dass es sich in Leuchtdioden einbinden ließ, ohne dass die Orientierungseigenschaften der Schichten verloren gingen. Vergleiche unterschiedlicher Polyfluorene ergaben, dass die Länge und Struktur der AlkylSeitenketten das Orientierungsverhalten entscheiden beeinflussen. Hierbei wurde gezeigt, dass sich für verzweigte Seitenketten deutlich höhere Orientierungsgrade erreichen lassen als für solche mit linearen Seitenketten. Dies wurde mit dem vergrößerten Verhältnis aus Persistenzlänge und Polymerdurchmesser erklärt, was gemäß der Theorie der flüssigkristallinen Polymere zu einer Zunahme des erreichbaren Ordnungsparameter führt. Außerdem wiesen die Absorptionsspektren der Polyfluorene mit langen Seitenketten auf eine planare Konformation der Polymerrückgrate hin, welche aufgrund der starken Wechselwirkung zwischen den einzelnen Ketten eine Orientierung im flüssigkristallinen Zustand verhindert. Von allen untersuchten Polyfluorenen ließ sich Poly(diethylhexylfluoren) (PF2/6) am besten orientieren. Im Gegensatz zu Polyfluoren scheiterte der Versuch, PPE im flüssigkristallinen Zustand auf Orientierungsschichten auszurichten. Kalorimetrische DSCUntersuchungen machten deutlich, dass sich die Struktur von PPE in flüssigkristalliner und kristalliner Phase nur unwesentlich voneinander unterscheiden. In beiden Phasen deuteten Absorptionsuntersuchungen auf eine planare Konformation der PPERückgrate. Die Viskosität des als sehr steif bekannten Polymers PPE ist daher auch in flüssigkristallinem Zustand zu hoch, um eine Umordnung der Moleküle zu verursachen, welche allein durch Wechselwirkung mit einer Orientierungsschicht hervorgerufen wird. PPE konnte jedoch im kristallinen Zustand orientiert werden, indem anstatt einer zusätzlichen Orientierungsschicht der Polymerfilm selbst gerieben wurde. Die hohe Steifigkeit von PPE erlaubte die Übertragung der Kräfte, die durch das Reiben verursacht werden, auf das starre Polymerrückgrat und ermöglichte eine homogene Ausrichtung der Moleküle. Mit Hilfe dieser Methode konnten Leuchtdioden mit PPE in der aktiven Schicht verwirklicht werden, die polarisiert emittierten. Die bestmöglichen Methoden zur Ausrichtung der Moleküle unterschie den sich demnach für die beiden flüssigkristallinen Polymere Polyfluoren und PPE, und für beide Polymere wurden Verfahren gefunden, die die Herstellung von polarisierten Leuchtdioden ermöglichten. In Kapitel 5 dieser Arbeit werden die Morphologie, die Struktur sowie weitere wesentliche Eigenschaften sowohl orientierter Polyfluorenfilme als auch der zur Ausrichtung benötigten lochleitenden Orientierungsschichten aus dotiertem Polyimid besprochen. Hierfür wurden die Filme mit Hilfe von Licht und Elektronenmikroskopie sowie von Elektronen und Röntgen beugungsexperimenten untersucht. Im ersten Teil wird die beobachtete Abnahme der Orien tierbarkeit von Polyfluoren mit zunehmendem Molekulargewicht durch Elektronenbeugungs untersuchungen näher beschrieben. Ergebnisse aus TransmissionsElektronenmikroskopie Untersuchungen zeigten, dass sich die Morphologie orientierter PF2/6Filme durch hochgeordnete Lamellen auszeichnet, welche in regelmäßigen Abständen von ungeordneten Regionen unterbrochen werden. Innerhalb der orientierten Lamellen sortieren sich die Moleküle nach ähnlicher Kettenlänge, wohingegen in den ungeordneten Gebieten vornehmlich die Endgruppen der Ketten vorzufinden sind. Strukturuntersuchungen ergaben, dass die einzelnen Polymerketten von PF2/6 zylindrisch sind und eine hexagonale Packung aufweisen, wobei die Polymerrück grate eine 5/2Helixstruktur bilden. Das wurmähnliche Rückgrat ist dabei zylinderförmig von einer Hülle aus ungeordneten Seitenketten umgeben, die ähnlich wie ein Lösungsmittel zwi schen den einzelnen Ketten wirken. Die hieraus folgende geringe Viskosität des Polymers dient als Erklärung für die beobachtete bessere Orientierbarkeit von PF2/6 im Vergleich zu Polyfluoren mit linearen OktylSeitenketten oder zu PPE. Im zweiten Teil des fünften Kapitels werden Ergebnisse von Untersuchungen der lochlei tenden Orientierungsschichten vorgestellt. Der Einfluss der Zugabe von lochleitenden Materialien zu Polyimid auf mechanische sowie auf elektrische Eigenschaften wurde untersucht. Bei moderater LochleiterKonzentration war die mechanische Stabilität der Filme ausreichend, um nach dem Reiben keine merklichen Unterschiede zu undotierten geriebene Filmen aufzuweisen. Vergleiche entsprechender Filme hinsichtlich Ladungsinjektion und transport zeigten, dass erst durch die Dotierung eine Verwendung von PolyimidOrientierungsschichten in Leuchtdioden ermöglicht wird. Sowohl polymere als auch niedrigmolekulare lochleitende Materialien wur den hinsichtlich der erreichbaren Orientierungsgrade sowie der resultierenden ElektrolumineszenzEigenschaften verglichen, wobei nur letztere in beiden Belangen zugleich zu vorteilhaften Ergebnissen führten. Es wurde gezeigt, dass sich die besten Resultate mit polarisierten Leuchtdioden erzielen ließen, bei denen die emittierende Schicht auf eine DoppelschichtStruktur aufgebracht war, die der Lochinjektion und der Orientierung dienten. Hierbei befand sich oberhalb einer LochinjektionsSchicht aus reinem Lochleitermaterial eine weitere lochleitende Orientie rungsSchicht aus dotiertem Polyimid. Variation der Lochleiterkonzentrationen in Polyimid er gaben, dass die Helligkeit mit zunehmender Konzentration zunahm, wohingegen die erreichten Polarisationsverhältnisse gleichzeitig abnahmen. SEM und AFMUntersuchungen über den Einfluss der Lochleiterkonzentration auf die Schichtmorphologie ergaben, dass diese Beobachtungen durch Phasenseparation und mechanische Beschädigung der Filme zu erklären ist, welche bei Konzentrationen oberhalb 20 Gewichtsprozent eintreten. Im Kapitel 6 wird schließlich die Elektrolumineszenz von Leuchtdioden mit Polyfluoren als emittierende Schicht diskutiert. Zuerst wurde in isotropen Leuchtdioden die günstigste Diodenarchitektur ermittelt sowie die Optimierung der verwendeten Schichten vorgenommen. Die Ergebnisse wurden mit den Kenntnissen kombiniert, die im Rahmen der oben beschriebenen Untersuchungen erworben wurden, um die Herstellung von Leuchtdioden mit hochpolarisierter Emission zu verwirklichen. Blaue Elektrolumineszenz mit einem Emissionsmaximum von 450 nm und einem Polarisationsverhältnis von 21 wurden erzielt, wobei die Leuchtdichte bei einer angelegten Spannung von 18 V etwa 100 cd/m 2 betrug, was der typischen Helligkeit eines Computermonitors entspricht. Alle ElektrolumineszenzEigenschaften ließen sich durch End funktionalisierung des Polyfluorens weiter deutlich verbessern, indem lochleitende TriarylaminDerivate an die Enden der Hauptketten angebracht wurden ('Endcapping'). Der unerwünschte Beitrag zur Emission bei höheren Wellenlängen, welcher im Falle des reinen Polyfluoren beo bachtet wurde und gemeinhin aggregierten Polymermolekülen zugeschrieben wird, wurde durch das Konzept der Endfunktionalisierung wirksam unterdrückt. Außerdem war die Farbstabilität wesentlich verbessert und die Effizienz der Leuchtdioden um mehr als eine Größenordnung höher als bei der Verwendung des reinen Polyfluorens. Diese Beobachtungen wurden mit den elektrochemischen Eigenschaften der Endgruppen erklärt. Letztere wirken als anziehende Fallen für Ladungsträger, was dazu führt, dass die Erzeugung von Exzitonen und die anschließende Rekombination vorwiegend in der Nähe der Kettenenden stattfindet, anstatt wie im Falle des reinen Polyfluorens an weniger effizienten Aggregaten oder Exzimererzeugenden Stellen. Es wurde gezeigt, dass die Endfunktionalisierung weder das Verhalten des Polymers im flüssig-kristallinen Zustand, noch dessen Orientierbarkeit beeinträchtigte. Die Verwendung des modifizierten Polyfluorens erlaubte die Herstellung von polarisierten Leuchtdioden mit einem Polarisationsverhältnis von 22 und einer Leuchtdichte von 200 cd/m 2 bei 19 V, wobei die Schwellspannung auf 7,5 V gesenkt wurde. Dioden mit einem Anisotropiefaktor von 15 er reichten Leuchtdichten von bis zu 800 cd/m 2 . Die Effizienz dieser Leuchtdioden war mit 0,25 cd/A bei ähnlichem Polarisationsverhältnis und Leuchtdichte um mehr als doppelt so hoch wie die bisher berichteten Werte. Die Veränderung der eigentlich blauen Emissionsfarbe durch die Zugabe von Materialien mit niedrigerer Bandlücke in eine Polyfluorenmatrix wird im Kapitel 7 beschrieben. Es wurde gezeigt, dass der Zusatz bereits geringer Konzentrationen eines grün emittierenden Thiophen Farbstoffes das Emissionsspektrum des Polyfluorens entscheidend veränderte und die Realisierung grüner Emission ermöglichte. Genau wie im Falle der nichtemittierenden Lochleiter, die für die Endfunktionalisierung des Polyfluoren verwendet wurden, wirken auch die ThiophenFarbstoffe als effektive Ladungsträgerfallen, was neben der Farbveränderung eine drastische Verbesserung der Leuchtdiodeneffizienzen zur Folge hatte. Darüber hinaus konnte mit Hilfe des dotierten Polyfluorens polarisierte grüne Elektrolumineszenz verwirklicht werden, wobei die Polarisationsverhältnisse Werte von bis zu 30 erreichten, bei einer Leuchtdichte von 600 cd/m 2 und einer Effizienz von 0,3 cd/A. Im Hinblick auf rote Elektrolumineszenz wurden Leuchtdioden mit dendronisierten Pery lenfarbstoffen in der emittierenden Schicht untersucht, zum einen in reiner Form und zum an deren in Mischungen mit Polyfluoren. Hierfür wurden zwei Generationen von Dendrimeren, bestehend aus zentralem PerylendiimidChromophor und PolyphenylenGerüst, mit einer nichtdendronisierten Modellverbindung verglichen. Leuchtdioden mit reinen Filmen der ersten und zweiten Dendrimergeneration emittierten rotes Licht mit CIEKoordinaten (0,627/0,372) und einer Leuchtdichte von bis zu 120 cd/m 2 bei 11 V, wobei die Effizienz allerdings nur 0,03 cd/A betrug. Um die unterschiedlichen Mechanismen zu klären, die zur Emission der Farbstoffmoleküle führen, wurden die Farbstoffe in Polyfluoren beigemischt, und der Einfluss der Dendronisierung auf die Emissionsfarbe und die Intensität der Elektrolumineszenz wurde untersucht. In Photolumineszenz wurde mit zunehmender Dendronisierung eine Abnahme des Förster Energieübertrags vom PolyfluorenWirt zu dem PerylenfarbstoffGast verzeichnet, was zu einen höheren blauen Anteil im Emissionsspektrum führte. Hingegen wurde gezeigt, dass in Elektrolumineszenz die Farbstoffe als Elektronenfallen wirken und die Rekombination der Ladungsträger zu Exzitonen somit vorwiegend auf den Farbstoff anstatt auf den Polyfluorenmolekülen statt findet. Aus diesem Grund war die Betonung der roten Emission in Elektrolumineszenz ungleich stärker als in Photolumineszenz, bei der die rote Emission ausschließlich durch Energieübertrag via Förstertransfer zu Stande kommt. Die Verstärkung einer Farbverschiebung von rot nach blau, die mit zunehmender Dendronisierung und ansteigender Betriebsspannung beo bachtet wurde, konnte qualitativ mit der kinetischen Beeinträchtigung des Elektronenübertrags vom PolyfluorenWirt auf den PerylendiimidChromophor erklärt werden. Der bestmögliche Kompromiss aus roter Farbtiefe und Helligkeit wurde für die Mischung aus Polyfluoren und dem Farbstoff der ersten Dendrimergeneration erzielt. Bei angelegter Spannung von 6,5 V lag die Leuchtdichte bei 100 cd/m 2 und bei 11 V bei 700 cd/m 2 , wobei das Emission bei 600 nm ihr Maximum hatte.
Das hemmende Umfeld von Ganglienzellen in der Netzhaut des Auges Der Bereich auf der Netzhaut, aus dem Ganglienzellen Lichtsignale erhalten, wird rezeptives Feld genannt. Er umfaßt einen erregenden, zentralen Teil, das rezeptive Feldzentrum, und einen hemmenden, peripheren Teil, das Umfeld. Die antagonistische Organisation (erregendes Zentrum/hemmendes Umfeld) des rezeptiven Feldes verbessert die Signalverarbeitung, indem Kontraste verstärkt werden. Ziel der vorliegenden Arbeit war es, die Mechanismen der Umfeldhemmung an der isolierten, intakten Kaninchennetzhaut zu untersuchen. Das rezeptive Feldzentrum wird durch den erregenden Kontakt zwischen Photorezeptor Þ Bipolarzelle Þ Ganglienzelle erzeugt. Visuelle Stimulation des rezeptiven Feldzentrums erhöht die Entladungsrate (Anzahl der Aktionspotentiale pro Zeiteinheit) der Ganglienzelle. Die Erhöhung der Entladungsrate wird durch die Freisetzung des erregenden Transmitters Glutamat aus präsynaptischen Bipolarzellen bewirkt. Eine Belichtung des Umfeldes hat den entgegengesetzten Effekt: die Entladungsrate der Ganglienzelle wird verringert. Die Umfeldantwort der Ganglienzelle wird durch die laterale Hemmung in der OPL (äußere Synpsenschicht) und der IPL (innere Synapsenschicht) erzeugt. In der OPL wird die Signalübertragung von GABAergen Horizontalzellen moduliert, indem sie Photorezeptoren und/oder Bipolarzellen hemmen. In der IPL modulieren Amakrinzellen, die entweder GABAerg oder glyzinerg sein können, die Signalübertragung, indem sie Bipolarzellen und/oder Ganglienzellen hemmen. Die Entladungsrate von retinalen Ganglienzellen wird bei Belichtung des Umfeldes somit auf zwei Arten verringert: entweder werden präsynaptische Zellen (Photorezeptoren, Bipolarzellen) gehemmt oder die Ganglienzelle wird direkt durch Amakrinzellen gehemmt. Im ersten Fall schütten Bipolarzellen weniger Glutamat aus (indirekte laterale Hemmung), im zweiten Fall wird durch hemmende Neurotransmitter (GABA oder Glyzin) ein Einstrom von Chloridionen in die Dendriten der Ganglienzellen hervorgerufen (direkte laterale Hemmung). Es ist bisher noch unklar, zu welchem Anteil direkte und indirekte laterale Hemmung an der Umfeldantwort beteiligt sind. Weiterhin ist nicht bekannt, welche Neurotransmitterrezeptoren bei der Erzeugung des hemmenden Umfeldes eine Rolle spielen. Um dies zu untersuchen, wurden in der vorliegenden Arbeit lichtinduzierte, synaptische Ströme von retinalen Ganglienzellen an der isolierten, intakten Kaninchenetzhaut gemessen. Dabei wurde die Netzhaut von vorher eingeschläferten Kaninchen freipräpariert und anschließend in einer mit Sauerstoff angereicherten Extrazellulärlösung aufbewahrt. An diesem isolierten, intakten NetzhautPräparat (in vitro Retina) konnten bis zu acht Stunden Lichtantworten gemessen werden. Die lichtinduzierten Ströme wurden in der Ganzzellkonfiguration der PatchClampTechnik in der Spannungsklemme gemessen. Die Meßkammer mit der flach ausgebreiteten Netzhaut befand sich auf einem Mikroskoptisch. Das Mikroskop war mit einer InfrarotDifferentialinterferenzOptik (NomarskiOptik) ausgestattet und die Mikroelektroden konnten unter Sichtkontrolle mit Hilfe eines Mikromanipulators an die Zellkörper herangefahren werden. Kreisförmige und ringförmige Lichtmuster mit verschiedenen Durchmessern, wurden auf einem Computerbildschirm erzeugt und durch den Mikrsokopkondenser auf den Boden der Meßkammer projiziert. Erregende Ströme retinaler Ganglienzellen konnten isoliert werden, indem das Membranpotential der Zelle auf das Umkehrpotential für Chloridionen eingestellt wurde. Die erregenden Ströme wurden durch Belichtung des Umfeldes stark verringert. Dies wird durch die verminderte Freisetzung von Glutamat durch Bipolarzellen verursacht und ist ein Hinweise auf eine indirekte, laterale Hemmung der Ganglienzelle. Durch die Zugabe des GABARezeptorblockers Picrotoxinin in die Nährlösung (Badapplikation) konnte die Umfeldhemmung der meisten Ganglienzellen nahezu vollständig aufgehoben werden. Dieses Ergebnis zeigt, daß präsynaptische GABA A und GABA C Rezeptoren eine wichtige Rolle bei der Umfeldhemmung spielen. Direkte hemmende Chloridionenströme konnten isoliert werden, indem das Membranpotential der Zelle auf das Umkehrpotential für erregende Ströme eingestellt wurde. Durch Beleuchtung des Umfeldes wurden Chloridionenströme in Ganglienzellen ausgelöst. Dies ist ein Hinweis auf eine direkte, laterale Hemmung der Ganglienzelle durch Amakrinzellen, die zusätzlich zur indirekten Hemmung erfolgt. Bei Anwendung der Stromklemme der PatchClampTechnik konnte nachgewiesen werden, daß Chloridionenströme die Entladungsrate der Zelle beeinflussen. Durch die Badapplikation von Picrotoxinin und durch die Überströmung mit dem GABA A Rezeptorhemmer Bicucullin wurden die Chloridionenströme deutlich verringert. Durch den Glyzinrezeptorblocker Strychnin konnten die hemmenden Ströme nur bei wenigen Zellen verringert werden. Dies ist ein Hinweis auf eine direkte Hemmung der Ganglienzelle über GABA A Rezeptoren. In den meisten Ganglienzellen konnten direkte und indirekte Hemmung durch die Badapplikation von Tetrodotoxin verringert werden. Tetrodotoxin hemmt das Entstehen von Aktionspotentialen und das Ergebnis zeigt, daß 'widefield Amakrinzellen, die über Aktionspotentiale kommunizieren zur Umfeldhemmung beitragen. Bisherige Modelle gingen davon aus, daß Interaktionen zwischen Horizontalzellen, Photorezeptoren und Bipolarzellen in der OPL die Hauptursache für die Umfeldhemmung sind. Die vorliegende Arbeit hat gezeigt, daß Interaktionen zwischen Amakrinzellen, Bipolarzellen und Ganglienzellen wesentlich zur Umfeldhemmung beitragen. In der Netzhaut gibt es zwischen 12 und 15 Ganglienzelltypen, die auf unterschiedliche Mustermerkmale wie z. B. Farbe, Kontrast oder Bewegung reagieren. Alle bisher untersuchten Ganglienzelltypen verringern bei einer Reizung des Umfeldes ihre Entladungsrate. Ist bei allen Ganglienzelltypen der Beitrag von Horizontal und Amakrinzellen zur Umfeldhemmung sowie der Anteil von direkter und indirekter lateralen Hemmung gleich? Oder gibt es für jeden Ganglienzelltyp aufgrund seiner physiologischen und morphologischen Ausprägung verschiedene Mechanismen der lateralen Hemmung? Diese Fragen könnten durch die Entwicklung von Pharmaka, welche selektiv Horizontalzellen bzw. Amakrinzellen hemmen, untersucht werden. Die Anwendung dieser Substanzen könnte den Beitrag dieser Zellen zur Umfeldhemmung eines bestimmten Ganglienzelltyps nachweisen. Gleichzeitig könnte die indirekte Hemmung von retinalen Ganglienzellen durch intrazelluläre Applikation von Chloridionenkanalblockern viel genauer als bisher gemessen werden, da auf diese Weise erregende synaptische Ströme besser isoliert werden können. Durch die Kombination dieser beiden Methoden könnte für jeden Ganglienzelltyp der Netzhaut die zellulären und synaptischen Mechanismen der Umfeldhemmung detailliert beschrieben werden.
In der Betrachtung dieser Arbeit werden hauptsächlich die vier Geistesgestalten der ersten Hälfte des 18. Jahrhunderts, nämlich G. W. LEIBNIZ, JOHANN BERNOULLI (I), DANIEL BERNOULLI, und LEONHARD EULER in ihrem Verhältnis zur Gravitation bzw. zu NEW TONS Gravitationstheorie gewürdigt. Die herangezogenen Arbeiten wurden von mir aus dem Lateinischen bzw. dem Französischen übersetzt. Es wird dargestellt, daß sowohl LEIBNIZ als auch JOHANN BERNOULLI Darstellungen gegeben haben, die beanspruchen, die gesamte Himmelsmechanik zu erklären. DANIEL BERNOULLI wird hauptsächlich in bezug auf seine Konkurrenz mit dem Vater in seiner Preisschrift betrachtet, und EULER liefert neben einer fulminanten Kritik an der fehlenden Ursachenerklärung NEWTONS eine Version von Gravitationserklärung, von der er später wieder Abstand nehmen mußte. Allen kontinentalen Gelehrten ist gemeinsam, daß sie auf einer nahwirkenden Ursache als Erklärung der Gravitation bestehen und sich damit deutlich von ISAAC NEWTON absetzen. Fast gemeinsam allerdings ist ihnen auch die Achtung vor NEWTON, insbesondere dadurch, daß sie (bis auf LEIBNIZ) dessen Ergebnisse aus den principia durchaus verwenden. Sie sind nur mit dessen ''Fernwirkungstheorie" nicht einverstanden. LEIBNIZ hebt sich insofernhin ab, als er in seiner Arbeit sich nicht mit der NEWTONS aus einandersetzt, sondern sein eigenes Konzept verfolgt. Er kannte NEWTONS Arbeit nicht und publizierte seine Version ziemlich bald nach Erscheinen der principia. Dabei benutzt er seine neu entwickelte Analysis und leitet aus Prämissen, die er angibt, die Eigenschaften der Plane tenbewegung ab. Zur Erklärung der Schwere dient ihm ein schon von HUYGENS angegebe nes Modell der Schwereerzeugung durch Rückstoß und Verdrängung im Wirbel. Die Plane tenbewegung wird dann bei ihm durch Zentrifugalbewegung und ''parazentrische" Rückstoßbewegung in radialer Richtung und durch ''harmonische" Kreisbewegung in tangentialer Richtung infinitesimal zusammengesetzt. JOHANN BERNOULLI erfindet eine eigene ''Himmelsphysik", indem er nach eigener Äuße rung das Beste aus beiden System, dem von DESCARTES und dem NEWTONS, zusammen führt. Bei ihm wird alles aus Stößen und nach den Stoßgesetzen erklärt. Die gesamte Spekulation verwendet subtile Materie des ersten Elementes, die durch eine Art Siedevorgang aus dem Zentralgestirn (jeweils) austritt, durch Stöße und Anlagerungen im Laufe der Zeit zur Materie des zweiten Elementes verdichtet wird und schließlich als ''Zentralstrom" zurückgestoßen, auf jeden Himmelskörper einwirkend, für alle Phänomene verantwortlich gemacht wird. Seine Spekulationen sind großartig formuliert und aus Alltagsbildern wie Sieden, Destillationen, Weihrauch Wahrnehmung, Lichtausbreitung, Schneelawinen, Flammruß Erscheinungen und ähnlichem entnommen. Seine von der Pariser Akademie preisgekrönte Arbeit teilte sich den Preis mit der Arbeit sei nes Sohnes DANIEL BERNOULLI, der sich aber darauf beschränkt, die spezielle Fragestel lung der Preisaufgabe zu bearbeiten und dabei nur erkennen läßt, was er von den Ursachen der anderen Himmelserscheinungen denkt. Während sein Vater sich als strenger CARTESI ANER gibt und die Preisaufgabe nur dadurch bewältigen kann, daß er sich den Erdglobus als langgestrecktes Ellipsoid, im tragenden Medium schwimmend, vorstellt, benutzt Daniel die Vorstellung einer sich überall erstreckenden Sonnenatmosphäre, um deren Einwirkung für seine Lösung nutzbar zu machen. Aus seinen Bemerkungen über NEWTON und über Wirbel theorien schimmert schon durch, daß er sich als Anhänger NEWTONS eher verstehen kann, denn als Anhänger der Wirbeltheorien. Bei LEONHARD EULER handelt es sich vermutlich um den Menschen, der die Physik, ins besondere die Mechanik, im 19. Jahrhundert am meisten beeinflußt hat. Zwei Schriften von ihm werden betrachtet, von denen die erste anonym erschien und erst 1996 ihrem Verfasser sicher zugeordnet werden konnte. Nach meiner Übersetzung hier und dem Vergleich mit einer posthumen Arbeit, ''Handreichungen zur Naturlehre", kann diese jetzt sicher datiert werden als zu Beginn der vierziger Jahre des 18. Jahrhunderts entstanden. Die anonyme Arbeit, ''De causa gravitatis" enthält in komprimierter Form eine fundamentale Kritik der Fernwirkungs theorie NEWTONS mit zum Teil sehr plastischen Beispielen der Ablehnung dieser Theorie. Daran anschließend wird der Aetherdruck, der in der Nähe der Planetenoberfläche geringer als weiter draußen sei, als Ursache der Gravitation vorgestellt. Es wird sogar eine Formel für die Druckverteilung angegeben. In der zweiten betrachteten Arbeit EULERS zeigt sich, daß LEONHARD EULER von der Erklärung der Ursache der Schwere Abstand nimmt. Allerdings beharrt er darauf, daß eine solche, mechanische Ursache existieren müsse und sie vermutlich im Aether zu suchen sei. Solche Vorsicht erschien ihm angeraten, nachdem LE SAGE ihm gezeigt hatte, daß der Aether als Erklärung für alle Phänomene der Optik, des Elektromagnetismus und der Mecha nik nicht herangezogen werden konnte. So kam es denn dazu, daß man NEWTONS Gesetze zum Rechnen gerne benutzte, seine Wei gerung, Gravitation als Masseeigenschaft zu definieren, einfach nicht mehr zur Kenntnis nahm und LEONHARD EULER folgte, der wohl der erste war, der aus der Definition NEW TONS, Kraft sei die Änderung der ''quantitas motus", die Formulierung Kraft sei gleich Mas se mal Beschleunigung machte. Es brauchte auf dem Kontinent fast ein ganzes Jahrhundert seit NEWTONS Arbeit, bevor, auf diese Art abgeändert, NEWTON als Säule der neuen Wis senschaft ''Physik" installiert war. Es wird mit dieser Arbeit gezeigt, daß die Modellbildung, die Vermittlung einer Vorstellung, auch für die ausgewiesene Elite der Wissenschaft einen hohen Stellenwert hatte. Das Funktionieren eines mathematischen Modells ist zwar wichtig und als Mittel der Arbeit unabdingbar, aber erst ein befriedigendes, vorstellbares, und damit mechanisches, Modell sichert ein Phä nomen als ''verstanden" ab. Unsere Probleme heute mögen zwar andere sein, in dieser Hin sicht aber hat sich die Wissenschaft auch heute noch nicht gewandelt und wird sich auch nicht wandeln. Es bleibt also bei der Frage: ''Was ist ein befriedigendes Modell?"
In dieser Arbeit werden grundlegende Untersuchungen zur Ion-Festkörper Wechselwirkung vorgestellt, die zu Sekundärionen-Emissionsprozessen führen. Das Ziel ist hierbei, aus den Experimenten Informationen über den Ursprung, die Bindungsmechanismen und die Evolution der Sekundärionen (SI) zu erhalten und die experimentellen Daten mit Rechnungen eines kürzlich entwickelten Desorptions-Modells zu vergleichen. Die Untersuchungen sind in zwei Gebiete unterteilt, die 1.) den Einfluß von Projektil-Eigenschaften wie Energie, Masse und Ladung auf die SI-Emission und 2.) den Einfluß von Targeteigenschaften wie Temperatur und Material auf die SI-Emission zum Gegenstand haben. Die gemessenen H+- - und CxH+- y -SI entstammen einer Oberflächen-Kontaminationsschicht der untersuchten C- und LiF-Targets. Die untersuchten Li+-SI entstammen unmittelbar der LiF-Oberfläche. Zum Studium der SI-Emission werden hier H-, C-, N-, Ar-, Kr- und Sn-Projektile, im Bereich ihres maximalen elektronischen Bremsvermögens Se = (dE=dx)e, eingesetzt. Die von der Projektil-Eintrittsoberfläche emittierten SI werden in Koinzidenz mit jenen unter Hochvakuum-Bedingungen mit einem zylindrischen und einem neu konstruierten linearen Flugzeitspektrometer gemessen. Die Abhängigkeit der SI-Emission von der Projektilgeschwindigkeit (”Geschwindigkeitseffekt”) wird hervorragend durch ein kürzlich von Pereira und da Silveira [Per98a, Per00] entwickeltes Desorptions-Modell beschrieben und zeigt, daß leichte H+-SI einen anderen Emissionsort als schwere CxH+- y -SI entstammen. Diese Resultate werden durch Messungen, die den Einfluß des Projektilladungszustands auf die SI-Ausbeute betrachten, bestätigt. Eine ladungsabhäangige Modifikation des neuen Desorptions-Modells erlaubt zusätzlich, aus den gemessenen relativen SI-Ausbeuten, den Abstand des Emissionsortes von der Spurachse des Projektils zu bestimmen. Aus Untersuchungen zum Einfluß der Projektilmasse auf die SI-Emission folgt zudem eine Korrelation im Emissionsverhalten zwischen H+-SI der Kontaminationsschicht und Li+-SI der tatsächlichen Targetoberfläche. Der Grund hierfür liegt im gleichen Emissionsort dieser beiden unterschiedlichen SI, der von ihrer Bindungsenergie an der Targetoberfläche abhängt. Kontrollierte Variation der LiF- und Cu-Targettemperatur mit einem neu konstruiertem Targethalter zeigen, daß H+-SI im Bereich von 300K <= T <= 380K nahezu vollständig und unabhängig vom Targetmaterial aus der CxHy-Oberflächen-Kontaminationschicht emittiert werden. Durch die Anpassung von Langmuir-Isothermen an die gemessenen SI-Ausbeuten gelingt die Bestimmung der Bindungsenergien EB der CxH+ y -SI, die unmittelbar die LiF- bzw. Cu-Oberfläche bedecken. Das weist auf intermolekulare Bindungen zwischen den CxH+ y -SI und der Oberfläche hin. Die Resultate dieser Rechnung zeigen auch, daß die CxH+ y -SI aus unterschiedlichen Emissionsorten emittiert werden. Hohe Targettemperaturen (< 450K) führen überraschenderweise beim LiF-Target zusätzlich zu einer Metallisierung der Oberfläche, die sich bei weiterer Temperaturerhöhung als Phasenübergang des Targetmaterials auswirkt. Messungen an deuterierten und hydrogenierten Targets zeigen zudem, daß SI-Emission aus dem Targetvolumen nur beim Überschreiten einer hohen Emissionsschwelle Se(> 1700 +- 50eV=A° ) erfolgt.
Cold target recoil ion momentum spectroscopy (COLTRIM) has been employed to image the momentum distributions of continuum electrons liberated in the impact of slow He2+ on He and H2. The distributions were measured for fully determined motion of the nuclei that is as a function of the impact parameter and in a well de ned scattering plane The single ionization (SI) of H2 leading to H2+ recoil ions in nondissociative states (He2+ + H+ -> He2+ + H+ + e-) and the transfer ionization (TI) of H2 leading to H2 dissociation into two free protons (He2+ H2 -> He+ + H+ + H+ + e-) were investigated. Similar measurements have been carried out for He target, the corresponding atomic two electron system, i.e. the single ionization (SI) (He2+ + He -> He+ + He2+ e- and the transfer ionization (TI) (He2+ + He -> He+ + He2+ + e-). These measurements have been exploited to understand the results obtained for H target. In comparing the continuum electron momentum distributions for H2 with that for He, a high degree of similarity is observed. In the case of transfer ionization of H2, the electron momentum distributions generated for parallel and perpendicular molecular orientations revealed no orientation dependence. The in scattering plane electron momentum distributions for the transfer ionization of H2 by He2+ and for the transfer ionization of He by He2e showed that the salient feature of these distributions for both collisions systems consists in the appearance of two groups of electrons with difeerent structures. In addition to the group of the saddle electrons forming two jets separated by a valley along the projectile axis we nd a new group of electrons moving with a velocity higher than the projectile velocity These new fast forward electrons result from a narrow range of impact parameters and appear as image saddle in the projectile frame. In contrast to the transfer ionization of He, the fast forward electrons group disappears in the in scattering plane electron momentum distribution generated for the single ionization of He. Instead of this group another new group of electrons appear These electrons exhibit an amount of backscattering These backward elec trons appear as image saddle in the target frame The structures that the saddle electrons show are owing to the quasi molecular nature of the collision process For the TI of H2, the TI of He and the SI of He, a pi-orbital shape of the electron momentum distribution is observed This indicates the importance of the rotational coupling 2-p-theta -> 2p-pi in the initial promotion of the ground state followed by further promotions to the continuum The backward electrons as well as the fast forward electrons are not discussed in the theoretical literature at all. However, a number of obvious indications of the existence of the backward and fast forward electrons could be seen in the experimental works of Abdallah et al. as well as in the theoretical calculations of Sidky et al One might speculate that electrons which are promoted on the saddle for some time during the collision could finally swing around the He+ ion in the way out of the collision, i.e. either around the projectile in the forward direction as in the TI case forming the fast forward electrons or around the recoil ion in the backward direction as in the SI case forming the backward electrons. This might be a result of the strong gradient, and hence the large acceleration of the screened He+ potential.
Die auf dem ACDM-Modell beruhenden numerischen Simulationen der gravitativen Strukturbildung sind auf Skalen M >> 10 hoch 10 M sehr erfolgreich, insbesondere konvergieren die Verfahren hinsichtlich des vorhergesagten Masseanteils der Halos an der Gesamtmasse von Galaxien. Jedoch konvergieren die Simulationen nicht bezüglich der lokalen Überdichten von CDM in den Halos, vielmehr setzt sich gravitative Strukturbildung auf immer kleinere Skalen fort. Numerisch kann keine Massen-Schwelle berechnet werden, unterhalb derer keine CDM-Strukturen mehr gravitativ gebildet werden. Die Kenntnis der lokalen Überdichten in den CDM-Wolken und die Verteilung der CDM-Wolken ist jedoch für Experimente zum direkten und indirekten Nachweis von CDM-Teilchen essentiell. Aus den lokalen Überdichten folgen für Experimente zum direkten Nachweis die einfallende Stromdichten der CDM-Teilchen und für Experimente zum indirekten Nachweis die Stromdichte der Annihilationsprodukte. Außerdem können die lokalen Überdichten als Gravitationslinsen wirken. In dieser Arbeit werden Massen Schwellen analytisch berechnet, unterhalb derer akustische Störungen in CDM nicht mehr zur gravitativen Strukturbildung beitragen können. Das Massen-Spektrum von lokalen Überdichten ist nach unten durch zwei unterschiedliche Mechanismen beschränkt: (1) Während der kinetischen Entkopplung formieren sich Nichtgleichgewichtsprozesse, die sich kollektiv als Reihungsphänomene konstituieren. Im lineare Regime sind dies die Volumenviskosität, die Scherungsviskosität und die Wärmeleitung. Die dissipativen Prozesse deponieren Energie und Impuls der akustischen Störungen in die Ebene senkrecht zur Ausbreitungsrichtung der Störungen und schmieren diese so aus. (II) Nach dem kinetischen Entkopplungsprozeß strömt CDM frei auf Geodäten. Dies ermöglicht einen Strom von Teilchen von überdichten in unterdichte Regionen, so daß die Amplituden der lokalen Überdichten weiter gedämpft werden. Die lokalen Transportkoeffizienten in (1) werden durch einen legitimen Vergleich von hydrodynamischer und kinetischer Beschreibung schwach dissipativer Prozesse gewonnen. Dissipative Prozesse induzieren eine Dämpfungsmasse Mc ungefähr gleich 10 hoch minus 9 M in SUSY-CDM und beschränken damit das Spektrum akustischer Störungen in SUSY-CDM. Freies Strömen (II) von CDM-Teilchen auf Geodäten induziert eine weitere Dämpfungsmasse M fs ungefähr gleich 10 hoch minus 6 M in SUSY-CDM, wobei das berechnete M d als Anfangswert dient. Die berechneten Schwellen liefern konsistente Schranken für numerische Simulationen, die weit unterhalb des momentanen numerischen Auflösungsvermögens liegen. Weiterhin folgt aus den Schwellen die Masse der ersten rein gravitativ gebundenen CDM-Wolken. Aus diesen bilden sich im Rahmen der hierarchischen Strukturbildung größere Substrukturen bis hin zu den heute vorhandenen CDM-Halos.
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
Der STAR Level-3 Trigger
(2002)
Schwerionen-Collider-Experimente, wie das STAR-Experiment am RHIC (BNL) oder das geplante ALICE-Experiment am LHC (CERN) untersuchen Schwerionenkollisionen bei Schwerpunktsenergien von Wurzel aus SNN = 200 GeV (RHIC), bzw. Wurzel aus sNN = 5, 5 TeV (ALICE). In diesen Kollisionen werden mehrere tausend geladene Teilchen produziert, die in STAR und ALICE in großvolumigen TPCs gemessen werden. Das Datenvolumen erreicht dabei bis zu 10 MB (STAR) und 60 MB (ALICE) pro Ereignis. Aufgrund der hohen Luminosität der Collider könnten die Experimente zentrale Schwerionenkollisionen mit einer Rate bis zu 100 Hz bzw. 200 Hz (ALICE) untersuchen. Die dabei entstehenden Datenraten im Bereich mehrerer GB/s sind mit heutiger Technologie jedoch nicht mehr einfach zu speichern. Deshalb kann nur ein Bruchteil der zur Verfügung stehenden Ereignisse aufgezeichnet werden. Aufgrund der exponentiellen Entwicklung der CPU-Leistung wird es jedoch möglich, die Rekonstruktion von Ereignissen während der Datennahme in Echtzeit durchzuführen. Basierend auf den rekonstruierten Spuren in den Detektoren kann die Entscheidung getroffen werden, ob ein Ereignis gespeichert werden soll. Dies bedeutet, dass die begrenzte Speicherbandbreite gezielt mit Ereignissen, die eine interessierende physikalische Observable beinhalten, angereichert werden kann. Ein solches System zur Ereignisselektion wird als Level-3-Trigger oder allgemeiner als High Level Trigger bezeichnet. Am STAR-Experiment wurde erstmals in einem Schwerionenexperiment solch ein Level-3-Triggersystem aufgebaut. Es besteht aus 432 i960-CPUs, auf speziell gefertigten Receiver Boards für die paralelle Clusterrekonstruktion in der STARTPC. 52 Standard-Computer mit ALPHA- bzw. Pentium-CPUs rekonstruieren die Spuren geladener Teilchen und tre.en eine Triggerentscheidung. Dieses System ermöglicht die Echtzeit-Rekonstruktion zentraler Au-plus-Au-Kollisionen mit anschliessender Analyse durch einen Trigger-Algorithmus mit einer Rate von 40-50 Hz. Die Qualität, die mit dieser schnellen Analyse erreicht wird, kann mit der Qualität der STAR-Offline-Rekonstruktion verglichen werden. Der Level-3-Clusterfinder erreicht in Bezug auf Ortsauflösung und Rekonstruktionseffizienz dieselbe Qualität wie der Offline-Clusterfinder. Der Level-3-Trackfinder erreicht bei Rekonstruktionseffizienz und Impulsauflösung 10-20% schlechtere Werte als der Offline- Trackfinder. Die Anwendung eines Level-3-Triggers besteht in der Messung von seltenen Observablen ("rare Probes"), die ohne eine Anreicherung nicht, oder nur schwer, meßbar wären. In den Jahren 2000 und 2001 wurden erste Triggeranwendungen für das STARLevel- 3-System erprobt. In ultraperipheren Au-plus-Au-Kollisionen wurden po-Kandidaten schon im Jahr 2000 selektiert. Während der Strahlzeit des Jahres 2001 wurde das Level-3-System erstmals zum Triggern in zentralen Au-plus-Au-Kollisionen eingesetzt. Die Triggeralgorithmen beinhalteten einen Õ-Trigger, einen 3He-Trigger und einen Algorithmus zur Anreicherung von Spuren hohen Impulses in der Akzeptanz des RICH-Detektors. Das STAR Level-3-System ist in der Lage zehnmal mehr Ereignisse zu analysieren, als gespeichert werden können. Aufgrund der begrenzten Luminosität des RHIC-Beschleunigers, konnten die Level-3 Trigger erst zum Ende der Strahlzeit eingesetzt werden. Den genannten Algorithmen standen zusätzlich zu den 3 · 10 hoch 6 gespeicherten zentralen Ereignissen, 6 · 10 hoch 5 zentrale Ereignisse zur Analyse zur Verfügung. Mit diesem begrenzten Anreicherungsfaktor von 20% blieb das System hinter seinen Möglichkeiten zurück. Es konnte jedoch gezeigt werden, dass das STAR Level-3-System in der erwarteten Qualität und Stabilität funktioniert.
Die Physik beschäftigt sich seit jeher mit der Frage nach dem Aufbau und der Struktur der Materie. Die Antworten änderten sich im Laufe der Zeit, der gegenwärtige Stand der Erkenntnis ist im sogenannten Standardmodell zusammengefasst. Dort werden die Elementarteilchen in Leptonen und Quarks unterteilt, die Wechselwirkungen zwischen ihnen beschreibt man durch vier fundamentale Kräfte: die Gravitation, die elektromagnetischen Kraft, die schwache und die starke Kernkraft. Gemäß dem Standardmodell sind Nukleonen, also Protonen und Neutronen, aus Quarks aufgebaut. Das Proton ist beispielsweise ein gebundener Zustand aus zwei up und einem down Quark. Die Nukelonen bilden ihrerseits die Atomkerne, welche die Systematik der Elemente bestimmen. Quarks treten in sechs verschiedenen Arten (flavours) auf: up, down, strange, charm, bottom und top. Freie Quarks konnten bislang nicht nachgewiesen werden, sie werden nur als Quark-Antiquark Paar (Meson) oder als Kombination aus drei Quarks (Baryon) beobachtet. Mesonen und Baryonen werden unter dem Begriff Hadronen zusammengefaßt. Die starke Kernkraft beruht letztlich auf der Wechselwirkung zwischen Quarks, diese wird durch die Quantenchromodynamik (QCD) beschrieben. Ähnlich der Glashow- Salam-Weinberg Theorie (GSW), die die elektromagnetische und die schwache Kernkraft beschreibt, ist die Quantenchromodynamik durch Austauschteilchen charakterisiert. Im Fall der GSW wurden die Photonen bzw. W± oder Z-Teilchen als Austauschteilchen identifiziert, in der QCD fungieren Gluonen als Austauschteilchen. Photonen vermitteln die elektromagnetische Kraft zwischen allen Teilchen, die elektrische Ladung tragen. Analog wirkt die Kraft, die durch den Austausch von Gluonen beschrieben wird, zwischen Teilchen, die eine Farbladung tragen. Anders als das neutrale Photon trägt das Gluon selbst Farbe und wechselwirkt daher mit anderen Teilchen, die Farbe tragen. Dieser Umstand zeigt bereits, dass in der QCD ganz andere Phänomene zu erwarten sind als in der GSW. Die Tatsache, dass Quarks nur in gebundenen Zuständen vorliegen, erschwert die direkte Beobachtung der Wechselwirkung zwischen ihnen. Ein indirekter Weg, um die Wirkungweise diese Kraft zu untersuchen, liegt in der Erzeugung hoher Kernmateriedichten und hoher Kerntemperaturen. Die Idee besteht darin, das Phasendiagramm von Kernmaterie experimentell zu bestimmen (Abbildung 1.3) und dann auf die zugrundeliegende Kraft zu schließen. Unter anderem führen die Kräfte, die zwischen den Einzelteilchen des Mediums herrschen, zu charakteristischen Phasenübergängen. Im Fall der Kernmaterie hofft man insbesondere, den Übergang von gebundenen Zuständen in eine Quark-Gluon-Plasma Phase (QGP), in der sich Quarks und Gluonen frei bewegen, zu beobachten. Zwei prominente Beispiele demonstrieren, warum die Eigenschaften dieses Materiezustandes - und ob er überhaupt existiert - auch für andere Teilgebiete der Physik von großem Interesse sind. Zum einen geht man davon aus, dass in der Frühphase des Universums, 10-12 s nach dem Urknall, die Energiedichte so hoch war, dass die Materie in einem Plasmazustand vorlag. In diesem Bild führt die Expansion des Raumes zu einer Abkühlung des Plasmas und schließlich zum Ausfrieren in Hadronen. Zum anderen zeigen viele Modellstudien, dass im Innern von Neutronensternen mit extremen Dichten zu rechnen ist. Unter Umständen werden Energiedichten erreicht, die hoch genung sind, um einen Phasenübergang in ein Quark Gluon Plasma zu erzwingen. Die Beschreibung dieser astronomischen Objekte setzt somit auch die Kenntnis der Kräfte zwischen den Quarks voraus. Der einzige Weg, dichte Kernmaterie im Labor zu erzeugen, stellen Schwerionenreaktionen dar. Wenn zwei ultrarelativistische schwere Kerne zentral kollidieren, entsteht für kurze Zeit eine Region hoher Energiedichte (Abbildung 1.1). QCD-Gitter-Rechnungen deuten darauf hin, dass die Dichte, die man in Schwerionreaktion gegenwärtig erreicht, hoch genung ist, um einen Übergang der Kernmaterie in eine Plasma-Phase zu erzwingen. Aufgrund des hohen Drucks expandiert die verdichtete, heiße Kernmaterie in longitudinaler (entlang des Strahls) und transversaler (senkrecht zum Strahl) Richtung und die Dichte nimmt ab. Vorausgesetzt am Anfang der Reaktion wurde ein Quark-Gluon-Plasma erzeugt, dann friert diese Phase in Hadronen aus (chemisches Ausfrieren), wenn Dichte und Temperatur einen kritischen Wert unterschreiten. Die erzeugten Hadronen wechselwirken zunächst noch elastisch miteinander, d.h. die Impulse der Teilchen ändern sich, die Identität der Teilchen bleibt jedoch erhalten. Schließlich enden auch diese Wechselwirkungen (thermisches Ausfrieren), und die Teilchen verlassen die Reaktionszone (Abbildung 1.4). Der Ablauf einer solchen Schwerionenreaktion dauert einige 10-23s und ihre räumliche Ausdehnung liegt in der Größenordnung von 10-15m, damit ist die Reaktion selbst nicht beobachtbar. Nur der Endzustand, also die Identitäten und Impluse der emittierten Teilchen, kann bestimmt werden. Um den Ablauf der Reaktion zu rekonstruieren, ist man daher auf Modellrechnungen angewiesen. Aufgrund dieser Modellrechnungen wurden einige Observablen vorgeschlagen, die einen Phasenübergang kennzeichnen. Neben anderen Signaturen führt ein Phasenübergang wahrscheinlich zu einer verlängerten Emissionsdauer. Dieser Effekt kann möglicherweise durch die Analyse von Zwei-Teilchen-Korrelationen sichtbar gemacht werden. Ganz allgemein stellt die Untersuchung von Teilchenkorrelationen die einzige Möglichkeit dar, die raum-zeitlichen Strukturen während des thermischen Ausfrierens experimentell zu bestimmen. Korrelationen zwischen Teilchen, die von einer hinreichend kleinen Quelle emittiert werden, haben verschiedene Ursachen. Betrachtet man beispielsweise die Häufigkeitsverteilung der Impulsdifferenz zwischen zwei elektrisch gleich geladenen Teilchen, so stellt man fest, dass Paare mit geringer Impulsdifferenz weniger häufig vorkommen, als man anhand der Ein-Teilchen Impulsverteilung vorhersagen würde. Dieser Effekt ist auf die Abstoßung zwischen zwei elektrisch gleich geladenen Teilchen zurückzuführen, die mit kleiner Impulsdifferenz emittiert wurden. Eine weniger offensichtliche Korrelation wird durch den Quantencharakter identischer Teilchen verursacht. Zwei identische Bosonen, die im Phasenraum nahe beieinander liegen, können gemäß den Prinzipien der Quantentheorie nicht unterschieden werden. Die Wellenfunktion, die diesen Zwei-Teilchen-Zustand beschreibt, muß beim Vertauschen der Teilchen erhalten bleiben. Diese Forderung führt zu einem Interferenzterm in der Zwei-Teilchen Intensitätsverteilung. Diese Verteilung ist proportional zur Wahrscheinlichkeit, ein Teilchenpaar mit der Impulsdifferenz q zu messen. Berechnet man die Impulsdifferenzverteilung von Pionenpaaren und berücksichtig nur quanten- statistische Effekte, so findet man, dass Paare mit geringem Impulsunterschied bis zu zweimal häufiger vorkommen, als man aufgrund einfacher statistischer Überlegungen erwarten würde. Um diesen Effekt experimentell sichtbar zu machen, konstruiert man die Korrelationsfunktion, die die gemessene Impulsdifferenzverteilung in Relation zu einer Untergrundverteilung setzt. Experimentell gewinnt man diese Referenzverteilung, indem Paare aus Spuren aus verschiedenen Ereignissen gebildet werden. Die Referenzverteilung entspricht damit der Verteilung, die man messen würde, wenn die Teilchen nicht der Quantenstatistik unterlägen. Die Korrelationsfunktion wird im allgemeinen durch eine Gauß-Funktion angenähert. Das Inverse der Standardabweichung dieser Funktion wird nach den Pionieren der Intensitätsinterferometrie R. Hanbury Brown und R. Twiss als HBT-Radius bezeichnet. Teilchen interferieren nur dann, wenn sie im Phasenraum nahe beieinander liegen, das heißt sowohl die Impulsdifferenz als auch der räumliche Abstand muß hinreichend klein sein. Diese Bedingung kann genutzt werden, um von der gemessenen Korrelationsfunktion, die nur auf den Impulskomponenten basiert, auf die räumliche Verteilung der Teilchenproduktion zu schließen. Eine detaillierte Betrachtung erlaubt sogar, aufgrund der gemessenen Korrelationsfunktion quantitative Aussagen über die räumlichen Aspekte der Teilchenquelle zu machen. Beispielsweise können im Rahmen eines Modells die Stärke der transversalen Expansion oder die Emissionsdauer in Relation zu den HBT-Radien gesetzt werden. In Kapitel 2 sind die Grundlagen der Teilcheninterferometrie ausführlicher dargestellt. Der eigentliche Gegenstand dieser Arbeit ist experimentelle Analyse der Zwei- Teilchen-Korrelationen in einer Schwerionenreaktion. Dazu wird zunächst in Kapitel 3 das STAR Experiment am RHIC vorgestellt, in dem die Daten aufgezeichnet wurden, die Grundlage dieser Analyse sind. Am RHIC-Beschleuniger am BNL in den USA werden AuAu Kollisionen bis zu einer Schwerpunktsenergie von Wurzel aus SNN=200 GeV erzeugt. Figur 3.1 zeigt den Beschleuniger-Ring und die vier Experimente Brahms, Phenix, Phobos und STAR. Der hier analysierte Datensatz wurde bei der Datennahme im Jahr 2000 aufgezeichnet. Zu dieser Zeit wurde am RHIC eine Schwerpunktsenergie von Wurzel aus SNN=130 GeV erreicht. Bei einer zentralen AuAu Kollision werden mehrere Tausend Teilchen produziert. Der STAR Detektor ist dafür konzipiert, hadronische Teilchen kleiner Rapidität (d.h. großer Winkel zur Strahlachse) zu messen, innerhalb der Akzeptanz werden etwa 80% der produzierten geladenen Teilchen nachgewiesen. Der schematische Aufbau des STAR Detektorsystems ist in Figur 3.2 dargestellt. Der zentrale Detektor ist eine TPC (Zeit-Projektions-Kammer). Dieser Detektor basiert darauf, dass geladene Teilchen beim Durchgang durch ein Messgas eine Spur von Ionen hinterlassen. Ein starkes elektrisches Feld driftet die Elektronen, die bei den Ionisationsprozessen freigesetzt wurden, zu einer Ausleseebene. Der Punkt, an dem die Elektronen auf der Ausleseebene ein Signal erzeugen, entspricht der Projektion des Ionisationpunktes auf die Ausleseebene. Die dritte Komponente, die den Raumpunkt der Ionisation festlegt, ist durch die Driftzeit bei bekannter Driftgeschwindigkeit gegeben. So erscheint eine Teilchenspur als eine Kette von Ionisationspunkten im Detektorgas. Ein magnetisches Feld parallel zur Strahlachse führt zu einer Ablenkung der geladenen Teilchen. Die Krümmung der Spur ist dabei umgekehrt proportional zum transversalen Impuls. Abbildung 3.6 zeigt ein typisches Ereignis mit etwa 105 Ionisationspunkten und den entsprechenden Teilchenspuren. Der spezifische Energieverlust eines Teilchens beim Durchgang durch das Messgas hängt von seinem Impuls und seiner Masse ab. Die Stärke des auf der Ausleseebene induzierten Signals erlaubt den spezifischen Energieverlust zu bestimmen. Da der Impuls durch die Krümmung der Spur bekannt ist, kann so die Masse und damit die Identität des Teilchens bestimmt werden (siehe Abbildung 3.7). In Kapitel 4 wird der Datensatz beschrieben, der als Grundlage für diese Analyse dient. Während der Datennahme werden die digitalisierten Daten der TPC auf ein Speichermedium geschrieben. Der erste Schritt bei der Rekonstruktion der Ereignisse besteht darin, die Ionisationspunkte zu lokalisieren. Dies leistet der Clusterfinder- Algorithmus, der in Kapitel 4.1.1 beschrieben ist. Die Spurpunkte werden dann durch den Tracking-Algorithmus zu Teilchenspuren verbunden. Die erreichte Effizienz, Akzeptanz und Impulsauflösung der Rekonstruktion sind in Kapitel 4.1.2 zusammengefaßt. Die Zwei-Teilchen-Korrelationen werden nur für zentrale Kollisionen betrachtet, das sind Ereignisse mit kleinem Stoßparameter. Die Multipliztät der gemessenen Spuren ist in erster Näherung ein Maß für die Zentralität des Ereignisses. Für diese Analyse werden nur die 12% zentralsten Ereignisse zugelassen. Die Selektion der Ereignisse ist in Kapitel 4.2 beschrieben. Die Auswahl der Spuren, die in der Analyse verwendet werden, ist in Kapitel 4.3 beschrieben. Es werden nur Spuren zugelassen, deren Impulse in einem Bereich hinreichend hoher Akzeptanz und Effizienz liegen. Außerdem werden die Spuren ausgewählt, die mit hoher Wahrscheinlichkeit von Pionen stammen. Eine weitere Auswahl wird auf der Paarebene getroffen. Die Korrelationsfunktion wird in einzelnen Intervallen transversalen Paarimpulses kt und Paarrapidität Yðð gebildet. Damit kann die Abhängigkeit der HBT-Radien von diesen Größen dargestellt werden. Zwei weitere Auswahlkriterien sollen die Qualität der Spurpaare garantieren. Zum einen werden solche Paare verworfen, die im Detektor zu nahe beieinander liegen. Für die HBT-Analyse sind Paare mit geringem Impulsunterschied entscheidend, ein geringer Impulsunterschied heißt notwendigerweise, dass die Spuren räumlich nicht sehr weit getrennt sind. Wenn die Spuren aber zu nahe liegen, können sie vom Detektor und von der Rekonstruktionskette nicht mehr aufgelöst werden. Damit verliert man einen Teil der Paare in der Signalverteilung, nicht aber in der Untergrundverteilung, da in diesem Fall die endliche Zwei-Spur-Auflösung keine Rolle spielt. Um die Korrelationsfunktion nicht durch einen Detektoreffekt zu verfälschen, entfernt man die Paare, die im Detektor nahe beieinander liegen, sowohl in der Signal- als auch in der Untergrundverteilung. Ein weiteres Problem stellen "gebrochene" Spuren dar. In einigen Fällen wird eine Teilchenspur von der Rekonstruktionskette nicht als Ganzes erkannt, vielmehr werden zwei Spurstücke im Dektor gefunden. Da diese Spurstücke vom selben Teilchen stammen, haben sie eine sehr geringe Impulsdifferenz. Diese Paare können anhand ihrer Topologie im Detekor erkannt werden. Wie im Fall der begrenzten Zwei-Spur-Auflösung werden sie sowohl für die Signal- als auch für die Untergrundverteilung nicht zugelassen. In Kapitel 5 werden schließlich die Ergebnisse der Korrelationsanalyse dargestellt. Die Korrelationsfunktion wird in verschiedenen Parametrisierungen betrachtet. In der einfachsten Form betrachtet man nur den Betrag des Impulsdifferenzvektors. Dieser Ansatz bedeutet aber, dass der entsprechende HBT-Radius alle Raum-Zeit Komponenten mischt und damit nur wenig Aussagekraft bezüglich der Quellfunktion besitzt. Eine differenzierte Analyse in drei unabhängigen Komponenten ermöglichen die Pratt-Bertsch (PB) und die Yano-Koonin-Podgoretskii (YKP) Parametrisierung. Die beiden Parametrisierungen unterscheiden sich in der Zerlegung des Impulsdifferenzvektors in drei unabhängige Komponenten. Im ersten Fall bezeichnet man die Komponenten als qout, qlong und qside, im zweiten Fall als qpara, qperp und q0 (Kapitel 2.7 und 2.8). Die entsprechenden Korrelationsfunktionen sind in Gleichung 2.31 bzw. 2.34 gegeben. Die jeweiligen HBT-Radien Rout, Rlong und Rside bzw. Rpara, Rperp und R0 können in Relation zu den Parametern der Quellfunktion (Gleichung 2.43) gesetzt werden. Die beiden Parametrisierungen liefern im Prinzip die gleiche Information und die beiden Sätze von HBT-Radien können in Beziehung zueinander gesetzt werden (Gleichung 2.41). Beispielsweise entspricht der HBT-Radius R0 in der YKP-Parametrisierung in erster Näherung der Emissionsdauer, während in der PB- Parametrisierung diese Größe Verhältnis von Rout zu Rside abhängt. Zusätzlich zu den Radien enthält die YKP-Parametrisierung einen Parameter ß, der erlaubt, die longitudinale Geschwindigkeit des betrachteten Quellelementes zu bestimmen. Die Abbildungen 5.7 bis 5.10 zeigen die HBT-Radien beider Parametrisierungen in Abhänigigkeit vom transversalen Paarimpuls kt und von der Paarrapidität Yðð. Die Größe der gemessenen Radien bewegt sich zwischen 3 und 7 fm. Nur der Radius R0 verschwindet in den meisten kt-Yðð Intervallen. Die anderen Radien nehmen mit steigendem kt ab und sind unabhängig von Yðð . Abbildung 5.11 demonstriert, dass die beiden Parametrisierungen -dort wo sie vergleichbar sind- konsistente Ergebnisse liefern. Eine Diskussion der Ergebnisse schließt sich in Kapitel 6 an. Die Abhänigigkeit des Parameters ß von Yðð zeigt eine starke longitudinale Expansion an. Ein ähnliches Verhalten wurde bei niedrigeren Schwerpunktsenergien beobachtet, wo man allerdings eine schwächere longitudinale Expansion erwarten würde. Die Lebensdauer der Quelle, also die Zeit vom anfänglichen Überlapp der Kerne bis zum thermischen Ausfrieren, bestimmt die kt-Abhänigigkeit des Parameters Rlong. Dieser Zusammenhang wurde von Mahklin und Sinyukow formuliert, eine Anpassung der entsprechenden Funktion an die gemessene kt Abhänigigkeit von Rlong ergibt eine Lebensdauer von etwa 8 fm/c bei einer Ausfriertemperatur von etwa 126 MeV. Entsprechende Messungen bei niedrigeren Kollisionsenergien lieferten ähnliche Resultate. Die kt-Abhängigkeit des Parameters Rside ist mit der Stärke der transversalen Expansion gemäß Gleichung 6.3 verknüpft. Da die Relation nicht eindeutig ist, muß entweder eine feste Ausfriertemperatur angenommen werden oder es werden gleichzeitig Einteilchenspektren betrachtet, um die Mehrdeutigkeit zu eliminieren. Eine vorläufige Abschätzung ergibt eine mittlere transversale Expansions- geschwindigkteit von v ungefähr gleich 0.6 und einen gemetrischen Radius von RG ungefähr gleich 7.4 fm . Auch diese Ergebnisse sind vergleichbar mit entsprechenden Resultaten bei niedrigeren Kollisionsenergien. Ein weiterer Parameter der Quellfunktion ist die Emissionsdauer. Die Pionen werden nicht zu einem festen Zeitpunkt emittiert, man geht vielmehr davon aus, dass die Zeitpunkte der letzten elastischen Wechselwirkung in der Quelle gaußförmig verteilt sind. Den Mittelwert dieser Verteilung bezeichnet man als Lebensdauer der Quelle, die Breite als Emissionsdauer. Entsprechend Gleichung 6.4 bzw. 6.5 ist die Emissionsdauer mit dem Radius R0 bzw. dem Verhältnis Rout zu Rside verbunden. Wie in Abbildung 5.8 ersichtlich verschwindet der Parameter R0 , außer im kleinsten kt Intervall. Dies entspricht in der PB-Parametrisierung der Tatsache, dass das Verhältnis Rout zu Rside bei hohen kt kleiner als eins ist. Diese Resultate sind nicht vereinbar mit herkömmlichen Modellen. Insbesondere weil eine verlängerte Emissionsdauer als Signatur für die Bildung eines Quark-Gluon-Plasmas vorgeschlagen wurde, wird dieses Ergebnis derzeit intensiv diskutiert. Die Ergebnisse dieser Analyse sind sowohl mit bereits publizierten Daten der STAR Kollaboration als auch mit Resultaten von anderen RHIC Experimenten verträglich (siehe Abbildung 6.8). In Abbildung 6.9 ist die Abhängigkeit der HBT-Radien von kt bei verschiedenen Schwerpunktsenergien dargestellt. Im Gegensatz zu vielen anderen Observablen ändern sich die HBT Radien nur geringfügig. Da man erwartet, dass die Reaktion bei hohen Energien vollkommen anders abläuft, würde man auch davon ausgehen, dass sich die Ausfrierbedingungen ändern. Dass dies nicht in den Zwei-Teilchen- Korrelationen sichtbar wird, deutet darauf hin, dass die Näherungen die notwendig sind, um die gemessenen Radien mit Modellparametern zu verbinden, nicht gültig sind. Die Systematik der HBT Parameter als Funktion der Schwerpunktsenergie enthält damit keinen direkten Hinweis, dass die kritische Energiedichte überschritten wurde, ab der die Kernmaterie in einer Plasmaphase vorliegt. Andererseits werden weder die verschwindende Emissionsdauer noch die Tatsache, dass die anderen HBT-Parameter sich nur wenig mit der Schwerpunktsenergie ändern, als Argument dafür gewertet, dass die kritische Energiedichte nicht überschritten wurde. Die Frage, ob ein Quark- Gluon-Plasma im Labor erzeugt und analysiert werden kann, bleibt damit offen. Das thermische Ausfrieren einer Pionenquelle scheint hingegen anders zu verlaufen, als bisher angenommen wurde. Systematische Studien der Korrelationsfunktion in AA Kollisionen am RHIC in Kombination mit Fortschritten im theoretischen Verständnis der Teilcheninterferometrie in Schwerionenreaktion werden in Zukunft hoffentlich erlauben, die gemessenen Radien in ein konsistentes Bild einzuordnen. In zukünftigen Experimenten am LHC werden noch weit höhere Dichten erreicht als bisher, damit sollten sich auch die Ausfrierbedingungen stark verändern. Es wird sich dann zeigen, ob die Teilcheninterferometrie das geeignete Instrument ist, um die Quellfunktion einer Schwerionenreaktion zu messen.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
Mikroentladungen bei hohem Druck und mit Gasfluss stellen eine vielseitig nutzbare Quelle für Ionen und kalte metastabile Atome dar. In dieser Arbeit werden grundlegende Untersuchungen an dieser neuen Hochdruckentladung zur Erzeugung von metastabilen Atomen und einfachgeladenen Ionen vorgestellt. Der innovative Ansatz ist die Nutzung mikrostrukturierter Elektroden (MSE) zur Erzeugung von nichtthermischen Entladungen mit Gleichspannung. Die spezielle porenförmige Geometrie erlaubt die Erzeugung von Entladungen bei einem Druck > 1000 hPa. Die Mikroentladung produziert metastabile Atome und Ionen in einem lokalisierten Volumen durch Stöße mit energiereichen Elektronen, wobei das Neutralgas in der Entladung im Vergleich zu den Elektronen kalt ist. Außerdem kann die Entladung mit erzwungenem Gasfluss durch die Pore betrieben werden, so dass die Plasmabestandteile (neutrale/angeregte Atome, Radikale, Ionen, etc.) extrahiert werden. Mit dieser neuen Methode kann bei der adiabatischen Expansion des Gases ins Vakuum ein gerichteter Gasstrahl, mit geringer interner Temperatur, im Bereich von einigen K erzeugt werden. Die Verweildauer des Gases in der Mikropore ist < 0,1 µs, so dass auch Zustände mit kurzer Lebensdauer extrahiert werden können. Die MSE lässt sich aufgrund der kleinen Abstände im µm Bereich als Mehrschichtsystem, aus zwei metallischen Elektroden, die durch einen Isolator getrennt sind, realisieren. Dieses Grundmaterial wird mit einzelnen oder einer Vielzahl von Poren mit typischerweise 100 µm Durchmesser versehen. Mit Hilfe dieser Mikrostrukturen lassen sich stabile, nicht filamentre, homogene Entladungen mit Gleichspannung in allen Gasen als auch Gasgemischen in einem weiten Druckbereich von 600 hPa bis 4000 hPa erzeugen. Die Druckverhältnisse in der Pore lassen sich durch den Gasfluss zwischen einigen ml/min bis l/min variieren. Die Verweildauer des Gases in der Pore kann durch den Gasfluss gesteuert werden. Zur Diagnose werden die Bestandteile des Plasmas mit dem Gasstrom extrahiert und expandieren adiabatisch ins Vakuum. Der Einfluss von Vordruck, Gasfluss, Entladestrom und Gaszusammensetzung auf die Eigenschaften des Plasma-Jets konnte auf diese Weise bestimmt werden. Durch die Kühlung der Mikroentladung konnte die interne Temperatur des Targets nochmals gesenkt und die Geschwindigkeit gezielt reduziert werden. Die Messung des Geschwindigkeitsprofils, die Zusammensetzung, etc. geben einen indirekten Einblick in die komplexen Prozesse der Mikroentladung, die mit konventionellen Analysemethoden nur schwer zugnglich sind. Die gemessenen Eigenschaften der MSE- unterstützten Hochdruckentladung sind vergleichbar mit klassischen Glimmentladungen, jedoch ist die Anregungs- und Ionisationswahrscheinlichkeit aufgrund der Geometrie größer. Unter definierten Rahmenbedingungen erlaubt diese neue Technik die Erzeugung eines gerichteten Plasma-Jets bestehend aus kalten metastabilen Atomen, Ionen, etc. Basierend auf diesem Prinzip wurde eine Quelle für metastabile Heliumatome aufgebaut und mit verschiedenen Methoden analysiert. Der 23S1- Zustand wird aufgrund seiner atomaren Struktur effektiv durch die energiereichen Elektronen in der Entladung angeregt. Die Gasströmung bestimmt den Druck und die Verweildauer im aktiven Volumen. Die Untersuchungen haben gezeigt, dass mit diesem Aufbau kalte, metastabile Atomstrahlen mit einer Intensität von 6 mal 10 hoch 13 (s mal sr) hoch minus 1 und Geschwindigkeiten von 900-1800 m/s erzeugt werden können. Bei den gemessenen Dichten in der Pore von 6 mal 10 hoch 12 (cm) hoch minus 3 ist die Ausbeute durch das Quenching der metastabilen Atome beschränkt. Die Eigenschaften dieses exotischen Atomstrahls sind hinsichtlich der absoluten Geschwindigkeit und der Geschwindigkeitsverteilung identisch mit einem konventionellen Überschall-Gasstrahl. Die Qualität des Strahls, aufgrund seiner geringen internen Temperatur von einigen K, erlaubt die Trennung und Fokussierung des gewünschten Zustandes. In Kombination mit der Separationseinheit wurde die Mikroplasmaquelle zur Erzeugung eines metastabilen 2 3 S 1-Heliumtargets mit polarisiertem Elektronenspin verwendet. Bei der Separation wird durch den außermittigen Einschuss in den permanentmagnetischen Hexapol eine hervorragende räumliche Trennung der verschiedenen Zustände erreicht und die Ausdehnung des Targets im Fokus auf 1 mm hoch 2 reduziert. Die erreichte Targetdichte für den spinpolarisierten 2 3 S 1-Zustand liegt im Fokus bei 10 hoch 6 cm hoch -2. Die Charakterisierung des Strahlverlaufs als auch die Time-of-Flight-Messungen zeigen, dass es sich bei der MSE unterstützten Hochdruckentladung um eine nichtthermische Entladung mit vergleichbaren Eigenschaften wie Niederdruckglimmentladung handelt, d.h. neutrale/angeregte Atome und Elektronen sind nicht im Temperaturgleichgewicht. Die Gastemperatur wird somit in der Mikroentladung nicht erhöht. Die Messungen mit Düsentemperatur von 80 K haben dies ausnahmslos bestätigt. Mit dieser Quelle lassen sich auch feine Ionenstrahlen bei hohem Druck erzeugen. Bei erzwungener Gasströmung durch die Entladung werden die Ionen aus dem Bereich der Entladung extrahiert und können zur Diagnose der Hochdruckentladung ins Vakuum überführt werden. Die Ionenausbeute wurde für verschiedene Gase und Gasgemische in Abhängigkeit von Gasfluss, Entladestrom, Extraktionsspannung untersucht. Die Elektronenenergie reicht ausschließlich zur Produktion von einfachgeladenen Ionen bzw. Molekülen aus. Der Anteil an Metallionen zeigt deutlich, dass die Geometrie die Erzeugung von Sekundärelektronen an der Kathode unterstützt. Die Wechselwirkung der Ionen mit dem Überschall-Gasstrahl im Bereich zwischen Düse und Skimmer führt zu einer starken Energieverbreiterung. Dies kann jedoch durch eine modifizierte Extraktionsgeometrie reduziert werden, hierbei ist insbesondere auf die Raumladung im Bereich zwischen Düse und Skimmer zu achten. Die vorgestellten Messungen haben exemplarisch für Helium gezeigt, dass gerichtete, kalte, metastabile Atomstrahlen mit ausreichender Intensität für atomphysikalische Experimente erzeugt werden können. Auf Basis der grundlegenden Erkenntnisse lässt sich das spinpolarisierte Target im nächsten Schritt hinsichtlich der erreichten Ausbeute optimieren. Dazu ist es notwendig, die Bedingungen in der Expansionskammer zu verbessern, so dass die Plasmaquelle mit höherem Vordruck betrieben werden kann. In diesem Zusammenhang sollte auch der Abstand Düse Skimmer verringert und die Separationseinheit auf diese modifizierten Rahmenbedingungen angepasst werden. Durch diese Modifikation kann die Targetdichte für spinpolarisiertes, metastabiles Helium nochmals gesteigert werden. Mit der erreichten Targetdichte sind die grundlegenden Voraussetzungen für atomphysikalische Messungen an einem spinpolarisierten Target geschaffen. Durch Anpassung der Separationseinheit ist es prinzipiell auch möglich, andere exotische metastabile Targets mit polarisiertem Elektronenspin zu erzeugen.
Untersuchungen zum technischen und teilchenoptischen Design kompakter Speicherringe für Ionen
(2002)
Die vorliegende Arbeit befasst sich mit der Berechnung und dem Bau von elektrostatischen Speicherringen. Eine solche Maschine kann als eine Kreuzung zwischen elektrostatischen Fallen und "klassischen" magnetischen Ringen angesehen werden. Kompakte Bauform, gute Zugänglichkeit der Elemente und vergleichsweise niedrigen Kosten werden mit hoher Flexibilität in Bezug auf mögliche Experimente kombiniert. Im 1. Kapitel werden zunächst die Unterschiede der Bewegung von Ionen in elektrostatischen und magnetischen Speicherringen untersucht. Die Massenunabhängigkeit der Teilchenbewegung bei gegebener Energie und Ladung in rein elektrostatischen Feldern erlaubt es, unterschiedlichste Ionen im Prinzip in direkter Folge in einen elektrostatischen Ring einzuschießen, ohne dass die Felder der optischen Elemente verändern werden müssen. Die Felder in den für einen Speicherring notwendigen Strahlführungskomponenten werden berechnet, die zugehörigen Bewegungsgleichungen aufgestellt und in linearer Näherung gelöst. Dabei werden zunächst die Bahnen einzelner Teilchen untersucht und dann das Strahlverhalten insgesamt durch Übergang auf einen Matrizenformalismus beschrieben. Die aus dieser Darstellung resultierenden Trajektorien stellen eine starke Vereinfachung dar. Die Untersuchung der realen Teilchenbewegung mit Einfluss von Randfeldern, Positionierungsfehlern und die Berechnung der dreidimensionalen Feldverteilung ist Gegenstand des 2. Kapitels. Ein kritischer Punkt bei der Bewegung von Teilchen in Ringbeschleunigern sind durch Feldfehler induzierten Resonanzerscheinungen. Zur Diskussion der verschiedenen möglichen Resonanzen werden im 3. Kapitel die Effekte durch zusätzliche Dipol- und Quadrupolfelder analysiert, dargestellt und schließlich anhand eines Resonanzdiagramms erläutert. In den geplanten Speicherring werden Ionen in einem einzigen Bunch, mit einer Ausdehnung von rund dem halben Ringumfang, injiziert. Ihre Lebensdauer hängt wesentlich von dem erzielbaren Vakuumenddruck ab. Die vorgesehenen Getterpumpen weisen eine sehr hohe Pumpleistung für die meisten Gase auf. Ihre Wirkungsweise wird im 4. Kapitel beschrieben und praktische Aspekte ihrer Handhabung diskutiert. Für den Betrieb eines Speicherrings ist es notwendig, die Parameter des umlaufenden Strahls zu jeder Zeit zu kennen und gegebenenfalls modifizieren zu können. Zentrales Element des Kontroll- und Diagnosesystems sind Strahlpositionsmonitore. In elektrostatischen Pickup-Elektroden induziert der Strahl beim Durchgang Spannungen über die eine Positionsbestimmung möglich ist. Die Wirkungsweise dieser Sonden wird in der zweiten Hälfte des 4. Kapitels diskutiert und Methoden zur Signalaufbereitung und -analyse beschrieben. Die allgemeinen Ergebnisse der Überlegungen zu elektrostatischen Speicherringen aus den ersten Kapiteln werden schließlich auf spezielle Fälle übertragen. Im Rahmen dieser Arbeit wurden verschiedene Entwürfe für einen elektrostatischen Speicherring angefertigt und ein Viertelringsegment zu Testzwecken entworfen und aufgebaut. Die Ergebnisse sind Inhalt des abschließenden 5. Kapitels. Mit den in dieser Arbeit vorgestellten Methoden ist es möglich, elektrostatische Speicherringe detailliert zu berechnen und an die experimentellen Rahmenbedingungen anzupassen. Sämtliche Rechnungen wurden im Hinblick auf den geplanten Bau eines Rings für Teilchen mit Energien bis 50 keV durchgeführt.
Zielsetzung der ultrarelativistischen Schwerionenphysik ist es, hoch verdichtete und stark erhitzte Kernmaterie (gemeint ist hierbei nicht nur die Materie der Atomkerne, sondern allgemein stark wechselwirkende Materie) im Labor zu erzeugen und deren Eigenschaften zu untersuchen. Gitter-QCD Rechnungen sagen bei einer kritischen Energiedichte von 1-2 GeV/fm3 einen Übergang der hadronischen Materie in eine partonische Phase, dem Quark-Gluon-Plasma, voraus. Neben anderen Observablen wurde die Seltsamkeitsproduktion als mögliche Signatur für den Materiezustand quasifreier Quarks und Gluonen vorgeschlagen. Im Vergleich zu elementaren Nukleon-Nukleon-Reaktionen beobachtet man in Schwerionenkollisionen generell eine Überhöhung der Seltsamkeitsproduktion. Inwieweit dieser Unterschied bei allen Schwerpunktenergie auf rein hadronische Phänomene zurückgeführt werden kann, oder ob partonische Gleichgewichtseffekte eine wesentliche Rolle spielen, ist derzeit eines der wichtigen Themen der Schwerionenphysik. Antworten auf diese Fragen erhofft man sich aus der Untersuchung der Energieabhängigkeit der Erzeugung seltsamer Hadronen. Die NA49 Kollaboration hat deshalb am CERN-SPS ein Energie-Scan Programm aufgelegt, in dem zentrale Blei-Blei-Kollisionen bei 40, 80 und 158 A·GeV untersucht wurden. In dieser Arbeit wird die Produktion von Lambda und Antilambda Hyperonen bei den drei verschiedenen Strahlenergien untersucht. Lambda Hyperonen, die 30-60% der produzierten s-Quarks enthalten, erlauben neben der Seltsamkeitsproduktion gleichzeitig auch den durch die kollidierenden Kerne erzeugten Effekt der Baryonendichte zu studieren. Das NA49 Experiment führt präzise Messungen des hadronischen Endzustands über einen weiten Akzeptanzbereich durch. Die geladenen Sekundärteilchen werden in vier hochauflösenden Spurdriftkammern gemessen. Neutrale seltsame Teilchen (Lambda, Antilambda und K0s) werden anhand ihrer Zerfallstopologie identifiziert. Die untersuchten Lambda Hyperonen werden über drei Rapiditätseinheiten um den Bereich zentraler Rapidität und mit Transversalimpulsen von 0,4 und 2,5 GeV/c gemessen. Die Temperaturparameter der Lambda und Antilambda Transversalimpulsverteilungen bei zentraler Rapidität sind für die drei Energien im Rahmen der Fehler gleich. Als Funktion der Schwerpunktenergie beobachtet man einen Anstieg des Lambda-Temperaturparameters, was durch eine Erhöhung des kollektiven transversalen Flusses erklärt werden kann. Erste Ergebnisse zur Proton-Produktion zeigen einen ähnlichen Trend. Die Rapiditätsverteilungen der Lambda sind breiter als die der Antilambda-Hyperonen. Die Lambda Rapiditätsverteilung verbreitert sich mit ansteigender Schwerpunktenergie von einer bei zentraler Rapidität konzentrierten Verteilung bei 40 A·GeV zu einem flachen Verlauf bei 158 A·GeV. Die Lambdas enthalten Beiträge der extrem kurzlebigen Sigma 0, die elektromagnetisch in ein Lambda und ein Photon zerfallen. Die in der Analyse selektierten Lambda und Antilambda sind aufgrund der gewählten Qualitätskriterien nahezu frei von Beiträgen mehrfachseltsamer Baryonen. Der systematische Fehler der Spektren konnte zu 9% abgeschätzt werden. Die Korrekturen und die Analyseprozedur wurden durch die Extraktion des K0s Mesons bei 158 A·GeV und den Vergleich dieser Ergebnisse mit denen der geladenen Kaonen überprüft. Man stellt eine gute Übereinstimmung fest. Zusammen mit Ergebnissen bei niedrigeren Energien läßt sich die Anregungsfunktion der Lambda und AntiLambda Hyperonen studieren. Während die Lambda Multiplizität bei mittlerer Rapidität nach dem Anstieg bei niedrigen Energien im SPS-Energiebereich leicht abfällt bzw. die totale Multiplizität saturiert, beobachtet man für die AntiLambda einen stetigen Anstieg als Funktion der Schwerpunktenergie. Das <Lambda>/<Pi>-Verhältnis in Kern-Kern-Kollisionen zeigt einen steilen Anstieg im AGS-Energiebereich mit anschließendem Maximum und einem Abfall bei SPS-Energien. Dagegen beobachtet man in Nukleon-Nukleon-Reaktionen eine Saturation dieses Verhältnisses bei etwa der höchsten AGS-Energie. Die Normierung auf die Pionen dient dem Vergleich der Produktionsraten in Kern-Kern-Stößen mit denen der elementaren Systeme und ist unabhängig von der Anzahl der beteiligten Nukleonen. Das Maximum des Lambda/Pi Verhältnisses liegt zwischen 10 und 40 A·GeV, wie es von statistischen Modellen vorhergesagt wird. Die Energieabhängigkeit des Lambda/Pi-Verhältnisses läßt sich dementsprechend gut mit dem Statistischen Modell von Cleymans, Redlich et al. beschreiben. Der generelle Trend des Lambda/Pi Verhältnisses wird von den mikroskopischen Modellen (UrQMD, HSD, RQMD) richtig wiedergegeben, wobei jedoch die Datenpunkte (besonders für 40 A·GeV) unterschätzt werden. Die Vorhersagen des UrQMD- und HSD-Modells für die Lambda Rapiditätsverteilung zeigen sehr gute Übereinstimmung mit den Daten. Die Diskrepanz im Lambda/Pi Verhältnis ist somit auf die überschätzte Pion-Produktion zurückzuführen. Die AntiLambda Produktion wird von dem UrQMD- und RQMD-Modell um mehr als einen Faktor zwei unterschätzt. Die Lambda und Antilambda Produktionsraten für alle drei Energien und die totale K0s Multiplizität bei 158 A·GeV fügen sich in einer statistischen Modellanalyse von Becattini in die Systematik der anderen Teilchen ein. Der Seltsamkeits-Saturationsfaktor gamma s zeigt keine große Änderung als Funktion der Energie. Das AntiLambda/Lambda Verhältnis bei mittlerer Rapidität, das den Paarproduktionsprozess widerspiegelt, steigt rapide von AGS- bis RHIC-Energien an. Der gleiche Trend ist für das ¯p/p Verhältnis beobachtbar. Das AntiLambda/¯p Verhältnis erlaubt das Zusammenspiel der Produktions und Annihilationsprozesse zu studieren. Im SPS-Energiebereich steigt dieses Verhältnis mit abnehmender Schwerpunktenergie leicht an. Die Ergebnisse der vorliegenden Arbeit wurden auf der Strange-Quark-Matter Konferenz 2001 [1] und der Quark-Matter Konferenz 2002 [2] vorgestellt und diskutiert.
Ziel dieser Arbeit ist die Herstellung und Charakterisierung von Zn-Mg-SE-Legierungen (SE = Y, Ho, Er, Dy, Tb, Gd), um Informationen über Struktur, Stabilisierung und physikalische Eigenschaften der quasikristallinen Phasen dieses Systems zu erhalten. Die Quasikristalle dieses Systems unterscheiden sich von Quasikristallen anderer Legierungen, die meist Al als Hauptkomponente enthalten. Es konnten bis zu 275 mm3 große Einkristalle der flächenzentriert ikosaedrischen Phase in den Systemen Zn-Mg-Y und Zn-Mg-Ho gezüchtet werden. Außerdem wurden MgZn2- und hexagonale A-Zn70Mg14Y16-Einkristalle hergestellt, deren Existenzbereiche im Phasendiagramm benachbart zu dem der ikosaedrischen Phase liegen. Um polykristalline Proben herzustellen, die unterschiedliche quasikristalline oder verwandte Strukturen als Hauptphase enthalten, wurden verschiedene Herstellungsverfahren getestet und verwendet. So konnte zum Beispiel erstmalig eine Probe hergestellt werden, die dekagonales ZnMgY als Hauptphase enthält. Zudem wurde eine neue kubische (R-Phase) bzw. hexagonale (M-Phase) und eine neue hochgeordnete primitiv ikosaedrische Phase im System Zn-Mg-Er entdeckt, synthetisiert und charakterisiert. Bei Untersuchungen dieser selbst gefertigten Proben konnten Erkenntnisse über magnetische Eigenschaften, elastische Konstanten, optische Leitfähigkeit, Leerstellenverteilung, Oberflächenbeschaffenheit, Diffusionsmechanismen und die Erstarrungsgeschichte der flächenzentriert ikosaedrischen Zn-Mg-SE-Quasikristalle gewonnen werden. Durch vergleichende Messungen an kristallinen Zn-Mg-SE-Legierungen lassen sich die für Quasikristalle spezifischen Effekte identifizieren. Die im Rahmen dieser Arbeit hergestellten und charakterisierten Proben sind aktuell Gegenstand weiterer Untersuchungen. Mit Hilfe von Beugungsexperimenten konnte gezeigt werden, dass die kubische R-Phase strukturell nahe mit der ikosaedrischen Phase im System Zn-Mg-SE verwandt ist. Die R- Phase ist bei Raumtemperatur nicht stabil und bildet die rhomboedrische M-Phase. Es konnte ein Strukturmodell für die R-Phase entwickelt werden, in dem keine ikosaedrischen Cluster als Strukturelement verwirklicht sind. Auch in der hexagonalen A-Phase konnten solche Strukturelemente nicht gefunden werden. Die Resultate dieser Arbeit legen nahe, dass die Struktur der Zn-Mg-SE-Quasikristalle, im Gegensatz zu Quasikristallen anderer Systeme, nicht auf großen ikosaedrischen Clustern basiert. Damit ist gezeigt, dass große ikosaedrische Cluster zur Bildung von Quasikristallen nicht notwendig sind. Messungen an den Proben zeigen, dass sich dadurch auch einige der physikalischen Eigenschaften, zum Beispiel die optische Leitfähigkeit, von Quasikristallen mit Clustern unterscheiden. Keine Unterschiede konnten beim Diffusionsverhalten und bei mechanischen Eigenschaften festgestellt werden. Hier gleichen die Zn-Mg-SE-Quasikristalle anderen strukturell komplexen Legierungen oder Quasikristallen anderer Legierungssysteme.
Im Rahmen der vorliegenden Arbeit wird experimentell ein oszillatorischer Hall-Strom nachgewiesen, der sich in einem impulsiv optisch angeregten Halbleiterühergitter ausbildet, sobald sich dieses in einem statischen magnetischen Feld und einem dazu senkrechten statischen elektrischen Feld befindet. Das Übergitter dient dabei als Modellsystem für ein dreidimensionales Material und ermöglicht die Beobachtung eines unter dem Begriff "kohärenter Hall-Effekt" zusammengefassten Bewegungsverhaltens der Ladungsträger, das durch eine charakteristische Frequenzabhängigkeit des oszillatorischen Hall-Stromes von den äußeren Feldern gekennzeichnet ist. Dabei wird in der vorliegenden Arbeit das spezielle Bewegungsverhalten mit Hilfe eines semiklassischen Modells hergeleitet und diskutiert. Die zentrale Aussage des Modells ist die Existenz zweier scharf voneinander abgegrenzter Bewegungsregimes, (die sich durch eine entgegengesetzte Feldabhängigkeit der Oszillationsfrequenz auszeichnen. Am Übergang zwischen diesen beiden Regimes werden alle Oszillationen aufgrund einer gegen Null gehenden Frequenz unterdriickt. Dabei lässt sich im Gegensatz zum Ortsraum der Übergang zwischen den beiden Bewegungsregimes im k-Raum einfach klarmachen. Er wird durch die Überwindung der Mini-Brillouin-Zonengrenze durch das Ladungsträgerwellenpaket markiert und bestimmt, ob die Bewegungsform Bloch-oszillationsartig oder zyklotronartig ist. Der experimentelle Nachweis des kohärenten Hall-Effektes wird durch die Anwendung einer berührungsfreien optoelektronischen Technik ermöglicht, mit deren Hilfe das emittierte elektrische Feld der kohärenten, transienten Hall-Ströme zeitaufgelöst detektiert werden kann. Da diese Technik die Messung frei propagierender Strahlung im THz-Frequenzbereich gestattet, bezeichnet man die Methode als THiz-Emissionsspektroskopie. Im Gegensatz zum klassischen Hall-Effekt stellt sich der kohärente Hall-Effekt als Manifestation der Wellennatur (der Ladungsträger dar, die sich im Festkörper durch eine periodische Dispersionsrelation äußert,. Erst. die kohärente Präparation eines Ladungsträgerensembles ermöglicht dabei (die Beobachtung der mikroskopischen Vorgänge in Form einer transienten Bewegung, die, bedingt durch ultraschnelle Streuprozesse, auf kurzen Zeitskalen von etwa 1 ps dephasiert. Die Kohärenz wird dem System dabei mittels eines kurzen Laserpulses von etwa 100 fs Dauer aufgeprägt, mit dessen Hilfe die Ladungsträger im Übergitter optisch generiert werden. Diese Vorgehensweise ist mit der experimentellen Untersuchung von Bloch-Oszillationen vergleichbar, die ebenfalls erst durch die kohärente Präparation der Ladungsträger messbar werden. Die inkohärente Bewegung der Ladungsträger in einem Kristall unter dem Einfluss eines konstanten elektrischen Feldes wird bekanntermaßen durch das Ohmsche Gesetz beschrieben analog etwa der Beschreibung der IIall-Spannung beim klassischen Hall-Effekt.. Im Rahmen der vorliegenden Arbeit gelingt der erste Nachweis des beschriebenen kohärenten Effektes und damit, der Beleg, dass es auch in dreidimensionalen Halbleitern, hier repräsentiert durch ein Übergitter, möglich ist, kohärente Signaturen des Hall-Effektes zu beobachteten. Im Gegensatz zu speziellen zweidimensionalen Strukturen, wie sie beim integralen und fraktionalen Quanten-Hall-Effekt verwendet werden, ist dies hier aufgrund des größeren Zustandsraumes und der dadurch bedeutenderen Dephasierungsprozesse nur auf sehr kurzen Zeitskalen realisierbar.
Im Rahmen dieser Arbeit wurde untersucht, inwieweit eine Bewegungsschärzung aus monokularen Bildsequenzen von Straßenverkehrsszenen und eine darauf aufbauende Hinderniserkennung mit Hilfe von statistischen oder neuronalen Methoden realisiert werden kann. Bei dem zugrunde liegenden mathematischen Modell wird angenommen, daß die Umgebung, in der sich ein Fahrzeug bewegt, im wesentlichen eben ist, was für Verkehrsequenzen in guter Näherung erfüllt ist. Im ersten Teil dieser Arbeit wurde ein statistisches Verfahren zur Bewegungsschätzung vorgestellt und diskutiert. Der erste Schritt dieses Verfahrens stellt die Generierung eines sogenannten Markantheitsbildes dar, in welchem Objektkanten und Objektecken visuell hervorgehoben werden. Für die daraus resultierende Liste von markanten Bildbereichen werden anschließend unter Verwendung einer sogenannten Verschiebungsvektorschätzung, Korrespondenzen im zeitlich folgenden Bild ermittelt. Ausgehend von dem resultierenden Verschiebungsvektorfeld, werden in dem nächsten Schritt des Verfahrens die Bewegungsgrößen ermittelt, also die Rotationsmatrix und der Translationsvektor des Fahrzeugs, beziehungsweise der Kamera. Um abschließend eine Hinderniserkennung realisieren zu können, erfolgt unter Verwendung der Bewegungsgrößen eine Bewegungskompensation der Bilddaten. Bei einer solchen Bewegungskompensation wird unter Verwendung der ermittelten Bewegungsgrößen und dem Modell der bewegten Ebene eine Rücktransformation jedes Bildpixels durchgeführt, so daß bei der Bildung eines Differenzbildes zwischen dem bewegungskompensierten Bild und dem tatsächlich aufgenommenen Bild, dreidimensionale Strukturen, die ja das Ebenenmodell verletzen, deutlich hervortreten und somit auf potentielle Hindernisse hinweisen. Es hat sich gezeigt, daß Fehlmessungen in den Verschiebungsvektoren, welche beispielsweise durch periodische Strukturen auf der Ebene auftreten können, die Bewegungsschätzung und die Hinderniserkennung empfindlich stören. Diese statistischen Ausreißer bewirken, daß trotz der Verwendung von robusten Schätzmethoden, eine stabile Hinderniserkennung nur durch die Einbeziehung von Vorwissen über die Art der Bewegung des Fahrzeugs realisiert werden kann. Weiterhin führen die Komplexität des Verfahrens und die damit verbundenen hohen Anforderungen an die Rechenleistung der eingesetzten Hardware dazu, daß die für die praktische Anwendbarkeit so wichtige Echtzeitfähigkeit des Verfahrens bisher nur für Eingangsbilder mit geringer Auflösung ermöglicht werden konnte. Speziell für die Bildverarbeitung hat sich das neue Paradigma der Zellularen Neuronalen Netzwerke als außerordentlich leistungsfähig erwiesen. Neben der extrem hohen Verarbeitungsgeschwindigkeit von CNN-basierten schaltungstechnischen Realisierungen zeichnen sie sich durch eine hohe Robustheit bei vertauschten oder fehlerhaften Eingangsdaten aus. Für nahezu jedes aktuelle Problem der Bildverarbeitung wurde bisher ein geeignetes CNN bestimmt. Auch für komplexe Aufgabenstellungen aus der Bildverarbeitung, wie beispielsweise die Texturklassifikation, die Spurverfolgung oder die Gewinnung von Tiefeninformation konnten bereits CNN-Programme implementiert und schaltungstechnisch verwirklicht werden. So konnte auch im zweiten Teil dieser Arbeit gezeigt werden, daß die einzelnen Schritte der Hinderniserkennung aus monokularen Bildsequenzen ebenfalls unter Verwendung eines CNN realisierbar sind. Es wurde demonstriert, daß für die Generierung eines Markantheitsbildes bereits ein Standard-CNN mit linearer Kopplungsfunktion und der Nachbarschaft r=1 verwendet werden kann. Das rechenaufwändige statistische Verfahren der Markantheitsbildberechnung kann somit durch einen einzigen CNN-Verarbeitungsschritt durchgeführt werden. Weiterhin wurde im Rahmen dieser Arbeit gezeigt, daß auch der folgende, rechenintensive Schritt des statistischen Verfahrens der Hinderniserkennung, nämlich die Verschiebungsvektorschätzung, mittels CNN verwirklicht werden kann. Hierzu sind CNN mit polynomialen Kopplungsfunktionen und der Nachbarschaft r=1 notwendig. Bei den durchgeführten Untersuchungen hat sich herausgestellt, daß die CNN-basierten Verarbeitungsschritte den statistischen Methoden in den Punkten Robustheit und Verarbeitungsgeschwindigkeit deutlich überlegen sind. Abschließend wurde in dieser Arbeit gezeigt, daß mit Hilfe von CNN sogar eine direkte Hinderniserkennung aus monokularen Bildsequenzen - ohne den Umweg über die Bestimmung der Verschiebungsvektoren und der Bewegungsgrößen - realisiert werden kann. In dem vorgestellten Verfahren wird nach zwei Vorverarbeitungsschritten, die Hinderniserkennung in einem einzigen Schritt unter Verwendung eines CNN mit polynomialen Zellkopplungsgewichten vom Grade D=3 und der Nachbarschaft r=2 durchgeführt. Das vorgeschlagene Verfahren führt zu einer wesentlichen Vereinfachung der Hinderniserkennung in monokularen Bildsequenzen, da die Bewegegungsschätzung aus dem statistischen Verfahren nicht länger notwendig ist. Die Umgehung der expliziten Bewegungsschätzung hat weiterhin den Vorteil, daß der Rechenaufwand stark reduziert wurde und durch den Wegfall der Verschiebungsvektorschätzung und dem damit verketteten Problem der Ausreißer, ist das vorgestellte CNN-basierte Verfahren außerdem sehr robust. Die ersten Resultate, die unter Verwendung von synthetischen und natürlichen Bildsequenzen erhalten wurden, sind überaus vielversprechend und zeigen, daß CNN ausgezeichnet zur Verarbeitung von Videosequenzen geeignet sind.
Fourier-Transform Infrarot Differenz Spektroskopie ist eine Methode. die es erlaubt, selbst kleinste konformelle Änderungen in der Umgebung der katalytischen Zentren in Enzymen selektiv und mit hoher Zeitauflösung zu messen. Diese Technik wurde an Oxidasen von Paracoccus denitrificans, Thermus thermophilus und Escherichia coli angewandt, um einen Einblick in strukturelle und molekulare Prozesse der Bindung und Dynamik von Liganden am binuklearen Zentrum zu erhalten. Die pH- und Temperatur-Abhängigkeit von CO Schwingungsmoden sowie deren Verhalten nach der Photolyse konnten zeitaufgelöst untersucht und miteinander verglichen werden. Bei Temperaturen >180K war die Bestimmung von thermodynamischen Parametern wie Enthalpie-Barrieren und Arrhenius-Vorfaktoren möglich. Aus dem Verlauf der Rückbindungskinetiken ließen sich ferner Rückschlüsse über die konformelle Heterogenität der Bindung ziehen. Für Temperaturen um 140K konnte das Protein im "quasistationären" Zustand vermessen werden, da Rückreaktionen des Liganden an die Bindungsstelle des Häm a3 unterbunden waren. Trotz der strukturellen Ähnlichkeit und analoger Funktion zeigten diese typischen Oxidasen große Unterschiede sowohl im Reaktionszentrum als auch im kinetischen Verhalten des Liganden. Die kinetischen Parameter für alle untersuchten Oxidasen weichen deutlich voneinander ab und spiegeln unter anderem die Stärke der Bindung am CUB wider. Die Temperaturabhängigkeit der Populationen der CO-Konformere und die äquivalente Rückbindungs-Kinetik der unterschiedlichen Konformere in den Oxidasen aus dem thermophilen System weisen auf ein strukturelles Merkmal in der Nähe des binuklearen Zentrums hin, das den Populations-Austausch in anderen Oxidasen unterbindet. Aufgrund der pH-Abhängigkeit der entsprechenden Oxidasen kann man schließen, daß diese Eigenschaft durch eine oder mehrere protonierbare Gruppen bewirkt wird, die die unterschiedlichen Konformere in bestimmten Positionen fixiert hält. Die Rückbindungsraten des Liganden zeigen für die T. thermophilus Oxidasen eine Rückbindung erster Ordnung. was auf eine homogene Verteilung der zwei Konformer-Populationen im Enzym deutet. Hingegen zeigte die Oxidase aus P. denitrificans für die Rückbindung eine Verteilung der Reaktionsraten. Ursache dafür ist ein sehr heterogenes Ensemble an Proteinen, das minimale strukturelle Unterschiede im Konformationsraum des Reaktionszentrums aufweist. Ein weiterer Aspekt der Arbeit war die Beobachtung von Absorptionsbanden der Hämpropionate an Cytochrome c Oxidase von Paracoccus denitrificans nach CO Rückbindung. Sowohl über 13C-isotopenmarkierte Hämpropionate als auch über ortsgerichtete Mutagenese in deren unmittelbarer Umgebung konnten definierte Banden-Zuordnungen im IR-Differenzspektrum erhalten werden. Experimente am Enzym mit Mutationen an der Stelle Asp 399 zeigten, daß die strukturellen Eigenschaften des Häm a3-CuB Zentrums im wesentlichen von dieser Veränderung nicht beeinflußt werden. Jedoch war die pH-Abhängigkeit der CO Konformere hier unterbunden, was auf deren Einfluß auf eine Protonierbarkeit im Wildtyp-Enzym hinweist. Rückschlüsse anhand der Mutante Asp399Asn zeigten (über den Verlust der pH-Abhängigkeit) ganz klar, daß alle unterschiedlichen CO-Konformere funktionell intakt sind. FT-IR Messungen an einem weiteren Enzym, der isolierten Cytochrom bd Oxidase aus E. coli, zeigten bei einer Untersuchung der CO Rückbindungs-Eigenschaften bei 84K die ausschließliche Rückbindung an das Häm d. der möglichen Sauerstoff-Bindungsstelle. Die Bindungsstelle an Häm b, die zu ca. 5% ebenfalls CO bindet, kann bei diesen Temperaturen nicht wiederbesetzt werden. Im typischen Spektralbereich von 1680 bis 1760 cm hoch minus 1 konnten eindeutig die Absorptionsbanden von Asparagin- oder Glutaminsäure-Seitenketten identifiziert werden. Über einen direkten Vergleich der Spektren, die über Redox-Reaktion und CO Rückbindung erhalten wurden, konnten diese Signale als klar in der direkten Umgebung des binuklearen Zentrums lokalisiert zugeordnet werden. Eine Rolle als vorübergehender Protonen-Akzeptor/Donor auf dem Weg zur Sauerstoff-Bindungsstelle ist naheliegend.
In dieser Arbeit werden grundlegende Untersuchungen zum Verständnis der dynamischen Wechselwirkungsmechanismen atomarer Projektile mit Festkörperoberflächen vorgestellt, die zur Emission von Sekundärionen führen. Der zentrale Ansatzpunkt ist dabei die Vermessung der Dynamik über die geschwindigkeits- und winkeldifferentielle Verteilung der emittierten Sekundärionen. Dazu wurde ein neuartiges Spektrometer entwickelt, in dem jedes in einem homogenen elektrischen Feld abgelenkte Sekundärion durch seine Flugzeit (TOF) und den Auftreffort auf einen 2-dimensionalen (XY) ortsempfindlichen Detektor charakterisiert wird. Das Prinzip basiert auf dem in Gastargetexperimenten erfolgreich eingesetzten Frankfurter Meßsystem COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy). Dieses System wurde weiterentwickelt und erstmalig in Frankfurt in einem Festkörperexperiment zur geschwindigkeits- und winkeldifferentiellen Spektrometrie von Sekundärionen angewendet. Ein zusätzliches Merkmal gegenüber herkömmlichen Spektrometern ist die Möglichkeit der einfachen Variation des Einfallswinkels 0p vom Projektil zum Target. Die korrekte Transformation der gemessenen Daten in eine 3-dimensionale Anfangsgeschwindigkeitsverteilung bedingt eine möglichst präzise Eichung des Spektrometers. Dazu wurde die in diesem Zusammenhang neuartige Methode des Strahlprofilmonitors entwickelt und eingesetzt. Durch die Wechselwirkung des Projektils mit einem nicht lokalisierten Gastarget erzeugt es auf seinem Weg durch das Spektrometer eine Spur aus Ionen. Die Gasionen befinden sich im Verhältnis zu den von dem Festkörper emittierten Sekundärionen nahezu in Ruhe. Daher kann über die Analyse der Projektilspur auf die zur Eichung notwendigen, aber im Experiment nicht direkt zugänglichen Parameter, wie Flugzeit (T0) und Auftreffort (x0/y0) für Teilchen mit der Geschwindigkeit v0z = v0x = v0y = 0, geschlossen werden. Die systematische Variation von Projektil- (He0/N0/Ar0, Ep = 0.2 - 2.2 MeV, 0p = 37°-78° relativ zur Oberflächennormalen) und Targeteigenschaften (Au/C/LiF/Al) erlaubt ein gezieltes Studium der dynamischen Wechselwirkung zwischen Projektilen und Festkörperoberflächen. Das untersuchte H+-Sekundärion entstammt einer Festkörperoberfläche bedeckenden quasistabilen Kontaminationsschicht, die im wesentlichen aus den Adsorbaten H2, H2O, CxHy besteht. Die gemessenen H+-Geschwindigkeitsverteilungen besitzen ein Maximum etwa bei v0 ungefähr gleich 25-35 km/s mit Ausläufern (abhängig von 0p) bis hin zu 240 km/s. Bei sinkender Projektilgeschwindigkeit zeigt die Verteilung der emittierten H+-Sekundärionen bei hohen Emissionsgeschwindigkeiten (v0 > 60 km/s) eine stark ausgeprägte Asymmetrie in der von dem einfallenden Projektil und der Oberflächennormalen definierten Ebene. Ionen werden mit einer hohen Geschwindigkeit (bis zu 140 km/s bei 0p = 45°) unter einem Winkel von ca. 90° zum Projektil, unabhängig von 0p, emittiert. Diese Asymmetrie wird durch eine binäre Kollision des Projektils mit dem Wasserstoff verursacht. Die Variation der Projektilgeschwindigkeit ist korreliert mit der deponierten Energie des Projektils im Festkörper. Daher kann in der Dynamik der Sekundärionen deutlich der Beitrag des nuklearen Anteils an der totalen Energiedeposition aufgezeigt und getrennt werden. Bei Emissionsgeschwindigkeiten v0 < 60 km/s zeigt sich eine starke Abhängigkeit von den Targeteigenschaften. Bei konstantem Einfallswinkel beobachten wir eine Verschiebung der Maxima von v0 max ungefähr gleich 26.5 km/s bei Au-, über 27.9 km/s bei Al- bis hin zu 32.5 km/s bei LiF-Targets. Es zeigt sich keine meßbare Abhängigkeit vom Einfallswinkel des Projektils bei Auund C-Targets, dagegen eine deutliche Verschiebung der Maxima hin zu größeren Geschwindigkeiten bei dem Al- (v0 max ungefähr gleich 27.5 km/s - 30 km/s) und dem LiF-Target (v0 max ungefähr gleich 32.5 km/s - 35.5 km/s) mit einer Vergrößerung von 0p. Ionen mit v0 < 30 km/s werden zum Großteil rückwärts in Richtung des einfallenden Projektils emittiert. Au und C sind gute, LiF und das mit einer Al2O3-Schicht überzogene Al dagegen schlechte elektrische Oberflächenleiter. Die Verschiebung der Verteilungen bei einem schlechten elektrischen Leiter ist ein Hinweis auf den zeitabhängigen Zerfall des Projektilspurpotentials im Festkörper. Die Zunahme der Emissionsgeschwindigkeit v0 bei Vergrößerung von 0p ist in der Vergrößerung der effektiven Targetdicke begründet und ein Hinweis auf eine targetdickenabhängige Neutralisationszeit des geladenen Spurkerns durch Elektronen des Substrats. Korrelationen im Sekundärionenemissionsprozeß bezüglich Impuls- und Energieerhaltung zwischen einem emittierten H+-Sekundärion und einem möglichen zweiten Sekundärion wurden nicht beobachtet. Über die Eichung hinaus eröffnen sich zusätzlich noch einige vielversprechende Anwendungsmöglichkeiten des Strahlprofilmonitors. Zum einen ermöglicht er a) in der Gasmassenspektrometrie eine exakte Korrektur der Ionenflugzeit unabhängig vom Ort der Ionisation und zum anderen bildet er b) eine innovative Methode zur Kartographie lokaler elektrischer Felder und c) ferner einen alternativen Zugang zur Vermessung von Projektilstreuwinkeln. Die Verwendung eines ortsempfindlichen Detektors in der „kinematischen“ Materialanalyse verbindet simultan gute Tiefenprofilauflösung mit dem Nachweis eines großen Raumwinkels zugunsten einer besseren Statistik. Die Kenntnis der Emissionscharakteristik bewährt sich zudem in der Massenanalyse in der Unterscheidung von Ionen fast identischer Massen.
In der vorliegenden Arbeit wurden die Eigenschaften heißer dichter Kernmaterie in relativistischen Schwerionenkollisionen mit Hilfe transporttheoretischer Methoden untersucht. Dabei wurden über einen weiten Energiebereich von 1 A GeV am GSI/SIS18 über BNL/AGS und GSI/SIS200 bis hin zu 160A GeV Einschußenergie am CERN/SPS verschiedene Observablen diskutiert und mit eigenen Modellrechnungen verglichen. Zunächst wurden in Kapitel 1 in die theoretischen Grundlagen der mikroskopischen Transporttheorie eingeführt und die wichtigsten semiklassischen mikroskopischen Transportmodelle vorgestellt. Das unter eigener Mitwirkung am Institut für Theoretische Physik entstandene Transportmodell, das UrQMD-Modell, wurde im Rahmen dieser Arbeit bis zur Versionsnummer 1.3 verbessert und erweitert. Das Modell und ein Überblick verschiedener Observablen im Modell wurden bereits früher gemeinsam publiziert. Die ausführliche Diskussion dieses Modells in der jetzigen Fassung findet sich in Kapitel 2. Besonders der komplexe Kollisionsterm wird detailliert und systematisch beschrieben. Wo vorhanden, werden die implementierten Kanäle und Wirkungsquerschnitte den experimentellen Daten gegenübergestellt. In Kapitel 3 wurde eine Methode zur relativistisch korrekten Berechnung von Baryon und Mesonendichten sowie von Energiedichten entwickelt. Mit dieser Methode konnten Zeitentwicklungen und Ortsraumverteilungen von Dichten im Bereich von 1 bis 160 A GeV erstellt werden. Im Vordergrund der Analysen stand die Fragestellung, welches Raum-Zei-tVolumen die Hochdichtephase in Abhängigkeit von der Einschuß energie einnehmen kann. Bemerkenswertes Ergebnis dieser Untersuchungen war, daß die maximal erreichbare Dichte zwar mit der Einschußenergie monoton ansteigt, je doch eine besonders ausgedehnte und langlebige Phase hoher Baryonendichte bei Einschußenergien zwischen 5 und 10 GeV/Nukleon erreicht wird. Auch wurde am Beispiel des Systems Uran-Uran bei 23 A GeV untersucht, inwieweit durch den Einsatz deformierter Kerne die Hochdichtephase intensiviert werden kann. Die Rechnungen haben gezeigt, daß die vorhergesagte Steigerung der Baryondichte um 30% bei Verlängerung der Hochdichtephase um 50% nicht realistisch ist. In weiteren Analysen wurden die in Schwerionenkollisionen erreichbaren Energiedichten diskutiert, sowie eine Interpretation der nichtformierten Hadronen als ein "partonischer" Freiheitsgrad vorgestellt. Es hat sich gezeigt, daß der partonische Beitrag zur Energiedichte vor allem in der Frühphase der Kollision bei weitem überwiegt. Im Kapitel 4 wurde ein Modell zur Produktion von Kaonen in der Nähe der Produktionsschwelle vorgestellt. Die elementaren Produktionskanäle wurden hier über hoch massige Resonanzen modelliert, im Gegensatz zu anderen vorgeschlagenen Modellen, die direkte Parametrisierungen vornehmen. Desweiteren wurden alle implementierten Produktions und Streukaäale von seltsamen Hadronen im Vergleich mit experimentellen Daten diskutiert. Das Kapitel 5 widmete sich ausschließlich der Produktion von Mesonen bei SIS18 Energien. Zunächst wurde ausführlich auf den Produktions und Absorptionsprozeß von Pionen im System Pi-N-Delta eingegangen. Sowohl Spektren als auch Multiplizitäten in Abhängigkeit von der Anzahl an Partizipanten im UrQMD wurden mit experimentellen Daten von TAPS und FOPI verglichen. Die Ergebnisse legen nahe, daß die Pionproduktion bis 2 A GeV im Rahmen der mikroskopischen Transporttheorie vollständig verstanden werden kann, wenn neben dem Delta1232 auch alle höheren Resonanzzustände sowie multiste-pAnregungen in die Rechnung einbezogen werden. Auch die Produktion von Kaonen in Abhängigkeit von der Anzahl an Partizipanten und der Systemgröße wurde diskutiert. Auch hier können die gemessenen Zusammenhänge qualitativ im Rahmen des mikroskopischen Modells verstanden werden. Zum Abschluß des Kapitels wurden Ausfrierzeiten, radien und dichten für einzelne Baryonen und Mesonenspezies analysiert. Zentrales Ergebnis dieser Untersuchungen ist, daß es bei einer Schwerionenreaktion keineswegs zu einem simultanen Ausfrieren aller Hadronspezies bei gleicher Dichte und gleichem Radius kommt, sondern daß die Ausfrierverteilungen eine komplexe Zeit und Ortsraumstruktur aufweisen, die u.a. von den Wirkungsquerschnitten und Produktionsmechanismen für die einzelnen Spezies abhängt. In Kapitel 6 wurden die erst kürzlich publizierten Daten der NA49Kollaboration bei 40, 80 und 160 A GeV einer detaillierten Analyse mit dem UrQMD-Modell unterzogen, sowie Vorhersagen für die geplanten Messungen bei 20 A GeV gemacht. Es konnte gezeigt werden, daß es für den Vergleich von Modellrechnung mit dem Experiment notwendig ist, genau die gleiche Zentralitätsbestimmung wie im Experiment zu benutzen. Eine einfache Beschränkung auf ein festes Stoßparameterintervall führt zur Selektion einer falschen Gruppe von Ereignissen. Ein Vergleich des Abstoppverhaltens von Protonen, Hyperonen, Antiprotonen und Antihyperonen hat gezeigt, daß zwar die Dynamik der Baryonen im Rahmen des UrQMD-Modells gut verstanden werden kann, jedoch die Produktion der Antibaryonen um ein mehrfaches unterschätzt wird. Verschiedene Erklärungsmodelle, wie screening oder die Verletzung des detaillierten Gleichgewichts bei Stringzerfällen wurden diskutiert. Auch der starke Einfluß der Implementierung von Annihilationskanälen konnte aufgezeigt werden. Zum Schluß des Kapitels wurde die Produktion von Kaonen und Antikaonen im Modell und im Experiment einer genauen Analyse unterzogen. Die Modellrechnungen legen nahe, daß bei SPS-Energien weder Kaonen noch Antikaonen als direkte Signael der frühen Phase der Kollision betrachtet werden können. Zwar wird die Gesamtseltsamkeit des Systems im wesentlichen in den ersten, harten Kollisionen erzeugt, jedoch finden hinterher noch zahllose Kollisionen mit Seltsamkeitsaustausch statt, bevor Kaonen und Antikaonen endlich ausfrieren. Im letzten Kapitel schließlich wurden die Analysen auf die Daten vom BNL/AGS ausgedehnt und ein vergleichender Überblick über den gesamten Energiebereich von SIS18 bis SPS vorgenommen. Um die Robustheit sowohl der Observablen als auch der mikroskopischen Transporttheorie zu testen, wurden bei acht Energien die Form der Spektren von Protonen, Pionen, Kaonen, Lambdas und Sigmas in Rechnungen mit zwei unabhängigen Transportmodellen und den experimentellen Daten verglichen. Desweiteren wurden für alle Spektren sowohl die 4-Pi -Daten als die Werte bei Mittrapidität ermittelt und als Funktion der Einschußenergie mit den experimentellen Daten verglichen. Schließlich wurden aus den Multiplizitäten Hadron-Hadron-Verhältnise gebildet und diese wiederum mit den Daten verglichen. Neben vielen interessanten Detailerkenntnissen konnte das folgende grobe Bild entwickelt werden: Die korrekte Produktion von Seltsamkeit, sowohl in Hyperonen als auch in Kaonen, gelingt beiden hadronischen Modellen, ohne daß besondere nichthadronische Effekte angenommen werden müßten, über den gesamten Energiebereich. Die Pionproduktion wird bei den verschiedenen Energien mal von dem einen, mal von dem anderen Modell besser beschrieben, nie jedoch sind die Abweichungen größer als etwa 20%. Die Teilchenverhältnisse, deren qualitativer Verlauf ein mögliches Signal für einen Phasenübergang sein soll, werden trotz guter Beschreibung der Pionen und sehr guter Beschreibung der Kaonen von beiden Modellen qualitativ völlig unterschiedlich vorhergesagt. Die im Rahmen dieser Arbeit durchgeführten Rechnungen legen also nahe, daß zum einen die Rolle der Seltsamkeitsproduktion als Indikator für nichthadronische Physik überdacht werden sollte, und zum anderen der qualitative Verlauf des K +/Pi -Verhältnisses aufgrund der geringen Fehlertolleranz nicht als belastbarer Beweis eines Phasenübergangs gesehen werden sollte.
Resistive Plate Chambers (RPCs) are gaseous parallel plate avalanche detectors that implement electrodes made from a material with a high volume resistivity between 10 high 7 and 10 high 12 omega cm. Large area RPCs with 2mm single gaps operated in avalanche mode provide above 98% efficiency and a time resolution of around 1 ns up to a flux of several kHz/cm high 2. These Trigger RPCs will, as an example, equip the muon detector system of the ATLAS experiment at CERN on an area of 3650 m high 2 and with 355.000 independent read out channels. Timing RPCs with a gas gap of 0.2 to 0.3mm are widely used in multi gap configurations and provide 99% efficiency and time resolution down to 50 ps. While their performance is comparable to existing scintillator-based Time-Of-Flight (TOF) technology, Timing RPCs feature a significantly, up to an order of magnitude, lower price per channel. They will for example equip the 176 m high 2 TOF barrel of the ALICE experiment at CERN with 160.000 independent read out cells. RPCs were originally operated in streamer mode providing large signals which simplifies readout electronics and gap uniformity requirements. However, high rate applications and detector aging issues made the operation in avalanche mode popular. This was also facilitated by the development of new highly quenching C2F4H2-based gas mixtures with small contents of SF6. While the physics of streamers is difficult to study, the avalanche mode opened the possibility for a detailed simulation of the detector physics processes in RPCs. Even though RPCs were introduced in the early eighties and have been (will be) used in experiments, there are still disagreements about the explanation of several aspects of the RPC performance. The high efficiency of single gap RPCs would require a large ionization density of the used gases, which according to some authors contradicts measurements. Even in the case of a large ionization density the gas gain has to be extremely large, in order to arrive at the observed RPC efficiency. This raises other questions: A very strong space charge effect is required to explain the observed small avalanche charges around 1 pC. Doubts have been raised whether an avalanche can progress under such extreme conditions without developing into a streamer. To overcome these difficulties, other processes, like the emission of an electron from the cathode, were suggested. Moreover, the shape of measured charge spectra of single gap RPCs differs largely from what is expected from the statistics of the primary ionization and the avalanche multiplication. In this thesis we discuss the detector physics processes of RPCs, from the primary ionization and the avalanche statistics to the signal induction and the read out electronics. We present Monte-Carlo simulation procedures that implement the described processes. While the fundament of the described model and some results were already published elsewhere [1], the subject of this thesis is the implementation of the space charge effect. We present analytic formulas for the electrostatic potential of a point charge in the gas gap of an RPC. These formulas were developed in collaboration with the University of Graz [2] and were published in [3, 4]. The simulation model presented in [1] is completed by the dynamic calculation of the space charge field using these formulas. Since the gas parameters like drift velocity and the Townsend and attachment coefficients depend on the electric field, they are calculated dynamically as well. The functional dependence of these parameters on the field is obtained with the simulation programs MAGBOLTZ and IMONTE. For the primary ionization parameters, we use the values that are predicted by the program HEED. While the described procedure only simulates the longitudinal avalanche development towards the anode of the RPC, we also present more dimensional models that allow a careful study of the transverse repulsive and attractive forces of the space charge fields, and of the consequences for the avalanche propagation. We shall show that the efficiencies of single gap Timing RPCs is indeed explained by the high primary ionization density (about 9.5 /cm as predicted by HEED) and a large effective Townsend coefficient (around 113 /mm as predicted by IMONTE). We show that the space charge field reaches the same magnitude as the applied electric field in avalanches at large gas gain. This strong space charge effect effectively suppresses large values for the avalanche charges. The shape of the simulated charge spectra is very similar to the measurements. Also the simulated average charges are close to the experimental results. RPCs are operated in a strong space charge regime over a large range of applied voltage, contrary to wire chambers. We apply only standard detector physics simulations to RPCs. The performance of Timing and Trigger RPCs is well reproduced by our simulations. The results concerning the space charge effect were presented and discussed at the 'RPC 2001' workshop [5] and on the '2002 NSS/MIC' conference [6].
This thesis presented the measurement of antideuteron and antihelium-3 production in central AuAu collisions at V SNN = 200 GeV center-of-mass energy at RHIC. The analysis is based on STAR data, about 3 x 10 high 6 events at top 10% centrality. Within the data sample a total number of about 5000 antideuterons and 193 antihelium-3 were observed in the STARTPC at mid-rapidity. The specific energy loss measurement in the TPC provides antideuteron identification only in a small momentum window, antihelium-3 however can be identified nearly background free with almost complete momentum range coverage. Following the statistical analysis of the hadronic composition at chemical freeze-out of the fireball, the antinuclei abundances were analyzed in terms of the same statistical description. Now applied to the clusterization of the fireball, the statistical analysis yields a fireball temperature of (135+-10) MeV and chemical potential of (5+-10) MeV at kinetic freeze-out. In the same way as the hadronization, the clusterization process is phase-space dominated and clusters are born into a state of maximum entropy. The large sample of observed antihelium-3 allowed for the first time in heavy-ion physics to calculate a differential multiplicity and invariant cross section as a function of transverse momentum. As expected, the collective transverse flow in the fireball flattens the shape of the transverse momentum spectrum and leads to the high inverse slope parameter of (950+-140) MeV of the antihelium-3 spectrum. With the extracted mean transverse momentum of antihelium-3, the collective flow velocity in transverse direction could be estimated. As the average thermal velocity is small compared to the mean collective flow velocity for heavy particles, the mean transverse momentum of antihelium-3 by itself constrains the flow velocity. Here, a simple ideal-gas approximation was fitted to the distribution of the mean transverse momentum as a function of particle mass and provided direct access to the kinetic freeze-out temperature and the flow velocity. A concept, which is complementary to the combined analysis of momentum spectra and two-particle HBT correlation methods commonly used to extract these parameters, and a cross check for the statistical analysis. The upper limit for the transverse collective flow velocity from the antihelium-3 measurement alone is v flow <= (0.68+-0.06)c, whereas the ideal-gas approximation yields a temperature of (130+-40) MeV and v flow = (0.46+-0.08)c. The results indicate, that the kinetic freeze-out conditions at SPS and RHIC are very similar, except for a smaller baryon chemical potential at RHIC. The simultaneous inclusive measurement of antiprotons allowed to study the cluster production in terms of the coalescence picture. With the large momentum coverage of the antihelium-3 momentum spectrum, the coalescence parameter could be calculated as a function of transverse momentum. Due to the difference between antiproton and antihelium-3 inverse slopes, increases with increasing transverse momentum - again a direct consequence of collective transverse flow. Both B2 and B3 follow the common behavior of decreasing coalescence parameters as a function of collision energy. According to the simple thermodynamic coalescence model, this indicates an increasing freeze-out volume for higher energies and is confirmed by the interpretation of the coalescence parameters in the framework of Scheibl and Heinz. Their model includes a dynamically expanding source in a quantum mechanical description of the coalescence process and expresses the coalescence parameter as a function of the homogeneity volume V hom accessible also in two-particle HBT correlation analyzes. The values for the antideuteron and antihelium-3 results agree well with the homogeneity volume from pion-pion correlations, but do not seem to follow the same transverse mass dependence. A comparison with proton-proton correlations may clarify this point and provide an important cross check for this analysis. Compared to SPS the homogeneity volume increases nearly by a factor of two. The analysis of the antinuclei emission at RHIC allowed to study the kinetic freeze-out of the created fireball. The results show, that the temperature and mean transverse velocity in the expanding system does not change significantly, when the collision energy increases by one order of magnitude. Only the source volume, i.e. the homogeneity volume, increases. That leaves open questions for the theoreticians to the details of the system evolution from the initial hot and dense phase - the initial energy density is a factor of two to three higher at RHIC than at SPS - to the final kinetic freeze-out with similar conditions. At the same time, the results are important constraints for the theoretical descriptions. The successful implementation of the Level-3 trigger system in STAR opens the door for the measurement of very rare signals. Indeed, in the coalescence physics perspective, the first observations of anti-alpha 4 He nuclei and antihypertritons 3/Delta H will come within the reach of STAR, in addition to a high statistics sample of antihelium-3.
Die opto-elektronische Erzeugung intensiver Terahertz-Pulse unter Verwendung von Verstärkerlaser-Systemen stellt eine leistungsfähige und im wissenschaftlichen Umfeld etablierte Technik dar. Es ist anzunehmen, dass diese Technik in Zukunft auch für kommerzielle Anwendungen eingesetzt werden wird. (Z.B. entwickelt die Firma Nikon, Japan ein Echtzeit- Bildgebungssystem mit opto-elektronisch erzeugter Terahertz-Strahlung basierend auf einem Verstärkerlaser.) In dieser Arbeit werden gängige und neuartige opto-elektronische Terahertz-Emitter für Verstärkerlaser theoretisch und experimentell untersucht. Zur experimentellen Untersuchung wurde die Methode der elektro-optischen Detektion, welche in der Arbeit ausführlich vorgestellt wird, verwendet. Dabei wird insbesondere die spektrale Detektorempfindlichkeit dargestellt und eine Methode zur Durchführung kalibrierter Messungen vorgestellt, welche auch für die Verwendung mit Verstärkerlasern geeignet ist. Zu den untersuchten bekannten Emittern gehört der vor ca. 10 Jahren erstmals vorgestellte groß- flächige GaAs-Emitter mit externem Feld. Obwohl dieser Emitter in der Literatur bereits ausführlich untersucht wurde, werden in der vorliegende Arbeit über den Stand der Literatur hinausgehende neue Aspekte wie die Feldabschirmung auf Grund von Ladungsträgerverschiebung und die Abhängigkeit der erzeugten THz-Feldstärke bzw. der THz-Pulsenergie von der Emitterfläche diskutiert. Zudem erfolgt die Behandlung dieses Emitters erstmals vollständig quantitativ, wobei eine gute Übereinstimmung mit den experimentellen Daten erreicht wird. Der zweite in der Arbeit untersuchte Emitter ist der großflächige ZnTe-Emitter. Die elektro-optische Erzeugung von THz-Strahlung in ZnTe-Kristallen mit hoch-repetierlichen Kurzpuls-Lasersystemen ist langjährig bekannt. Die Verwendung großflächiger ZnTe-Kristalle in Verbindung mit Verstärkerlasern wurde allerdings in Rahmen dieser Arbeit erstmals demonstriert. Vor dem Hintergrund der demonstrierten hervorragenden Eigenschaften dieses Emitters ist dieses besonders erstaunlich. Der Hauptteil der Arbeit beschäftigt sich mit der neuartigen Erzeugung von THz-Pulsen in laser-generierten Plasmen. Dabei wurden zwei Methoden untersucht. Die erste Methode, welche im Rahmen dieser Arbeit erstmals realisiert wurde, basiert auf einer Vorspannung des Plasmas mit einem externen elektrischem Feld. Die Methode ist vergleichsweise wenig effektiv, stellt aber eine gute Möglichkeit zur Überprüfung der in der Arbeit entwickelten Modelle für die THz-Emission dar. Die zweite Methode, die erstmals von Cook et al. im Jahre 2000 demonstriert wurde, basiert auf einer "optischen Vorspannung" des Plasmas mittels der Überlagerung des Laserpulses der Fundamentalfrequenz mit einem phasensynchronen Laserpuls der zweiten Harmonischen. Die ausführliche experimentelle und theoretische Untersuchung dieser Methode beinhaltet eine quantitative Modellierung der zu erwartenden Ergebnisse auf Basis des von Cook et al. vorgestellten phänomenologischen Modells, welches auf zeitunabhängigen Nichtlinearitäten dritter Ordnung im Plasma oder in der Luft beruht. Die in dieser Arbeit vorgestellte quantitative Analyse legt die Schlussfolgerung nahe, dass das phänomenologische Modell von Cook et al. in der vorliegenden Form in Frage gestellt werden muss. Daher wurde im Rahmen der Arbeit ein einfaches Modell zur Erklärung der mikroskopischen Ursache der Nichtlinearität entwickelt. Dieses Modell beinhaltet die Kopplung der Nichtlinearität mit dem lokalen Ionisierungsprozess und damit formal auch eine explizite Zeitabhängigkeit der Nichtlinearität im Plasma. Die quantitative Modellierung der makroskopischen THz-Emission auf Basis des mikroskopischen Bildes der Generations-Nichtlinearitäten zeigt, dass das Modell die experimentellen Befunde zufriedenstellend beschreiben kann. Die Arbeit schließt mit einem Vergleich der untersuchten Emitter in Bezug auf spektrale Eigenschaften, Effizienz und Sättigungsverhalten. Bei der Darstellung des Sättigungsverhaltens wird anhand der in der Arbeit entwickelten Modelle versucht die Entwicklung der erzeugten THz-Feldamplituden für Laserpulsenergien von bis zu 50 mJ vorauszusagen. Diese Abschätzung lässt vermuten, dass der Plasma-Emitter für Laserpulsenergien von 10mJ und mehr das Potential hat, deutlich höhere THz-Feldamplituden zu erzeugen als alle gängigen Standardemitter. Entsprechende Experimente in diesem Laserpuls-Energiebereich sind am Front-End des PHELIX-Lasers der GSI (Gesellschaft für Schwerionenforschung) in Darmstadt im Rahmen der Fortführung der Forschungsarbeiten geplant.
Die hier vorgelegte Arbeit hatte zur Aufgabe, funktionellen Einflüsse auf den Neurotransmittertransporter GAT-1 zu erhellen, welche durch eine N-Glykosilierung des Transportproteins hervorgerufen werden. Frühere Untersuchungen deuteten bereits darauf hin, daß der Glykosilierung der drei extrazellulär vorhandenen N-Glykosilierungsstellen des GAT- 1 neben einer expressionellen Bedeutung auch eine funktionelle zukam. So zeigten sich bei Arbeiten anderer Gruppen, welche N-Glykosilierungsmutanten des GAT-1 verwendeten, um die Glykosilierung des Transportproteins zu beeinträchtigen, daß fehlende Oligosaccharide an den N-Glykosilierungsstellen des GAT-1 durchaus in eine Reduktion der GABA-Aufnahme in die Zellen mündete, was zumindest bei Oozyten des Xenopus laevis auf eine verminderte Transportrate zurückgeführt werden konnte. An CHO-Zellen konnte nun auf gleiche Weise eine Reduktion der GABA-Aufnahme beobachtet werden, und es galt, mit elektrophysiologischen Methoden die Ursachen dieser Reduktion zu erkunden. Die hier vorgelegte Arbeit vermochte nun bei CHO-Zellen, eine Verminderung der Transportrate als Ursache jener reduzierten GABA-Aufnahme auszumachen. Zu diesem Zwecke wurden die CHO-Zellen entweder mit der DNA des mGAT1 Wild-Typs (einem aus der Maus klonierten GAT-1-Transporter) oder mit der DNA von N-Glykosilierungsmutanten des mGAT1 transfiziert. Es fanden zwei verschiedene N-Glykosilierungsmutanten Verwendung, an denen jeweils zwei der drei N-Glykosilierungsstellen Asparagin durch Aspartat bzw. Glycin ersetzt wurden: (Asp176, Gly181, Asn184) bzw. DDN (Asp176, Asp181, Asn184). Wie indes die durch eine beeinträchtigte N-Glykosilierung verminderte Transportrate zustande kam, und wie sich eine entsprechende Erklärung in die bisherige Annahme den GAT-1 Reaktionszyklus betreffend einfügen und mit dessen Struktur verbinden ließe, vermochte die hier vorgelegte Arbeit zu einem großen Teil einsichtig zu machen. Zwei Phänomene konnten die Transportrate vermindern: Zunächst waren die Zeitkonstanten transienter Ströme, welche bei Abwesenheit von GABA auftreten, verlangsamt. Weil diese Ströme den ratenlimitierenden Schritt im Reaktionszyklus zu repräsentieren scheinen, mußte also jener Schritt, welcher die Okklusion des ersten Natriums oder die darauffolgende Konformationsänderung beinhaltet, verlangsamt sein. Im weiteren zeigten Analysen der bei den transienten Strömen auftretenden Ladungsverschiebungen, daß die Natrium-Transporter-Interaktion auf extrazellulärer Seite durch das Fehlen von Oligosacchariden an den N-Glykosilierungsstellen des GAT-1 beeinträchtigt war, wobei als Grund hierfür eine Verstärkung der dimensionalen bzw. elektrogenen Schranke zu sehen ist, welche sich vor der Natriumbindungsstelle des GAT-1 befindet. Eine Veränderung der Expressionsrate als tragende Ursache verminderter Transportraten bzw. reduzierter GABA-Aufnahmen konnte hingegen ausgeschlossen werden. Experimente mit dem N-Glykosilierungs-Inhibitor dMM sowie Vergleiche von Experimenten verschiedener Mutanten vermochten die oben beschriebenen Effekte hauptsächlich auf die durch die Mutationen fehlenden Oligosaccharide zurückzuführen und weniger auf andere durch die Mutation hervorgerufene strukturelle Änderungen des GAT-1-Proteins.
Viele mikroskopische Vorgänge in Festkörpern und molekularen Verbindungen sind verbunden mit Änderungen ihres Magnetisierungszustandes. Dies macht den Einsatz externer Magnetfeldsensoren interessant, die sich über wohlbekannte Effekte kalibrieren ließen und dann im Messeinsatz quantitative Aussagen liefern können. Nun laufen viele der interessanten magnetischen Vorgänge in besagten Materialien auf sehr schnellen Zeitskalen im Piko- und Subpikosekundenbereich ab. Kein etablierter Magnetfeldsensor kann diese Anforderung leisten. Im Rahmen dieser Arbeit wurde eine systematische Untersuchung verschiedener Ansätze zum Bau ultraschneller Magnetfelddetektoren durchgeführt. Ein Teil der Arbeit beschäftigt sich mit dem Potential photokonduktiver Ringantennen als Emitter und Detektor für ultraschnelle Magnetfelder. Ein alternativer Ansatz zur Messung transienter Magnetfelder besteht in der Verwendung magnetooptischer Sensoren, wie sie in verschiedenen Anwendungen, in denen keine Zeitauflösung gefordert wird, bereits zum Einsatz kommen (z. B. in der Faradaymikroskopie). Es wird eine für ultraschnelle Magnetooptik vielversprechende Materialklasse als Sensormaterial vorgestellt: die DMS-Systeme. Das sind magnetisch dotierte Verbindungshalbleiter, die in der Umgebung ihrer exzitonischen Resonanzen gewaltige Verdetkonstanten aufweisen. Parallel zu den DMS-Systemen wird das Verhalten eines dotierten Eisengranats untersucht, der als Ferrimagnet völlig andere Voraussetzungen als Messsensor bietet. Darüber hinaus werden verschiedene experimentelle Techniken zur Messung magnetooptischer Phänomene vorgestellt und ihre Vor- und Nachteile ausführlich diskutiert. Es wird ein Verfahren entwickelt, das trotz des Einsatzes der hochempfindlichen Differenzdetektion eine gewisse spektrale Auflösung gewährleistet und deshalb den Betrieb der DMS-Systeme als magnetooptische Sensoren erst ermöglicht. Es werden für die verschiedenen Messmethoden und magnetooptischen Materialien die Grenzen der Nachweisempfindlichkeit analysiert und ihre Eignung als schnelle Detektoren untersucht. Die verschiedenen Vor- und Nachteile der beiden Sensorsubstanzen wird anhand der gemessenen magnetischen Transienten detailliert analysiert. Anschließend wird das Optimierungspotenzial der beiden Materialklassen hinsichtlich ihrer chemischen Zusammensetzung ausgearbeitet und dargestellt.
Gegenstand dieser Arbeit war die Untersuchung der optischen und elektronischen Eigenschaften von metallorganischen Materialien, die mit dem Verfahren der Elektronenstrahlinduzierten Deposition hergestellt wurden. Da es sich bei diesen noch relativ unerforschten Endprodukten um Materialmengen von wenigen Nanogramm Gewicht und geometrische Abmessungen im Sub-µm-Bereich handelt, wurden hierzu neue Verfahren der Herstellung, Strukturierung und Charakterisierung entwickelt. Sowohl die optischen als auch die elektronischen Eigenschaften dieser Deponate besitzen einen gemeinsamen physikalischen Nenner in ihrer inneren Morphologie: ein nanokristallines dielektrisches Verbundmaterial, das aus metallischen Kristalliten und organischen Polymeren gebildet wird. Im Hinblick auf die Durchführung der Untersuchungen war das Augenmerk auf zwei potentielle industrielle Anwendungen gerichtet: den Photonischen Kristallen und den Einzelelektronen-Phänomenen bei Raumtemperatur. Mit Hilfe von Beugungsexperimenten im Fernfeld wird ein Verfahren gezeigt, das eine der periodischen Struktur von Photonischen Kristallen angepaßte Charakterisierung von Materialstrukturen mit optischer Bandlücke ermöglicht. Das mathematische Grundgerüst bildet dabei eine rigorose Streutheorie, die als Lösung der Helmholtz-Gleichung an dielektrischen Zylindern mit wenigen hundert nm Durchmesser den Experimenten zugrunde gelegt wird und sowohl für die praktische Dimensionierung des Versuchsaufbaus als auch für die theoretische Auswertung der Meßdaten, z.B. für die Brechungsindexbestimmung, dient. Die Herstellung und Kontrolle der Eigenschaften von Einzelelektronen-Tunnelelementen (SETs, Single Electron Tunneling Devices), welche bei hohen Temperaturen mit einer abzählbar kleinen Anzahl von Elektronen noch arbeiten, dürfte wohl eine der größten Herausforderungen in der heutigen Festkörperelektronik sein. Obwohl die Idee dazu, auf Basis der "Orthodoxen Theorie", bis auf die 80er Jahre des vergangenen Jahrhunderts zurückgeht, konnten nennenswerte Ergebnisse nur unter "Laborbedingungen" mit entsprechend hohem experimentellem Aufwand erzielt werden. In der vorliegenden Arbeit wird ein neuer Weg gegangen, um die beiden wesentlichen Bedingungen der orthodoxen Theorie, nämlich die Kleinheit der Kapazitäten und hohe Tunnelwiderstände, durch das ungeordnete nanokristalline Netzwerk der metallorganischen Deponate zu erfüllen. Die Motivation hierzu liegt in der hochohmigen organischen Matrix der Deponate, die mit darin eingebetteten elektrisch isolierten Nanokristalliten (die mit Durchmessern zwischen 1 nm und 2.5 nm ausgezeichnete Quantenpunkte bilden) eine ideale Umgebung für den Betrieb von Einzelelektronen-Tunnelelementen bereitstellen. Ein stabiles Verhalten unter hohen Temperaturen und eine ausgeprägte Resistenz gegen quantenmechanische Fluktuationen (z. B. dem Co-Tunneln oder Hintergrundladungen) wird durch den Aufbau von nanokristallinen Netzwerken, die in der Arbeit als "Über-SET" bezeichnet werden, erreicht. Mit Hilfe der entwickelten speziellen Technik lassen sich Nanokristallite elektrisch bis zur quantenmechanischen Tunnelgrenze voneinander isolieren und als Quantenpunkte betreiben. Die dabei beobachtbaren Phänomene sind diskretisierte I/U-Kennlinien und das Blockade-Verhalten der Spannung bei Raumtemperatur, deren Entstehung in Monte-Carlo-Simulationen auf zwei physikalische Grundprinzipien zurückgeführt wird: der Ausbildung von Einfangzuständen (Traps) für Elektronen an Grenzstellen und dem Mechanismus des negativen differentiellen Widerstandes (NDR, Negative Differential Resistance). Beide Effekte fungieren in einer gegenseitigen Kombination zueinander durch Coulomb-Wechselwirkungen zu einem mikroskopischen Schalter für den gesamten Strom.
In summary, the cooled heavy-ion beams of the ESR storage ring offer excellent experimental conditions for a precise study of the effects of QED in the groundstate of high-Z one- and two-electron ions. This has been demonstrated within the series of experiments conducted at the electron cooler device as well as at the gasjet target. In this work we have used a recently developed experimental approach to obtain the first direct measurement of the two-electron contributions to the ground state binding energy of helium-like uranium. By employing our method, all one-electron contributions to the binding energy such as finite-nuclear size corrections and the one-electron self energy cancel out completely. Note, this is a distinctive feature of this particular kind of QED test and is in contrast to all other tests of bound state QED for high-Z ions such as 1s Lamb shift (in one-electron systems), g-factor of bound electrons, or hyperfine splitting. Compared to former investigations conducted at the superEBIT in Livermore we could already substantially improve the statistical accuracy and extend studies to the higher-Z regime. Moreover, our result has reached a sensitivity on specific two-electron QED contributions. Our value agrees with the theoretical predictions within the experimental uncertainty. Similar to the superEBIT experiment possible sources of systematic errors are essentially eliminated and the final result is limited only by counting statistics. For the case of the 1s Lamb shift in hydrogen-like uranium, the achieved accuracy of +- 4.2 eV is a substantial improvement by a factor of 3 compared to the most precise value up to now [44] (see Fig. 5.6). Our result already provides a test of the first-order QED contributions at the 1.5% level and only a slight improvement is required in order to achieve a sensitivity to QED contributions beyond first-order SE and VP.
Diese Arbeit untersucht die Produktion von Teilchen durch Vakuumpolarisation in Anwesenheit klassischer Felder. Eine unquantisierte Beschreibung des bosonischen Sektors einer Quantenfeldtheorie wird möglich, wenn dieser stark besetzt ist. Sind die Besetzungszahlen größer als eins, können Quantenprozesse als Korrekturen angesehen werden. Für die Fermionen gibt es wegen des Paulischen Prinzips kein solches Konzept. Situationen mit diesen starkbesetzten Feldern finden sich im Fall der Quantenchromodynamik (QCD) zum Beispiel in ultrarelativistischen Schwerionenkollisionen. Diese werden zur Zeit am Relativistic Heavy Ion Collider (RHIC) am Brookhaven National Laboratory durchgeführt und in Zukunft am Large Hadron Collider (LHC) am CERN untersucht werden. Diese hochbesetzten sind auch starke Felder. Damit können in Abwesenheit weiterer Skalen Prozesse mit unterschiedlich häufigen Kopplungen an das Hintergrundfeld nicht parametrisch unterschieden werden. Die dominanten Quanteneffekte werden durch Terme der klassischen Wirkung. die zweiter Ordnung in den Quantenfeldern sind, repräsentiert. Alle diesbezüglichen Informationen sind in den Propagatoren der entsprechenden Quanten enthalten. Wegen der starken Felder müssen hier die vollen Propagatoren im Hintergrundfeld benutzt werden. Bei schwacher Kopplung - in führender Ordnung in den Quanteneffekten - enthalten sie alle Details über die Streuung der Quantenteilchen am Feld und deren Produktion durch Vakuumpolarisation. Ohne weitere radiative Korrekturen, gibt es in der Quantenelektrodynamik die Produktion von Elektron-Positron-Paaren. Analog dazu werden in der QCD Quark-Antiquark-Paare produziert. Dort kommt aber wegen der Nichtlinearität des Feldtensors noch die Produktion von Paaren gluonischer Quantenfluktuationen hinzu. Die Quarks und Antiquarks sowie die gluonischen Quantenfluktuationen sind parametrisch nicht zu unterscheiden. Für Schwerionenkollisionen lassen sich Größen wie die anfängliche Energiedichte und die Zerfallszeit des hochdichten Regimes abschätzen. Es stellt sich nun die Frage, ob man bei Einschränkung auf diese Situationen eine der beiden Quantenspezies als unwichtig vernachlässigen kann. Im Bereich hoher Teilchenimpulse, läßt sich die Produktion störungstheoretisch beschreiben. Hier untersuche ich zunächst in der niedrigsten Ordnung der klassischen Wirkung die Produktionsprozesse der beiden Arten von Quanten bei Anwesenheit beliebiger Felder. Für die Aufteilung des Gluonenfeldes in seinen Erwartungswert und seine Fluktuationen wird die Hintergrundfeldmethode der QCD verwendet. Für den Spezialfall rein zeitabhängiger Felder werden die Produktionsraten für Parametersätze, wie sie für RHIC und LHC erwartet sind, angegeben. Es stellt sich heraus, daß auf perturbativem Niveau sowohl Situationen, in denen die Fermionen dominieren, als auch solche, in denen die gluonischen Quantenfluktuationen überwiegen' vorkommen. Im Fall der Gluonen könnte der stark besetzte niederengetische Bereich durch das klassische Feld und der hochenergetische schwächer besetzte durch eine perturbative Beschreibung hinreichend genähert sein. Da es für die Fermionen jedoch kein klassisches Feld gibt, bliebe ihr niederenergetischer Bereich vollkommen unbehandelt. Hier ist auf jeden Fall eine nichtperturbative Beschreibung notwendig. Diese kann auf dem vollen Fermionpropagator im Hintergrundfeld aufgebaut werden. Der bereits oben verwendete Spezialfall eines rein zeitabhängigen Feldes kann als Näherung eines boostinvarianten Szenarios in der zentralen Region der Schwerionenkollision gesehen werden. In Anwesenheit derartiger Felder wird hier der volle retardierte Propagator hergeleitet. Für den exakten Propagator und alle Näherungen wird das Impulsspektrum der produzierten Fermionen berechnet. Dabei stellt sich die sogenannte Abelsche Näherung als bester Kandidat neben der exakten Beschreibung heraus. Sie entspricht, im Gegensatz zur störungstheoretischen Näherung, bei der die Fermionen immer mir ihrem asymptotischen kinematischen Impuls propagiert werden, einer Propagation mit dem mittleren kanonischen Impuls, was die Verbesserung der Näherung erklärt. Mit den, durch die induzierten Strömen modifizierten Yang-Mills-Gleichungen, stellt die Arbeit das komplette Funktionensystem dar, daß benötigt wird, um eine selbstkonsistente Berechnung des klassischen Feldes mit perturbativ beschriebenen gluonischen Quantenfluktuationen und exakt berechneten Quarks und Antiquarks durchzuführen.
Das zeitdiskrete Rohrmodell besitzt für die Modellierung der menschlichen Sprachproduktion eine wichtige theoretische und praktische Bedeutung, da es ein mathematisch handhabbares Modell darstellt und zugleich eine vereinfachte akustische Beschreibung des Sprechtraktes beinhaltet. Dies ist einerseits begründet durch die modellhafte Beschreibung der Ausbreitung von ebenen Wellen durch den Sprechtrakt und andererseits in der Darstellung des Rohrmodells als zeitdiskretes lineares System. Erst durch die Verfügbarkeit von adäquaten Schätzalgorithmen, welche die Modellparameter aus dem Sprachsignal bestimmen, ist das Rohrmodell für Anwendungen in der Sprachverarbeitung interessant. Diese liegen allerdings nur für die einfachsten unverzweigten Rohrmodelle vor, welche den Sprechtrakt nur stark vereinfacht modellieren. Für erweiterte Rohrmodelle existieren nur in eingeschränkter Weise adäquate Schätzalgorithmen, mit denen die Modellparameter aus dem Sprachsignal geschätzt werden können. Daher wird mit dieser Arbeit versucht diesen Mißstand aufzulösen, wofür Schätzalgorithmen auch für erweiterte Rohrmodelle entwickelt und vorgestellt werden. Die Erweiterungen des Rohrmodells beziehen sich auf Rohrverzweigungen, die auch mehrfach auftreten können, und Rohrabschlüsse, die frequenzabhängig oder zeitvariabel sein können. Zusätzlich werden Sprechtraktmodelle behandelt, die zwei Systemausgänge aufweisen. Dies wird für Analysen von getrennt aufgenommenen Mund- und Nasensignalen von nasalierten Lauten diskutiert, um die Lippen- und Nasenabstrahlung einzeln zu berücksichtigen. Ebenso werden verzweigte Modelle mit zwei Systemausgängen für eine Beschreibung des Nasaltraktes unter Berücksichtigung der beiden Nasengänge behandelt. Die Erweiterungen des Rohrmodells durch Verzweigungen und angepaßte Rohrabschlüsse ermöglichen eine genauere Beschreibung des Sprechtraktes infolge der Verzweigungen durch den Nasaltrakt und infolge der Abschlüsse an den Lippen, Nasenlöchern und der Glottis. Die Parameterbestimmung wird durch Minimierung eines Fehlers durchgeführt, welcher ein spektrales Abstandsmaß zwischen dem Rohrmodell und dem analysierten Sprachsignal darstellt. Für die Definition des Fehlers wird die inverse Filterung herangezogen, welche eine Leistungsminimierung des Ausgangssignals des inversen Systems beinhaltet. Dabei hat sich gezeigt, daß die Fehlerdefinition der inversen Filterung modifiziert werden muß, um auch erfolgreich auf erweiterte Rohrmodelle angewendet werden zu können. Die Modifikation kann für erweiterte Rohrmodelle einheitlich für den zeitinvarianten und zeitvariablen Fall vorgestellt werden. Über den allgemeinen Ansatz der Schätzung hinaus werden auch effiziente Schätzverfahren für ausgewählte Rohrstrukturen und allgemeine Pol-Nullstellen-Systeme vorgestellt. Die diskutierten Schätzverfahren ermöglichen eine gute Approximation der Sprachspektren durch die Modellbetragsgänge. Darüber hinaus konnte auch gezeigt werden, daß durch entsprechende Rohrmodellstrukturen und eine geeignete Vorverarbeitung des Sprachsignals realistische Querschnittsflächen des Sprechtraktes geschätzt werden können. Daher eignen sich die erweiterten Sprechtraktmodelle auch für die Sprachproduktion. In Synthesebeispielen wurden Lautübergänge auf der Basis von geschätzten Vokaltraktflächen realisiert und in Resynthesebeispielen mittels unverzweigter Rohrmodelle wurde insbesondere die Anregung der Modelle diskutiert. Daß durch die Verwendung von Rohrmodellen auch Lauttransformationen möglich sind, zeigt die vorgestellte künstliche Nasalierung von Sprachsignalen unnasalierter Laute, welche mittels verzweigter Rohrmodelle und Analysen von getrennt aufgenommenen Mund- und Nasensignalen erreicht werden konnte.
Gegenstand dieser Arbeit sind Eigenschaften angeregter hadronischer Materie sowie physikalische Systeme, in denen diese Materie auftritt bzw. produziert wird. Die Beschreibung der stark wechselwirkenden Materie erfolgt in einem hadronischen, chiral-symmetrischen SU(3)L x SU(3)R Modell, welches die Saturierungseigenschaften von Kernmaterie und die Eigenschaften von Atomkernen reproduziert. Die Untersuchung heißer und dichter unendlicher hadronischor Materie zeigt, dass das vom Modell vorhergesagte Phasendiagramm stark von den Kopplungen der Baryonenresonanzen abhängt. Für kalte hadronische Materie ergibt die Einbeziehung des Baryonendekupletts und die Freiheit in deren Vektorkopplungen eine sehr große Bandbreite an verschiedenen Zustandsgleichungen. Für heiße hadronische Materie mit verschwindendem baryochemischen Potential zeigt sich ebenfalls eine starke Abhängigkeit der Eigenschaften hadronischer Materie von der Ankopplung der baryonischen Resonanzen. Es werden drei verschiedene Parametrisierungen betrachtet. Das resultierende Phasenübergangsverhalten variiert von einem "Crossover" über einen schwachen, zu einem doppelten Phasenübergang erster Ordnung. Es zeigt sich jedoch, dass die beobachteten Eigenschaften von Neutronensternen die Unbestimmtheit bzgl. der Vektorkopplung dieser Freiheitsgrade und damit der Zustandsgleichung deutlich verringern. Das Raum-Zeit Verhalten relativistischer Schwerionenkollisionen bei SPS- und RHIC-Energien wird mittels einer hydrodynamischen Simulation unter Benutzung der chiralen Zustandsgleichungen untersucht. Dabei spiegelt sich das unterschiedliche Phasenübergangsverhalten deutlich im Ausfrierverhalten der hadronischen Materie wider. Die im chiralen Modell berechneten Teilchenzahlverhältnisse werden mit den aus Schwerionenkollisionen von AGS- bis RHIC-Energien erhaltenen experimentellen Daten verglichen. Dabei zeigt sich, dass die verschiedenen Parametersätze des chiralen Modells und die Rechnungen für ein nichtwechselwirkendes, ideales Hadronengas eine ähnlich gute Beschreibung der gemessenen Weite liefern. Die deduzierten Ausfrierwerte für die Temperatur sind sensitiv auf das Phasenübergangsverhalten und liegen unterhalb der jeweiligen kritischen Temperatur. Die vorhergesagten Ausfriermassen sind in allen Parametrisierungen sehr ähnlich mit Abweichungen bis zu 15% von den entsprechenden Vakuumwerten. Die Untersuchung der Eigenschaften von Vektormesonen in dichter Materie erfolgt in der Mittleren-Feld- und in der HartreeNäherung. Hierbei zeigt sich eine signifikante Reduzierung der Teilchenmassen durch Vakuumpolarisationseffekte.
Rückblick Die Motivation für diese Arbeit ergibt sich aus den immer neuen Fragestellungen der modernen Wissenschaft. Deren Beantwortung hängt wesentlich von den geeigneten Messapparaturen ab, die Einblicke in physikalische Prozesse erlauben. Durch effektivere und höher auflösende Detektoren werden präzisere, schnellere und schonendere Messungen möglich. Die Zielsetzung dieser Arbeit über den Hochdruck-Gas-Szintillations-Proportionalzähler ist es, einen Detektor zu entwickeln, mit dem hochenergetische Photonen praktisch vollständig vermessen werden können. Dazu gehören: - die Photonenenergie im Bereich von 5 bis 500 keV, - die Richtung der einfallenden Strahlung (bzw. der Auftreffort auf dem Detektor), - der Absorptionszeitpunkt und - die Diskriminierung von Gamma-induziertem Untergrund. Potenzielle Einsatzgebiete des Detektors sind im wesentlichen medizinische, atom- und astrophysikalische Anwendungen. Die vielversprechenden Eigenschaften dieses Detektorkonzeptes, gegenüber herkömmlichen Gasdetektoren, ergeben sich aus den Mechanismen der primären und der sekundären Gasszintillation. Daraus folgen der überlegene Verstärkungsprozess und das schnelle Zeitsignal. Als Grundlage für die in dieser Arbeit diskutierten Ergebnisse dienen die zuvor von Dangendorf und Bräuning entwickelten Konzepte und die von ihnen gebauten Prototypen. Sie sind geeignet für kleine und mittlere Photonenenergien und liefern eine gute Energie- und Zeitauflösung. Die Tests der Ortsauslese mit abbildenden, optischen Systemen zeigten erste Resultate. Ausgehend von diesen bestehenden Entwicklungen war die Motivation der Arbeit, den Aufbau an die gewünschten Anforderungen anzupassen. Für die höheren Photonenenergien werden ein dichterer Absorber, also ein höherer Gasdruck und damit verbunden neue Auslesekonzepte benötigt. Problem Ein zentrales Problem, das aufgrund dieser neuen Anforderungen auftritt, ist der Druckunterschied zwischen dem Hochdruck-Szintillator und der bei Niederdruck oder im Vakuum betriebenen UV-Auslese. Die dadurch bedingten Kräfte machen entweder besondere Stützstrukturen oder stabile - und dadurch dicke - Fenster erforderlich. In beiden Fällen geht ein Teil des Signals verloren und die Detektorauflösung nimmt ab. Es handelt sich dabei jedoch nicht um prinzipielle Probleme. Die Schwierigkeiten sind rein technischer Natur. Deshalb wurde intensiv weiter nach neuen Konzepten und Lösungsansätzen gesucht, die die Vorteile dieser überlegenen physikalischen Prozesse ausnutzen können. Lösungsansatz Das konkrete Ziel - bzw. die Aufgabenstellung - dieser Arbeit war, mit neuen Technologien, und dabei vor allem mit einem neuen Mikrostruktur-Elektroden-System, bislang bestehende technische Hürden zu überwinden (Kapitel 3). Durch die Möglichkeit, einen in das Hochdruckvolumen integrierten Photonendetektor zu bauen, werden viele der Stabilitätsprobleme gelöst. Mit der großflächigen Auslese des Szintillationslichts direkt dort, wo es entsteht, werden die Transmissionsverluste in Fenstern vermieden. Es gibt damit nur kleine raumwinkelabhängige Effekte und es wird nur ein Gasvolumen und damit kein zusätzliches System zum Evakuieren, Zirkulieren und Reinigen benötigt. Durch die Trennung der Energie- und der Ortsinformation und deren separate Auslese wird zwar die Komplexität des Detektors erhöht, die Teilsysteme können jedoch unabhängig für die jeweiligen Anforderungen optimiert werden. Grundlagen Im Rahmen dieser Arbeit wurden bereits existierende Erfahrungen aufgegriffen und in deren logischer Fortsetzung, ein, in das Szintillatorvolumen integrierter, UV-Photonendetektor entwickelt. Zunächst musste mit einer umfangreichen Recherche ermittelt werden, welche Anforderungen an einen integrierten Photonendetektor bestehen und wie ein solches System in den Aufbau eingebunden werden kann. Mit dem GEM, der sich schon in diversen anderen Gasdetektoranwendungen als universell einsetzbarer Verstärker bewährt hatte, war ein potenzielles Mikrostuktur-Elektroden-System für unsere Anwendung gefunden. Um die Einsatztauglichkeit dieser Mikrostrukturen für die neuen Applikationen zu analysieren, wurden sie im Standard-Design, unter vielen verschiedenen Betriebsparametern getestet. Dabei wurden wertvolle Erfahrungen im Umgang mit den Mikrostrukturen gesammelt. Die GEMs wurden in den typischen Detektorgasen, bei verschieden Drücken, elektrischen Spannungen und Feld-stärken studiert. Dabei wurden die Chancen, aber auch - vor allem aufgrund elektrischer Überschläge und Instabilitäten - die Grenzen des damit Erreichbaren, aufgezeigt. Mit der Herstellung der speziell für diese Anwendung entwickelten GEMs wurde die Grundlage für den stabilen Betrieb des Detektors geschaffen. Simulationsrechnungen In Kooperation mit einer italienischen Gruppe vom INFN in Cagliari haben wir, mit dem Detektor-Simulations-Programm Garfield, Berechnungen durchgeführt (Kapitel 4). Damit konnte schon vor der technischen Realisierung ein Überblick über die Betriebsbedingungen eines mehrstufigen und komplexen Systems gewonnen werden. Dazu zählen die messtechnisch erfassbaren Größen, wie z.B. die mittlere Gasverstärkung und Diffusion. Daneben konnten aber auch die Prozesse im Kleinen studiert werden. Von besonderem Interesse für die Funktion des Detektors ist dabei der Verlauf der Feldstärke in den Poren der Mikrostrukturen und den umliegenden Regionen. Dessen räumlicher Verlauf in Kombination mit den jeweiligen Gasdaten bestimmen die Elektronentransportparameter, die Gasverstärkung, die Diffusion und die Effizienz. In den Xenon-Szintillator integrierter UV-Photonen-Detektor Der UV-Photonendetektor konnte in zwei Varianten erfolgreich in ein Volumen mit dem Xenon-Gas-Szintillator integriert werden. Die Verbindung der CsI-Photokathode mit dem Elektronenverstärker wurde dabei zum einen als semitransparente dünne Schicht auf einer Quarzglasplatte vor der GEM-Folie und zum anderen als opake Variante auf der Frontseite des GEM realisiert. Bei der Auslese des Xenon-Szintillationslichts mit einer in reinem Xenon und bei hohem Druck betriebenen CsI-Photokathode, wurde Neuland betreten. Es wurde erfolgreich gezeigt, dass der integrierte Photonendetektor auf GEM Basis für die hier diskutierten Einsatzbereiche und Anforderungen funktioniert. Die Ankopplung der Photokathode an die Verstärkerstruktur und dabei vor allem der Elektronentransport von der CsI-Schicht in die Verstärkungszone, wurden im Detail untersucht. Dass die Gasverstärkung in reinem Xenon bei den beschriebe-nen Betriebsparameter überhaupt funktioniert, liegt zum einen daran, dass die optische Rückkopplung mit diesem neuen Design effektiv unterdrückt werden kann. Zum anderen konnten die Einflussparameter auf die Gasverstärkung, für den mehrstufigen GEM-Verstärkungsprozess in reinem Xenon, im Detail untersucht werden. Die gekoppelten Gas-Verstärker-Elemente wurden mit einer eigens für diese Anwendung entwickelten Versorgungsspannungsquelle betrieben, die die Folgen von elektrischen Überschlägen minimiert (Kapitel 5.1.3). Gegenüber den herkömmlichen Gasdetektoren ist es mit diesem neuartigen Aufbau möglich, den UV-Photonen-Detektor bei diesen Betriebsparametern stabil zu betreiben. Abbildende Optiken - optische und mechanische Eigenschaften Parallel zur Entwicklung dieses großflächigen Detektors zur Messung des Energiesignals und der Registrierung des primären Lichts, wurde das Konzept zur Ortsauslese via abbildender Optik weiterverfolgt. Die optischen Abbildungseigenschaften der Linsen wurde im Wellenlängenbereich des Xenon-Szintillationslichtes untersucht. In ersten Tests konnte bei kleinen Gasdrücken und somit geringen mechanischen Beanspruchungen die Ebene der Sekundär-lichterzeugung auf einen gekapselten Mikro-Kanal-Platten-Detektor abgebildet werden. Die Festigkeit der Quarzglaslinse für die Druckbeanspruchungen im hier diskutierten Detektor konnte in Zusammenarbeit mit der Fachhochschule Heilbronn - mittels Finite-Elemente-Berechnung - als ausreichend verifiziert werden. Ausblick Die beiden getrennten Systeme für Orts- und Energiemessung funktionieren unabhängig voneinander. Die Vorraussetzungen für die Kombination der Komponenten in einem gemeinsamen Aufbau sind damit geschaffen. Damit ist der Weg für die folgenden Schritte in diesem Projekt aufgezeigt. Als logische Fortsetzung dieser Arbeiten ist geplant, den integrierten Photonendetektor mit der Photokathode auf der GEM-Frontseite, zusammen mit der Ortsauslese gemeinsam aufzubauen. Von dieser Kombination profitiert das Auflösungsvermögen beider Messungen. Die Korrektur der ortsabhängigen Schwankungen in der Effizienz der Photokathode verbessert die Energieauflösung signifikant. Auf der anderen Seite kann durch das geschickte Setzen von geeigneten Bedingungen auf das Energiesignal die Ortsmessung optimiert werden. Als weiterer naheliegender Schritt auf dem Weg zum effizienten Nachweis der hochenergetischen Photonen, bietet sich der Einbau einer zusätzlichen Verstärkungsstufe zum Aufbau eines dreifach-GEM-Detektors an. Damit kann bei höheren Gasdrücken, trotz kleiner werdender maximaler Verstärkung pro GEM, eine ausreichende Gesamtverstärkung erreicht werden. Der Einsatz des Detektors in einem größeren Experiment, in Kombination mit anderen Messapparaturen, rückt somit in greifbare Nähe.
Wir haben uns in dieser Arbeit der möglichen Produktion Schwarzer Löcher in hochenergetischen Teilchenkollisonen unter Annahme einer Raumzeit mit großen Extra-Dimensionen gewidmet. Die Produktionsraten, die bei einer neuen fundamentalen Skala im Bereich Mf ~ 1 TeV zu erwarten sind, liegen für den LHC in der Größenordnung von ~ 10 hoch 8 Schwarzen Löchern pro Jahr. Diese hohe Anzahl begründet das Interesse an den Eigenschaften der produzierten Schwarzen Löchern und wirft die Frage auf, wie diese Objekte beobachtet werden können. Bei der Untersuchung der Eigenschaften dieser Schwarzen Löcher haben wir festgestellt, dass das Entstehen Schwarzer Löcher ab einer c.o.m.-Energie im Bereich der neuen Planck-Masse zu einer raschen Unterdrückung hochenergetischer Jets, wie sie in pp-Kollisionen entstehen, führt. Dies ist ein klares Signal und leicht zu beobachten. Unter Ansetzen des Mikrokanonischen Ensembles haben wir die Zerfallsrate der Schwarzen Löcher und ihre Lebensdauer berechnet. Es zeigt sich, dass diese Lebensdauer hoch genug ist, um ein zeitlich deutlich verzögertes Signal zu erhalten. Nimmt man an, dass die statistische Mechanik bis zur Größenordung Mf gülig bleibt, so gelangen die Schwarzen Löcher im Zuge ihrer Verdunstung in einen quasi-stabilen Zustand und ein Rest verbleibt. Die Lebenszeit ist von der Anzahl der Dimensionen abhängig und lässt so Rückschlüsse auf diesen Parameter zu. Im Falle (Mf ~ TeV, d > 5) liegt sie für Energien von ~ 10 TeV in der Größenordung 100 fm/c. Eine geometrische Quantisierung der Strahlung legt außerdem nahe, dass die Schwarzen Löcher nicht restlos verdampfen können, sondern ein stabiler Überrest verbleibt. Diese Ergebnisse sind in [202, 203, 205] veröffentlicht worden.
In this thesis the anti-proton to proton ratio in 197Au + 197Au collisions, measured at mid-rapidity, at a center of mass energy of psNN = 200GeV is reported. The value was measured to be ¹p/p = 0.81+-0.002stat +- 0.05syst: in the 5% most central collisions. The ratio shows no dependence on rapidity in the range jyj < 0:5. Furthermore, a dependence on transverse momentum within 0:4< p? < 1:0 GeV/c is not observed. At higher p?, a slight drop in the ratio is observed. In the present analysis, the highest momentum considered is p? = 4:5 GeV/c yielding ¹p=p = 0:645§0:005stat: §0:10syst:. However, the systematic error is higher in this momentum range. A slight centrality dependence was observed, where a decrease from ¹p=p = 0:83§0:002stat:§0:05syst: for most peripheral collisions (less than 80% central) to ¹p=p = 0:78§0:002stat:§0:05syst: for the 5% most central collisions was measured. An estimate of the feed-down contributions fromthe decay of heavier strange baryons results in ¹p=p = 0:77 § 0:05syst:. The measured ratio indicates a » 12:5 times higher value compared to the highest SPS energy of psNN = 17:3 and an \almost net-baryon free" region, at mid- rapidity. The asymmetry of protons and anti-protons may be explained by the contribution ofvalence quarks in a nucleus break-up picture. In such a scenario, the absolute value of the ratio and the fact that the ratio does not depend on rapidity (at mid-rapidity) is well reproduced. Fragmentation of quarks and anti- quarks into protons and anti-protons is assumed. An estimate of the ratio, when feed-down correction is taken into consideration, agrees well with the prediction of a statistical model analysis at a temperature of T = 177 § 7 MeV and a baryon chemical potential of ¹B = 29 § 8 MeV. The temperature achieved is only slightly higher when compared to the top SPS energy, while the baryochemical potential is factor »10 lower. As in the case of the SPS results, these parameters are close to the phase boundary of Figure 1.6. The measurement of the ratio at high transverse momentum was of special in- terest in this analysis, since at RHIC energies, the cross section for hadrons at high transverse momentum is increased with respect to SPS energies. The weak dependence of the ratio on the transverse momentum is well described by the non- perturbative quenched and baryon junction scenario (i.e. Soft+Quench model), where baryon creation is enhanced by baryon junctions. In comparison the ratio does not decrease within the considered momentum range as predicted by pQCD.
Gegenstand der vorliegenden Arbeit ist die Untersuchung einer Transferionisation am Beispiel des Stoßsystems (H + ; He), bei der ein Elektron des Targets eingefangen und ein Elektron ins Kontinuum emittiert wird. Ausgangspunkt für die theoretische Untersuchung der Transferionisation sind Experimente für das (H + ; He) Stoßsystem (1) . Unter anderem wurden beobachtet, dass die Elektronen bevorzugt in entgegengesetzter Richtung zum auslaufenden Projektil emittiert werden, dass hohe Emissionsenergien auftreten und alle Ejektile, (He 2+ , H 0 , e ), in die durch Einschuss- und Streurichtung des Projektils definierte Ebene emittiert werden. Unter der Annahme, dass zur Transferionisation hauptsächlich unabhängige Ein-Teilchen-Prozesse beitragen, wurde mit der vorliegenden Arbeit das Ziel verfolgt, das beobachtete markante Emissionsverhalten einer Transferionisation am Proton-Helium-Stoßsystem im Rahmen einer theoretischen Untersuchung zu verstehen. Dazu wurde ein Modellkonzept entwickelt, bei dem das Stoßgeschehen in einem semiklassischen nichtrelativistischen perturbativen Rahmen im Bild unabhängiger Ereignisse beschrieben wird. Das zentrale Anliegen der Modellierung war es, die Bedeutung der Targetstruktur für die Emissionseigenschaften zu klären. Hierbei interessierte der Einfluss der Struktur der Wellenfunktion auf dem Niveau des Modells unabhängiger Teilchen als auch die Rolle der interelektronischen Korrelation im Grundzustand des Targets. Der Einfluss der Targetstruktur auf das Emissionsverhalten wurde durch Einbau dreier verschiedener Wellenfunktionen für den Helium-Grundzustand untersucht: Um die Sensitivität der Rechnungen auf die strukturellen Eigenschaften der Targetbeschreibung zu untersuchen, wurden eine wasserstoffähnliche und eine Hartree-Fock-Beschreibung in das Modell implementiert. Beide bilden die Targetstruktur auf der Basis des Modells unabhängiger Teilchen (IPM) ab und enthalten per Definiton keine interelektronische Korrelation. Um den Einfluss zu klären, den die interelektronische Korrelation auf die Emissionseigenschaften hat, wurde der Eckart-Ansatz in das Modell eingebaut. Dieser Ansatz schließt radiale Anteile von Korrelation mit ein. Anhand eines systematischen Vergleichs der Ergebnisse konnte gezeigt werden, dass die strukturellen Eigenschaften der Wellenfunktion zwar eine Rolle spielen, aber die Qualität der Beschreibung ohne Berücksichtigung der interelektronischen Korrelation unbefriedigend bleibt, während die Berücksichtigung der radialen Anteile elektronischer Korrelation mit dem Eckart-Ansatz verglichen mit den IPM-Ansätzen sich im Hinblick auf das Emissionsverhalten als effizient erwiesen hat. Dieser Befund legt den Schluss nahe, dass die interelektronische Korrelation im Grundzustand des Heliumatoms zum Verständnis der Emissionseigenschaften äußerst wichtig ist. Trotzem werden auch mit dem Eckart-Ansatz nicht alle Züge des Emissionsverhaltens richtig wiedergegeben. Da die Bewegungen der Komponenten eines Vielteilchenproblems voneinander abhängen, besteht Grund zu der Annahme, dass ein radialsymmetrischer Ansatz zur Beschreibung des Systems Helium nicht in der Lage ist, die experimentell beobachtete Emission von Elektronen in einer Vorzugsrichtung zutreffend zu beschreiben: Neben der Radialkorrelation ist auch die Winkelkorrelation zu berücksichtigen. Die logische Erweiterung des Modells in dieser Richtung ist die Implementation eines Konfigurationsmischungs-Ansatzes. Eine zukünftige Rechnung unter Verwendung eines Konfigurationsmischungs-Ansatzes erscheint daher im Hinblick auf eine Erklärung des Emissionsverhaltens im Bild unabhängiger Ereignisse interessant. (1) V.Mergel, Dissertation, Frankfurt am Main 1996
Die Doppelionisation von Wasserstoffmolekülen H2 durch einzelne Photonen stellt ein fundamentales und herausforderndes Problem sowohl für die experimentelle als auch für die theoretische Physik dar. In den meisten Fällen kann dabei die elektronische Bewegung von der nuklearen Dynamik entkoppelt werden (Born-Oppenheimer Näherung). Aus diesem Grund kann man auch den molekularen Fragmentationsprozess als eine Emission eines Dielektrons aus einem nuklearen Zweizentren-Coulomb-Potential beschreiben. Die vorliegende Arbeit befasst sich mit der Photodoppelionisation (PDI) von molekularem Wasserstoff durch einzelne, linear polarisierte Photonen mit einer Energie von 75 eV. Dieses Szenario wird verglichen mit der Photodoppelionisation von Heliumatomen (siehe [Bri00] für einen umfassenden Überblick). In diesem Versuch wurde die Rückstoßionenimpulsspektroskopie-Methode (COLd Target Recoil Ion Momentum Spectroscopy COLTRIMS) benutzt, um alle Fragmente der Reaktion auf ortsauflösende Vielkanalglasplatten(Multi-Channel-Plate MCP)-Detektoren mit Verzögerungsdrahtauslese (delay-line anode) abzubilden. Dabei wurden die Mikropartikel durch elektrische und magnetische Felder geführt. In einer Messung wurde das Rückstoßionenspektrometer mit gepulster Extraktionsspannung betrieben, um das Dielektron und die Stellung der molekularen Achse mit guter Impulsauflösung gleichzeitig vermessen zu können. In einer weiteren Messung kam ein neuartiges Detektorsystem mit hexagonaler Verzögerunsdrahtanode zum Einsatz, die in der Lage war, beide Elektronen, die in sehr kurzen Zeitabständen auf dem Detektor eintrafen, ohne Totzeitverluste in Koinzidenz mit den nuklearen Fragmenten ortsauflösend zu registrieren. Aus den Flugzeiten und Auftrefforten der Teilchen der beiden Datensätze konnten die Impulse des Vierteilchenendzustandes generiert werden. Dies stellt die Messung des Betragsquadrats der quantenmechanischen Wellenfunktion im Impulsraum dar. Aus diesen Größen konnten auch die azimutalen und polaren Winkelverteilungen in Referenz zum Polarisationsvektor des einfallenden Lichts bestimmt werden. Basierend auf der axialen Rückstoßnäherung konnten so zum ersten Mal hochdifferentielle Wirkungsquerschnitte (QDCS und höher) des Vierkörper-Problems für eine raumfeste Molekülachse gemessen werden. Unter Ausnutzung der Reflexions-Näherung war sogar der internukleare Abstand des Moleküls zum Zeitpunkt der Photoabsorption zugänglich. Man findet markante Übereinstimmungen mit der PDI von Heliumatomen. Das Dielektron wird vorwiegend entlang des Polarisationsvektors emittiert und koppelt an das Schwerpunktssystem (Center-of-Mass CM) der nuklearen Partikel, die in einer Coulomb-Explosion fragmentiern. Etwa 72.5 % der Anregungsenergie der beiden Elektronen geht in deren Relativbewegung. Wie bei der Ionisation von Heliumatomen bestimmt die Elektron-Elektron Wechselwirkung zusammen mit diversen Auswahlregeln (siehe [Wal00c]) die Form der polaren Winkelverteilung. In der azimutalen Ebene (die Ebene, die senkrecht zum Polarisationsvektor des Lichts angeordnet ist) erkennt man den attraktiven Einfluss des nuklearen Zweizentren-Potentials, was zu einer Abweichung von der Zylindersymmetrie um die Achse des elektrischen Feldvektors des Lichts führt, wie sie bei niedrigeren Photonenenergien vorzufinden ist (siehe [Dör98b]). In dieser Ansicht tendieren langsame Elektronen dazu, entlang der Molekülachse emittiert zu werden. Es können der sogenannte Auffülleffekt der Knotenstruktur und die vergrößerten Zwischenwinkel in der Polarwinkelverteilung der Elektronen in Form einer Zweikeulenstruktur verifiziert werden (siehe [Red97, Wig 98]). Die Ergebnisse bestätigen den Modellansatz von J. Feagin (siehe [Fea98]), der den Zusammenbruch einer atomaren Auswahlregel, die auf einem Konus wirkt, für den molekularen Fall vorhersagt. Diese Auswahlregel reduziert sich auf eine Knotenlinie, die aufgrund der endlichen Öffnungswinkel des Experiments aufgefüllt wird. Es gibt Hinweise, dass die Verringerung des elektronischen Zwischenwinkels eine Funktion der Stellung der Molekülachse ist, d.h. der kohärenten Überlagerung der beiden möglichen Endzustände mit S- und ?-Symmetrie. Die Ergebnisse der Wannier-Theorie vierter Ordnung nach T. Reddish und J. Feagin (siehe [Red99]) zeigen eine gute Übereinstimmung mit den experimentell gewonnen Daten, zumindest solange die beiden Elektronen den gleichen kinetischen Energiebetrag erhalten. Im Gegensatz dazu bewertet die hochkorrelierte 5C-Theorie nach M. Walter et al. (siehe [Wal99]) den Einfluss des attraktiven nuklearen Zweizentren-Potentials zu hoch. Vorläufige Ergebnisse einer CCC-Rechnung von A. Kheifets et al. (siehe [Khe02]) zeigen eine sehr akkurate Übereinstimmung mit den gemessenen Winkelverteilungen. Minimiert man die Elektron-Elektron Wechselwirkung, indem man eine rechtwinklige Emission der beiden Elektronen fordert (dies kommt einer Ionisation eines H2 +-Ions gleich), so findet man keine starken Fokussierungseffekte vor, wie man sie von Ionisationsprozessen von N2 und CO her kennt (siehe [Lan01, Web01b, Jah02a und Web02]). Stattdessen beobachtet man die Emission eines langsamen Elektrons auf dem nuklearen Sattelpunktspotential, wie man es nach einer halbklassischen Beschreibung erwarten kann. Zusätzlich ist eine hochstrukturierte Winkelverteilung zu beobachten, die auf höhere Drehimpulsbeiträge schliessen lässt (vergleichbar der Parametrisierung bei der PDI von Heliumatomen nach L. Malegat et al., siehe [Mal97d]). Die Verteilung ist sehr sensitiv auf die Energie der Elektronen und die Orientierung der Molekülachse, was weder angemessen durch auslaufende, ebene Wellen noch durch die 5C-Theorie beschrieben werden kann. Für diese Ereignisse erzwingen große internukleare Abstände eine Emission der Elektronen entlang des Polarisationsvektors, während für kleine Abstände die Elektronen vorwiegend rechtwinklig zur Molekülachse ausgesendet werden. Anhand dieser Tatsachen kann man auf einen merklichen Einfluss des Anfangszustands auf die Winkelverteilung der Elektronen zurückschließen. Das ganze Szenario ändert sich sobald man die Elektron-Elektron Wechselwirkung wieder "einschaltet", indem man fordert, dass die Fragmentation in einer Ebene stattfindet. Hier bestimmt die Relativbewegung der beiden Elektronen die Form der Wirkungsquerschnitte. Es zeigen sich nur geringfügige Änderungen in Abhängigkeit zum internuklearen Abstand. Es kann aber teilweise eine dreifache Keulenstruktur ausgemacht werden. Diese Substruktur ändert ihre Amplitude und Richtung als Funktion des Molekülabstandes. Eine direkte Emission entlang des Polarisationsvektors scheint dabei verboten zu sein. In dieser Darstellung zeigt das elektronische Emissionsmuster einen sehr heliumähnlichen Charakter für kleine Bindungslängen. Für größere Abstände der Kerne werden langsame Elektronen deutlich unter einem Zwischenwinkel von 180° (back-to-back-emission) gegen das schnelle Referenzelektron emittiert. Referenzen: [Bri00] J.S. Briggs et al., J. Phys. B: At. Mol. Opt. Phys., 33, (2000), S. R1 [Dör98b] R. Dörner et. al., Phys. Rev. Lett., 81, (1998), S. 5776 [Fea98] J. Feagin, J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. L729 [Jah02a] T. Jahnke et. al., Phys. Rev. Lett., 88, (2002), S. 073002 [Khe02] A. Kheifets, private Mitteilung, (2002) [Lan01] A. Landers et al., Phys. Rev. Lett., 86, (2001), S. 013002 [Mal97d] L. Malegat et al., J. Phys. B: At. Mol. Opt. Phys., 30, (1997), S. 251 [Red97] T. Reddish et al., Phys. Rev. Lett., 79, (1997), S. 2438 [Red99] T. Reddish et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2473 [Wal00c] M. Walter et al., Phys. Rev. Lett., 85, (2000), S. 1630 [Wal99] M. Walter et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2487 [Web01b] Th. Weber et al., J. Phys. B: At. Mol. Opt. Phys., 34, (2001), S. 3669 [Web02] Th. Weber et al., Phys. Rev. Lett., (2002), eingereicht zur Veröffentlichung [Wig98] J.P. Wightman et al., J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. 1753
Im ersten Teil dieser Arbeit sind Protein-Protein Docking-Studien dokumentiert. Bis heute konnten die meisten Protein-Komplex-Strukturen nicht experimentell aufgeklärt werden, so auch die beiden oben genannten Elektrontransfer-Komplexe. Nach einem erfolgreichen Test wurden verschiedene Cytochrom c Oxidase:Cytochrom c Paare mit der gleichen Methode gedockt: COX aus Paracoccus denitrificans mit Pferdeherz Cytochrom c und COX mit dem löslichen Fragment des membrangebundenen Cytochrom C552 (beide aus P. denitrificans). Im zweiten Teil dieser Arbeit wurde die diffusive Annäherung des Cytochrom c an die Cytochrom c Qxidase mit der Brownschen Dynamik Methode simuliert. Die Diffusionsbewegung eines Brownschen Teilchens in wässriger Lösung wird durch die Langevin-Gleichung bestimmt. Der auf dieser Gleichung fußende Ermak-McCammon-Algorithmus ist Grundlage der Simulationsmethode. Die so ermittelten Raten für COX und Pferdeherz, sowie für COX und Cytochrom C552, wurden dann mit experimentell gewonnenen Raten verglichen. Da die Elektrostatik für den Annäherungsprozeß dieser Proteine eine so gewichtige Rolle spielt, wirken sich Mutationen, die mit einer Ladungsänderung einhergehen, merklich aus. Dies ist vor allem dann der Fall, wenn sich die Mutation in der Nähe der Bindungsstelle befindet. Aus dem gleichen Grund ist die Assoziationsrate auch stark von der Ionenstärke der umgebenden Lösung abhängig. Steigt die Ionenkonzentration wird die elektrostatische Komplementarität der Bindingsstellen der beiden Makromoleküle stärker abgeschirmt, und die Rate sinkt. Diese beiden relativen Trends konnten durch die Simulationen gut reproduziert und bestätigt werden. Allerdings liegen die absoluten Resultate merklich über den experimentell gemessenen Raten. Es ist sehr gut möglich, daß post-diffusive Effekte, die nicht in einer Brownschen Dynamik Simulation von starren Körpern berücksichtigt werden können, die Raten erniedrigen. Um den Einfluß der Membranumgebung auf die Wechselwirkung des Elektrontransportsystems zu untersuchen. wurde eine DPPC Doppelschicht um die Oxidase modelliert und energieminimiert. Mit Poisson-Boltzmann Rechnungen wurde das elektrostatische Potential dieses Nanosystems untersucht und mit dem der einzelnen Oxidase verglichen. Durch einen modifizierten Set-up konnten dann auch für dieses Membransystem Brownsche Dynamik Simulationen durchgeführt werden. Der Vergleich mit den vorhergehenden Simulationen ohne Membran erbrachte bemerkenswerte Ergebnisse. Während die Assoziationsraten für Pferdeherz Cytochrom c durch den Membraneinfluß erniedrigt wurden, stiegen sie im Fall des physiologischen Transferpartners c552. Pferdeherz Cytochrom c weist eine positive Nettoladung und einen ausgeprägten bipolaren Charakter auf. Eine große Zahl positiv geladener Seitenketten befindet sich auf der gleichen Hemisphäre wie die Bindungsstelle. Obwohl die DPPC Lipidmoleküle neutral sind, zeigten die Elektrostatikrechnungen, daß die Membranoberfläche abstoßend auf positive Ladungen wirkt. Da sich nun die Bindungsstelle der Oxidase für Cytochrom c nur etwa 10 Å oberhalb der Membran befindet, verringert sich die Wahrscheinlichkeit der Assoziation.
Die Infrarotspektroskopie in Verbindung mit photoaktivierbaren Substraten wurde zur Untersuchung von Substrat-Protein-Wechselwirkungen eingesetzt. Dabei wurden Konformationsänderungen der Ca2+-ATPase des Sarkoplasmatischen Retikulums bei Bindung des Nukleotids, der Phosphorylierung der ATPase und der Hydrolyse des Phosphoenzyms beobachtet. Verwender wurden das native Substrat ATP und seine Analoga ADP, AMPPNP, 2'-deoxyATP, 3'-deoxyATP, ITP, AMP, Pyrophosphat, Ribosetriphosphat und TNP-AMP beobachtet. Diese Analoga waren an spezifischen funktionellen Gruppen des Substrats ATP modifiziert. Modifikation der 2'- und 3'-OH Gruppe des Ribosetriphosphats, der beta- und gamma-Phosphatgruppe und der Aminogruppe des Adenins reduzieren das Ausmaß an bindungsinduzierten Konformationsänderungen. Ein besonders starker Effekt wird für die 3'-OH Gruppe und die Aminogruppe des Adenins beobachtet. Dies zeigt die strukturelle Empfindlichkeit des Nukleotid-ATPase Komplexes auf einzelne Wechselwirkungen zwischen dem Nukleotid und der ATPase. Die Wechselwirkungen einer bestimmten Ligandengruppe mit der ATPase hängen von Wechselwirkungen anderer Ligandengruppen mit die ATPase ab. Die TNP-AMP Bindung verursacht teilweise gegenläufige und kleinere Konformationsänderungen verglichen mit ATP. Die Bindungweise von TNP-AMP ist unterschiedlich zu der von ATP, AMPPNP und anderen Tri- und Diphosphat Nucleotiden. Die Phosphorylierung der ATPase wurde mit ITP und 2'-deoxyATP beobachtet. Ca2E1P wurde in gleichem Ausmaß mit ITP und 2'-deoxyATP wie mit ATP akkumuliert, obwohl das Ausmaß der Konformationsänderungen bei Ca2E1P-Bildung geringer ist. Änderungen der 2'- und 3'-OH des Ribosetriphosphats und der Aminogruppe des Adenins beeinflussen die Reaktionsgeschwindigkeit der Phosphorylierung der ATPase. Es gibt keine direkte Verbindung zwischen dem Ausmaß der Konformationsänderung bei Nukleotid- Bindung und der Rate der Phosphorylierung. Das volle Ausmaß der ATP-induzierten Konformationsänderung ist nicht zwingend für die Phosphorylierung. Die Konformationen von Ca2E1N und Ca2E1P hängen vom Nukleotid ab. Dies weist darauf hin, dass die Struktur von ATPase Zuständen heterogener ist, als bisher erwartet. Die Aussagekraft und der Reichtum an Informationen in den Infrarotspektren zeigen, dass hiermit eine leistungsfähige Methode für die Untersuchung von Enzym-Substrat-Wechsel-Wirkungen und das räumliche Abtasten von Bindungstaschen zur Verfügung steht.
Cytochrome c oxidase is the terminal enzyme in the respiratory chain of mitochondria and aerobic bacteria. This enzyme ultimately couples electron transfer from cytochrome c to an oxygen molecule with proton translocation across the inner mitochondrial and bacterial membrane. This reaction requires complicated chemical processes to occur at the catalytic site of the enzyme in coordination with proton translocation, the exact mechanism of which is not known at present. The mechanisms underlying oxygen activation, electron transfer and coupling of electron transfer to proton translocation are the main questions in the field of bioenergetics. The major goal of this work was to investigate the coupling of electron transfer and proton translocation in cytochrome c oxidase from Paracoccus denitrificans. Different theoretical approaches have been used to investigate the coupling of electron and proton transfer. This thesis presents an internal water prediction scheme in the enzyme and a molecular dynamics study of cytochrome c oxidase from Paracoccus denitrificans in the fully oxidized state, embedded in a fully hydrated dimyristoylphosphatidylcholine lipid bilayer membrane. Two parallel molecular dynamics simulations with different levels of protein hydration, 1.125 ns each in length, were carried out under conditions of constant temperature and pressure using three-dimensional periodic boundary conditions and full electrostatics to investigate the distribution and dynamics of water molecules and their corresponding hydrogen-bonded networks inside cytochrome c oxidase. The average number of solvent sites in the proton conducting K- and D- pathways was determined. The highly fluctuating hydrogen-bonded networks, combined with the significant diffusion of individual water molecules provide a basis for the transfer of protons in cytochrome c oxidase, therefore leading to a better understanding of the mechanism of proton pumping. The importance of the hydrogen bonding network and the possible coupling of local structural changes to larger scale changes in the cytochrome c oxidase during the catalytic cycle have been shown.
Die Entwicklung der Renormierungsgruppen-Technik, die in ihrer feldtheoretischen Version auf Ideen von Stückelberg und Petermann und in der Festkörperphysik auf K.G. Wilson zurückgeht, hat wesentliche Einsichten in die Natur physikalischer Systeme geliefert. Insbesondere das Konzept der so genannten Universalitätsklassen erhellt, warum Systeme, die durch scheinbar sehr verschiedene Hamilton-Operatoren beschrieben werden, doch im Wesentlichen die selbe (Niederenergie-)Physik zeigen. Ein weiterer Grund für den Erfolg dieser Methode liegt darin begründet, dass sie in systematischer Weise unendlich viele Feynman-Diagramme aufsummiert und somit über konventionelle Störungstheorie hinaus geht. Dies spielt in der Festkörperphysik vor allem dann eine wichtige Rolle, wenn das vorliegende physikalische System stark korreliert ist. Entsprechend der Vielzahl von Anwendungsmöglichkeiten hat sich in den vergangenen Jahrzehnten eine große Bandbreite verschiedener Formulierungen der Renormierungsgruppen-Technik ergeben. Eine davon ist die sogenannte funktionale Renormierungsgruppe, die auf Wegner und Houghton zurück geht und die auch in der vorliegenden Arbeit benutzt und weiter entwickelt wurde. Wir haben hier insbesondere auf die Einbeziehung der wichtigen Reskalierungsschritte wertgelegt. Als erstes Anwendungsgebiet des neu entwickelten Formalismus wurden stark korrelierte Elektronen in einer Raumdimension ausgewählt und hier insbesondere ein Modell, das als Tomonaga-Luttinger-Modell (TLM) bezeichnet wird. Im TLM wechselwirken Elektronen mit einer strikt linearen Energiedispersion ausschließlich über so genannte Vorwärtsstreu-Prozesse. Aufgrund der Linearisierung der Energiedispersion nahe der Fermipunkte ergibt sich ein Modell, das z.B. mit Hilfe der so genannten Bosonisierungs-Technik exakt gelöst werden kann. Hauptziel der vorliegenden Arbeit ist es, die bekannte Spektralfunktion dieses Modells unter Verwendung des Renormierungsgruppen-Formalismus zu reproduzieren. Gegenüber der bisherigen Implementierung der Renormierungsgruppe, bei der lediglich der Fluss einer endlichen Anzahl von Kopplungskonstanten betrachtet wird, stellt die Berechnung des Flusses ganzer Korrelationsfunktionen eine enorme Erweiterung dar. Der Erfolg dieser Herangehensweise im TLM bestärkt die Hoffnung, dass es in Zukunft auch möglich sein wird, die Spektralfunktionen anderer Modelle mit dieser Methode zu berechnen, bei denen herkömmliche Techniken versagen.
Die vorliegende Arbeit stellt Design, Aufbau und erste experimentelle Testergebnisse einer integrierten RFQ-Driftröhrenkombination für den Einsatz im Injektorbereich einer klinischen Synchrotronanlage zur Behandlung von Tumorerkrankungen mit Ionenstrahlen vor. Das Hauptziel der Bemühungen war, eine sehr kompakte und auf die gestellten Aufgaben hoch spezialisierte Lösung zu finden, die den täglichen Anforderungen im Klinikbetrieb gerecht wird. Zuverlässigkeit, einfache Bedienbarkeit und möglichst geringe Betriebskosten standen dabei im Vordergrund und führten letztlich zu einer nur 1,40 m langen Kombination der beiden Beschleunigerkomponenten, die üblicher Weise in zwei getrennten Kavitäten mit separater Leistungsversorgung, separater Steuerung und mit deutlich mehr Platzbedarf untergebracht sind. Im Zuge der Designarbeiten wurde insbesondere das Programm PARMPRO den hier aufgetretenen aktuellen Problemstellungen angepasst. Die Berechnung der Wechselwirkung von Ionen bei raumladungsdominierten Teilchenstrahlen wurde korrigiert, das Programm um ein Transportelement zu Transformation geladener Teilchen durch eine frei wählbare Potentialverteilung erweitert und mit einem neu entwickelten Programmteil wurden die zur Fertigung notwendigen Daten generiert. Die Optimierung der Strukturparameter mit Hilfe einer externen Visual-Basic-Anwendung zum automatischen Optimieren der Strukturdaten mit Hilfe von PARMPRO war ein Schritt auf dem Wege zum endgültigen, an die Eingangsstrahldaten und an die Erfordernisse der darauffolgenden IH-Struktur angepassten Elektrodendesign. Nach den Simulationsrechnungen erfolgten Referenzmessungen an entsprechenden Modellaufbauten insbesondere mit einem computergesteuerten Störkörpermessstand, zur experimentellen Bestimmung der Spannungsverhältnisse an der jeweils zu untersuchenden Strukturvariante. Auf diesen Ergebnissen basiert das endgültig entwickelte Resonatorkonzept der RFQ-Driftröhrenkombination. Das Kapitel "Aufbau des Medizin-RFQs" behandelt die Konstruktion und die technische Umsetzung des erarbeiteten Beschleunigerkonzepts. Einzelnen Beschleunigerkomponenten wie Tank, Elektroden, Resonatorstruktur, Bunchereinheit und deren Fertigungsprozesse werden vorgestellt, Arbeitsschritte wie das Verkupfern des Tanks in der Galvanik der GSI oder das Verfahren zum Versilbern von Kontaktteilen im hauseigenen Labor werden beschrieben. Es folgt eine Diskussion des Justierkonzepts und der Maßnahmen zur Einhaltung der erforderlichen Genauigkeiten von ca. 20 mm, um die berechnete Strahlqualität zu gewährleisen. Abschließend werden die Ergebnisse erster HF-Testmessungen auf Messsenderniveau beschrieben. Hier wurden zunächst experimentell grundlegende Resonatoreigenschaften wie etwa Resonanzfrequenz, Güte und Parallelersatzwiderstand bestimmt. Danach wurde ein spezielles Störkörpermessverfahren angewandt, um den über die Montagehöhe der Driftröhre einstellbaren Spannungsbereich der Bunchereinheit zu erfassen, da die geometrischen Verhältnisse einen computergesteuerten Messstand wie er zur Untersuchung der Modellaufbauten herangezogen wurde nicht zuließen. Abschließend erfolgte ein Abstimmen der Spannungsverteilung entlang der RFQ-Elektroden. Diese experimentellen Ergebnisse belegen eindrucksvoll die Funktionsfähigkeit der RFQ-Driftröhrenkombination, so ist insbesondere die erforderliche Buncherspannung auf einer mittleren Montagehöhe der spannungsführenden Driftröhre zu erreichen, die durch die zusätzlich Driftröhrenkapazität hervorgerufene Verzerrung der Spannungsverteilung auf den Elektroden lässt sich über die höhenverschiebbaren Kurzschlussplatten gut korrigieren. Das erarbeitete Gesamtkonzept dieser neuartigen, sehr kompakten RFQ-Driftröhrenkombination ist auch für andere Anwendungsbereiche sehr attraktiv, so dass bereits ein Patent darauf angemeldet wurde. Damit ist das Ziel, eine RFQ-Driftröhrenkombination für die medizinische Beschleunigeranlage in Heidelberg aufzubauen erreicht. Strahltests und die experimentelle Bestimmung der Phasen- und Energiebreite des Ionenstrahls sind als nächstes vorgesehen.
Es wurde für Protonen- und Deuteronenbeschleuniger unter Extrembedingungen (hoher Ionenstrom, Dauerstrichbetrieb, Niedrigenergieabschnitt) ein Vergleich zwischen der konventionellen RFQ-Alvarez-DTL-Kombination und einer erstmals am IAP für diese Zwecke entwickelten RFQ-H-DTL-kombination durchgeführt. Insbesondere die Auslegung der Teilchendynamik von HF-Driftröhrenlinearbeschleunigern und RFQ's für leichte Ionen unter Miteinbeziehung der Raumladung und der Forderung nach Dauerstrichbetrieb sind Thema der vorliegenden Arbeit. Die vorgestellten Beschleuniger müssen extrem hohen Anforderungen an Transmission (Stromverlustrate << 3 µ A/m nach dem RFQ), Stabilität (stetige Strahldynamik bei Strahlfehlanpassung und Berücksichtigung von mechanischen und optischen Toleranzen), Anlagensicherheit ("Hands-on-Kriterium") und -zuverlässigkeit (Anlagenverfügbarkeit > 80 %) bei hoher HF-Effizienz (optimierte Shuntimpedanzen, Laufzeitfaktoren und Oberflächenstromdichten) genügen. Es wurden exemplarisch im Rahmen von zwei aktuellen Hochstromprojekten mit Dauerstrichbetrieb teilchendynamische DTL-Entwürfe für den mittleren Energiebereich (0.1 = ß = 0.34) durchgeführt: einmal für das ADS/XADS Projekt (Hier: 40 mA, 350/700 MHz 24 MW, Protonen, CW) und als extremes Beispiel das IFMIF Projekt (125 mA, 175 MHz, 5 MW, Deuteronen, CW). Da IFMIF hinsichtlich Transmissionseffizienz und Strahlstrom in Verbindung mit einem 100 %-Tastverhältnis wohl einzigartig ist, mussten besonders intensive Anstrengungen für den Test der Robustheit des teilchendynamische Entwurfs der DTL-Strukturen unternommen werden. Hierzu wurde der gesamte Injektorpart vom Eingang des Referenz Four-Vane-RFQ bei 0.1 MeV bis zum Ausgang des DTL bei 40 MeV als ganzes simuliert, unter Einbeziehung von optischen, HF- und mechanischen Toleranzen. Diese Rechnungen machten deutlich, dass die Einbringung einer kompakten Strahltransportstrecke (MEBT) zwischen RFQ und DTL notwendig ist, um den Strahl transversal und longitudinal ohne Teilchenverluste an den nachfolgenden DTL anzupassen. Man gewinnt dadurch auch zusätzliche Möglichkeiten für Strahljustierung und -diagnose. Infolgedessen gehört ein MEBT mittlerweile zum Referenz-Design, welches einen 175 MHz Four-Vane-RFQ als Vorbeschleuniger vorsieht und nach dem MEBT einen 175 MHz Alvarez-DTL mit FoDo-Fokussierschema. Die Designkriterien für IFMIF gelten uneingeschränkt auch für das ADS/XADS Projekt und infolgedessen wurde ebenfalls erstmals eine Auslegung des Mittelenergieabschnitts des ADS/XADS-Beschleunigers, der unmittelbar nach dem 350 MHz RFQ bei 5 MeV anfängt und bis ~ 100 MeV reicht, mit der neuen supraleitende CH-Struktur unternommen. Der Hochenergiebereich von 100 MeV bis 600 MeV wird im Referenzentwurf mit den bereits bewährten supraleitenden elliptischen Kavitäten mit einer Resonanzfrequenz von 700 MHz abgedeckt [ADS]. Die umfangreichen Untersuchungen inklusive Toleranzabschätzungen ergaben, dass eine Kette von zehn supraleitenden CH-Resonatoren mit Zwischentankfokussierung (Ausnahme das Modul 1) für diese Anwendung bestens geeignet ist. Des weiteren ergab sich, dass ein Frequenzsprung auf 700 MHz nach dem 6-ten CH-Modul bei einer Energie von ~ 56 MeV die Beschleunigungs- und HF-Effizienz erhöht. Außerdem wird dadurch der Strahl ideal an den Hochenergieabschnitt angepasst. Im Rahmen dieser Arbeit wurden neue Driftröhrenlinearbeschleunigerstrukturen vorgestellt (normal leitender IH-DTL, supraleitender CH-DTL), die für bis zu 10 MW Strahlleistung, 125 mA Strahlstrom und höchsten Tastverhältnissen geeignet sind. Ferner konnte durch geschickte Wahl der Strukturparameter und Arbeitspunkte eine gute Teilchendynamik mit einem moderaten Emittanzwachstum erzielt werden: Strahltransport und -beschleunigung ohne Teilchenverluste, starke transversale und longitudinale Fokussierung, große Aperturfaktoren und höchste HF-Effizienz sind gleichzeitig erreichbar. Somit stellen die neuen H-Moden Driftföhrenbeschleuniger vor allen Dingen in der supraleitenden Ausführung (CH-DTL) eine tragfähige Basis für alle weiteren geplanten Hochintensitätsbeschleunigeranlagen dar.
In der vorliegenden Arbeit wurden verschiedene Aspekte der starken Wechselwirkung in effektiven Modellen in selbstkonsistenten Vielteilchenresummationsverfahren, die mit Hilfe des Cornwall-Jackiw-Tomboulis-Formalismus (CJT) hergeleitet wurden, untersucht. Zum einen wurden in der vorliegenden Arbeit lineare Sigma-Modelle behandelt, die zur Beschreibung der chiralen Symmetrierestauration der starken Wechselwirkung herangezogen werden. Hierbei handelt es sich um die linearen Sigma-Modelle mit O(4)-, U(2)r × U(2)-, U(3)r × U(3)- und U(4)r × U(4)-Symmetrie. Diese linearen Sigma-Modelle wurden zur Berechnung der Meson-Massen und Quark-Kondensate in Abhängigkeit von der Temperatur herangezogen. Hierzu wurden die Meson-Massen und Kondensate selbstkonsistent im Rahmen der Hartree-Näherung berechnet, die wiederum mit Hilfe des CJT-Formalismus hergeleitet wurde. Dies führte zum Studium verschiedener Symmetriebrechungsmuster der chiralen Symmetrie in den verschieden linearen Sigma-Modellen, wie sie in Tabelle 1.1 dargestellt wurden. Als erstes Ergebnis wurde dann der Fall maximaler Symmetriebrechung, nämlich die explizite Symmetriebrechung in Anwesenheit der U(1)A-Anomalie, besprochen. Hierbei wurden alle untersuchten Modelle miteinander verglichen, um den Einfluß der unterschiedlichen Anzahl von Quark-Flavors Nf auf die erzielten Ergebnisse zu diskutieren. Beim Vergleich des linearen O(4)- mit dem U(2)r×U(2)-Modell wird eine Verdopplung der physikalischen Freiheitsgrads augenfällig: zusätzlich zum Sigma-Meson und den Pionen, die schon im O(4)-Modell vorhanden sind, treten noch das η-Meson und die a0-Mesonen. Dies führt dazu, daß in der chiral-restaurierten Phase die Mesonmassen stärker mit der Temperatur ansteigen. Der Grund hierfür sind die Tadpole-Beiträge der zusätzlichen Freiheitsgrade, zu den Mesonenselbstenergie beitragen und so zu einer Zunahme der Mesonmassen führen. Dies trifft auch zu, wenn man den Strange-Freiheitsgrad beim Übergang zum U(3)r × U(3)-Modell hinzufügt. Dies ist eine allgemeine Tatsache, solange die Massen der zusätzlichen Freiheitsgrade von der gleichen Größenordnung sind wie die Übergangstemperatur des chiralen Phasenüberganges. Das Hinzufügen des Charm-Freiheitsgrades im Rahmen eines U(4)r ×U(4)-Modells beeinflußt die Resultate für die bereits im U(3)r×U(3)-Modell vorhandenen Mesonen und Kondensate nicht wesentlich. Dies beruht letztendlich auf der großen Masse des Charm-Quarks, die weit über der Übergangstemperatur des chiralen Phasenüberganges liegt. In der Hartree-Näherung wird diesem Sachverhalt dadurch Rechnung getragen, daß die Tadpole-Beiträge der schwereren, das Charm-Quark enthaltenden Mesonen ex4.3 ponentiell mit der jeweiligen Mesonenmasse unterdrückt sind ~ exp(−M/T ). Umgekehrt ändern sich die Massen der das Charm-Quark enthaltenden Mesonen fast nicht gegenüber ihrem Vakuumwert auf der Temperaturskala, die für die chirale Symmetrierestauration eine entscheidende Rolle spielt. Dies beruht darauf, daß die Tadpole- Beiträge der anderen leichten, Mesonen klein sind für gegenüber den großen Vakuummassen der schweren, das Charm-Quark enthaltenden, Mesonen. Dieses Resultat entspricht den intuitiven Erwartungen, aber ist dennoch aus zweierlei Gründen nichttrivial: erstens sind die Gleichungen für die In-Medium-Massen im U(4)r × U(4)- Modell strukturell von denen im U(3)r × U(3)-Modell verschieden; zweitens stellen die gekoppelten Gleichungen für die Massen und Kondensate ein nichtlineares Gleichungssystem dar, was dazu führen könnte, daß auch kleine Störungen große Veränderungen der Lösung des Gleichungssystemes nach sich ziehen. Dann wurde sich dem Studium der expliziten chiralen Symmetriebrechung ohne U(1)A-Anomalie zugewandt. Der Hauptunterschied zum vorherigen Fall war, daß der Bereich des Phasenüberganges auf der Temperaturskala enger um die Übergangstemperatur konzentriert ist und der chirale Phasenübergang bei etwas kleineren Temperaturen einsetzt. Schließlich wurden die skalaren und pseudoskalaren Mesonen und die Quark-Kondensate im chiralen Limes untersucht. Die Hartree-Näherung sagt hierbei korrekterweise einen Phasenübergang erster Ordnung im Fall des U(2)r × U(2)-Modelles ohne U(1)A-Anomalie und im U(3)r×U(3)-Modell voraus. Im O(4)- und im U(2)r× U(2)-Modell mit U(1)A-Anomalie versagt allerdings die Hartree-Näherung: eigentlich sollte ein Phasenüberganges zweiter Ordnung auftreten, die Hatree-Näherung führt aber auch hier auch hier auf einen Phasenübergang erster Ordnung. Die Übergangstemperaturen sind überraschend nah an denjenigen die in Gittereichrechnungen vorhergesagt werden. Allerdings nimmt mit der U(1)A-Anomalie die Übergangstemperatur mit der Anzahl der Quarkflavors zu, wohingegen die Gittereichtheorie das umgekehrte Verhalten vorhersagt. Dieses Bild ändert sich in Abwesenheit der U(1)A-Anomalie. Hier stimmen die Vorhersagen für die Ordnung der Übergangstemperaturen mit der Anzahl der Quark-Flavors mit der QCD-Vorhersage überein. Dies mag ein Anzeichen dafür sein, daß die U(1)A-Symmetrie – zumindest partiell – in der Nähe der Übergangstemperatur des chiralen Phasenüberganges und darüberhinaus wiederhergestellt sein könnte. Zum anderen wurde die Wechselwirkung von Pionen und Rho-Mesonen im Medium untersucht. Dies wurde im Rahmen eines einfachen Pion-Rho-Vektormesondominanzmodelles vorgenommen. Für dieses Modell wurde eine selbstkonsistente Ein-Schleifen-Näherung für die Dyson-Schwinger-Gleichungen des Pions- und des Rho-Vektormesons hergeleitet. Die im Rahmen dieser Näherung den Dyson- Schwinger-Gleichungen äquivalenten selbstkonsistenten Integralgleichungen für die Spektraldichten und Selbstenergien wurden im CJT-Formalismus unter Verwendung der Saclay-Methode hergeleitet. Renormierungsfragen wurden durch die Beschränkung der Untersuchungen auf die Imaginärteile der Selbstenergien umgangen, damit treten in dieser Näherung keine Massenmodifikationen der Pionen oder des Rho-Vektormesons auf. Im Rahmen der Aufstellung der selbstkonsistenten Dyson- Schwinger-Gleichungen zeigte sich, daß eine Verletzung der Vierer-Transversalität des Selbstenergietensors der Rho-Vektormesons auftritt, die letztlich auf Verletzung der Eichsymmetrie des zugrundeliegenden Pion-Rho-Modells beruht. Dennoch konnte durch sachgerechte Eichung erreicht werden, daß der Tensor der Spektraldichte des Rho-Vektormesons auch in dieser Näherung vierer-transversal ist. Das so erhaltene Integralgleichungssystem wurde numerisch auf einem Energie- und Impulsgitter gelöst. Die Spektraldichten und Selbstenergien der Pionen sowie die Komponenten der Spektraldichten und Selbstenergien des Rho-Mesons wurden hiermit selbstkonsistent bestimmt. Eine sehr interessante Eigenschaft im Vergleich zu perturbativen Ein-Schleifen-Rechnungen in diesen Modellen ist, daß die räumlich-longitudinale und räumlichtransversale Komponente der Spektraldichte des Rho-Vektormesons auch für invariante Massen pP2 unterhalb der Zwei-Pionen-Schwelle pP2 < 2mPion nicht-verschwindende Beiträge erhalten. Dies rührt daher, daß nun in den Integralgleichungen für die Selbstenergiekomponenten des Rho-Mesons die pionische Spektralfunktion im Medium prinzipiell alle Energieanregungen mit einem thermischen Gewichtsfaktor zugänglich macht. Das Schwellenverhalten ist also ein Artefakt der perturbativen Ein-Schleifen-Näherung. Die selbstkonsistenten Spektraldichten des Rho-Meson wurden zur Berechnung der statischen, thermischen Dileptonenproduktionsrate herangezogen. Es ergab sich, daß aufgrund dieses Aufweichens der Zwei-Pion-Schwelle eine erhebliche Erhöhung der statischen Dileptonenproduktionsrate im Vergleich zur perturbativen Ein-Schleifen-Näherung im Bereich von invarianten Massen zwischen 300MeV < pP2 < 700MeV eintritt. Auch das in perturbativen Rechnungen auftretende Maximum im Bereich invarianter Massen von 700MeV < pP2 < 900MeV in der Dileptonenproduktionsrate ist aufgrund der Stoßverbreiterung in den Ergebnissen der selbstkonsistenten Rechnungen nicht mehr auszumachen. Insbesondere zeigt sich hier auch, daß eine rein perturbative Behandlung stark wechselwirkender Systeme bei endlichen Temperaturen und Dichten a priori nicht ausreichend für ein angemessenes physikalisches Verständnis der auftretenden Effekte ist. Die Anwendung von vielteilchentheoretischen Verfahren zur Herleitung von genäherten Dyson-Schwinger-Gleichungen ist deshalb von besonderer Wichtigkeit. Mit den Studien dieser zwei Modellklassen, nämlich zum einen der Modelle des chiralen Phasenüberganges in der starken Wechselwirkung, und zum anderen eines Vektormesondominanzmodelles für ein Pion-Rho-System bei endlichen Temperaturen mit Hilfe von Vielteilchenresummationsverfahren in selbstkonsistenten Näherungen konnten so interessante phänomenologische Einblicke in die Physik der stark wechselwirkenden Materie gewonnen werden. Darüberhinaus wurde ein theoretischer Beitrag zur Behandlung beliebiger bosonischer Systeme in der selbstkonsistenten Schleifen-Näherung für die Dyson-Schwinger-Gleichungen geleistet. Natürlich sind damit die Forschungen auf dem Gebiet der Beschreibung von Aspekten stark wechselwirkender Materie in effektiven Modelle mittels selbstkonsistenter Vielteilchenresummationsverfahren bei weitem nicht abgeschlossen. Vielfältige Entwicklungen auf diesem Forschungsgebiet sind auch in Zukunft zu erwarten. Zum Beispiel bleibt die Frage der Veränderung der Massen (Realteil der Selbstenergien) der Rho-Mesonen und Pionen im Medium in der selbstkonsistenten Schleifennäherung bisher noch unbeantwortet. Auch das Einbinden von Baryonen in diese Betrachtungen ist eine Aufgabe für die Zukunft. Schließlich können auch noch die Effekte der chiralen Symmetrierestauration einen wesentlichen Einfluß auf die Beschreibung der Dileptonenproduktion nehmen. Die vorliegende Arbeit läßt die begründete Hoffnung zu, daß bei der Behandlung dieser weitergehenden Fragen in selbstkonsistenten Resummationsschemata wichtige neue Erkenntnisse gewonnen werden könnten. Darüberhinaus bleibt die Frage eines eichinvarianten, numerisch tatsächlich mit Hilfe des aktuellen Standes der Computertechnologie realisierbaren Vielteilchenresummationsschemas, das bei allen Temperaturen und Dichten anwendbar wäre ein grundlegendes und offenes Problem der Forschung, das nicht nur für die Beschreibung effektiver Theorien sondern auch für die Untersuchung von Dyson-Schwinger-Gleichungen für fundamentale Theorien, wie der Quantenchromodynamik, von höchstem Interesse wäre.
In der vorliegenden Arbeit wurden zeitaufgelöste optische und magneto-optische Untersuchungen an den halb-metallischen gemischtvalenten Manganatverbindungen La0.67Ca0.33MnO3 und Nd0.7Sr0.3MnO3 durchgeführt, die wichtige Informationen über die nach der optischen Anregung ablaufenden Relaxationsprozesse lieferten. Dabei wird das zu untersuchende Material mittels eines intensitätsstarken ultrakurzen Lichtpuls angeregt. Die dadurch erzeugten Änderungen in der komplexen dielektrischen Funktion der Probe tastet man mittels eines zweiten intensitätsschwächeren ultrakurzen Lichtpuls ab. Durch eine variable Weglängendifferenz zwischen den optischen Wegen des Anregeund des Abtastpulses erzeugt man eine variable Zeitverzögerung und kann damit die Änderungen in der dielektrischen Funktion zeitaufgelöst untersuchen....
Hinreichend kalte und dichte Quarkmaterie ist ein Farbsupraleiter. Ähnlich wie Elektronen in einem gewöhnlichen Supraleiter bilden Quarks Cooper-Paare. Während bei Elektronen der Austausch von Phononen zu einer Anziehung führt, ist im Falle von Quarks der Antitriplett-Kanal der starken Wechselwirkung attraktiv. Arbeiten in den letzten Jahren haben verschiedene Phasen von farbsupraleitender Quarkmaterie untersucht und sich dabei vor allem auf Phasen konzentriert, m denen der Gesamtspin eines Cooper-Paares verschwindet. In der vorliegenden Dissertation habe ich hauptsächlich Farbsupraleiter diskutiert, deren Cooper-Paare im Spin-Triplett-Kanal kondensieren, d.h. die Cooper-Paare haben den Gesamtspin 1. Diese Art von Supraleiter ist möglicherweise relevant für Systeme in der Natur, wie z.B. das Innere von Neutronensternen. Denn bei der Spin-0-Farbsupraleitung wird vorausgesetzt, dass die Fermi-Impulse zweier Quark-Flavor gleich ist oder zumindest hinreichend klein, was für realistische Systeme, also für nicht zu große Dichten, fragwürdig ist. Diese Einschränkung gibt es im Falle von Spin-1-Farbsupraleitern nicht, da hier Quarks des gleichen Flavors Cooper-Paare bilden. Ich habe in meiner Dissertation die verschiedenen möglichen Phasen eines Spin-1-Farbsupraleiters systematisch klassifiziert. Dies wurde mit Hilfe von gruppen-theoretischen Methoden durchgeführt, basierend auf der Tatsache, dass die Farbsupraleitung durch das theoretische Konzept der spontanen Symmetriebrechung beschrieben werden kann. Ähnlich wie bei supraflüssigem Helium-3 gibt es eine Vielzahl theoretisch möglicher Phasen. Ich habe die physikalischen Eigenschaften von vier dieser Phasen untersucht, nämlich der polaren und planaren Phasen sowie der A- und CSL-(color-spin-locked)Phasen. Mit Hilfe der QCD-Lückengleichung wurde die Energielücke sowie die kritische Temperatur bestimmt. Es stellt sich heraus, dass die Energielücke eines Spin-1-Farbsupraleiters um 2-3 Größenordnungen kleiner ist als die eines Spin-0-Farbsupraleiters, d.h. sie liegt im Bereich von 10 - 100 keV. Zwei besondere Eigenschaften der Energielücke werden diskutiert, nämlich eine 2-Lücken-Struktur, die in zwei der untersuchten Fälle auftritt, sowie mögliche Anisotropien, insbesondere Nullstellen der Lückenfunktion. Die Berechnung der kritischen Temperatur zeigt, dass es durchaus farbsupraleitende Materie in einer Spin-1-Phase im Innern von Neutronensternen geben kann, da die Temperatur von alten Neutronensternen im Bereich von einigen keV oder sogar darunter liegt. Darüber hinaus wurde die Frage untersucht, ob ein Farbsupraleiter auch ein gewöhnlicher Supraleiter ist. In diesem Zusammenhang ist die Frage von Interesse, ob ein Spin-1-Farbsupraleiter gewöhnliche Magnetfelder aus seinem Innern verdrängt, was sicherlich Auswirkungen auf die Observablen eines Neutronensterns hätte. Tatsächlich stellt sich heraus, dass ein Spin-1-Farbsupraleiter, im Gegensatz zu einem Spin-0-Farbsupraleiter, einen elektronmagnetischen Meissner-Effekt aufweist. Dieses Ergebnis wurde mit Hilfe von gruppentheoretischen Überlegungen vorausgesagt und mit Hilfe einer detaillierten Berechnung der Photon-Meissner-Massen bestätigt.
Ziel dieser Arbeit war die Entwicklung eines Mess-Systems zur energie- und winkelaufgelösten Spektroskopie von koinzidenten Elektronenpaaren, die in Reaktionen an einer Oberfläche emittiert wurden. Das Hauptinteresse galt hierbei dem Zwei-Elektronen-Photoemissionsprozess an Oberflächen. Das Prinzip des Spektrometers stellt eine Erweiterung der existierenden COLTRIMS-Spektrometer (COld Target Recoil Ion Momentum Spectroscopy) für Gasphasen-Experimente auf den Themenkreis der Oberflächenphysik dar. Anders als bei den in der Photoelektronen-Spektroskopie häufig eingesetzten elektrostatischen Analysatoren, wird hier eine Flugzeittechnik verwendet. Die Elektronen, die in der Reaktion erzeugt wurden, werden h ierzu mit einem schwachen homogenen elektrostatischen Feld vom Target abgesaugt und in Richtung eines orts- und zeitauflösenden Detektors beschleunigt. Zusätzlich wird ein homogenes Magnetfeld überlagert, das einen Einschluss der Elektronen bis zu einem maximalen Transversal-Impuls gewährleistet. Durch Messung der Flugzeiten und Auftrefforte auf dem Detektor können - unter Kenntnis d er elektrischen und magnetischen Feldstärken - die Startimpulse der Elektronen rekonstruiert werden. Auf diese Weise konnten Elektronen von 0 eV bis zu 50 eV mit einem Raumwinkel von nahezu 2p gleichzeitig abgebildet werden. Durch diesen sehr großen Aktzeptanzbereich, konnte eine wesentliche Erhöhung der Koinzidenzeffizienz der Anordnung gegenüber anderen Systemen erreicht werden (> 10 hoch 2 - 10 hoch 6 je nach Mess-System). Wesentlich hierfür ist des weiteren die Fähigkeit des Detektors mehrere Treffer mit verschwindender Totzeit zu verarbeiten. Mit dem beschriebenen System wurde die Zwei-Elektronen-Photoemission an Oberflächen untersucht. Die Experimente hierzu wurden im wesentlichen am Hamburger Synchrotron Strahlungslabor (HASYLAB) durchgeführt. Als Target wurde die (111)-Oberfläche eines einkristallines Kupfer-Targets verwendet. Mehrere Messreihen mit Photonenenergien im Bereich h? = 40 eV bis h? = 100 eV wurden aufgezeichnet. Durch die vollständige Vermessung des gesamten Impulsraumes der beiden Elektronen, stellt dies die erste kinematisch vollständige Untersuchung (bis auf die Spin-Freiheitsgrade) der Zwei-Elektronen-Photoemission an Oberflächen dar. Im Anschluss an vorangegangene Experimente [HER98], konnte auch hier in den Zwei-Elektronen-Energieverteilungen (innerhalb der experimentellen Auflösung) als Maximal-Energie des Paares der Wert E1 + E2 = h? - 2W0 festgestellt werden, der auf eine Selbst-Faltung der Bänder für die Zwei-Elektronen-Photoemission hindeutet. Die Form der Spektren wird wesentlich durch das Transmissionsverhalten der Elektronen beim Durchgang durch die Oberfläche bestimmt. Die auftretende energieabhängige Brechung der Trajektorie führt dabei zu einer starken Unterdrückung niederenergetischer Elektronen. In der Betrachtung der Kinematik der Emission konnten deutliche Analogien des Effektes zum analogen Prozess der Doppel-Photoionisation an freien Atomen bzw. Molekülen gefunden werden. Die Bewegung des Schwerpunktsimpulses des Paares ist daher durch die Richtung des Polarisationsvektor des Lichtes bestimmt. Im Gegensatz zur Emission am freien System, tritt hier allerdings - je nach Orientierung des Polarisationsvektors - ein Symmetriebruch auf, da Elektronen entweder auf die Oberfläche zu oder von ihr weg emittiert werden. Ein Bruchteil der in den Festkörper emittierten Intensität kann schließlich wieder am Gitter reflektiert werden und die Oberflächenbarriere noch überwinden. Die Energie- und Winkelverteilungen der Elektronen zeigen, dass, je nach Energieaufteilung des Paares, zwischen den Beiträgen durch einen "shake-off"-Mechanismus und einem "knock-out"-Mechanismus unterschieden werden kann. Auch hierin zeigt sich eine Ähnlichkeit des Zwei-Elektronen-Photoemissionsprozesses an Oberflächen mit der Doppel-Ionisation von Helium-Atomen. Während bei der Doppel-Ionisation von Helium diese Unterscheidung allerdings erst bei höheren Photonenenergien (> 100 eV) möglich ist, kann hier schon bei ca. 60 eV zwischen beiden Prozessen getrennt werden. Der Grund hierfür liegt sehr wahrscheinlich in der Abschirmung der Elektronen im Festkörper begründet, die die direkte Coulomb-Wechselwirkung der Elektronen im Endzustand reduziert. Insbesondere der starke Beitrag des "shake-off"-artigen Prozesses ist ein deutlicher Hinweis darauf, dass die gegenwärtigen theoretischen Modelle zur Beschreibung der Zwei-Elektronen-Photoemission nicht ausreichend sein können, da nur die Wechselwirkung im End-Zustand berücksichtigt wird. Vielmehr ist die Einbeziehung von Grundzustandswellenfunktionen jenseits des Bildes unabhängiger Teilchen nötig.
Ultrarelativistische Schwerionenstöße werden seit etwa 15 Jahren untersucht, um Kernmaterie unter extremen Bedingungen zu erforschen; in Kollisionen schwerer Atomkerne kann bei hohen Einschußenergien Kernmaterie stark komprimiert und aufgeheizt werden. Die Bedeutung dieser Experimente wird durch Berechnungen der Quanten-Chromo-Dynamik auf raumzeitlichen Gittern hervorgehoben, die bei ausreichend hoher Energiedichte eine Phase voraussagen, in der die Quarks nicht mehr in Hadronen gebunden sind, sondern zusammen mit den Gluonen ein partonisches System ausbilden. Ist das System hinreichend groß und equilibriert, wird es als Quark-Gluon-Plasma bezeichnet. Die als Signatur für das Überschreiten der Phasengrenze vorgeschlagene erhöhte Produktion Seltsamkeit tragender Teilchen wurde in der Gegenüberstellung von elementaren Proton+Proton-Interaktionen und Kern+Kern-Stößen experimentell über einen weiten Energiebereich bestätigt. Eine solche Überhöhung kann aber auch durch rein hadronische Phänomene hervorgerufen werden. So tritt beispielsweise in statistischen Modellen bereits in einem Hadrongas eine Seltsamkeitserhöhung aufgrund des Übergangs von einem kanonischen zu einem großkanonischen Ensemble mit steigender Systemgröße in Kern+Kern-Stößen auf. Das motivierte die Messung der Systemgrößenabhängigkeit der Seltsamkeitsproduktion bei einer Einschußenergie, bei der in den Stößen der größten Kerne die partonische Phase erreicht werden sollte, während Proton-Proton-Interaktionen überlicherweise als hadronische Systeme betrachtet werden. In Kollisionen von Kohlenstoff- und Siliziumkernen bei 158 GeV pro Nukleon, deren Untersuchung Gegenstand dieser Arbeit ist, kann möglicherweise die Umgebung der Phasengrenze abgetastet werden. Besondere Aufmerksamkeit gilt der Frage nach dem Mechanismus der Seltsamkeitsproduktion in diesen Reaktionen. Das Experiment wurde am SPS-Beschleuniger am CERN in Genf durchgeführt, erstmals wurden dort leichte Projektilkerne durch den Aufbruch des primären Bleistrahls an einem Produktionstarget erzeugt. Das Herzstück des NA49-Spektrometers, mit dem die Daten aufgezeichnet wurden, sind die vier großvolumigen Spurendriftkammern, die die große Akzeptanz ermöglichen. Die Lambda- und Antilambda-Hyperonen aus C+C und Si+Si Kollisionen werden anhand ihrer Zerfallstopologie rekonstruiert und ihre Impulsverteilungen über einen weiten Bereich gemessen; mit zusätzlichen Annahmen werden schließlich die totalen Multiplizitäten extrapoliert. Die Produktion der Hyperonen pro Pion ist im Vergleich zu p+p-Daten bereits in C+C-Reaktionen deutlich erhöht, in Si+Si--Kollisionen ist annähernd der Wert aus Pb+Pb-Stößen erreicht. Mehrere Ursachen für diese Beobachtung werden diskutiert und mögliche Interpretationen vorgeschlagen. Der Grad an chemischer Equilibration und die Lage des Ausfrierpunktes im Phasendiagramm und im Vergleich zu anderen Stoßsystemen wird besprochen. Die Rapiditätsspektren der Lambda-Hyperonen entsprechen zunehmendem Stopping mit steigender Anzahl von Stößen pro Nukleon. Dadurch wird die Energie pro Nukleon im Feuerball erhöht, was zunehmende kinetische Energie der Teilchen und eine ansteigende Teilchenproduktion erzeugt. Die Verbreiterung der Transversalimpulsspektren mit der Systemgröße fügt sich in der Tat in das Bild anwachsenden radialen Flußes ein.
A fundamental work on THz measurement techniques for application to steel manufacturing processes
(2004)
The terahertz (THz) waves had not been obtained except by a huge system, such as a free electron laser, until an invention of a photo-mixing technique at Bell laboratory in 1984 [1]. The first method using the Auston switch could generate up to 1 THz [2]. After then, as a result of some efforts for extending the frequency limit, a combination of antennas for the generation and the detection reached several THz [3, 4]. This technique has developed, so far, with taking a form of filling up the so-called THz gap . At the same time, a lot of researches have been trying to increase the output power as well [5-7]. In the 1990s, a big advantage in the frequency band was brought by non-linear optical methods [8-11]. The technique led to drastically expand the frequency region and recently to realize a measurement up to 41 THz [12]. On the other hand, some efforts have yielded new generation and detection methods from other approaches, a CW-THz as well as the pulse generation [13-19]. Especially, a THz luminescence and a laser, originated in a research on the Bloch oscillator, are recently generated from a quantum cascade structure, even at an only low temperature of 60 K [20-22]. This research attracts a lot of attention, because it would be a breakthrough for the THz technique to become widespread into industrial area as well as research, in a point of low costs and easier operations. It is naturally thought that a technology of short pulse lasers has helped the THz field to be developed. As a background of an appearance of a stable Ti:sapphire laser and a high power chirped pulse amplification (CPA) laser, instead of a dye laser, a lot of concentration on the techniques of a pulse compression and amplification have been done. [23] Viewed from an application side, the THz technique has come into the limelight as a promising measurement method. A discovery of absorption peaks of a protein and a DNA in the THz region is promoting to put the technique into practice in the field of medicine and pharmaceutical science from several years ago [24-27]. It is also known that some absorption of light polar-molecules exist in the region, therefore, some ideas of gas and water content monitoring in the chemical and the food industries are proposed [28-32]. Furthermore, a lot of reports, such as measurements of carrier distribution in semiconductors, refractive index of a thin film and an object shape as radar, indicate that this technique would have a wide range of application [33-37]. I believe that it is worth challenging to apply it into the steel-making industry, due to its unique advantages. The THz wavelength of 30-300 ¼m can cope with both independence of a surface roughness of steel products and a detection with a sub-millimeter precision, for a remote surface inspection. There is also a possibility that it can measure thickness or dielectric constants of relatively high conductive materials, because of a high permeability against non-polar dielectric materials, short pulse detection and with a high signal-to-noise ratio of 103-5. Furthermore, there is a possibility that it could be applicable to a measurement at high temperature, for less influence by a thermal radiation, compared with the visible and infrared light. These ideas have motivated me to start this THz work.
Die intensiven gekühlten Schwerionenstrahlen des ESR-Speicherrings in Kombination mit dem dort installierten Überschallgastarget bieten einzigartige Möglichkeiten, Elektroneneinfangprozesse bei unterschiedlichen Projektilenergien zu untersuchen. In der vorliegenden Arbeit wurde die Emission der charakteristischen Balmerstrahlung detailliert nach (n, j)-Zuständen untersucht; die Lyman-alpha-Strahlung konnte aufgrund der großen Feinstrukturaufspaltung des 2p3/2-Niveaus darüber hinaus auch nach der Besetzung der magnetischen Unterzustände untersucht werden. Hierbei wurde gezeigt, dass der Einfangmechanismus einen starken Einfluss auf die Besetzung der magnetischen Unterzustände und damit auf die Winkelabhängigkeit der Emission der charakteristischen Photonen hat. Erstmals konnte an einem schweren Stoßsystem die Multipolmischung beim Ly-alpha1-Übergang mit großer Genauigkeit nachgewiesen werden; es ergab sich eine sehr gute Übereinstimmung mit der theoretischen Vorhersage. Aus dem Vergleich der Messung der Anisotropie bei höheren Energien mit der Vorhersage einer relativistisch exakten Theorie wurde geschlossen, dass die Messwerte nur dann erklärt werden können, wenn die Mischung von E1- und M2-Übergängen berücksichtigt wird. Durch den Vergleich der als zuverlässig anzusehenden Vorhersage für den REC-Prozeß mit den Messwerten konnte, erstmals für atomare Übergänge in Schwerionen, die Beeinflussung der messbaren Anisotropie durch Mischung der Strahlung unterschiedlicher Multipolaritäten aufgedeckt werden. Hiermit war es möglich, das Übergangsratenverhältnis Gamma M2 / Gamma E1 und daraus das Übergangsamplitudenverhältnis <M2>/<E1> zu extrahieren. Dieser kleine Beitrag(<1%) ist mit anderen Methoden nicht zu vermessen. Die beiden nichtrelativistischen Theorien, den nichtradiativen Einfang in das Projektil beschreiben, liefern bei den totalen Einfangswirkungsquerschnitten nahezu gleiche Ergebnisse in Übereinstimmung mit dem Experiment. Auch die (n, j)-differentiellen Querschnitte zeigen bei dem Vergleich mit den gemessenen Balmerspektren eine sehr gute Übereinstimmung. Erst wenn die magnetischen Unterzustände in die Untersuchung miteinbezogen werden, weichen die beiden Theorien voneinander ab. Unter Einbeziehung der Multipolmischung stimmt die Vorhersage der CDW-Theorie mit den Messwerten überein; die andere Theorie unterschätzt das Alignment des 2p3/2-Zustands und die daraus folgende Anisotropie der Lyman-alpha1-Strahlung. Es muss hervorgehoben werden, dass es durch die Anwendung der Abbremstechnik für nacktes Uran gelungen ist, diese Prozesse in einem Bereich extrem starker Störung (Q/v) zu untersuchen. Dieser Bereich ist im Allgemeinen experimentell nicht zugänglich und ist eine Herausforderung für die theoretische Beschreibung. Wie sich aus den Ausführungen zu den Zerfallskaskaden ergibt, ist die Messung des Alignments bei niedrigen Stoßenergien stark von Kaskadeneffekten beeinflusst. Das bedeutet, dass das Alignment der Lyman-alpha1-Strahlung sowohl durch den direkten Einfang als auch durch die Zerfallskaskade bestimmt ist. Dieses resultiert in einer von der jeweiligen Theorie abhängigen Vorhersage, wodurch sich eine integrale Aussage über die Güte einer bestimmten Beschreibung ableiten lässt.
Kompakte Sterne stellen neben weissen Zwergen und schwarzen Löchern eine der möglichen Endzustände der Evolution von Sonnen dar. Diese extrem dichten astrophysikalischen Objekte können als Restobjekte von massiven Sternen im Zentrum von Supernova-Explosionen entstehen. Allein in unserer Galaxie sind derzeit ca. 1500 solcher Objekte bekannt. Die Materie innerhalb der kompakten Sterne stellt neben der frühen Urknall-Phase, die dichteste, uns zugängliche Energieform im gesamten Universum dar; sie beschreibt den letzten stabilen Zustand bevor die Materie unaufhaltsam kollabiert und durch die Bildung eines Ereignishorizontes von der Aussenwelt abgetrennt wird. Die Eigenschaften der kompakten Sterne werden massgeblich durch zwei fundamentale Kräfte bestimmt: Die Quanten-Chromodynamik (QCD), die den Kräfteaustausch der elementaren Quarks durch farbgeladene Gluonen beschreibt, und die Allgemeine Relativitätstheorie, die die attraktive, gravitative Wechselwirkung der Sterne durch eine Verformung ihrer raumzeitlichen Struktur formuliert. In den ersten beiden Kapiteln der vorliegenden Arbeit wird zunächst die derzeitige Theorie der elementaren Wechselwirkungen mittels einer eichtheoretischen Formulierung beschrieben. Astrophysikalische Folgerungen der Allgemeinen Relativitätstheorie, wie die Raumzeitkrümmung innerhalb und ausserhalb kompakter Sterne und die Theorie schwarzer Löcher werden im Detail diskutiert und mittels dreidimensionaler Diagramme veranschaulicht. Im dritten Kapitel werden die numerisch erhaltenen Resultate der Eigenschaften der kompakten Sterne zusammengefasst und in folgende Gruppen untergliedert: Neutronensterne, Quarksterne, hybride Sterne und Zwillingssterne. Die mögliche Realisierung des Quark-Gluon-Plasmas im Inneren der kompakten Sterne wird diskutiert. Anhand von existierenden und zukünftig geplanten astrophysikalischen Beobachtungsmöglichkeiten (z.B. Gravitationswellendetektoren) wird die experimentelle Überprüfbarkeit der dargestellten Ergebnisse aufgezeigt.
In der vorliegenden Arbeit wird ein Curriculum zur Beugung vorgestellt, welches sich in ein Kerncurriculum und Erweiterungsmodule gliedert. Das Kerncurriculum geht von einer systematischen Erarbeitung von Erscheinungsreihen aus, zunächst in Form von Freihandversuchen. Dabei werden periodische Strukturen vor das Auge gehalten und durchblickt. Erst in einem zweiten Schritt treten entsprechende komplexere Versuchsaufbauten hinzu. Der Zusammenhang zwischen den durchblickten oder durchleuchteten periodischen Strukturen und den Konfigurationen der Beugungsbilder wird im Konzept optischer Wege beschrieben. Optische Wege werden dazu operational definiert und als geometrische Ordnungselemente eingeführt, die dem Zusammenhang zwischen den jeweils wirksamen räumlichen Bedingungen und den auftretenden Erscheinungen immanent sind. Den methodischen Rahmen des Kerncurriculum bildet damit eine phänomenologische Vorgehensweise - insbesondere, weil die optischen Wege nicht als ein Vorstellungskomplex gefasst werden, den man zur ursächlichen Erklärung eines Phänomens heranziehen kann. In einem Erweiterungsmodul des Curriculums wird im Einzelnen ausgeführt, wie es durch dieses methodische Vorgehen schon bei der Thematisierung der Beugung möglich ist, die holistischen Eigenschaften der Quantentheorie anzulegen und vorzubereiten. Dadurch kann der Übergang von der Beugung zur Quantentheorie in einem einheitlichen methodischen Rahmen erfolgen und eine vertikale Vernetzung der Unterrichtsinhalte unterstützen. Entsprechend dem von ERB und SCHÖN ausgearbeiteten Lichtwegkonzept bekommt auch beim Konzept optischer Wege das FERMAT-Prinzip eine zentrale Stellung. Es wird in der vorliegenden Arbeit räumlich formuliert. Im zentralen Thema des Kerncurriculums, der Beugung am Gitter, reichen in Erweiterung des FERMAT-Prinzips dann zwei Bedingungen aus, die man an die optischen Wege stellen muss, um diese Beugungserscheinungen umfassend zu beschreiben. Auch komplexe Zusammenhänge, wie beispielsweise die Invarianz des Beugungsbildes unter Translationen des Gitters, sind so anschaulich zu erklären. Das Beugungsbild eines Gitters tritt in der Brennebene einer Linse auf. Da es invariant unter Translationen des Gitters ist, darf auch ein Abstand zwischen Gitter und Linse gewählt werden, welcher größer als deren Brennweite ist. Je nach Stellung eines Schirms hinter der Linse erhält man so entweder das Beugungsbild oder das Abbild des Gitters. Eine Darstellung beider Situationen im Konzept optischer Wege lässt den Zusammenhang zwischen Beugungs- und Abbild sehr deutlich hervortreten und macht Experimente zur optischen Filterung unmittelbar verständlich. Die in diesem Rahmen eingeführte kontextuale Abbildung rundet das Kerncurriculum ab und arbeitet die Gesamtheit der wirksamen Bedingungen besonders heraus. Gleichzeitig gelingt es, Eigenschaften der FOURIER-Transformation auf einer elementaren Ebene zu behandeln. In einem der Erweiterungsmodule werden die Beugungsbilder bei Rotationen eines Gitters untersucht. Dabei treten Beugungsbilder in Form von Kegelschnitten auf. Es wird gezeigt, wie die schon im Kerncurriculum in Erweiterung des FERMAT-Prinzips formulierten beiden Bedingungen an die optischen Wege sich weiterhin als tragfähiger Beschreibungsansatz erweisen. Dabei können Elemente der Festkörperphysik anschaulich eingeführt werden – hier sind es die LAUE-Kegel. In einem anderen Erweiterungsmodul schließen sich eine anschauliche Herleitung des reziproken Gitters und der EWALD-Kugel an. Das Erweiterungsmodul, welches den Übergang zur Quantentheorie thematisiert, geht von der Beugung am Doppelspalt aus und sieht dort die Einführung des Zeigerformalismus vor. Der Kontrast zur phänomenologischen Vorgehensweise des Kerncurriculums ermöglicht eine saubere Unterscheidung zwischen den optischen Wegen als immanenten Ordnungselementen und den Zeigern als abstrakten Symbolen, die Wellenfunktionen repräsentieren. Methodendiskussionen werden so unterstützt. Im Zentrum des Moduls steht die Besprechung von Welcher- Weg-Experimenten. Die kontextuale Abbildung im Konzept optischer Wege führt dabei, wie oben bereits erwähnt, ohne methodischen Bruch auf das Superpositionsprinzip der Quantentheorie. Die schulische Erprobung des Kerncurriculums und einiger Erweiterungsmodule ergab schließlich, dass die operationale Definition der optischen Wege und die Formulierung von Kriterien an diese optischen Wege zur Beschreibung der Beugung es ermöglicht, durch tragfähige Begriffe bei den Schülern ein Bewusstsein für Zusammenhänge zwischen Teilinhalten des Unterrichtes zu wecken und die Beugung in eine Fülle optischer Erscheinungen zu integrieren. Der Übergang vom Experiment zu abstrakten Lerninhalten wird dann durch den Unterricht deutlich und generiert ein hohes Methodenbewusstsein.
Ziel der vorliegenden Arbeit ist die Entwicklung, Aufbau und Inbetriebnahme eines Funnelsystems zur Zusammenführung zweier Teilchenstrahlen, bestehend aus zwei Injektionssystemen, zwei RFQ-Beschleunigern, Hochfrequenz-Deflektoren und Diagnoseeinheiten. Die Aufgabe des Experiments ist die praktische Umsetzung eines neuartigen Verfahrens zur Strahlstromerhöhung bei im Idealfall gleichbleibender Emittanz und steigender Brillanz. Notwendig wird dies durch die benötigten hohen Strahlströme im niederenergetischen Bereich einiger zukünftiger geplanter Beschleunigeranlagen. Hier kann der Strahlstrom nicht mehr konventionell von einer einzigen Ionenquelle erzeugt werden. Nur durch die Parallelerzeugung mehrerer Teilchenstrahlen sowie mehrfachem Zusammenführen (Funneling) der Teilchenstrahlen ist es möglich, die notwendigen Strahlströme bei der geforderten kleinen Emittanz zur Verfügung zu stellen. Das Frankfurter Funneling-Experiment ist die skalierte erste HIDIF-Funneling-Stufe als Teil eines Fusionstreibers. Hier werden zwei möglichst identische Helium-Teilchenstrahlen von zwei Ionenquellen erzeugt und in zwei RFQ-Beschleunigern beschleunigt. Der Deflektor biegt die Teilchenstrahlen reißverschlussartig auf eine gemeinsame Strahlachse. Am Anfang der Arbeit stand die Optimierung des Betriebs der Beschleunigerkomponeten und die Entwicklung und der Aufbau eines Einzellendeflektors. Erste erfolgreiche Strahlexperimente zur Strahlvereinigung werden im Kapitel 7.5 vorgestellt. Die Phasenraumellipse des zusammengeführten Strahls zeigt starke bananenförmige Deformierungen, die auf eine schlechte Anpassung des RFQ an den Funnel-Deflektor zurückzuführen sind. Das Elektrodendesign des RFQ ist in zwei unabhängige Bereiche unterteilt. Die erste Zone dient der Beschleunigung der Teilchen. In der zweiten Zone soll erstmals ein sogenannter 3D-Fokus der Strahlradien der x- und y-Ebene und einer longitudinaler Fokussierung erreicht werden. Der zweite Abschnitt bestand für erste Strahltests aus zunächst unmodulierten Elektroden. Zur besseren Anpassung des RFQ an den Funneldeflektor wurde dann das letzte Elektrodenteil erneuert. Der Umbau erfolgte zunächst nur bei einem der beiden RFQ-Beschleuniger. Somit war der direkte Vergleich zwischen altem und neuen Elektrodendesign im Strahlbetrieb möglich. Mit diesem neuen Elektrodenendteil wurde eine Reduktion der Strahlradien der x- sowie y-Ebene, eine bessere longitudinalen Fokussierung sowie eine höhere Transmission erreicht (Kapitel 8). Damit ist es erstmals gelungen mit einer speziellen Auslegung der RFQ-Elektroden eine direkte Anpassung an nachfolgende Elemente zu realisieren. Untersuchungen zur Strahlzusammenführungen werden seit einigen Jahren am Institut durchgeführt. Mit der Entwicklung des 3D-matchers wurde ein weiteres der kritischen Probleme gelöst. Der Umbau des zweiten Beschleunigers findet zur Zeit statt. Nach der Inbetriebnahme werden Funneling-Experimente mit dem Einspalt- und einem neuem Vielspaltdeflektor folgen.