Refine
Year of publication
Document Type
- Doctoral Thesis (216)
- Article (100)
- diplomthesis (97)
- Bachelor Thesis (67)
- Contribution to a Periodical (46)
- Master's Thesis (41)
- Book (31)
- Diploma Thesis (30)
- Part of Periodical (27)
- Preprint (7)
Language
- German (696) (remove)
Is part of the Bibliography
- no (696)
Keywords
- Ionenstrahl (9)
- Strahldynamik (7)
- Teilchenbeschleuniger (7)
- Emittanz (5)
- RFQ (5)
- Toroidales Magnetfeld (5)
- Beschleunigerphysik (4)
- Ionenbeschleuniger (4)
- Schwerionenphysik (4)
- Speicherring (4)
- Spektroskopie (4)
- Strahltransport (4)
- Gabor-Linse (3)
- Heliumatom (3)
- Kernmaterie (3)
- Kristallzüchtung (3)
- Laser (3)
- Photoionisation (3)
- Protonenstrahl (3)
- RFQ-Beschleuniger (3)
- Rückstoßimpulsspektroskopie (3)
- Schwerionenreaktion (3)
- Strahlprofil (3)
- Ultrarelativistischer Bereich (3)
- beam dynamics (3)
- Akustik (2)
- Blei-208-Reaktion (2)
- Bose-Einstein-Kondensation (2)
- Darmstadt / Gesellschaft für Schwerionenforschung (2)
- Datenanalyse (2)
- Dauerstrichbetrieb (2)
- Detektor (2)
- Dimere (2)
- Doku Mittelstufe (2)
- Elementarteilchen (2)
- FRANZ-Projekt (2)
- FT-IR-Spektroskopie (2)
- Gabor lens (2)
- HADES <Teilchendetektor> ; Driftkammer ; Ausleseverfahren <Sensortechnik> (2)
- Helium (2)
- Injektionssystem (2)
- Ionenoptik (2)
- Ionenquelle (2)
- Kernphysik (2)
- Linac (2)
- Linearbeschleuniger (2)
- Messung (2)
- Optische Spektroskopie (2)
- Photoabsorption (2)
- Physik (2)
- Plasma (2)
- Quantenelektrodynamik (2)
- Schwerionenstoß (2)
- Strahldiagnose (2)
- Synchrotron (2)
- beam transport (2)
- emittance (2)
- toroidal magnetic field (2)
- 3-atomic-heteronuclear molecule (1)
- 325 MHz (1)
- ATR-Perfusionszelle (1)
- ATR-Technik (1)
- ATR-perfusion cell (1)
- ATR-spectroscopy (1)
- Abbremsen (1)
- Ablenkung <Physik> (1)
- Absolute Phase (1)
- Absolutkonfiguration (1)
- Abstandsinformation (1)
- Accelerator Physics (1)
- Adaptronik (1)
- Akupunktur (1)
- Aluminiumarsenid (1)
- Analysis (1)
- Angewandte Physik (1)
- Anregungsfunktion (1)
- Aptamer (1)
- Atom (1)
- Atomic Physics (1)
- Atomphysik (1)
- Bariumverbindungen (1)
- Beam Dynamic (1)
- Beam Shaping (1)
- Beam Transport (1)
- Beamforming (1)
- Beschleuniger (1)
- Beschleunigung von Elektronen und Protonen (1)
- Betatronstrahlung (1)
- Biomoleküle (1)
- Biophysik (1)
- Blei (1)
- Blei-208-Target (1)
- Blei-Reaktion (1)
- Bleitarget (1)
- Bleitarget ; Blei-Reaktion ; Lambda-Hyperon (1)
- Brechungsindex (1)
- Breitbandigkeit (1)
- Broadband (1)
- CBM (1)
- CD-Spektroskopie (1)
- CD-spectroscopy (1)
- CDM (1)
- CERN (1)
- CH-Struktur (1)
- CHO (1)
- COLTRIMS (1)
- CVD-Verfahren (1)
- CW (1)
- Calcium ATPase (1)
- Calcium-ATPase (1)
- Carl Friedrich von Weizsäcker (1)
- Carrier Envelope Phase (1)
- Cerverbindungen (1)
- Chemiluminescence (1)
- Chinese hamster ovary (1)
- Chinon (1)
- Chirale Symmetrie (1)
- Chiralität (1)
- Chiralität <Elementarteilchenphysik> (1)
- Chiralität, Elementarteilchenphysik (1)
- Chopper (1)
- Cluster (1)
- Coltrims (1)
- Compton-Effekt (1)
- Computersimulation (1)
- Coulomb Explosion Imaging (1)
- Coulombexplosion (1)
- Cuprate (1)
- DLA Elektronen (1)
- DLS Puzzle (1)
- DLS puzzle (1)
- Dauerstrichlaser (1)
- Deformationsquantisierung (1)
- Delayline Detector (1)
- Deoxymannojirimycin (1)
- Detector (1)
- Detektorentwicklung (1)
- Deuteriumion (1)
- Deuteronen (1)
- Diamant (1)
- Diamantdetektor (1)
- Diblockcopolymere ; Scherung ; Entmischung ; Röntgenstreuung (1)
- Dielektronenspektroskopie (1)
- Differential Arrays (1)
- Dileptonen (1)
- Dirac vacuum (1)
- Dirac, Paul A. M. (1)
- Dirac-Gleichung (1)
- Dirac-Vakuum (1)
- Dissertation (1)
- Dreidimensionaler Raum (1)
- Drift Tube Linac (1)
- Dumpingsystem (1)
- E-beam induced deposition (1)
- EBID (1)
- EEG Oszillationen (1)
- Ebene Symmetrie (1)
- Edelmetall (1)
- Edelmetallcluster (1)
- Effective Lagrangians (1)
- Effektive Lagrangeans (1)
- Eingebettetes optisches System (1)
- Einplatinene Kamera (1)
- Einzel-Elektronen-Transistor (1)
- Eisengranate (1)
- Electron capture (1)
- Elektrischer Strom (1)
- Elektroencephalographie (1)
- Elektron (1)
- Elektronenanlagerungsreaktion (1)
- Elektronendichtebestimmung (1)
- Elektronenpaar (1)
- Elektronenstrahlinduzierte Deposition (1)
- Elektronentemperatur (1)
- Elektronenwolke (1)
- Elektrophysiologie (1)
- Elektrostatik (1)
- Emittance (1)
- Emittanzmessung (1)
- Energietransduktion (1)
- Entarteter Zustand (1)
- Entwickler (1)
- Erbrechen (1)
- EuB6 (1)
- Experiment (1)
- Extraktion (1)
- Extraktor (1)
- Exziton; Quantenmechanisches System (1)
- EyeRis visual system (1)
- FEBID (1)
- FLASH Effekt (1)
- FRANZ (1)
- FT-IR-Spectroscopy (1)
- FT-IR-spectroscopy (1)
- FTIR-Differenzspektroskopie (1)
- Fahrzeug (1)
- Faraday-Effekt (1)
- Faraday-Tasse (1)
- Feldquant (1)
- Femtosekundenspektroskopie (1)
- Festkörperoberfläche ; Ionenstreuung ; Sekundärionenemission (1)
- Few-Cycle Laserpulse (1)
- Few-cycle pulses (1)
- Filterkanal (1)
- Finger drift tube (1)
- Finite-Differenzen (1)
- Fluktuationsspektroskopie (1)
- Fluoreszenz (1)
- Fractional Delay Filters (1)
- Fractional-Delay-Filter (1)
- Fragmentierungsquerschnitte (1)
- Frankfurt <Main> / Institut für Kernphysik (1)
- Frankfurt <Main> / Max-Planck-Institut für Hirnforschung (1)
- Free-Electron-Laser (1)
- Freie-Elektronen-Laser (1)
- Funktionelle NMR-Tomographie (1)
- GABA Transporter Typ 1 (1)
- Gabor-Plasmalinse (1)
- Galliumarsenid (1)
- Gammakalorimeter (1)
- Geladener String (1)
- Geladenes Teilchen (1)
- Gepulster Strahl (1)
- Gluonenkondensat (1)
- Gold ; Schwerionenreaktion ; K-plus-Meson (1)
- Große Extradimensionen (1)
- Größenkonstanzleistung (1)
- H/D Austausch (1)
- H/D exchange (1)
- HADES (1)
- HADES <Teilchendete (1)
- HITRAP (1)
- Hadronenspektrum (1)
- Halbleiterbauelement (1)
- Halbleiterdetektor (1)
- Hall-Effekt (1)
- Hallsensor (1)
- Heliumatom ; Proton ; Antiproton ; Ion-Atom-Stoß ; Differentieller Wirkungsquerschnitt ; Rückstoßimpulsspektroskopie (1)
- Heliumdimere (1)
- Hirnforschung (1)
- Hirnstamm (1)
- Historie (1)
- Hochdruckentladung (1)
- Hochenergiephysik (1)
- Hochfrequenzplasma; Zyklotronresonanz (1)
- Hochstrom-Ionenquelle (1)
- Hochtemperatursupraleiter (1)
- Hyperon (1)
- ICD (1)
- Impulslaser (1)
- Impulsspektrometer (1)
- Information (1)
- Infrarot (1)
- Infrarotabsorption (1)
- Infrarotlaser (1)
- Infrarotspektroskopie (1)
- Inhibitoren (1)
- Integrator (1)
- Intelligente Konstruktion (1)
- Intelligente Sensoren (1)
- Interdisziplinarität (1)
- Interferometrie (1)
- Intermetallische Verbindungen (1)
- Interstellare Wolke ; Kohlenmonoxid ; Photodissoziation ; Turbulente Strömung (1)
- Ion Accelerator (1)
- Ion-Atom-Kollisions (1)
- Ion-Atom-Stoß (1)
- Ion-Atom-Stoß ; Kohlenstoffion <C2> ; Heliumatom ; Stoßionisation ; Monte-Carlo-Simulation (1)
- Ion-Molecule collisions (1)
- Ion-Molekül-Stoß (1)
- Ionbeam (1)
- Ionenfokussierung (1)
- Ionenstoß (1)
- Ionentemperatur (1)
- Ionentransport (1)
- Ionisation (1)
- Isotopenaustausch (1)
- J/psi Erhöhung (1)
- J/psi Unterdrückung (1)
- J/psi enhancement (1)
- J/psi suppression (1)
- Johann Wolfgang Goethe-Universität Frankfurt am Main / Institut für Angewandte Physik / Bericht (1)
- Johann Wolfgang Goethe-Universität Frankfurt am Main / Institut für Kernphysik / Bericht (1)
- Kalman-Filter (1)
- Kanonische Unterdrückung (1)
- Katalysator (1)
- Katalyse (1)
- Kleines Molekül (1)
- Kohlenstoffmolekül (1)
- Komplexität (1)
- Kongress <Frankfurt, Main, 1997> (1)
- Kosmologie (1)
- Kristallsymmetrie (1)
- Kritischer Punkt (1)
- Kugelsymmetrie (1)
- Kupfer-63 (1)
- LEBT (1)
- Lambda-1520-Resonanz (1)
- Lambda-Hyperon (1)
- Langsame Extraktion (1)
- Lanthanverbindungen (1)
- Laser-induced Temperature-Jump (1)
- Laser-induzierter Temperatursprung (1)
- Lasererzeugtes Plasma (1)
- Lasererzeugtes Plasma ; FIR ; Puls <Technik> (1)
- Laserionisation (1)
- Laserspektroskopie (1)
- Lasertechnologie (1)
- Laserverstärker (1)
- Laute (1)
- Leib-Seele-Problem (1)
- Leibniz, Gottfried Wilhelm (1)
- Leitfähige Polymere (1)
- Lichtmikroskop (1)
- Linear Accelerator (1)
- Linearer Collider ; Hohlraumresonator ; Moden (1)
- Linearer Collider ; Hohlraumresonator ; Moden ; Dämpfung ; Güte <Schwingkreis> ; Messung (1)
- Linearer Collider ; Teilchenstrahl ; Fokussierung ; Mikrowelle (1)
- MIR (1)
- MYRRHA (1)
- Magnesiumlegierung (1)
- Magnetfeld (1)
- Magnetfeldregelung (1)
- Magnetooptik (1)
- Magnetooptischer Effekt (1)
- Magnetspektrometer (1)
- Manganate (1)
- Materie (1)
- Mean-Field-Theorie (1)
- Mehrdimensionale Systemtheorie (1)
- Membranproteine (1)
- Mensch-Umwelt-System (1)
- Mesonenaustauschmodell (1)
- Messverfahren (1)
- Metallcluster (1)
- Metamagnetismus (1)
- Microphones (1)
- Mikrofone (1)
- Mikrokanalelektronenvervielfacher (1)
- Mikroskop (1)
- Mikrosonde (1)
- Mild Cognitive Impairment (1)
- Minimale Länge (1)
- MjNhaP1 (1)
- Modal Subspace Decomposition (1)
- Modale Subraum-Zerlegung (1)
- Modellierung (1)
- Modifizierte Unschärferelation (1)
- Molekularbewegung (1)
- Molekulardynamik (1)
- Molekulare Festkörper (1)
- Molekül (1)
- Molekülphysik (1)
- Molekülstoß (1)
- Molekülsymmetrie (1)
- Mondphänomen (1)
- Mondtäuschung (1)
- Moonillusion (1)
- Mott-Isolator (1)
- Multipole (1)
- Multipoles (1)
- NMR-Tomographie (1)
- Na(+)/H(+) Antiporter (1)
- Natrium-Kalium-ATPase (1)
- Natrium-Wasserstoff-Antiport (1)
- Nausea (1)
- Neon (1)
- Netzhaut ; Nervenzelle ; Inhibition (1)
- Neuronales Netz (1)
- Neurophysiologie (1)
- Neurowissenschaften (1)
- Neutrales Teilchen (1)
- NhaA (1)
- Nicht-linearer Transport (1)
- Nichtgleichgewichts-Phasenübergang (1)
- Nichtinvasiv (1)
- Nichtlineare Optik (1)
- Nichtlineare Spektroskopie (1)
- Nichtneutrales Plasma (1)
- Nickel-63 (1)
- Niederenergetischer Strahltransport (1)
- Non-coding RNA (1)
- Nucleus dorsalis nervi vagi (1)
- Nukleon (1)
- Nukleon ; Formfaktor ; Twistor ; Vielteilchentheorie (1)
- Nukleon-Nukleon-Wechselwirkung (1)
- Nukleosynthese (1)
- Optimierungsverfahren (1)
- Optische Eigenschaft (1)
- Optische Messung (1)
- Optische Tomographie (1)
- Optoelektronik (1)
- Over-Barrier Modell (1)
- Oxidation (1)
- P-Typ-ATPasen (1)
- Paarerzeugung (1)
- Particle Accelerator (1)
- Particle yield ratios (1)
- Particle-in-cell Method (1)
- Particle-in-cell-Methode (1)
- Patch-clamp (1)
- Pepperpot (1)
- Pepperpot-Messung (1)
- Perowskitstruktur (1)
- Phasendiagramm (1)
- Phasenraumkompressor (1)
- Photoakustik (1)
- Photodioden (1)
- Photoionization (1)
- Photoisomerisation (1)
- Photoisomerization (1)
- Photokonduktive Antennen (1)
- Photonic band gap (1)
- Photonic crystals (1)
- Photonische Bandlücke (1)
- Photonische Kristalle (1)
- Photophysics (1)
- Photophysik (1)
- Pickupspule (1)
- Polarimetrie (1)
- Polyacetylene (1)
- Polyatomare Verbindungen (1)
- Polymerfilm (1)
- Positron (1)
- Prinzipienphysik (1)
- Proteinelektrochemie (1)
- Proteorhodopsin (1)
- Proton-Proton-Reaktion (1)
- Protonen (1)
- Protonengegentransport (1)
- Protonenplasmen (1)
- Psychophysik (1)
- Punktantwort (1)
- QCL (1)
- QED (1)
- Quadrupol-Massenspektrometer (1)
- Quantenchromodynamik (1)
- Quanteninformation (1)
- Quantenkaskadenlaser (1)
- Quantentheorie (1)
- Quantum electrodynamics (1)
- Quasikristall (1)
- Quasikristalle (1)
- RNA (1)
- Raumladungskompensation (1)
- Raumladungslinse (1)
- Reaction Kinetics (1)
- Reaktionskinetik (1)
- Reaktionsmikroskop (1)
- Regelungssystem (1)
- Regler (1)
- Relativistic heavy-ion collisions (1)
- Relativistische Schwerionenkollisionen (1)
- Ribulosebisphosphat-Carboxylase (1)
- Room temperature (1)
- Rutheniumverbindungen (1)
- SARAF (1)
- Sachunterricht (1)
- Schaum (1)
- Schlitz-Gitter (1)
- Schulbuchanalyse (1)
- Schwefel ; Gold ; Schwerionenstoß ; Photonenemission (1)
- Schwerionenkollision (1)
- Schwerionenreaktion ; Kernspaltung ; Teilchendetektor (1)
- Schwerionenstrahl (1)
- Schwerionenstreuung ; Kaon (1)
- Schwerpunkthöhe (1)
- Schätzverfahren (1)
- Scintillation (1)
- Sekundärelektronen (1)
- Sekundärionenemission ; Rückstoßimpulsspektroskopie (1)
- Selten-Erd-Verbindungen (1)
- Seltenerdmetalllegierung (1)
- Sensor-Array (1)
- Signalanalyse (1)
- Silberhalogenid-Photographie (1)
- Silicide (1)
- Sodium-potassium ATPase (1)
- Sonderforschungsbereich (1)
- Soreq (1)
- Spinpolarisation (1)
- Spinübergang (1)
- Spiral loaded cavity (1)
- Spiralresonator (1)
- Spontane und explizite Symmetriebrechung (1)
- Spontaneous and explicite symmetry breaking (1)
- Spurselektion (1)
- Stahlenschäden (1)
- Standardmodell <Elementarteilchenphysik> (1)
- Stoß (1)
- Strahldiagnosemethode (1)
- Strahlenschaden (1)
- Strahlextraktion (1)
- Strahlformung (1)
- Strange-Teilchen (1)
- Straßenverkehr ; Hindernis ; Bewegungsanalyse <Technik>; Schätzung; Bildfolgenverarbeitung; Monokulares Sehen (1)
- Strontiumverbindungen (1)
- Sulfur Dioxide (1)
- Superconductivity (1)
- Superconductor 2nd Type (1)
- Superdirectivity (1)
- Superdirektivität (1)
- Supraleiter 2. Art (1)
- Supraleitung (1)
- Symmetrie (1)
- Symmetriebrechung (1)
- Systeme mit starken Korrelationen (1)
- Systemgrößenabhängigkeit (1)
- Szenarienbildung (1)
- Szintillation (1)
- Szintillationsschirm (1)
- Teilchendetektor (1)
- Teilchenerzeugung (1)
- Teilchenoptik (1)
- Teilchenquelle (1)
- Teilchenquelle Spinpolarisation Metastabiler Zustand (1)
- Teilchenstrahl (1)
- Teilchenzahlverhältnisse (1)
- Temperaturmessung (1)
- Temperatursprungmethode (1)
- Temperaturverhalten (1)
- Terahertzphonon (1)
- Terahertzstrahlung (1)
- Theta-Pinch (1)
- Titan-Saphir-Laser (1)
- Tomographie (1)
- Toroid sector magnet (1)
- Toroidsektormagnet (1)
- Transdisziplinarität (1)
- Transimpedanzverstärker (1)
- Transporttheorie (1)
- Tumortherapie (1)
- Ultrafast spectroscopy (1)
- Ultraschnelle Magnetfeldsensorik (1)
- Vagus (1)
- Vakuum (1)
- Vakuumphysik (1)
- Vakuumpolarisation (1)
- Vakuumzustand (1)
- Van-der-Waals-Molekül (1)
- Vegetatives Nervensystem (1)
- Verdünnt magnetische Halbleiter (1)
- Verschränkter Zustand (1)
- Wahrnehmungsgröße (1)
- Wasserqualität (1)
- Wasserstoffatmosphäre (1)
- Wasserstoffion (1)
- Wasserstoffmolekül (1)
- Weißes Rauschen (1)
- Wissenschaft und Verantwortung (1)
- X-ray spectroscopy (1)
- Xhelaj (1)
- YAG-Laser (1)
- Yttriumverbindungen (1)
- Zeit-Frequenz-Analyse (1)
- Zerfallsreaktion (1)
- Zerstörungsfrei (1)
- Zinklegierung (1)
- Zukunftsforschung (1)
- Zweiteilchendichte (1)
- Zylinderspule (1)
- absolute phase (1)
- absorption spectra (1)
- atom (1)
- automotive (1)
- bc1-Komplex (1)
- beta-Hairpin Peptid (1)
- canonical suppression (1)
- carboxylation (1)
- carrier envelope phase (1)
- charged string (1)
- chromium (1)
- cold dark matter (1)
- conformational dynamics (1)
- constant of size (1)
- cw operation (1)
- dMM (1)
- decelerated ions (1)
- default mode network (1)
- detector (1)
- deuterons (1)
- differentielle Arrays (1)
- dilepton spectroscopy (1)
- dileptons (1)
- distance information (1)
- eeg oscillations (1)
- electron density measurement (1)
- electron temperature measurement (1)
- energy transduction (1)
- estimation methods (1)
- excess yield (1)
- excitation function (1)
- faraday cup (1)
- filter channel (1)
- fixed effects analysis (1)
- generalized uncertainty principle (1)
- granular metals (1)
- granulare Metalle (1)
- heavy ion collision (1)
- heavy ion physics (1)
- heavy-ion reactions (1)
- height of COG (1)
- helium dimers (1)
- highly charged ions (1)
- hydrogen atmosphere (1)
- impulse response (1)
- in-Medium Modifikation (1)
- in-medium modification (1)
- infrared spectroscopy (1)
- injection system (1)
- intense field (1)
- ion beam (1)
- ionisierende Strahlung (1)
- ionization (1)
- kalte dunkle Materie (1)
- kaltes Gastarget (1)
- large extra dimensions (1)
- laser (1)
- laserakupunktur (1)
- licht-induzierter Spinübergang (1)
- light-induced spin-change (1)
- light-optical microscope (1)
- measuring technique (1)
- metall-organic compunds (1)
- metallorganische Komplexe (1)
- methodenkritik (1)
- mid-infrared (1)
- minimal length (1)
- molecule (1)
- momentum spectrometer (1)
- negative Ionen (1)
- negative Wasserstoffionen (1)
- neutralino (1)
- nicht invasive Blutzuckermessung (1)
- nnp (1)
- non-invasive glucose mesurement (1)
- optische Spektroskopie (1)
- partice accelerator (1)
- particle accelerators (1)
- photoacoustic (1)
- photocycle (1)
- piezoresistivity (1)
- plasma spectroscopy (1)
- point spread function (1)
- polarimetry (1)
- pressure sensors (1)
- principles (1)
- proteorhodopsin (1)
- proton countertransport (1)
- protons (1)
- quantum cascade laser (1)
- quasicrystals (1)
- random effects analysis (1)
- rare earth compounds (1)
- recoil ion momentum spectroscopy (1)
- rescattering (1)
- resting state (1)
- rubisco (1)
- s-Prozess (1)
- schwere Ion-Kollision (1)
- schwere Ionen (1)
- sequentiell (1)
- single-shot measurement (1)
- space charge lens (1)
- spectroscopy (1)
- spin-change (1)
- starke Magnetfelder (1)
- supercritical field (1)
- supraleitend (1)
- symmetry (1)
- system size dependence (1)
- thin films (1)
- time-resolved conformational dynamics (1)
- toroidales Magnetfeld (1)
- track selection (1)
- transvers beam dynamics (1)
- vector mesons (1)
- visual perceptional size (1)
- zeitaufgelöste Konformationsdynamik (1)
- zellulare nichtlineare Netzwerke (1)
- zerstörungsfrei (1)
- Übergangsmetalloxide (1)
- Übergitter (1)
- Überschuss-Multiplizität (1)
- Übertragungsfunktion (1)
- überkritisches Feld (1)
Institute
- Physik (696) (remove)
Das CBM-Experiment an der zukünftigen FAIR Beschleunigeranlage zielt unter anderem darauf, Open-Charm-Teilchen zu rekonstruieren, die in Schwerionenkollisionen im Energiebereich von 10 bis 40 AGeV erzeugt werden. Ein für diese Teilchenrekonstruktion essentieller Detektor ist der Mikro-Vertex-Detektor (MVD).
Im Rahmen der Entwicklungsarbeiten für diesen Detektor werden regelmäßig Detektorsimulationen durchgeführt. Bei einer dieser Simulationen [CAD11], wurden nach Einführung eines verbesserten Simulationsmodells des Detektors, Einbrüche in Rekonstruktionseffizienz für Open-Charm Teilchen festgestellt. Als mögliche Ursache wurde eine Überlastung der Software für die Spurrekonstruktion von CBM vermutet, die erstmals mit realistischen Trefferdichten auf den MVD-Stationen konfrontiert war. Zusätzlich wurde in der Simulation die Geometrie eines MVD mit nur zwei Detektorebenen verwendet. Auch der durch die kleine Anzahl an MVD-Stationen große Abstand zwischen MVD und STS (Silicon-Tracking-System) und dessen potentiell ungünstiger Einfluss auf die Spurrekonstruktion konnte als Ursache für den beobachteten Einbruch der Rekonstruktionseffizienz nicht ausgeschlossen werden.
Die Aufgabe dieser Arbeit bestand in der Prüfung, ob der beobachtete Einbruch der Rekonstruktionseffizienz des Detektorsystems tatsächlich auf eine Überlastung der Spurrekonstruktionssoftware zurückzuführen ist. Darüber hinaus sollte festgestellt werden, ob mögliche konstruktive Verbesserungen im MVD (zusätzliche Detektorstationen) diesem Effekt entgegen wirken können...
Die Arbeit entstand im Rahmen des Förderprogramms ”Profil NT” und war Bestandteil des BMBF–Projektes ”NANOTHERM” (FKZ17PNT005). Dabei sollte die Möglichkeit der Integration und Verwendung von Nanodrähten als funktionsbestimmende Komponente im thermoelektrischen Sensorelement untersucht werden. Eine wichtige Aufgabe bestand darin die thermoelektrischen Eigenschaften der einzelnen Nanodrähte, insbesondere den Seebeck–Koeffizienten, zu untersuchen. Im Hinblick auf die weitere Entwicklung der Nanotechnologie ist es sehr wichtig, geeignete Messplattformen zu generieren und der Wissenschaftlichen Gemeinschaft zur Verfügung zu stellen für die Charakterisierung von Nanostrukturen. Für die Forschung bedeutet dies, dass man immer präziser die ”Physik im kleinen” studieren kann. Im Bezug auf die Anwendungen stellen die ausgeführten Untersuchungen eine wesentliche Basis für die Bauelemente–Optimierung und ihren späteren industriellen Einsatz dar.
In dieser Arbeit werden zwei Chipdesigns vorgestellt für die Bestimmung des Seebeck–Koeffizienten, die eine ausreichend hohe Temperaturdifferenz in Nanostrukturen erzeugen. Für beide Chips wird die mikromechanische Fertigung im einzelnen erläutert. Zusätzlich wurden die Chips in FEM–Simulationen analysiert. Eine messtechnische Charakterisierung der Chips bestätigt die Simulationen und die Funktionsweise der Chips für Untersuchungen des Seebeck–Koeffizienten an Nanostrukturen. Erstmals wurden Wolfram bzw. Platin FEBID–Deponate hinsichtlich des Seebeck–Koeffizienten untersucht. Für die Wolfram–Deponate ergab sich ein negativer Seebeck–Koeffizient. Der gemessenen Seebeck–Koeffizient war über mehrere Tage stabil. Als Ergebnis temperaturabhängiger Messungen des Seebeck–Koeffizienten konnte eine Wurzel-T Abhängigkeit beobachtet werden, die in der Theorie beschrieben wird.
Eine Untersuchung des Seebeck–Koeffizienten an Pt–FEBID–Deponaten zeigt einen Vorzeichenwechsel für Proben mit geringer elektrischer Leitfähigkeit (isolierender Charakter, schwache Kopplung). In der Literatur wird dieser Vorzeichenwechsel allerdings für Proben mit metallischer elektrischer Leitfähigkeit beschrieben. Aufgrund der Messergebnisse ist zu prüfen inwiefern die Theorie des Seebeck–Koeffizienten auf Proben mit schwacher Kopplung zu übertragen ist. Da die gemessenen Seebeck–Koeffizienten bei einigen nanoskaligen Proben sehr klein waren, wurde der Seebeck–Koeffizient des Kontaktmaterials in separaten Versuchen untersucht. Für das hier verwendete Schichtsystem Ti(40nm)/Au(120nm) kann ein Seebeck–Koeffizient von -0,22µV/K angegeben werden. Bei der Charakterisierung der Pt–FEBID–Deponaten wurde dieser Beitrag des Kontaktschichtsystems zur Thermospannung berücksichtigt.
Untersuchungen an BiTe–Nanodrähten mit dem Seebeck–Chip ergaben einen negativen Seebeck–Koeffizienten. Die ersten Untersuchungen wurden mit Kupfer als Kontaktmaterial durchgeführt, weil dieses sehr gute Lift–Off Eigenschaften besaß. Trotz der Kupferdiffusion in den Nanodraht hinein, wird der negative Seebeck–Koeffizient einem Tellur–Überschuss zugeschrieben, denn an Proben mit einer geeigneten Diffusionsbarriere war in nachfolgenden Untersuchungen ebenso ein negativer Seebeck–Koeffizient zu messen. Die ermittelten Beweglichkeiten sind niedriger als die von Bulkmaterial und können durch klassische Size–Effekte erklärt werden. Die gemessenen Ladungsträgerkonzentrationen liegen in typischen Bereichen für Halbmetalle. Die Charakterisierung des Seebeck–Koeffizienten mit Hilfe des hier vorgestellten Z–Chip ergab einen negativen Seebeck–Koeffizienten für die BiTe–Nanodrähte, die wie oben erläutert auf einen Tellur–Überschuss zurückzuführen sind. Eine Abschätzung eines mit Nanodrähten aufgebauten Sensors zeigt, dass im Vergleich zu konventionellen Dünnschicht–Thermopiles deutlich höhere Empfindlichkeiten zu erzielen sind. Erste technologische Konzepte für den Aufbau von Nanodraht–Arrays wurden erarbeitet und durch entsprechende Untersuchungen verifiziert.
Grundsätzlich ist der Z–Chip für die Charakterisierung aller drei Transportkoeffizienten geeignet und bietet die Option, anderen Arbeitsgruppen eine universelle thermoelektrische Messplattform zur Verfügung zu stellen.
In den letzten Jahren haben die Forschungsaktivitäten im Bereich Thermoelektrik stetig zugenommen. Das neu erweckte Interesse an der Thermoelektrik ist zurückzuführen auf neue nanostrukturierte Materialien, Quantenschicht-Strukturen und Nanodrähte, welche
eine wesentliche Steigerung der thermoelektrischen Effektivität Z im Vergleich zum Massivmaterial versprechen. Für Nanodrähte ist die größte Steigerung der thermoelektrischen Effektivität zu erwarten. Zur Bestätigung der Theorie bedarf es neuer Messmethoden zur Bestimmung des Seebeck-Koeffizienten S, der elektrischen Leitfähigkeit σ und der Wärmeleitfähigkeit λ, um hieraus eine Steigerung der thermoelektrischen Effektivität Z = (Sexp2)σ/λ experimentell zu bestätigen.
Der Schwerpunkt der Doktorarbeit lag in der Untersuchung thermoelektrischer Eigenschaften von Nanodrähten. Hierzu wurden neueMessmethoden zur Bestimmung der elektrischen und thermischen Leitfähigkeit von Nanodrähten entwickelt.
Die elektrische und thermische Leitfähigkeit von Pt-Nanodrähten wurden mit dem in dieser Arbeit entwickelten λ-Chip gemessen. Die elektrische Leitfähigkeit der Pt-Nanodrähte ist im Vergleich zum Massivmaterial entsprechend der klassischen Size-Effekt-Theorie reduziert. Ebenso wurde eine Abnahme der Wärmeleitfähigkeit beobachtet. Die Ergebnisse stimmen mit den im Rahmen der klassischen Size-Effekt-Theorie zu erwartenden Resultaten gut überein, jedoch bedarf die Reduzierung der Lorenz-Zahl noch einer theoretischen Erklärung.
Im Weiteren wurde die elektrische Leitfähigkeit von BixTe1-x und BixSb1-x-Nanodrähten mit dem λ-Chip bestimmt. Hierzu wurden zunächst unterschiedliche Kontaktmaterialien getestet, um die Diffusion des Kontaktmaterials in den Nanodraht auszuschließen. Als bewährtes Kontaktmaterial stellte sich ein Schichtsystem aus Titan und Gold heraus. Die Ti-Schicht wirkt hierbei als Diffusionsbarriere und Haftvermittler-Schicht. Die Wärmeleitfähigkeit der Bi-haltigen Nanodrähte konnte mit dem λ-Chip nicht gemessen werden, da die Unterätzung der Nanodrähte mittels reaktivem Ionenätzen die Nanodrähte angriff. Als Alternative können die Nanodrähte auf dem λ-Chip mit einem fokusierten Ionenstrahl unterätzt werden. Der Aufwand hierzu ist jedoch relativ hoch und diese Alternative wurde deshalb nicht weiter verfolgt. Als weitere Alternative wurde der Z-Chip entwickelt. Hierbei werden die Nanodrähte auf den fertigen Chip aufgebracht und mittels Elektronenstrahl-induzierter Deposition an den elektrischen Kontakten fixiert. Der Chip ermöglicht die Messung der elektrische Leitfähigkeit in 4-Punkt-Anordnung, der Wärmeleitfähigkeit und des Seebeck-Koeffizienten an
einem einzelnen Nanodraht. Somit ist die Bestimmung der thermoelektrischen Effektivität an einem Nanodraht möglich. DesWeiteren wurden die theoretischen Grundlagen zur Bestimmung der Wärmekapazität an einzelnen Nanodrähten mit dem Z-Chip präsentiert. Zum Zeitpunkt der Durchführung dieser Arbeit fehlte jedoch das notwendige Equipment zur Ausführung der Wärmekapazitätsmessung an einzelnen Nanodrähten.
Des Weiteren wurde die Cross-Plane Methode zur Bestimmung der Wärmeleitfähigkeit an eingebetteten Nanodrähten entwickelt. Analog der Messmethode, welche für die Einzeldrahtmessungen verwendet wird, handelt es sich hierbei um eine stationäre „Joule-Heating“ Methode. Die Temperaturdifferenz wird aus der Widerstandsänderung einer auf die eingebetteten Nanodrähte aufgebrachten Heizschicht bestimmt.Mit derMethode wurde die Wärmeleitfähigkeit von BixTe1-x-Nanodrähten ermittelt.
Die elektrische Leitfähigkeit wurde von BixTe1-x-Nanodrähten unterschiedlicher Zusammensetzung und Herstellungsparameter mit dem λ- und dem Z-Chip bestimmt. Die gemessenen Nanodrähte zeigen sowohl intrinsisches wie extrinsisches Leitungsverhalten verbunden mit einer, im Vergleich zum Volumenmaterial, reduzierten Temperaturabhängigkeit der elektrischen Leitfähigkeit infolge von Oberflächen- und Korngrenzenstreuung der Ladungsträger. Die elektrischen Leitfähigkeitsmessungen stimmen mit Beobachtungen anderer Gruppen gut überein.
Die Wärmeleitfähigkeit konnte an einem einzelnen BixTe1-x-Nanodraht und an eingebetteten BixTe1-x-Nanodrähten gemessen werden. Die Wärmeleitfähigkeit ist gegenüber dem Massivmaterial reduziert. Die Ergebnisse sind in guter Übereinstimmung mit bisher publizierten Ergebnissen von Bismuttellurid-Nanodrähten.
Im Rahmen dieser Arbeit wurden zwei verschiedene Zerfallsprozesse behandelt. Zunächst wurde im Rahmen des erweiterten Linearen Sigma-Modells die Antwort auf die Frage gesucht, welches Teilchen als chiraler Partner des Nukleons in Frage kommt. Dazu wurde der Zerfall des chiralen Partners in ein Nukleon und ein skalares Teilchen betrachtet. Das skalare Teilchen wurde mit dem Tetraquark-Zustand f0(600) identifiziert. In Augenschein genommen wurden die Resonanzen N(1535) und N(1640). Aufgrund der berechneten Zerfallsbreiten erkannte man im Falle von N(1650) eine größere Übereinstimmung mit den experimentellen Werten. Die Zerfallsbreite von 45.91 MeV liegt in der Größenordnung des im Particle Data Book verzeichneten Intervalls. Der Wert, den man bei Verwendung von N(1535) als Ausgangsteilchen erhielt, ist allerdings gegenüber der Vorhersage zu groß.
Ein nächster Schritt im Studium dieses Sachverhalts stellt das erweiterte Misch-Szenario dar. Es beinhaltet nicht nur zwei, sondern vier Spinoren. Zwei davon beschreiben Nukleon-Resonanzen, zwei sind mögliche chirale Partner. Da die Zustände mischen, wird der chirale Partner nicht eindeutig durch ein, sondern durch zwei Resonanzen repräsentiert. Weiterhin steht die eingehende Betrachtung des Ursprungs von m0 aus. Dazu muss außer derWechselwirkung mit dem Tetraquark-Zustand auch die Wechselwirkung eines Glueballs mit den beteiligten Hadronen berücksichtigt werden. Dadurch erhält die Masse von m0 einen Anteil, der aus dem Glueball-Kondensat stammt. Dies muss beim Rückschluss auf die Nukleonmasse beachtet werden.
Als nächstes wurde der Zerfall des pseudoskalaren Glueballs in zwei Nukleonen betrachtet. Da die Kopplungskonstante dieses Zerfalls noch nicht experimentell bestimmt wurde, wurde ein Verhältnis zwischen zwei Zerfallskanälen berechnet. Es zeigte sich, dass der Zerfall in zwei Nukleonen fast doppelt so wahrscheinlich ist wie der Zerfall in Nukleon und chiralen Partner, der an der Energieschwelle liegt. Die Berechnung wurde mit einem Teilchen der Masse 2.6 GeV als Glueball durchgeführt. Die Untersuchung derart schwerer Glueballs wird in naher Zukunft erstmalig im Rahmen des PANDA-Experiments der GSI möglich sein.
Zukünftige Studien sollten die Beteiligung des Glueballs an gemischten Zuständen berücksichtigen. Außerdem sollte ein möglicher skalarer Glueball in die Betrachtung miteinbezogen werden.
Mithilfe einer (n,γ)-Aktivierung von Germanium am Forschungsreaktor TRIGA in Mainz wurde zum einen in Hinblick auf zukünftige Experiment an der NIF eine Sensitivitätsstudie durchgeführt. Zum anderen wurden die thermischen Neutroneneinfangquerschnitte von 74Ge und 76Ge jeweils für den Einfang in den Isomer- und Grundzustand gemessen, um die Abweichungen der Daten von [Hol93] und [Mug06] zu klären. Zusätzlich wurden die Halbwertszeiten der betrachteten radioaktiven Ge-Isotope bestimmt.
ω(782) und ϕ(1020) Mesonenproduktion durch Dielektronen in pp-Kollisionen bei √s = 7 TeV mit ALICE
(2013)
Die Niedrigmassendielektronen (Elektron-Positron Paare mit kleiner invarianten Masse) sind wichtige experimentelle Sonden, um die Eigenschaften des in ultra-relativistischen Schwerionenkollisionen erzeugten heißen und dichten Mediums zu untersuchen. Elektronen koppeln nicht an die starke Wechselwirkung, weshalb sie wichtige Informationen über die gesamten Kollisionsphasen geben. Die Zerfälle von ω(782) und ϕ(1020)-Mesonen in Dielektronen ermöglichen es, besonders wichtige Informationen über ihre In-Medium-Eigenschaften zu erhalten, da Proton-Proton (pp)-Kollisionen als mediumfreie Referenz angenommen werden. Außerdem sind pp-Kollisionen auch für sich genommen interessant, um die Teilchenproduktion im Energiebereich des LHC (Large Hadron Collider) zu untersuchen.
In dieser Analyse werden die Elektronen im mittleren Rapiditätsbereich von |η| < 0.8 mit ITS (Inner Tracking System), TPC (Time Projection Chamber) und TOF (Time of Flight) gemessen.
Die transversalen Impulsspektren der ω(782) und ϕ(1020)-Mesonen im e+e--Zerfallskanal in pp-Kollisionen bei p √s = 7 TeV werden gezeigt. Das transversale Impulsspektrum des ω(782)-Mesons im e+e--Zerfallskanal wird mit den pT-Spektren in den µ+µ--und in den π0π+π--Zerfallskanälen verglichen, während das pT-Spektrum vom ϕ(1020)-Meson im e+e--Zerfallskanal mit den pT-Spektren in µ+µ-- und K+K--Zerfallskanälen verglichen wird.
Nach dem einführenden Theorieteil werden in den darauffolgenden Kapiteln zuerst die Auslegung und die Vermessung der drei Tripletts an der GSI in Darmstadt beschrieben und dann versucht mit Hilfe von LORASR einen Akzeptanzrahmen der MEBT-Sektion (Medium Energy Beam Transport) für ein Teilchenpaket anzugeben. Anschließend werden die Ergebnisse aus Feldvermessung und CST EM STUDIO Feldsimulationen verglichen. Damit soll die Frage, inwieweit es mit Particle Tracking Simulationen, in denen mit in CST EM STUDIO simulierten und anschließend in BENDER importierten Feldern gearbeitet wird, möglich ist, zutreffende Aussagen zu machen, beantwortet werden. Im letzten Kapitel werden wiederum die Ergebnisse dieser Simulationen präsentiert und ihre Bedeutung, im Vergleich mit den erweiterten Untersuchungen der Transporteigenschaften durch verschiedene aus überlagerten Multipolfeldern generierten Magnetfelder, eingeordnet. Abschließend wird nochmals ein Fazit zur Aussagekraft der Ergebnisse und der Folgen für den Strahltransport gezogen und ein Ausblick auf die noch ausstehenden Schritte und weitere experimentelle Analyseoptionen gegeben.
Die Dissertation betrachtet zunächst die Anatomie der Lautentstehung und die Historie von Untersuchungen zu Sprechtraktakustik (u.a. Ibn Sina, Hook, Mical, Kratzenstein, Kempelen, Faber, Wheatstone, Helmholz, Riesz, Dunn, Chiba, Kajiyama, Kelly, Lochbaum, Saito, Itakura, Burg ) und geht insbesondere auf das Rohrmodell zu Beschreibung der Vokaltraktakustik ein.
Mittels Finiter-Differenzen wird die Aksutik der Sprechens dann dreidimensional beschrieben, und die zuätzlich auftretenden Effekte betrachtet. Fur die sich beim Sprechen schnell bewegende Mundhöhle wird ein Verfahren entwickelt und untersucht, mittels Sprachsignalen durch inverse Filterung und MRT-Aufnahmen die räumliche Konfiguration zu bestimmen. Für den Nasaltrakt wurden dreidimensional abbildende Verfahren aus der medizinischen Diagnostik verglichen (MRT und CT), und anhand eines Computer-Tomographischen Datensatzes die akustischen Vorgänge dreidimensional bestimmt.
Seit den 20er Jahren werden Teilchen durch verschiedenste Methoden beschleunigt und wechselwirken unter Laborbedingungen mit anderen Teilchen. Hierbei spielt die Erzeugung neuer meist sehr kurzlebiger Teilchen eine wichtige Rolle. Die Untersuchung dieser Streuexperimente ist eine der wichtigsten Methoden der Elementarteilchen-, Kern- und Astrophysik. So steht bei den heutigen Kernphysik-Experimenten immer mehr die Astrophysik im Vordergrund. Die offenen kosmischen Fragen nach dem Ursprung und der Entwicklung des Universums drängen nach Antworten. Seit die Menschen bewusst denken können, gibt es diese Neugier zu erfahren woraus das Universum besteht. Unser Bild des Universums wurde durch neue Erkenntnisse alleine in den letzten 30 Jahren mehrmals radikal verändert.
Besonders die Vielzahl und Häufigkeit der heute zu findenden Elemente wollen erklärt werden. Da nach heutigen Kenntnissen davon ausgegangen wird, dass kurz nach dem Urknall lediglich die leichten Elemente Wasserstoff, Helium und Lithium vorhanden waren. Hier versucht die aktuelle Forschung anzusetzen. Das Konzept der sogenannten „Nukleosynthese“ ist entwickelt worden und versucht das Entstehen aller schwereren Elemente zu erklären. So geht man heute davon aus, dass sich die weiteren Elemente bis hin zu Eisen durch Kernfusions-Prozesse innerhalb der verschiedenen Brennphasen von Sternen entwickelt haben - während alle schwereren Elemente durch neutronen-induzierte Prozesse entstanden sind. Die beiden großen Neutronenprozesse sind der r-Prozess (rapid neutron-capture process) und der s-Prozess (slow neutron-capture process). Während der r-Prozess wahrscheinlich in hochexplosiven Szenarien, wie den Supernovae, stattfindet, spielt sich der s-Prozess meist innerhalb Roter Riesen ab [Rei06].
Um diese Theorien zu belegen und zu unterstützen, ist es nötig diverse kernphysikalische Experimente auf der Erde durchzuführen. Hier versucht man den Bedingungen in den Sternen nahe zu kommen. Es werden hohe Energien und hohe Neutronenflüsse benötigt um schwerere Elemente durch Neutroneneinfangs- und Fusionsprozesse zu erzeugen. Ziel Motivation Einleitung ist es unter anderem nukleare Wirkungsquerschnitte diverser Reaktionen experimentell nachzuweisen und auf die Sternmodelle umzurechnen.
Die Schwierigkeit liegt hier nicht nur in der Erzeugung und Erhaltung dieser hohen Raten, sondern vielmehr auch in der Detektion der entstandenen Fragmente und Teilchen. Da diese Teilchen und subatomaren Partikel nur eine jeweils sehr kurze Lebensdauer besitzen, ist es eine große Herausforderung möglichst effiziente und effektive Detektoren zu entwickeln. Damit diese Detektoren in den jeweiligen Experimenten dann möglichst optimal arbeiten und die gewünschten Auflösungen liefern, ist es nötig gute Kalibrierungsmöglichkeiten im Voraus auszunutzen.
Der langsame Neutronen-Einfangprozess (s-Prozess) ist weitgehend verstanden und erforscht. Dies liegt vor allem daran, dass er im Gegensatz zu r- und p- Prozess hauptsächlich an stabilen Nukliden abläuft. Auch ist die Anzahl relevanter Reaktionen (Netzwerk) vergleichsweise klein.
Dennoch gibt es im s-Prozess viele ungeklärte Fragen. Eine dieser Fragen ist die Häufigkeitsverteilung von 86Kr in Staubkörnern von Meteoriten. Mit bisherigen Berechnungen und Simulationen dieser Szenarien konnte die Häufigkeitsverteilung von 86Kr jedoch nicht erklärt werden.
In dieser Arbeit werden die besonderen Eigenschaften von 85Kr, insbesondere sein Isomerzustand, vorgestellt und genauer untersucht. Die Häufigkeitsverteilung von 86Kr im s-Prozess wird entscheidend durch die Eigenschaften 85Kr beeinflusst. Mit den gewonnenen Daten aus dieser Arbeit wurde eine erste Simulation erstellt, die einen möglichenWeg aufzeigt, das Rätsel um die Häufigkeitsverteilung zu lösen.
In dieser Arbeit wurden Simulationen des γ-Prozesses zu den vier p-Kernen 92;94Mo und 96;98Ru durchgeführt. Die Simulationen wurden mit den Simulationen aus [Rapp et al., 2006] verglichen, und die Ergebnisse waren bis auf wenige Ausnahmen die gleichen.
Die Untersuchung der Sensitivitäten auf insgesamt 38 geänderte Raten hat einige besonders wichtige Raten für jedes der Isotope identifiziert. Es stellte sich heraus, dass die Isotope jeweils auf eine destruktive Rate besonders sensitiv sind. Bei 92Mo war dies die 92Mo(γ,p) Rate, bei 94 die 94Mo(γ,n) Rate, bei 96Ru die 96Ru(γ,α) Rate und bei 98Ru die Destruktion über 98Ru(γ,n).
Diese Raten sind nur theoretisch bestimmt, haben aber großen Einfluss auf die Häufigkeiten der untersuchten Isotope. Experimentelle Untersuchungen dieser Raten sind nötig, um ein besseres Verständnis des γ-Prozesses in dieser Massenregion zu erlangen.
Leider konnten schon exisitierende neuere Untersuchungen im Rahmen dieser Arbeit nicht berücksichtigt werden, beispielsweise [Utsunomiya et al., 2013]. In zukünftigen Simulationen sollten diese Untersuchungen berücksichtigt werden. Außerdem sollten die Simulationen Neutroneneinfänge untersuchen, da diese vermutlich auch zur Produktion von 94Mo und 98Ru beitragen.
Ein Problem in dieser Arbeit war die Rekonstruktion der Reaktionsflüsse aus Raten und Häufigkeiten, in Zukunft sollten die Reaktionsflüsse direkt mitgeschrieben werden.
Die Unsicherheiten der Raten reichen nicht aus, um die Unterproduktion von 92;94Mo und 96;98Ru erklären. Zur Verdeutlichung dieser Tatsache befinden sich im Anhang A.15 Abbildungen der Überproduktionsfaktoren mit den geänderten Raten 92Mo(γ,p)x0.5 und 98Ru(γ,n)x0.5, also den beiden Raten, die eine Sensitivität größer eins aufweisen. Trotz der geänderten Raten werden 92Mo und 98Ru um mehr als einen Faktor 10 unterproduziert. Wenn man annehmen würde, dass die Sensitivität linear verläuft und eins beträgt, würde selbst die Reduktion der Raten auf Null nur eine Verdopplung der Häufigkeit bewirken. In der Realität wird sich die Sensitivität noch verringern, wenn andere Desintegrationsprozesse dominant werden. Es ist also nicht anzunehmen, dass die Unsicherheiten in diesen Raten die Unterproduktion erklären können. Dies war auch nicht erwartet worden[Rapp et al., 2006].
Einen größeren Einfluss auf die Endhäufigkeiten hat die Saatverteilung vor der Supernova Phase des Sterns. Diese wird durch einige entscheidende Reaktionen während der Sternentwicklung stark beeinflusst (Kapitel 1). Teilweise sind die Raten dieser Reaktionen mit großen Unsicherheiten behaftet, und eine Änderung führt zu sehr unterschiedlichen Häufigkeiten der p-Kerne [Pignatari et al., 2013]. Der Ort des p-Prozesses spielt ebenfalls eine entscheidende Rolle. Supernova Ia oder Neutronensterne könnten entscheidend zur Produktion der p-Kerne beitragen, speziell bei den leichteren Kernen mit A < 110. Diese Szenarien sind aber schwerer zu modellieren und wenig untersucht [Rauscher, 2010]. In zukünftigen Arbeiten sollten diese Szenarien genauer untersucht werden. Die Unterschiede in Saatverteilung und Temperaturverlauf sowie die neutronenreiche Umgebung einer Supernova Ia lassen veränderte Sensitivitäten erwarten.
Zum besseren Verständnis des p-Prozess sind also sowohl weitere experimentelle Daten als auch weitere Untersuchungen der Rahmenbedingungen nötig.
Das CBM-Experiment an der Forschungseinrichtung FAIR in Darmstadt wird in Zukunft das Phasendiagramm der QCD im Bereich von niedrigen bis moderaten Temperaturen und hohen Baryondichten untersuchen und dabei mit hadronischen und elektromagnetischen Sonden eine Vielzahl an Observablen messen. Um Elektronen und Positronen von geladenen Pionen effizient zu unterscheiden werden mehrere Lagen von Übergangsstrahlungsdetektoren auf Basis von Vieldrahtproportionalkammern verwendet. Bei den hohen Reaktionsraten des CBM-Experiments von bis zu 10MHz am target sind schnelle Detektoren notwendig um die vielen Teilchen mit einer hohen zeitlichen Auflösung nachzuweisen. Aus diesem Grund werden am IKF der Goethe-Universität dünne MWPCs ohne zusätzliche Driftregion entwickelt, für die ein Eintrittsfenster aus dünner Mylarfolie mit einer kleinen Absorptionswahrscheinlichkeit der TR-Photonen in Betracht gezogen wird. Bei großen Detektoren beult sich ein dünnes Folienfenster bereits bei Druckunterschieden von einigen Mikrobar aus, was eine Variation der Gasverstärkung zur Folge hat.
Mit Garfield-Simulationen wurde die relative Änderung der Gasverstärkung in Abhängigkeit der Ausbeulung des Eintrittsfensters für Detektoren der Größe 4+4 mm, 5+5mm und 6+6mm mit den Gasgemischen Xe(80%)/CO2(20%) und Xe(90%)/CO2(10%) bestimmt. Um eine Gain-Stabilität von Δ,G = +/- 10% zu gewährleisten, beträgt die maximale Ausbeulung des Folienfensters durchschnittlich 120 μm +/- 5 μm bei der 4+4mm Kammer, 137 μm +/- 5 μm bei der 5+5mm Kammer und 154 μm +/- 6 μm bei der 6+6mm Kammer unabhängig vom Gasgemisch. Diese Ergebnisse stellen eine große Herausforderung für die Detektorentwicklung und -konstruktion dar. Eine Möglichkeit die Ausbeulung des Folienfensters zu minimieren ist ein geeigneter Aufbau, der die Folie verstärkt. Eine weitere Herangehensweise ist die Entwicklung einer Korrekturmethode, die die Gasverstärkung bzw. die gemessenen Signale abhängig von verschiedenen Drücken, Druckunterschieden und der damit verbundenen Ausbeulung des Eintrittsfensters korrigiert, wodurch die Signale reproduzierbar und vergleichbar werden.
Weiterhin wurden die Elektron-Driftzeiten für die drei Kammergeometrien simuliert um eine Aussage über die Zeitauflösung des Detektors zu machen. Die Driftzeiten unter Verwendung eines Xe(90%)/CO2(10%) Gasgemischs sind dabei grundsätzlich größer als mit Xe(80%)/CO2(20%) und führen zu Zeitauflösungen von Δt ~ 40 ns bzw. Δt ~ 30 ns. Die maximalen Driftzeiten am äußeren Rand der Detektoren sind für alle Detektorgeometrien mit beiden Gasgemischen sehr klein im Vergleich zu den erwarteten durchschnittlichen Teilchenraten. Daraus folgt, dass die Zeitauflösung der untersuchten Detektoren die Erwartungen mit Hinblick auf die Reaktionsraten des CBM-Experiments erfüllt.
Erwärmt man Eis, so brechen die Molekülbindungen auf und bei einer kritischen Temperatur von 0°C entsteht durch einen Phasenübergang flüssiges Wasser. Dies ist wohl bekannt und das Phasendiagramm, sowie die Anomalie von Wasser ein bekanntes Hilfsmittel in Physik und Chemie. Doch was passiert, wenn man Kernmaterie erhitzt? Kann diese auch verschiedene Aggregatzustände annehmen? Physiker erwarten, dass ab einer definierten kritischen Temperatur auch die Bindungen zwischen den kleinsten Teilchen unserer Materie, den Quarks, aufbrechen und das bis dahin bestehende Hadronengas in ein Quark-Gluon-Plasma übergeht. In Experimenten auf der ganzen Welt sollen die Eigenschaften des Quark-Gluon- Plasmas und der Phasenübergang der Materie untersucht werden. Daraus möchte man ein Phasendiagramm für die hadronische Materie entwickeln (Abb. 1). In verschiedenen Experimenten werden die unterschiedlichen Stationen des Phasendiagramms abgelaufen. Die laufenden Projekte an den großen Teilchenbeschleuniger Anlagen am LHC (Large Hadron Collider) am CERN (Conseil Européen pour la Abbildung 1: Das Phasendiagramm stark wechselwirkender Materie. Aufgetragen ist die Temperatur gegen die Baryonendichte. Der braune Bereich stellt den Übergangsbereich zwischen Hadronengas und Quark-Gluon-Plasma dar [ZAM]. Recherche Nucléaire) und am RHIC (Relativistic Heavy Ion Collider) in Brookhaven untersuchen das Phasendiagramm bei hohen Temperaturen und geringen Dichten. An der neuen, noch im Aufbau befindlichen Beschleunigeranlage FAIR (Facility for Antiproton and Ion Research) soll nun, im Rahmen des CBM-Experiment (Compressed Baryonic Matter), das Phasendiagramm bei hohen baryonischen Dichten und geringeren Temperaturen untersucht werden. Dafür werden spezielle Detektorkomplexe entwickelt. Diese werden benötigt, um herauszufinden, wann ein Quark-Gluon-Plasma vorliegt. Hierbei ist die Identifizierung von Elektronen von großer Bedeutung. Beim CBM-Experiment wird zur Unterscheidung zwischen Pionen und Elektronen unter anderem ein Transition Radiation Detektor (TRD) verwendet. (Kapitel 4) Dessen Eingangsfenster besteht aus einer dünnen Mylar®-Folie, welche empfindlich auf Druckschwankungen reagiert. Dies führt zu einer Veränderung des Kammervolumens, was zu einer Variation der Gasverstärkung und des daraus gewonnenen Signals führt. Die Auswirkungen von Druckschwankungen auf das Eingangsfenster des CBM-TRDs sollen in der folgenden Arbeit anhand von Simulationen (Kapitel 5) sowie anhand von Messungen (Kapitel 6) untersucht und verglichen werden. Zunächst wird jedoch ein Überblick der Grundlagen gegeben.
Im Rahmen dieser Arbeit wurde eine JTAG-Ansteuerung für MIMOSA26-Sensoren basierend auf FPGA-Boards entwickelt. Als VHDL-Code ist die Implementierung anpassbar. Jede JTAG-Chain wird durch einen unabhängigen JTAG-Chain-Controller angesteuert, so dass sich begrenzt durch die Zahl der I/O-Leitungen und die Ressourcen die Anzahl der JTAG-Chain-Controller auf einem FPGA einstellen lässt. Die Anpassbarkeit hat sich bereits bei der Strahlzeit am CERN im November 2012 gezeigt, für die eine Version mit drei JTAG-Chain-Controllern auf einem FPGA und Ausgängen auf einem SCSI-Kabel synthetisiert wurde. Dabei wurde die Prototyp-Frontend-Elektronik Version 1 verwendet. Außerdem ist die Größe des pro Sensor verwendeten Speichers (in Zweierpotenzen) im VHDL-Code einstellbar, um auch eventuelle zukünftige Sensoren mit größeren Registern zu unterstützen.
Aus dieser Sicht sollte die Implementierung mit kleinen Anpassungen im finalen MVD verwendbar sein, es gibt jedoch wie immer noch Verbesserungsmöglichkeiten, z.B. die Verwendung eines externen Speichers. Des Weiteren fehlt noch eine grafische Benutzeroberfläche für den finalen MVD, wobei wie bei den anderen Detektoren von CBM dazu eine Steuerung basierend auf EPICS entwickelt werden sollte, um eine einheitliche Oberfläche zu erreichen.
Auf Seiten der Elektronik für ded finalen MVD gibt es noch einige offene Fragen, vor allem bei der Entwicklung der Zuleitungen für die Sensoren. Die Signale auf den Flexprint-Kabeln zeigen bereits bei kurzen JTAG-Chains ein hohes Übersprechen (Abschnitt 9.1.2), das zu hoch werden könnte, wenn man Sensor-Module mit mehr als einem Sensor (wie für den finalen MVD geplant, siehe Kapitel 3) an das bisher verwendete Chain-FPC anschließt.. Es kann jedoch auch gut sein, dass das Übersprechen gar kein Problem darstellen wird. Prinzipiell besteht die Möglichkeit, dass sich das Übersprechen z.B. durch Einfügen einer Masseschicht in Kabel und Boards reduzieren lässt, was in Simulationen gezeigt wurde (siehe Kapitel 8). Jedoch wurden in diesen Simulationen die Steckverbinder und eventuelle Fehlanpassungen der Boards vernachlässigt, weshalb nicht sicher ist, ob bzw. wie gut sich dies praktisch umsetzen lässt. In jedem Fall stellen die betrachteten Möglichkeiten, das Übersprechen zu reduzieren, einen erhöhten Aufwand dar. Daher erscheint es sinnvoll, zuerst eine konkrete Geometrie für die Elektronik des finalen MVD zu entwerfen1, und für diese zu ermitteln, ob das Übersprechen ein Problem darstellt.
Dabei stellt sich die wichtige Frage, wie viele Sensoren auf einem Sensor-Modul mit einem einlagigen Kabel in der zur Verfügung stehenden Breite angeschlossen werden können, da mindestens vier zusätzliche Datenleitungen für jeden weiteren Sensor erforderlich sind.
Ziel der nuklearen Astrophysik ist es, die solare Häufigkeitsverteilung der Elemente zu erklären (siehe Seite 10, Abb. 1.1). Die Elemente bis zur Eisengruppe sind dabei unmittelbar nach dem Urknall und während verschiedener Brennphasen in Sternen durch Kernfusion entstanden. Da die Bindungsenergie pro Nukleon der Elemente in der Eisengruppe am höchsten ist, ist für den Aufbau schwererer Elemente keine Energiegewinnung durch Fusion geladener Teilchen mehr möglich und Neutroneneinfänge und Betazerfälle spielen die entscheidende Rolle für die Nukleosynthese. In Abhängigkeit von der Neutronendichte und der Temperatur wird dabei zwischen dem langsamen Neutroneneinfangprozess, dem s-Prozess, und dem schnellen Neutroneneinfangprozess, dem r-Prozess, unterschieden. Während der r-Prozess weit abseits der stabilen Isotope an der Neutronenabbruchkante statt findet, verläuft der Reaktionspfad des s-Prozesses entlang der stabilen Isotope am "Tal der Stabilität".
Mit einem COLTRIMS Reaktions-Mikroskop wurde die Doppelionisation von Argon durch Laserpulse gemessen, um die Energiequantisierung im Allgemeinen und den Recollision Mechanismus zu untersuchen. Mit der Abhängigkeit der Doppelionisationsrate von der Elliptizität des Lichts liegt ein starker Hinweis auf ein Modell vor, welches Rescattering beinhaltet. Außerdem ist durch die Messung der Doppelionisationsrate gewährleistet, dass in einem Intensitätsintervall gemessen wurde, welches der nicht-sequentiellen Doppelionisation zugeschrieben wird.
Recollision-Ionization scheint für die in einem bestimmten Intensitätsintervall beobachtete erhöhte Doppelionisation verantwortlich zu sein. Das sollte zu ATI-Peaks in der Summenenergie der ausgelösten Elektronen führen. Diese werden in der vorliegenden Arbeit erstmalig beobachtet. Außerdem sind nicht erwartete ATI-Peaks im Energiespektrum der einzelnen Elektronen sichtbar, welche der direkten Stoßionisation widersprechen.
Dadurch liegt der Schluss nahe, dass der Hauptmechanismus der Doppelionisation in diesem Intensitätsbereich ein anderer Effekt ist: RESI (Recollision Excitation and Subsequent Ionization). Hierbei wird zunächst das zweite Elektron beim Stoß mit dem ersten angeregt. Das erste Elektron bleibt im Kontinuum und wird durch den Laser beschleunigt. Beim nächsten Feldmaximum wird das angeregte Elektron tunnelionisiert, wodurch ebenfalls ATI-Peaks im Energiespektrum dieses Elektrons erzeugt werden.
Als mögliche Zwischenzustände werden 3s23p4(1D)4s (2D) und 3s23p4(1D)3d (2P) identifiziert, die zu dem beobachteten angeregten Endzustand 3s23p4(1D) führen.
Diese Arbeit beschäftigt sich mit der Charakterisierung des 4π-Bariumfluorid(BaF2)-Detektors, der in Zukunft im Rahmen des FRANZ-Projektes (Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum) eingesetzt werden soll. Der Detektor soll zum Nachweis von γ-Emission zum Beispiel nach einem Neutroneneinfang genutzt werden, womit der (n,γ)-Wirkungsquerschnitt bestimmt werden kann. Hauptaufgabe dieser Arbeit ist die Bestimmung der Energie- und Zeitauflösung, sowie die Energie- und Zeitkalibrierung und die Effizienzbestimmung.
[Nachruf] Heinrich Rohrer
(2013)
In der vorliegenden Arbeit wurden Messungen zur Plasmadynamik eines Lorentz-Drift- Beschleunigers (LDB) durchgeführt. Dieser basiert auf einer koaxialen Elektrodengeometrie. Bei einem Überschlag führt der entstehende Stromfluss zu einemMagnetfeld, sodass die gebildeten Ladungsträger durch die resultierende Lorentzkraft beschleunigt werden. Es hat sich gezeigt, dass die Abhängigkeit von Durchbruchspannung und Druck dem charakteristischen Verlauf einer Paschenkurve folgt.
Die Strom-Spannungs-Charakteristik des Versuchsaufbaus wurde in Konfigurationen mit und ohne Funkenstrecke untersucht. Mit Hilfe von diesem als Schalter fungierenden Spark-Gaps konnte bei Durchbruchspannungen gemessen werden, die oberhalb des Selbstdurchbruchs liegen.
Es zeigte sich, dass die im Versuchaufbau verwendete Funkenstrecke keinen wesentlichen Einfluss auf die Entladung hat. Es kommt an der Funkenstrecke lediglich zu einem Spannungsabfall im Bereich einiger hundert Volt, der den Verlauf derEntladung im LDB allerdings nicht beeinflusst.
Der Lorentz-Drift-Beschleuniger könnte in Zukunft zur Erzeugung eines Druckgradienten verwendet werden, indem Teilchen von einem Rezipienten in einen Zweiten beschleunigt werden. Als Voruntersuchung zur Eingnung dieses als Lorentz-Drift-Ventil bezeichneten Konzeptes wurden Messungen durchgeführt, die den Einfluss der Durchbruchspannung auf die Teilchenbeschleunigung mit Hilfe eines piezokeramischen Elementes untersuchen. So wurde der magnetische Druck bzw. die entsprechende Kraft einer Entladungswolke in Abhängigkeit von Durchbruchspannungen bis etwa 9,5 kV untersucht. Es hat sich gezeigt, dass der Einsatz von hohen Spannungen sinnvoll ist, da sich die auf das Piezoelement einwirkende Kraft quadratisch zur Durchbruchspannung verhält. So wurde die maximale Kraft von 0,44N bei einer Zündspannung von 9,52 kV gemessen.
Zudem wurde untersucht, in welchem Druckbereich der Einfluss der Druckwelle zu messen und wie sich die Geschwindigkeit der Ausbreitung der Druckwelle bei verschiedenen Durchbruchspannungen verhält. Bei einer Entfernung von 231mm zwischen Elektrodengeometrie und Piezoelement hat sich gezeigt, dass im Druckbereich unterhalb von etwa 0,2mbar kein wesentlicher Einfluss des Gasdruckes auf die Piezospannung erkennbar ist. Dies lässt sich durch die geringe Teilchenanzahl im Arbeitsgas begründen, sodass Teilchenstöße vernachlässigt werden können. Die maximale gemessene Geschwindigkeit der durch die Entladung verursachten Druckwelle liegt bei 55 km s ± 10%.
Die gemessene Plasmadynamik lässt darauf schließen, dass das Konzept eines gepulsten Lorentz-Drift-Ventils insbesondere mit hohen Durchbruchspannungen realisierbar ist. Zur Erzeugung eines dauerhaften Druckgradienten müsste die Repetitionsrate allerdings ausreichend hoch sein, sodass der rückfließende Gasdurchsatz geringer ist als die durch den LDB erzeugte Drift. Geht man von der Schallgeschwindigkeit als Rückflussgeschwindigkeit der Teilchen aus, so sind mindestens Repetitionszeiten im Bereich einer Millisekunde erforderlich.
Ergänzend zu den durchgeführten Untersuchungen ist es sinnvoll, die bisherigen Messungen durch Einbau eines Triggers zu verifizieren. Ein Trigger erzeugt eine Vorentladung mit deren Hilfe die eigentliche Entladung auch im Bereich unterhalb des Selbstdurchbruchs gezündet werden kann.
Im Rahmen dieser Arbeit wurden astrophysikalisch relevante, kernphysikalische Raten, die zum Verständnis der beobachteten Häufigkeit des langlebigen Isotopes 60Fe wichtig sind, am GSI Helmholtzzentrum für Schwerionenforschung GmbH und am Forschungsreaktor TRIGA in Mainz gemessen.
Zunächst wurde der Coulombaufbruch von 59Fe und 60Fe am GSI Helmholtzzentrum für Schwerionenforschung GmbH untersucht. Zur Produktion der radioaktiven Strahlen wurde ein 64Ni-Primärstrahl auf ein Spallationstarget geleitet. Im Fragmentseparator wurden die Isotope nach deren magnetischen Steifigkeit separiert und nur die gewünschte Spezies im LAND/R3B-Aufbau untersucht. Die Bestimmung von Impuls und Ladung der eingehenden Ionen erlaubte eine individuelle Identifikation. Der Coulombaufbruchwirkungsquerschnitt wurde mit einer Bleiprobe bestimmt. Die verschiedenen Untergrundkomponenten ergaben sich aus einer begleitenden Leermessung, sowie einer Messung mit einer Kohlenstoffprobe. Der Wirkungsquerschnitt der Reaktion Pb(60Fe,n+59Fe)Pb bei (530±5) MeV/u wurde zu σ(60Fe,n+59Fe) COULEX = (298±11stat±31syst) mb (0.1) bestimmt und für die Reaktion Pb(59Fe,n+58Fe)Pb ergab sich σ(59Fe,n+58Fe) COULEX = (410±11stat±41syst) mb. (0.2)
Außerdem konnten für beide einkommenden Strahlsorten die Wahrscheinlichkeiten für die Produktion von zwei Neutronen bestimmt werden.
Anschließend wurde der Neutroneneinfangsquerschnitt von 60Fe bei kT = 25,3 meV am Forschungsreaktor TRIGA in Mainz bestimmt. Hierfür wurde eine 60Fe Probe zunächst anhand des Anstieges der Aktivität der 60Co-Tochterkerne charakterisiert und anschließend im Reaktor bestrahlt. Die frisch erzeugte Aktivität des 61Fe wurde mit einem HPGe-Detektor nachgewiesen. Mit Hilfe der Cadmiumdifferenzmethode konnte daraus erstmals der thermische Neutroneneinfangsquerschnitt von 60Fe zu σ60Fe(n,γ) th = 0,22±0,02stat±0,02syst b. (0.3) bestimmt werden. Für das Resonanzintegral ergab sich die obere Schranke von I 60Fe(n,γ) res = 0,61 b. (0.4)
Das Ziel dieser Masterarbeit ist die Auslegung des Kickers für den Bunch-Kompressor des FRANZ-Projektes. Anhand eines Modells wurden die verschiedenen Möglichkeiten der Einkopplung sowie das Feld zwischen den Kondensatorplatten bereits untersucht. In der vorliegenden Arbeit wird der Kicker mit Hilfe des Programms CST Microwave Studio erstellt und optimiert, sodass er nach Abschluss der Untersuchungen in die Fertigung gehen kann. Dabei ist der erste Schwerpunkt der Untersuchungen die Auslegung und Optimierung der Kondensatorplatten, die für die Auslenkung der Mikro-Bunche im FRANZ-Projekt verantwortlich sind. Zu Beginn der Masterarbeit gab es gezielte Winkelverteilungen, die der Kicker im Rahmen des FRANZ-Projektes erreichen sollte. Nachdem ein Erreichen dieser Werte nur bedingt möglich war, wurden verschiedene Abschnitte des FRANZ-Projektes neu überdacht und die Anforderungen an den Kicker änderten sich dadurch grundlegend. Aus diesem Grund wurde der Kicker zu Beginn der Arbeit für eine Frequenz von 5 MHz ausgelegt, wohingegen er im Rahmen der neuen Anforderungen für eine Resonanzfrequenz von 2,57 MHz ausgelegt wurde. Die Untersuchung der optimalen Resonanzfrequenz für die Anforderungen des Kickers stellt den zweiten Schwerpunkt dieser Arbeit dar.
In dieser Arbeit wurde eine Messmethode entwickelt, die es ermöglicht, mittels Infrarotspektroskopie quantitative Aussagen über bestimmte Inhaltsstoffe in Körperflüssigkeiten zu machen. Hierfür wurden sowohl selektierte Blutplasma- und Vollblutproben gemessen als auch selektierte Urinproben. Die richtige Selektion des Probensatzes ist von großer Wichtigkeit, um für jede Komponente eine große, unabhängige Varianz der Absorptionswerte zu erhalten. Hierfür wurden sowohl physiologische als auch pathologische Proben in den Datensatz integriert. Um Referenzwerte für diese ausgewählten Proben zu erhalten, wurden konventionelle klinische Methoden verwendet. Grundsätzlich ist die Genauigkeit dieser Methode durch die Genauigkeit der jeweiligen Referenzmethode, also den konventionellen klinischen Methoden, beschränkt. Mit der neu entwickelten Methode besteht nun die Möglichkeit, die wichtigsten Parameter im Blut und Urin schnell, einfach und reagenzienfrei quantitativ zu bestimmen. Zusätzlich zu den in dieser Arbeit angegebenen Inhaltsstoffen ist es möglich, für weitere Komponenten oberhalb eines bestimmten Schwellenwerts quantitative Angaben zu machen. Hierbei könnten z.B. für Albumin oder Glukose im Urin pathologische Proben identifiziert werden und somit Rückschlüsse auf bestimmte Krankheitsbilder ermöglicht werden. ...
Die Schwerpunkte dieser Arbeit sind elektrische, stationäre und zeitaufgelöste Transportmessungen an EuB6 sowie die Weiterentwicklung von Messmethoden und Analyseverfahren der Fluktuationsspektroskopie. Durch die Verwendung von
modernen Computern und Datenerfassungskarten konnten die Messmethoden effektiver eingesetzt werden.
Die ersten beiden Kapitel stellen die Grundlagen dar, die für diese Arbeit von Bedeutung sind. Der erste Teil dieser Arbeit wurde der Weiterentwicklung der bereits bekannten Messmethoden unter Verwendung einer schnellen Datenerfassungskarte gewidmet. Im Gegensatz zur Verwendung eines Signalanalysators bietet die Karte die Möglichkeit, auf die Rohdaten im Zeitraum zuzugreifen und sie anschließend mit einer selbst programmierten Software auszuwerten. Die technischen Methoden und der Aufbau der Software wurden in den Kapiteln 3 und 4 vorgestellt. Durch das Ersetzen des Signalanalysators kann bis zu 50% der Messzeit eingespart werden.
Durch die Code-Erweiterung kann bereits nach zwei hintereinander gemessenen Spektren vorläufig bei tiefen Frequenzen ausgewertet und somit frühzeitig entschieden werden, ob eine längere Messzeit aussichtsreich ist. Außerdem wird durch Verwendung der Code-Erweiterung eine sehr viel höhere Spektrendichte (Anzahl von Messpunkten) erreicht. Da im Gegensatz zum Signalanalysator alle gemessenen Spektren gespeichert werden, können in jeder Messung die Spektren auf ihre Korrelation (Korrelationskoeffizient und Zweites Spektrum) hin untersucht werden, ohne zusätzliche Messzeit zu benötigen.
Der zweite Teil dieser Arbeit befasst sich mit den elektrischen Transporteigenschaften von EuB6 und dem Verständnis der Kopplung zwischen Ladungs- und magnetischen Freiheitsgraden. Mittels Widerstands- und nichtlinearer Transportmessungen sowie Fluktuationsspektroskopie wurden Hypothesen von anderen Wissenschaftlern systematisch verifiziert, sowie neue, weiterführende Erkenntnisse gewonnen.
Direkte experimentelle Hinweise für die Phasenseparation sowie das Auftreten von Perkolation aus Transportmessungen fehlten bisher. In dieser Arbeit wurden daher systematisch die elektrischen Transportseigenschaften des Systems in Abhängigkeit von der Temperatur und vom Magnetfeld untersucht. Mittels Fluktuationsspektroskopie konnte erstmals ein direkter Hinweis auf perkolatives Verhalten in den Transporteigenschaften beobachtet werden. Ein starkes nichtlineares Transportsignal (dritter harmonischer Widerstand, DHW) im Bereich von TMI und TC ist eine Signatur einer räumlich inhomogenen Stromverteilung auf der Mikroskala und ein weiterer deutlicher Hinweis auf magnetisch induzierte elektronische Phasenseparation. Insbesondere tritt nichtlinearer Transport bei H = 0 im FM Bereich auf und kann im PM-Bereich bei T > TMI durch externe Magnetfelder induziert werden.
Als es in den 1920er und 1930er Jahren zur Entdeckung des expandierenden Raums, gemessen über die kosmologische Rotverschiebung, kommt, wird daraus erstmals die Idee eines kleinsten Ursprungspunkts zu Beginn der Zeit postuliert. Es dauerte jedoch weitere 30 Jahre, bis das Konzept des „Big Bang“ als Ursprungsmodell veröffentlicht wurde [Lum07]. Seitdem untersuchen Wissenschaftler fortschreitend die Theorie des Big Bang. Der Zustand der Materie zum Zeitpunkt Null ist nach wie vor ungeklärt, ab ca. 10 exp (-44) Sekunden nach dem Urknall wird in der Theorie des Big Bang davon ausgegangen, dass sich die Materie im Zustand des Quark-Gluon-Plasmas befand. Zunächst galt es eine experimentelle Bestätigung für die generelle Existenz eines solchen Zustands zu finden. Die experimentelle Suche nach dem Quark-Gluon-Plasma im Labor begann vor fast 30 Jahren am Bevalac in Berkley [Gus84], dort konnte bei Niobium-Kollisionen kollektiver Fluss beobachtet werden. Zehn Jahre später begannen die Messungen des Schwerionen-Forschungsprogramms am CERN1. Im Jahr 1994 wurden dort die ersten Schwerionenkollisionen durchgeführt, von denen man sich erhoffte, dass sie zu einer kurzzeitigen Erzeugung des Quark-Gluon-Plasmas führen. Im Jahr 2000 gab es dann eine zusammenfassende Pressemitteilung des CERN, in der die Messungen eines neuartigen Materiezustands beschrieben wurden [CER00]. Weitere fünf Jahre später wurde ein Bericht der bis dahin erreichten Ergebnisse der vier Quark-Gluon-Plasma Experimente am Relativistic Heavy Ion Collider (RHIC) des Brookhaven National Labratory veröffentlicht [BNL05]. Dabei konnten einige Ergebnisse aus den Messungen am CERN bestätigt werden, andere hingegen nicht. Die Annahme, das Quark-Gluon-Plasma verhalte sich wie ein Gas, musste beispielsweise nach den Messungen am RHIC verworfen werden. Diese zeigen, dass das Verhalten des Quark-Gluon-Plasma eher dem von Flüssigkeiten ähnelt [BNL05].
Seit den ersten Schritten zur Untersuchung des Quark-Gluon-Plasma am CERN, in denen vor allem die Messung der Existenz des Quark-Gluon-Plasmas an sich im Vordergrund stand, soll der Phasenübergang nun quantitativ untersucht werden. Dazu werden Dichte und Temperatur der betrachteten Materie variiert und die vorhandene Zustandsphase gemessen. Eines dieser Experimente soll das Compressed Baryonic Matter (CBM) Experiment werden. Das Ziel des Experiments ist die Untersuchung von Materie bei sehr hohen Dichten, aber im Vergleich zu anderen aktuellen Experimenten relativ niedrigen Temperaturen. Im Jahr 2009 wurde der erste Spatenstich auf dem Gelände der Gesellschaft für Schwerionenforschung in Darmstadt für den Bau der Facility for Antiproton and Proton Research (FAIR) getätigt. Mit Hilfe der FAIR-Beschleuniger soll dann das CBM Experiment das Quark-Gluon-Plasma bei hohen Materiedichten mit bisher nicht erreichter Statistik untersuchen können. Jedoch gerade das Erreichen solch hoher Ereignisraten stellt nicht nur eine zentrale Herausforderung an die Beschleuniger dar, sondern auch an die messenden Detektoren. Diese Arbeit beschäftigt sich mit der Entwicklung eines Transition Radiation Detektors für das CBM Experiment.
Nach einer kurzen Einführung in die generelle Untersuchung des Quark-Gluon-Plasmas folgt die Beschreibung des geplanten Aufbaus des CBM Experiments mit dessen Subsystemen. Danach wird die theoretische und praktische Funktionsweise eines Transition-Radiation Detektors (TRD) erklärt, um darauf aufbauend die Charakterisierung und Signalanalyse der entwickelten TRD-Prototypen darzustellen. Abschließend werden die Ergebnisse in Bezug auf den für das CBM Experiment zu entwickelnden Detektor diskutiert.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
Das Ziel der vorliegenden Arbeit war, die systematischen Anfangsverluste im SIS18 zu minimieren. Das SIS18 soll als Injektor für das SIS100 in der neuen geplanten FAIR-Anlage eingesetzt werden und dafür die Strahlintensität erhöht werden. Eine wesentliche Rolle spielen das dynamische Vakuum im SIS18 und die anfänglichen Strahlverluste, verursacht durch Multiturn-Injektions- (MTI) oder HF-Einfangsverluste. Um den dynamischen Restgasdruck im SIS18 zu stabilisieren, müssen diese systematischen Anfangsverluste minimiert werden. Strahlteilchen, welche auf der Vakuumkammerwand verloren gehen, führen durch ionenstimulierte Desorption zu einem lokalen Druckanstieg. Dies wiederum erhöht die Wahrscheinlichkeit für Stöße zwischen Restgasteilchen und Strahlionen, wodurch diese umgeladen werden können und nach einem dispersiven Element (Dipol) auf der Vakuumkammer verloren gehen. Dies produziert einen weiteren lokalen Druckanstieg und verursacht eine massive Erhöhung der Umladungsraten. Eine Möglichkeit, die anfänglichen Verluste zu minimieren bzw. zu kontrollieren, ist die MTI-Verluste auf den Transferkanal (TK) zu verlagern, da dort ein Druckanstieg den umlaufenden Strahl im SIS18 nicht stört. Im Transferkanal werden die Strahlränder mit Hilfe von Schlitzen beschnitten und somit eine scharf definierte Phasenraumfläche erzeugt. ...
Bei der Ionenstrahltherapie bestimmt die Energie der Ionen die Eindringtiefe in das Gewebe und damit die Lage des Braggpeaks, in dem der größte Teil der Ionisationsenergie deponiert wird.
Um die gewünschte Dosis möglichst genau im Tumor zu lokalisieren, müssen in den aufeinanderfolgenden Extraktionen die gewünschten unterschiedlichen Energien möglichst genau sein.
In der Beschleunigungsphase werden die Magnetfelder der Magnete im Synchrotron bis zum vorgegebenen Exktraktionswert hochgefahren. Dieser bestimmt zusammen mit der Synchrotronfrequenz die Strahlenergie. Während und insbesondere am Ende dieser Phase, Rampe genannt, sollte das Magnetfeld daher sehr genau dem berechneten Sollwert folgen, um Strahlverluste zu minimieren und die geforderte Strahlqualität zu erreichen.
In der zeitlichen Steuerung der Magnetströme müssen magnetische Effekte, die hauptsächlich im Eisen der Magnete auftreten, wie Wirbelströme und die Hysterese berücksichtigt werden, da sie das Feld verfälschen und damit den Strahl in unerwünschter Weise beeinflussen. Die während der Rampe entstehenden Wirbelströme stören das Magnetfeld, so dass bisher vor der Extraktion des Strahls eine Wartezeit eingeführt wurde, bis die Wirbelströme abgeklungen waren.
Bei beliebig wählbaren Abfolgen der vordefinierten Zyklen kommt es durch die Hysterese des Eisens zu unterschiedlichen Remanenzfeldern, die das Magnetfeld verändern. Um dem vorzubeugen, durchliefen die Magnete eine vordefinierte Hystereseschleife. Ist die geforderte Energie des Strahls erreicht, wird das Magnetfeld konstant gehalten und die Teilchen aus dem Synchrotron extrahiert. Der Rest der Hystereseschleife wurde am Ende des Zyklus durchlaufen.
Die im Rahmen dieser Dissertation entwickelte dynamische Magnetfeldregelung misst das integrale Magnetfeld sehr genau und korrigiert die Feldfehler. Das integrale Magnetfeld folgt damit jederzeit seiner Vorgabe, unabhängig von den dynamischen Störeffekten. Die Wirbelströme und die Hysterese sind zwar immer noch vorhanden, die dadurch verursachten Feldfehler können aber durch eine Rückkopplung auf den Strom des Magneten korrigiert werden.
Es werden verschiedene Verfahren zur Messung der Magnetfelder untersucht. Am besten eignet sich für die dynamische Magnetfeldregelung die Kombination aus einer Hallsonden- und einer Induktionsspulenmessung. Die Messung muss das integrale Magnetfeld des Magneten BL, also das gesamte Feld entlang des Strahlwegs, bestimmen. Die Induktionsspule, oder Pickupspule, liegt deshalb entlang des Strahlrohrs im Magneten und liefert eine Spannung in Abhängigkeit von der Änderung des magnetischen Flusses. Durch die Integration dieser Spannung erhält man das integrale Feld des Magneten. Die Messung wird mit einer Hallsondenmessung zu Beginn des Beschleunigerzyklus auf einen absoluten Messwert geeicht.
Der Hauptteil dieser Arbeit beschäftigt sich mit der Entwicklung des sogenannten HIT Integrators, der die Integration der Pickupspulenspannung übernimmt. Bisher verfügbare Integratoren konnten die notwendigen Anforderungen an Genauigkeit, Echtzeitfähigkeit, automatische Kalibrierung, ständige Messbereitschaft, Temperaturunabhängigkeit und hohe Verfügbarkeit nicht erfüllen. Der neu entwickelte HIT Integrator wurde diesen Anforderungen entsprechend entwickelt. Der Integrator mit dem neuartigen Konzept der gleichzeitigen Messung und Kalibrierung in Echtzeit ist als Patent angemeldet worden. Neben der Entwicklung und Verwirklichung des Gesamtkonzepts war die numerische Integration des stark verrauschten Pickupspulensignals und die sofortige Umsetzung des integralen Werts in ein Steuersignal für die Dipolmagnetstromgeräte eine besondere technische Herausforderung.
Die elektronischen Schaltungen für die dynamische Magnetfeldregelung sind in der Baugruppe des HIT Integrators zusammengefasst. Die Ansteuerung der Hallsonde mit einer temperaturkompensierten Stromquelle, der Signalaufbereitung und Analog-Digital-Wandlung, sowie der Integrator und der Regler bilden eine technische Einheit.
Der HIT Integrator ist speziell für den Einsatz im bestehenden Beschleunigerkontrollsystem und den Magnetnetzgeräten entwickelt worden.
Die Regler der Magnetnetzgeräte wurden so verändert, dass sie einen Zusatzsollwert verarbeiten können, der auf den berechneten Sollwert der Datenversorgung addiert wird.
Die Magnetfeldregelung wurde in den Therapiebeschleuniger integriert, dazu wurde die Datenversorgung und das Kontrollsystem angepasst. Die Magnetfeldregelung stellt ein neues Gerät im Beschleuniger dar, das in die Netzgeräte der Synchrotronmagnete eingebaut worden ist. Die Datenversorgung dieser Geräte beinhaltet u.a. eine neue Methode der Kalibrierung.
Es konnte durch Messungen gezeigt werden, dass die Magnetfeldregelung mit hoher Genauigkeit funktioniert. Es wird eine Genauigkeit von besser als 10^{-4} des maximalen Feldes von 1.5 T erreicht, also weniger als 150uT, der dreifachen Stärke des Erdmagnetfelds. Vor allem die Bestrahlungszeit mit Protonen und die Bestrahlung bei niedrigen Energien profitiert von der Magnetfeldregelung, da hier das Extraktionsniveau der Magnete relativ gering ist und das Durchlaufen der vordefinierten Hystereseschleife prozentual mehr Zeit im Zyklus in Anspruch nimmt. Durch den Wegfall dieser Phase wird daher pro Zyklus mehr Zeit eingespart. Die Messungen zeigen, dass im Beschleunigerzyklus trotz der fehlenden Wartezeiten, die bis zu 24% betragen, eine gleichbleibend gute Strahlqualität erreicht wird. Dies wurde mit Vergleichsmessungen gezeigt, bei denen der Strahl mit und ohne Feldregelung vermessen wurde. Untersucht wurde eine große Stichprobenmenge aus dem Parameterraum, gegeben durch zwei Ionensorten mit jeweils 255 Strahlenergien, 10 verschiedenen Teilchenraten und 4 Strahlbreiten. Außerdem wurde die Energie des Strahls nachgemessen.
Für die Einführung in den Therapiebetrieb musste eine Impactanalyse gemacht werden, die mögliche Auswirkungen des neuen Verfahrens behandelt. Das Risiko für Patienten, Mitarbeiter und Dritte darf durch die Magnetfeldregelung nicht erhöht werden. Daraus entstand auch die Forderung nach einem redundanten System, das Fehler erkennt und die Bestrahlung abbricht.
Die mittlere Leistungsaufnahme des Beschleunigers des Heidelberger Ionenstrahltherapiezentrums liegt bei etwa 1 MW, bei einem Jahresenergieverbrauch von 8 GWh mit Kosten von etwa 1 Million Euro. Dies entspricht einer deutschen Kleinstadt mit 10000 Einwohnern. Die Verkürzung der Zykluszeiten wirkt sich direkt auf die Bestrahlungszeit und auf die Energiekosten aus. Würde man die Anlage durch die Zeiteinsparungen kürzer betreiben, würde man etwa 2 GWh pro Jahr sparen, was die Stromkosten um etwa 250000 Euro reduziert.
Zusätzlich zu den eingesparten Kosten wird auch die Bestrahlungszeit kürzer und damit auch die Zeit, die der Patient bei der Behandlung fixiert wird. Die Behandlung für die Patienten wird angenehmer. Man kann aber auch durch die eingesparte Bestrahlungszeit pro Patient entsprechend mehr Patienten behandeln. Das heißt man kann an Stelle von 700 Patienten im Jahr 910 Patienten mit einem Tumor behandeln. Dieser für die Patienten willkommene Effekt bedeutet auf der anderen Seite für HIT aber auch Mehreinnahmen von 4.2 Millionen Euro im Jahr.
Das Konzept der Magnetfeldregelung kann auch an anderen Beschleunigeranlagen zum Einsatz kommen. Dazu müssen die Magnete mit den Sonden bestückt werden und die Magnetnetzgeräte einen Eingang für einen Zusatzsollwert bekommen. Das Beschleunigerkontrollsystem kann erweitert werden, damit es einen Sollwert mit allen notwendigen Kalibrierungen berechnen kann. Der HIT Integrator wird dann als eigenständiges Gerät in das Kontrollsystem eingebunden.
Das Heidelberger Ionenstrahl Therapiezentrum (HIT) ist die erste klinische Anlage in Europa, an der die Strahlentherapie zur Tumorbekämpfung mit schwereren Ionen als Protonen möglich ist. Seit November 2009 wurden mehr als 1500 Patienten bei HIT behandelt.
Dabei kommt das beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt entwickelte Rasterscan-Verfahren zum Einsatz. In der Bestrahlungsplanung wird der Tumor in Schichten gleicher Ionen-Energie und jede Schicht in einzelne Rasterpunkte eingeteilt. Für jeden Rasterpunkt wird eine individuelle Teilchenzahl appliziert, die am Ende zu der gewünschten Dosisverteilung führt. Dabei kann sich die benötigte Teilchenbelegung der einzelnen Rasterpunkte auch innerhalb einer Schicht um mehr als zwei Größenordnungen unterscheiden.
Ein auf wenige Millimeter Durchmesser fokussierter Teilchenstrahl kann in allen Raumrichtungen variiert werden, so dass selbst für unregelmäßig geformte Tumoren eine hochgenaue Dosiskonformität erreicht wird. Messkammern, die in der Ionen-Flugbahn kurz vor dem Patienten installiert sind, überwachen kontinuierlich Position, Form und Intensität des Strahls und ermöglichen so die Rasterpunkt-abhängige Dosisabgabe.
Zur Bereitstellung des Teilchenstrahls ist eine komplexe Beschleunigeranlage nötig, die eine große Bibliothek an möglichen Strahlparametern erzeugen kann. Das Herzstück der Anlage ist ein Synchrotron, in dem die Ionen auf die gewünschte Energie beschleunigt und anschließend über mehrere Sekunden extrahiert werden. Diese langsame Extraktion ist nötig, um dem Bestrahlungssystem genug Zeit für die korrekte, punktgenaue Dosisabgabe zu geben. Die zeitliche Struktur der beim Patienten ankommenden Strahlintensität wird Spill genannt.
Der verwendete Extraktionsmechanismus ist die transversale RF-Knockout Extraktion, die auf dem Prinzip der langsamen Resonanzextraktion beruht. Die im Synchrotron umlaufenden Teilchen werden dabei transversal angeregt, bis nach und nach ihre Schwingungsamplitude so groß ist, dass sie in den Extraktionskanal gelangen. Das für diese Anregung verantwortliche Gerät ist der RF-KO-Exciter. Er ist so eingestellt, dass ein möglichst konstanter Teilchenstrom das Synchrotron verlässt.
Bereits beim Befüllen des Synchrotrons variiert jedoch die injizierte Teilchenzahl und deren Verteilung im Phasenraum, so dass die voreingestellte Amplitudenfunktion des RF-KO-Exciters keinen idealen Spill liefern kann. Es kommt unweigerlich zu Schwankungen der Intensität am Strahlziel. Die erreichbare Leistungsfähigkeit der Therapieanlage hängt jedoch in hohem Maße von der Spillqualität ab. Je besser diese ist, umso schneller kann die individuelle Bestrahlung erfolgen und um so mehr Patienten können in gleicher Zeit behandelt werden.
Die vorliegende Arbeit beschäftigt sich mit der Verbesserung der Spillqualität am Bestrahlungsplatz. Dazu wird ein Regelkreis zwischen den Strahl-detektierenden Messkammern und dem die Extraktion steuernden RF-KO-Exciter geschlossen. Ionisationskammern, die auch zur Dosisbestimmung verwendet werden, messen die aktuelle Intensität. Das Therapiekontrollsystem, das den gesamten Bestrahlungsprozess steuert, gibt den Sollwert vor und leitet alle Informationen zur Reglereinrichtung. Dort wird in Abhängigkeit der Abweichung aus gewünschter und tatsächlich vorhandener Intensität sowie dem Regelalgorithmus ein Korrektursignal errechnet und dem RF-KO-Exciter zugeführt. Eine der Herausforderungen bestand dabei im Auffinden der geeigneten Regelparameter, die entsprechend der Strahlparameter Energie und Intensität gewählt werden müssen.
In einem ersten Schritt kann so der extrahierte Teilchenstrahl auf dem jeweils geforderten, konstanten Niveau gehalten werden. Diese Stufe wird seit April 2013 vollständig im Routinebetrieb der Therapieanlage verwendet. Der zweite Schritt besteht in der Anpassung der Extraktionsrate an den individuellen Bestrahlungsplan. So können die Rasterpunkte, die eine hohe Dosis benötigen, mit einer höheren Intensität bestrahlt werden, was die Bestrahlungszeit deutlich reduziert. Die Vollendung dieser Stufe ist bis Ende 2013 vorgesehen.
Im Rahmen dieser Arbeit wurden zwei Testsysteme sowie die Implementierung in den Routinebetrieb des Therapiebeschleunigers einer solchen Intensitäts- oder Spillregelung realisiert. Dies beinhaltet den Aufbau der Systeme, die Bereitstellung von Soll- und Istwert sowie die Auslegung und Einstellung des Regelkreises. Der erste Testaufbau für ein Strahlziel des Beschleunigers diente generellen Studien zur Machbarkeit einer solchen Regelung. Die dabei gesammelten Erfahrungen über nötige Erweiterungen führten zur zweiten Generation einer Testumgebung auf Basis eines Echtzeit-Ethernet-Systems. Dieses ermöglichte bereits die Regelung an allen Strahlzielen der HIT-Anlage sowie die Verwendung von unterschiedlichen Regelalgorithmen.
Mit den Systemen wurden Messungen zur Charakterisierung der Spillregelung im Parameterraum des Beschleunigers durchgeführt, um so ihre Möglichkeiten und Grenzen zu untersuchen. Erkenntnisse aus dieser Testphase flossen direkt in die Implementierung des für den Patientenbetrieb eingesetzten Systems ein, für das ein hohes Maß an Betriebs-Stabilität erforderlich ist. Es wurde in das Beschleuniger-Kontrollsystem unter Berücksichtigung des Sicherheitskonzeptes der Anlage integriert.
Die reine Bestrahlungszeit wird durch die Realisierung der ersten Stufe um bis zu 25% reduziert, nach Vollendung der zweiten Stufe wird sie um weitere bis zu 50% verringert. Strahlzeiten für Nachjustierungen der Spillqualität werden ebenfalls zum Teil eingespart. Insgesamt konnte durch die Spillregelung die Effizienz der Anlage deutlich gesteigert werden.
In dieser Arbeit wurde die Leistungsfähigkeit des neuen Inner Tracking System (ITS) in Bezug auf die Messung von Spektren der invarianten Masse von Dielektronpaaren im Rahmen des ALICE Experiments am LHC ausgewertet. Zu Beginn der Planungen zum zukünftigen ITS wurden zwei verschiedene Designmöglichkeiten in Betracht gezogen: Auf der einen Seite ein ITS, welches die Möglichkeit zur Teilchenidentifizierung mittels spezifischem Energieverlust pro Wegstrecke bietet und auf der anderen Seite ein ITS welches diese Möglichkeiten nicht hat. Es wurde untersucht, ob es zukünftig möglich sein wird aus der Steigung des Spektrums der invarianten Masse von Dileptonen zwischen 1,1 GeV/c2 < Mee < 2,0 GeV/c2 direkt die Temperatur des Quark-Gluon-Plasmas zu extrahieren. Weiterhin wurde geprüft welches der beiden Systeme diese Aufgabe besser erfüllt.
Das neue ITS bietet gegenüber dem alten ITS Vorteile, die in dieser Analyse genutzt wurden. Zuerst, siehe Abschnitt 3.4, wurde ein zweidimensionaler Schnitt auf den Öffnungswinkel und die invariante Masse angewandt um Elektronen und Positronen aus Dalitzzerfällen und Photonkonversionen zu identifizieren und für die folgende Analyse zu verwerfen. Hierzu wurde die verbesserte Spurfindungseffizienz hin zu kleinen Transversalimpulsen ausgenutzt, um die Anzahl an zu kombinierenden Teilchen und damit die Wahrscheinlichkeit richtige Paare zu finden, zu erhöhen. Allerdings können Teilchen, welche nur im ITS nachgewiesen werden können, nicht zweifelsfrei (ITSPID), beziehungsweise gar nicht (ITSnoPID) identifiziert werden. Die Simulationen ergeben, dass ein zukünftiges ITS mit der Möglichkeit zur Teilchenidentifizierung leicht bessere Werte in der Signifikanz und im Verhältnis von Signal zu Untergrund liefern kann.
Die verbesserte Vertexfindung wird zur Reduktion des Beitrags durch Elektronen und Positronen aus semileptonisch zerfallenden D-Mesonen (Abschnitt 3.4.4) ausgenutzt.
Die Elektronen und Positronen, welche nach den Schnitten in der Stichprobe blieben, wurden verwendet um den Untergrund zu simulieren (Abschnitt 3.4.5). Daraufhin wurde die Signifikanz und das Verhältnis von Signal zu Untergrund berechnet. Mit diesen Informationen (Abschnitt 3.5.3) wurde ein Spektrum der invarianten Masse von Dileptonen mit der zu erwartenden Anzahl von 2,5 · 109 zentralen Blei-Blei-Kollisionen erzeugt. Dies führt zu den in Abschnitt 3.5.4 gezeigten Spektren. Nach Abzug der Beiträge durch die semileptonischen D-Meson Zerfälle und durch den hadronischen Cocktail ist noch der zu erwartende Beitrag durch die thermische Strahlung (Abschnitt 1.5) im Spektrum vorhanden. Eine Parametrisierung dieser Kurve ergibt die Temperatur des Quark-Gluon-Plasmas.
Der Unterschied der ermittelten Messwerte der Temperatur zwischen dem zukünftigen ITS mit Teilchenidentifizierung und ohne ist gering (Abschnitt 3.5.5). Die Messung ergibt keine signifikanten Unterschiede zwischen beiden ITS Entwürfen. Aufgrund dieses Ergebnisses kann man sagen, dass für die Messung von Dileptonen im Niedrigmassenbereich keine ITS PID notwendig ist. In den mittlerweile veröffentlichten ITS Technical Design Report sind die Ergebnisse dieser Studie eingeflossen. Es wurde beschlossen, dass der ITSnoPID umgesetzt wird.
Da in der Run 3 Periode des CERN LHC die Kollisionsrate auf 50 kHz erhöht werden soll, muss die ALICE TPC umgebaut werden. Die Vieldrahtproportionalkammern mit Sperrgitter sollen gegen eine GEM-basierte Auslese ausgetauscht werden, um eine kontinuierliche Auslese zu ermöglichen.
Es wurde eine GEM-Testkammer, die mit drei und vier GEM-Folien betrieben werden kann, entwickelt und gebaut. GEM-Folien wurden unter dem Mikroskop auf Fehler untersucht und auf ihre Spannungsfestigkeit hin getestet sowie gerahmt und in die Kammer eingesetzt. Mit der fertigen kleinen TPC mit GEM-basierter Auslese wurden IBF und Energieauflösung gemessen. Ziel der Messungen war es, einen möglichst geringen IBF von unter 1 % zu erhalten, um so wenig wie möglich Feldverzerrungen im Driftvolumen der TPC zu erhalten, bei gleichzeitig guter Energieauflösung von mindestens 12 %, um eine gute Teilchenidentifikation in der TPC sicherzustellen.
Da standard GEM-Konfigurationen mit nur drei GEM-Folien zwar eine gute Energieauflösung, jedoch zu viel IBF aufweisen, wurden die Messungen hauptsächlich mit vier GEM-Folien durchgeführt. Es wurden zwei verschiedene Arten von GEM-Folien verwendet, Standard (S) und Large-Pitch (LP) GEM-Folien, die bei einem Großteil der Messungen in der S-LP-LP-S-Konfiguration angeordnet waren.
Es wurde festgestellt, dass sich IBF und Energieauflösung gegenläufig verhalten, bei besser werdendem IBF also die Energieauflösung schlechter wird und umgekehrt.
Es wurden zwei verschiedene Gasmischungen, Ne-CO2-N2 (90-10-5) und Ar-CO2 (90-10), untersucht. Mit Neon wurde bei einem Gain von 2000 gemessen, mit Argon nur bei einem Gain von 1000, da bei Argon die Anzahl der produzierten Elektronen pro cm etwa doppelt so groß ist.
Der IBF war mit beiden Gasmischungen etwa gleich groß. Die Energieauflösung war mit Argon jedoch aufgrund des niedrigeren Gains erheblich schlechter. Mit Ne-CO2-N2 (90-10-5) gelang es, einen Arbeitspunkt mit einer Energieauflösung von etwa 12 % und einem IBF von unter 1 % zu finden, mit Ar-CO2 (90-10) war dies jedoch nicht der Fall.
In dieser Arbeit wurden die ersten Schritte unternommen um Elektronen aus den Zerfällen schwerer Quarks zu messen. Im Folgenden wird zunächst ein Überblick zum physikalische Hintergrund gegeben und der elliptische Fluss als Sonde zur Untersuchung des QGP motiviert. Anschließend werden der LHC und ALICE näher beleuchtet und die einzelnen Detektorsysteme, die für diese Analyse wichtig sind, vorgestellt. Im weiteren wird eine Methode zur Identifizierung von Elektronen vorgestellt und die Kontamination des Elektronensignals durch Hadronen bestimmt. Abschließend wird der elliptische Fluss eines von Hadronen bereinigten Inklusiv-Elektronen Spektrums bestimmt und ein Ausblick auf weitere Analyseschritte gegeben.
Zunächst sind einige Methoden und Techniken zusammenfassend aufzuzählen, welche mir in meiner Zeit am IKF nahegebracht wurden.
Von technischer Seite her sind hier der Umgang mit der Instituts-eigenen Lichtmikroskop und den pA-Messgeräten sowie der analogen Messkette zu nennen. Außerdem gegebenen GEM-Folien auf Fehlstellen zu untersuchen, sie unter Spannung zu testen und anschließen in die Testkammer zu montieren und diese anschließend ordnungsgemäß in Betrieb zu nehmen. Während des Betriebs der Kammer sind neben den Messungen selbst auch die Programmierung in C++ um ein vorhandenes GUI zu verstehen und erweitern zu können zu nennen. In der Analyse der gewonnenen Daten ist vor allem die im Institut verbreiteten Analyse-Software „Root“ zu nennen um Daten zu verarbeiten, zu plotten und zu fitten.
Der physikalische Gehalt der Messungen war in Folge der ersten Messung nicht mit Sicherheit zu bestimmen, da die Raten-Abhängigkeit des IB entweder grundlegender physikalischer oder technischer Natur sein konnte, was näher zu untersuchen blieb. Nach wiederholter Messung mit größerem Messbereich und einer zweiten Messreihe mit einer anderen Gas-Mischung konnten jedoch Aussagen getroffen werden.
So konnte in der Argon-Messung die gleiche Raten-Abhängigkeit des IBF wie zuvor festgestellt werden, während der IBF in der Neon-Mischung kaum merklich anstieg. Außerdem ist festzuhalten, dass Messungen an der Kathode nur über 10 pA problemlos genau sind. Darunter werden die Werte bei zu wenig Messzeit weniger aussagekräftig.
In der vorliegenden Arbeit werden Stabilitätstests an einer Vieldrahtproportionalkammer nach ALICE-Geometrie vorgestellt. Wegen elektrischer Instabilitäten, das heißt dem Abschalten der Hochspannungsversorgung einzelner Kammern aufgrund von Entladungen an der Ausleseebene, wurde die ALICE-TPC bisher mit zwei unterschiedlichen Gasmischungen betrieben. Es wurden die Gasmischungen Ne-CO2 (90-10) und Ne-CO2-N2 (90-10-5) verwendet.
In dieser Arbeit soll nun mit systematischen Stabilitätstests mit einer α- und einer γ-Quelle am Testaufbau am IKF untersucht werden, ob eine Beimischung von Stickstoff zur Gasmischung Ne-CO2 wirklich positive Auswirkungen auf die elektrische Stabilität der Vieldrahtproportionalkammern der ALICE-TPC hat. Messungen mit der Gasmischung Ar-CO2 (90-10) dienen dabei als Referenzmessungen.
Zunächst wurden vorbereitende Messungen zum bessseren Verständnis des Einflusses der Ausleseelektronik auf die Padsignale am Testaufbau durchgeführt. Die Untersuchung der von einem Pulser induzierten Signale zeigt, dass keine Korrektur der Nullverschiebung nötig ist. Auÿerdem konnten durch diese Messung die Verstärkungsfaktoren des verwendeten Hauptverstärkers ermittelt werden. Ein weiterer wichtiger Faktor für Stabilitätstests ist die Genauigkeit des Mischungsverhältnisses des Gases. Um eine hohe Genauigkeit zu gewährleisten, wurde der Gasfliss der verschiedenen Kanäle des zur Herstellung der Gasmischung genutzten Gasmischers überprüft und so die Bereiche für den Gasfluss gefunden, in denen sich das Mischungsverhältnis nicht ändert.
Eine gute Auflösung kann mit Vieldrahtproportionalkammern erreicht werden, wenn die Kammern auch bei einem möglichst groÿen Gain noch stabil betrieben werden können. Um den Gain aus Anodestrommessungen bestimmen zu können, wurden die Primärströme für die α- und die γ-Quelle ermittelt.
Frühere Messungen mit einer γ-Quelle, aufgrund derer Stickstoff als Beimischung in den Fokus rückte, ließen vermuten, dass sich durch die Beimischung von Stickstoff die Stabilität der Auslesekammern verbessern lassen würde. Die durchgeführten Messungen mit der γ-Quellen sollten diese Aussage nun überprüfen. Sie können die früheren Ergebnisse jedoch nicht bestätigen, sondern zeigen, dass die Gasmischung Ne-CO2-N2 (90-10-5) im Gegensatz zur Gasmischung Ne-CO2 (90-10) bei Bestrahlung mit der γ-Quelle zu instabileren Bedingungen für die Auslesekammer führt.
Zum Erzeugen der Anodensignale bei Stabilitätstests wurden erstmals geladene Teilchen aus einer α-Quelle verwendet. Im Gegensatz zur Messung mit der γ-Quelle kann die Auslesekammer bei der Beimischung von Stickstoff zu Ne-CO2 bis zu einem um 25% höheren Gain stabil betrieben werden als bei der Gasmischung Ne-CO2.
Aufgrund des je nach verwendeter Quelle unterschiedlichen Effekts auf die Stabilität der Auslesekammer lässt sich nicht mit absoluter Sicherheit sagen, ob eine Beimischung von Stickstoff die gewünschten Auswirkungen hat. Allerdings werden die Spuren in der ALICE-TPC durch geladene Teilchen hervorgerufen, sodass die Messungen mit der α-Quelle den experimentellen Bedingungen bei ALICE näher kommen als die Messungen mit der γ-Quelle und deshalb die Gasmischung Ne-CO2-N2 (90-10-5) zu bevorzugen ist.
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
Hauptbestandteil dieser Masterarbeit war es, ein neues COLTRIMS Experiment zu entwerfen und zu bauen. Den gesamten Aufbau mit allen dazugehörigen Komponenten wie verschiedensten Vakuumkomponenten sowie Detektoren und Elektronik unter realen Messbedingungen zu testen, bildete schließlich den Abschluss des praktischen Teils. Sowohl einige Kalibrationsmessungen mit dem neuen Aufbau, als auch die ersten Ergebnisse der Messungen mit der chiralen Substanz Bromchlorfluormethan wurden hier vorgestellt.
Ein Großteil der Projektarbeit bestand darin, Überlegungen für die vielen verschiedenen Bauteile anzustellen, diese mit Rücksprache erfahrener Gruppenmitglieder zu verbessern und schließlich zu konstruieren und zu zeichnen...
Eines der wichtigsten Experimente für Kernstrukturforschung und Messung stellarer Reaktionsraten ist das R3B-Experiment im Rahmen des FAIR-Projekts am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt. Der experimentelle Aufbau von R3B besteht aus mehreren einzelnen Teilchendetektoren für verschiedene Teilchensorten (Neutronen, Protonen, Spallationsund Spaltprodukte, Gammastrahlen), die alle möglichst vollständig detektiert und gemessen werden müssen. Für die Identifikation und Energiemessung schwerer, geladener Reaktionsprodukte ist eine sogenannte Time-of-Flight-Wall (Flugzeitwand) nötig. Der Name ergibt sich aus der Hauptaufgabe, der Flugzeitmessung für die Energiebestimmung der Teilchen, sowie der Geometrie eines solchen Detektors. Die in vorherigen Aufbauten verwendeten Detektoren diesen Typs erfüllen noch nicht die Anforderungen, die die Forschungsziele des R3B-Experiments stellen, daher wurde ein neues Design basierend auf Plastikszintillatoren entwickelt.
Für diese Arbeit wurde die theoretisch erreichbare Zeitauflösung des neuen Designs abgeschätzt sowie Testmessungen mit verschiedenen experimentellen Setups durchgeführt. Insbesondere wurde ein Prototyp der ToF-Wand im Rahmen einer Strahlzeit an der Beschleunigeranlage der GSI getestet. Die Ergebnisse dieser Messungen mit einem 58Ni28+-Strahl wurden im Hinblick auf Energie-, Zeit- und Ladungsauflösung sowie die Stabilität dieser Werte bei hohen Raten ausgewertet und so ein erster Eindruck von der Leistungsfähigkeit des Detektors und der Ausleseelektronik gewonnen und Einschränkungen und nötige Verbesserungen erkannt.
In dieser Arbeit wird der Strahltransport in einer Niederenergietransportsektion (LEBT) untersucht. Die Untersuchungen werden für die Betriebsmodi der im Aufbau befindlichen Neutronenquelle FRANZ an der Frankfurter Goethe-Universität durchgeführt. Hierbei wird die Akzeptanz eines Choppersystems nach der ersten Sektion des Transportwegs sowie die Akzeptanz des auf die zweite Sektion folgenden RFQ betrachtet und bestmöglich erfüllt. Die Auswirkungen durch die Raumladungswirkung des Ionenstrahls werden berücksichtigt, ebenso die mögliche thermische Belastung durch Strahlverlust an den Komponenten entlang des Strahlwegs. Weiterhin wird der Einfluss eines nicht optimierten Einschusses in den RFQ und die sich daraus ergebenden Strahleigenschaften am Ende des RFQs untersucht.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
Ziel dieser Arbeit ist es einen geeigneten Szintillationsdetektor für die Messungen differentieller Neutroneneinfangquerschnitte im FRANZ-Aufbau zu finden. Dafür wurde untersucht inwiefern sich das Szintillatormaterial LaBr3(Ce) (Lanthanbromid) eignet. Verwendet wurde eine Anordnung von zwei Szintillationsdetektoren dieses Typs. Mit Hilfe von Kalibrationsquellen wurden charakteristische Größen, wie Effizienz (Nachweiswahrscheinlichkeit) und Auflösungsvermögen untersucht und die ermittelten Werte mit GEANT-3.21 Simulationen [2] verglichen.
Das Ziel dieser Bachelorarbeit war es, einen Überblick über die Größe der, durch Einbeziehung des Loop-Level-Diagrammes entstehenden, Korrekturen zu erhalten. Die Ergebnisse sollen eingrenzen, wann diese Korrekturen wichtig oder sogar dominant sind. Der Einfluss der Korrekturen lässt sich gut mit Hilfe von g0 und g00 einschätzen. So gilt für g0 gerade Γntl = 1.33 Γ, die Korrekturen sind also für die Berechnung wichtig jedoch nicht dominant. Für g00 beginnen die Korrekturen gerade dominant gegenüber den Berechnungen in erster Ordnung zu werden (es gilt hier Γntl = 2 Γ). Wie anhand von Tabelle 7.2 zu sehen werden die Korrekturen, abhängig von der Massenkonfiguration, ab etwa 1.6 − 2.2mS wichtig und ab etwa 2.2 − 3.4mS dominant. Für sehr kleine Massen mΦ liegt diese Grenze natürlich niedriger, es wurde jedoch gezeigt, dass die Korrekturen selbst für mΦ = 10−13mS erst ab etwa 0.65mS dominant sind. Praktisch dürften die Korrekturen daher nur sehr selten, wenn überhaupt für Werte von g < mS, eine nennenswerte Rolle spielen. Welchen Einfluss die Korrekturen bei realen Zerfallskanälen haben, sollte nun anhand der Zerfälle von f0(500), f0(980), f0(1370) und f0(1500) in Pionen gezeigt werden. Zusätzlich wurde für den Zerfall von f0(500) die Berechnung ein weiteres Mal mit endlichem (niedrigen) Cutoff durchgeführt, um dessen Auswirkungen auf die Ergebnisse zu betrachten. Dies ist dann wichtig, wenn die beobachteten Teilchen eine endliche, räumliche Ausdehnung haben (beispielsweise wenn wie hier Hadronenzerfälle betrachtet werden). Für f0(980) und f0(1500) stellen sich die Korrekturen, wie aufgrund der vorherigen Ergebnisse und des sehr kleinen Verhältnisses von Zerfallsbreite und Masse bereits erwartet, mit 1.22% beziehungsweise 0.032% als sehr gering heraus. Für f0(1370) ist das Verhältnis bereits deutlich größer, hier sind die Korrekturen mit 7.43% bereits im hohen einstelligen Prozentbereich und damit für genaue Rechnungen durchaus wichtig. Für f0(500) zeigt sich nun wiederum, dass die Korrekturen sehr groß sind, die Loop-Level-Kopplungskonstanten ist um 24.57% kleiner. Für diesen Zerfalll sollte also bereits bei einer Abschätzung das Loop-Level Diagramm einbezogen werden. Stellt man die Berechnung mit endlichem Cutoff an, so stellt sich heraus, dass sich die exakten Werte zwar durchaus verändern, die Änderungen sind jedoch nicht so groß dass die Ergebnisse drastisch abweichen. Die Kopplungskonstante wird bei dem angenommenen Cutoff Λ = 0.95 GeV um 6.47% größer. In allen Varitionen fallen die Korrekturen kleiner als 33% aus. Als letztes ist die Genauigkeit der hier erhaltenen Ergebnisse zu beurteilen. Theoretisch sollten die numerischen Berechnungen mit beliebiger Genauigkeit durchführbar sein. Bei den im Rahmen dieser Arbeit durchgeführten Berechnungen trat jedoch das Problem auf, dass die numerischen Berechnungen des Integrals für Winkel sehr nahe 0° beziehungsweise 180° chaotisch wurden. Die Winkelintegration wurde daher nur von −0.99999 bis 0.99999 durchgeführt. Da das Impulsintegral bei diesen Winkeln etwa von der Größe 0.1 − 2 ist, abhängig von der Massenkonfiguration, entstehen dadurch Fehler der Größenordnung 10−5. Die Ursache für diesen Fehler liegt vermutlich darin begründet, dass sich für diese Winkel jeweils der dritte Pol auf den ersten und der vierte Pol auf den zweiten Pol verschiebt. In diesem Fall entsteht zwar an gleicher Stelle im Zähler eine Nullstelle (schaut man sich P1, P2 und P3 an, so befinden sich an diesen Stellen auch nur einfache Pole), die numerische Berechnung kann dadurch allerdings problematisch werden. Im Rahmen dieser Arbeit wurde eine Genauigkeit von 4 Nachkommastellen allerdings als ausreichend betrachtet. Abschließend lässt sich sagen, dass die Korrekturen in (fast) allen betrachteten Fällen klein sind. In Einzelfällen können sie allerdings durchaus relevante Dimensionen erreichen, wie am f0(500) Zerfall zu sehen ist. In zukünftigen Arbeiten sollte dieses Thema also auch für Wechselwirkungen mit Ableitungen und nicht-skalare Teilchen aufgegriffen werden.
In dieser Arbeit wurde die automatisierte Separation von Heliummono-, -di- und -trimeren beschrieben. Unter Nutzung ihrer unterschiedlichen De-Broglie-Wellenlängen wurden die verschiedenen Fraktionen mit einem Nanogitter getrennt. Zunächst wurden einige physikalische Grundlagen zu den genannten Atom- bzw. Molekülspezies, der hier auftretenden Bindungsform der Van-der-Waals-Bindung und insbesondere zur Materiewellenbeugung gelegt. Anschließend wurde der Versuchsaufbau dargestellt.
Bei der Durchführung wurden zunächst die drei jeweils vorhandenen Gitter und Spalte zu je einer Messung kombiniert und die beste Kombination für die weiteren Messungen ausgewählt. Das Experiment wurde weitergeführt, indem für verschiedene Temperaturen und Quelldrücke jeweils ein Beugungsspektrum von der für alle Heliumteilchen identischen nullten Ordnung bis zur ersten Ordnung der Heliummonomere aufgenommen wurde.
In der Auswertung wurde die Detektionswahrscheinlichkeit auf rund 37 % abgeschätzt. Weiterhin wurden die Ereignisse in den ersten Maxima der einzelnen Heliumfraktionen gezählt und so unter Verwendung der Detektionswahrscheinlichkeit molare Konzentrationen für das Heliumdi- und -trimer berechnet. Dabei wurden Anteile von bis zu 0,45 % für das Heliumdimer und 4,2 % für das Heliumtrimer erreicht. Diese Molanteile und ihre Abhängigkeit von Druck und Temperatur stimmen qualitativ gut mit der Literatur überein, quantitativ lassen sie sich u. a. wegen abweichender Nachweismethoden kaum vergleichen.
Anschließend wurde der Abstand von Düse und Skimmer variiert mit dem Ergebnis, daß eine Veränderung im betrachteten Bereich keinen nennenswerten Einfluß auf die Bildungsraten von Di- und Trimeren hat. Weiterhin wurde die auf zweierlei Weise bstimmbare Geschwindigkeit der Heliumteilchen im Gasjet ermittelt und verglichen.
Die beiden Geschwindigkeiten weichen lediglich im unteren Temperaturbereich signifikant voneinander ab, wofür plausible Erklärungsansätze dargelegt wurden.
Die Größe der Quellregion der betrachteten Heliumcluster wurde unter geometrischen Gesichtspunkten und unter Extrapolation der für verschiedene Spaltbreiten gemessenen Maximumsbreiten untersucht. Im Ergebnis wird die Quellbreite zu 58,5 μm abgeschätzt.
Die Automatisierung des Aufbaus erlaubte eine Vielzahl von systematischen Messungen, die ohne diese Automatisierung sehr zeitaufwendig gewesen wären. Insbesondere wurden in kurzer Zeit - wie zuvor geschildert - die Beugungsmuster von drei Gittern in Kombination mit je drei verschiedenen Kollimationspalten sowie die Abhängigkeit der Heliumdimer- und -trimerbildung von Temperatur, Druck und Abstand von Düse und Skimmer untersucht. Die Automatisierung erlaubt für zukünftige Messungen, z. B. in Strahlzeiten am Freien Elektronenlaser FLASH, jeweils in situ die Clusterbildung zu untersuchen. Möge das beschriebene Experiment nicht nur diese, sondern auch viele weitere Messungen beschleunigen helfen und so zum gesellschaftlichen Erkenntnisgewinn beitragen!
Weltweit arbeiten Astrophysiker noch immer mit einer Theorie, die bereits vor rund 100 Jahren aufgestellt wurde – die Einstein’sche Relativitätstheorie. Nahezu jeder hat den genialen Kopf dahinter vor Augen: Albert Einstein. Was aber ist der von Einstein prognostizierte gekrümmte Raum, was sind schwarze Löcher und Neutronensterne und wer sind die Menschen, die auf diesen Gebieten forschen? Luciano Rezzolla, seit Oktober 2013 Professor für Theoretische Astrophysik an der Goethe-Universität sowie Leiter einer Arbeitsgruppe am Max-Planck-Institut für Gravitationsphysik in Potsdam, ist einer dieser Forscher.
Ziel dieser Arbeit war, mittels einer (n,γ)-Aktivierung, 129Te zu erzeugen und eine Teilchenzahlbestimmung durchzuführen. Aktivierung der Probe am Forschungsreaktor TRIGA und Spektrenaufnahme mittels eines HPGe-Detektors erfolgten im Mai 2014 am Institut für Kernchemie der Johannes Gutenberg Universität in Mainz.
Die Teilchenzahl des Tochternuklids 129I kann anhand der Teilchenzahlen des Isomers und des Grundzustandes von 129Te berechnet werden. In den Aktivierungen #2 bis #6 wurden (14.27 ± 0.53)x10exp12 Iodnuklide erzeugt. Angegeben ist die maximal mögliche Anzahl von Iodteilchen bei unendlich langer Wartezeit und vollständigem Zerfall aller Tellurnuklide.
Beobachtet werden konnte die Abnahme der Grundzustandsaktivität bis zum Erreichen des Gleichgewichts aus Nachbevölkerung durch das Isomer und Zerfall. Die Grundzustandslinien der Energien von 459.60 keV, 487 keV, 1083 KeV und 1111 keV konnten zu dieser Untersuchung herangezogen werden. Diese 4 Linien erfüllen die erforderten Konsistenzkriterien bezüglich der Systematik und können daher zur Teilchenzahlbestimmung des Grundzustandes verwendet werden (Seite 31).
Der Einfluss der Eigenabsorption ist noch zu untersuchen, da die genaue Position der Probe im Polyethylenbehältnis nicht bestimmt werden konnte. Weiterhin ist die Datenanalyse der ersten Aktivierung aufgrund des Detektorwechsels noch nicht erfolgt. Der Austausch war wegen technischer Probleme notwendig. Ziel weiterführender Untersuchungen ist, eine erneute Halbwertszeitbestimmung des radioaktiven 129I vorzunehmen. Sie ist von Interesse, angesichts des Widerspruchs zweier Veröffentlichungen. Die Halbwertszeit des 129I kann Aufschluss über stellare Bedingungen des s-Prozesses geben.
In dieser Arbeit wird der Strahltransport in einem CH-Driftröhrenbeschleuniger untersucht. Hierfür wurden numerische Simulationen zur elektromagnetischen Feldverteilung und dem strahldynamischen Einfluss der CH-Driftröhrenkavität durchgeführt. Sie fungiert als Prototyp für CH-Strukturen im Injektor des MYRRHA-Projekts, einem beschleunigergetriebenen System (ADS) zur Transmutation radioaktiven Abfalls. Zudem wird sie an der im Aufbau befindlichen Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) an der Goethe-Universität Frankfurt am Main experimentell mit Strahl getestet werden. FRANZ dient neben dem Einsatz als Experimentierfeld für neuartige Beschleuniger- und Strahldiagnostikkonzepte vor allem der Forschung im Bereich nuklearer Astrophysik.
Experimente und Simulationen zur Filterung und Injektion in einen toroidalen Ionenspeicherring
(2014)
Die in dieser Arbeit durchgeführten theoretischen Untersuchungen, Simulationen und Experimente hatten das Ziel, die Erforschung der Injektion in sowie des Transports von Ionenstrahlen bestehend aus verschiedenen, einzelnen Wasserstoffionenspezies durch toroidale Magnetfeldstrukturen zu ermöglichen. Dazu wurde im Rahmen dieser Arbeit ein neues Filter- und Detektorsystem für Wasserstoffionenstrahlen – ein Filterkanal – entwickelt, aufgebaut und untersucht. Zunächst wurde mittels theoretischer Betrachtungen das Konzept des Kanals und die Funktionalität der Filterung sowie Vermessung der Strahlzusammensetzung analysiert. Danach wurde der Kanal mit Hilfe von Simulationen ausgelegt und anschließend nach genauen Vorgaben gebaut. Gleichzeitig wurde mittels weiterer Simulationen das Strahlverhalten im Kanal genauer analysiert und zusätzlich die Auswirkungen verschiedener Parameter auf das Filterverhalten des Kanals untersucht. Anschließend wurde der zusammengebaute Kanal mittels Experimenten erforscht. Dabei wurden mehrere Experimente mit verschiedenen Quellen- und Strahlparametern durchgeführt, wobei vor allem die Filtereigenschaften sowie die Vermessung der Strahlzusammensetzung umfangreich untersucht und im Bezug auf die Funktionalität des Filterkanals diskutiert wurden.
Des Weiteren befasste sich diese Arbeit mit dem Aufbau des Injektionsexperiments zur Untersuchung der Injektion eines Wasserstoffionenstrahls zwischen zwei Toroidsegmente. Dazu wurde ein höhenverstellbarer Injektor samt Hochspannungsterminal und Peripherie entwickelt, aufgebaut und in Betrieb genommen. Dieser besteht aus einer Volumenionenquelle, einer neu entwickelten Faraday-Tasse sowie einem Solenoid. Die Faraday-Tasse, welche zur Vermessung des Quellenstroms im neuen Injektor sowie zusätzlich zur Vermessung des Ionenstrahlstroms hinter dem Filterkanal eingesetzt wird, wurde dabei im Rahmen dieser Arbeit entwickelt, experimentell durchgemessen und auf ihre Funktionalität geprüft. Im Zusammenhang mit dem Hochspannungsterminal für den neuen Injektor wurden die verschiedenen Möglichkeiten für die Verschaltung einer Volumenionenquelle mit dem dazugehörigen Hochspannungsterminal diskutiert und der Zusammenhang zur Strahlenergie hergestellt.
Mittels theoretischer Rechnungen wurde der aufgrund der RxB Drift benötigte Höhenunterschied zwischen Injektionskanal und Transportkanal für das Injektionsexperiment bestimmt und der neue Injektor auf den errechneten Bereich vorkonfiguriert. Zusätzlich wurde mittels Simulationen die optimale Strahlenergie bestimmt, bei der der Strahl beim Transport durch den Transportkanal angepasst ist und somit die Auswirkung der Driftsektion zwischen den beiden Toroidsegmenten sowie die Beeinflussung durch das Injektionssystem am geringsten sein sollten. In diesem Zusammenhang wurde auch auf die möglichen Geometrien zum Aufbau des Injektionsexperiments eingegangen und mittels der angesprochenen Untersuchungen eine Geometrie für den Aufbau des Injektionssystems festgelegt.
Nichtinvasive Detektoren für ortsaufgelöste Strahlprofilmessungen gewinnen mit zunehmenden Strahlströmen und -energien immer mehr an Bedeutung. An der Universität Frankfurt im Institut für Angewandte Physik (IAP) wird ein “Figure Eight”-förmiger magnetostatischer Speichering mit Stellarator-Konfiguration (F8SR) entwickelt. Einige Aspekte der Strahldynamik in einem solchen Ring können mit einem experimentellen Aufbau am IAP untersucht werden. Die Herausforderung bei der Entwicklung eines Detektors an einem (F8SR) liegt auf der einen Seite darin den Strahl nichtinvasiv zu detektieren, und andererseits müssen magnetisch unempfindliche Komponenten für den Detektor ausgewählt werden. Dabei sollte der Detektor so flexibel sein, dass der Strahl entlang der Flugbahn transversal gemessen werden kann. In dieser Arbeit geht es um einen Detektor mit radial um den Strahl angeordneten Photodioden, mit deren Hilfe die strahlinduzierte Fluoreszenz detektiert wird und mit einem geeigneten Rekonstruktionsverfahren, Strahlposition und den Strahldurchmesser ermittelt werden kann. Die Messungen werden mit einem weiteren schon erprobten Detektor - einem Szintillationsschirm verglichen.
In dieser Arbeit wurden eine Reihe neuer organischer Ladungstransfer (CT)-Verbindungen in Form von Einkristallen und Dünnschichten synthetisiert und grundlegend charakterisiert.
Für die Synthese kamen verschiedene bekannte und bislang unbekannte Donor- und Akzeptormoleküle zum Einsatz. Während einige bekannte Materialien wie TTF und TCNQ kommerziell erworben werden konnten, bestand im Rahmen der Kollaboration mit dem MPI für Polymerforschung zudem Zugang zu mehreren neuen Molekülen wie TMP und HATCN, die besonders mit Blick auf die Möglichkeit zur Dünnschichtpräparation ausgewählt wurden. Auf dieser Grundlage konnten zum einen mittels verschiedener Varianten der Lösungszüchtung erfolgreich neue CT-Komplexe als Einkristalle gezüchtet werden. Dabei kamen mehrere unterschiedliche Lösungsmittel zur Anwendung, die z.T. auch die gezielte Synthese bestimmter Kristallphasen erlaubten. Zum zweiten gelang die Präparation eines Teils dieser Systeme als Dünnschicht über die Methode der Molekularstrahldeposition mit verschiedenen Isolatoren wie SiO2 als Substratmaterial. Hierbei wurde zum Teil zuvor gezüchtetes Material eingesetzt, zum Teil entstand die neue Verbindung erst über diesen Prozess.
Die Proben der neuen Verbindungen wurden zunächst mittels verschiedener Methoden morphologisch und kristallographisch untersucht. Die Kristallzüchtung lieferte in vielen Fällen eine gute Kristallqualität, die sowohl für die Strukturbestimmung als auch die späteren elektrischen Messungen ausreichend war. Die Kristallstruktur konnte für mehrere neue Systeme ermittelt werden und ergab in allen Fällen eine Anordnung mit gemischten Donor-Akzeptor-Stapeln. Für die präparierten Dünnschichten konnte bei einem Großteil der Verbindungen gemäß der Untersuchungen mittels Röntgendiffraktion die gleiche(n) kristalline(n) Struktur(en) wie in den Einkristallen festgestellt werden. Es ließen sich zwei wesentliche Beobachtungen machen: a) Die Morphologie der Schichten besitzt eine ausgeprägte Tendenz zu rauem Inselwachstum; b) In praktisch allen Fällen bilden sich innerhalb der Schicht mindestens zwei stabile CT-Phasen parallel. Beide Verhaltensweisen traten nahezu unabhängig von Substrat, dessen Temperatur, Ausgangszustand (Material vorreagiert oder nicht) und Depositionstemperatur auf.
Die elektronischen Transportmessungen bestanden primär aus temperaturabhängigen Messungen
der elektrischen Leitfähigkeit, während Feldeffektmessungen mit organischen Transistorstrukturen
lediglich den Charakter einer Grundsteinlegung für tiefergehende Untersuchungen mit optimierten Schichten hatten. Die Kryostat-Messungen bis hinunter zu rund 1,5 Kelvin zeigten bei keiner der Verbindungen ein klares Anzeichen für einen Phasenübergang. Die absoluten Werte der Leitfähigkeit bei Raumtemperatur passten qualitativ zu der typischen Erwartung an ein gemischt gestapeltes CT-System, nämlich ein halbleitendes oder isolierendes Verhalten, was durch das arrhenius-artige Temperaturverhalten auch bestätigt wurde.
Dielektrische Messungen mit Kondensatorstrukturen wurden für die neuen Systeme TMP-TCNQ
und ET-DTF in der Dünnschichtform vorgenommen. Im Vordergrund stand dabei die Suche nach neuen Verbindungen, die einen neutral-ionischen Phasenübergang zeigen, der sich im Idealfall durch eine starke, peakförmige Anomalie in der Temperaturabhängigkeit der Dielektrizitätskonstanten bemerkbar machen sollte. Während sich in TMP-TCNQ keinerlei Hinweise auf einen Übergang zeigten, lieferte ET-DTF einen Verlauf, der einen strukturellen
Übergang andeutet, dessen Identität aber noch ungeklärt ist.
Zur Ergänzung wurden mit Hilfe mehrerer Kooperationspartner weitere Untersuchungen zwecks
Charakterisierung der neuen CT-Systeme vorgenommen. Die Bestimmung des Ladungstransfergrades δ mittels IR-Absorption lieferte im Wesentlichen eine Bestätigung der Beobachtung, dass die inspizierten Verbindungen gemischt gestapelte Systeme halbleitender oder
isolierender Natur sind, da δ nur geringe Werte von max. ca. 0,2 zeigte, die für solche Systeme
typisch sind. In ähnlicher Weise bestätigten Bandstruktur-Rechnungen dieses Verhalten, da die Bänder allgemein nur eine eher geringe elektronische Bandbreite zeigten. Zudem ergab sich für die trikline Phase von ET-DTF und das System TMP-F4TCNQ eine deutliche Anisotropie hinsichtlich der Dispersion, da diese erheblich verstärkt entlang der zur Stapelachse des Systems korrespondierenden Richtung des k-Raumes auftritt, also (im Einklang mit den Leitfähigkeitsdaten) 1D-Charakter besitzt. Ein weiterer Beitrag zur Suche nach neuen NI-Verbindungen entstand durch Messung der charakteristischen CT-Absorption einiger Systeme im optischen bzw. IR-Spektrum. In Kombination mit den Werten für Ionisierungsenergie und Elektronenaffinität konnte eine Einordnung in das von Torrance et al. entwickelte, sog. V-Diagramm vorgenommen werden, mit dessen Hilfe sich aussichtsreiche Molekülkombinationen für ein neues NI-System eruieren ließen.
Der langsame Neutroneneinfang-Prozess (s-Prozess) ist für die Erzeugung von rund der Hälfte der Elemente zwischen Eisen und Blei verantwortlich. Sein Reaktionspfad enthält entlang des Stabilitätstals einige Verzweigungspunkte an instabilen Isotopen, deren Neutroneneinfangquerschnitte die Produktion schwererer Elemente und deren Isotopen-Verhältnisse beeinflussen. Kennt man ihre Zerfalls- und Neutroneneinfangraten unter den angenommenen stellaren Bedingungen ist es möglich, Rückschlüsse auf die physikalischen Umstände während des s-Prozesses zu ziehen. Einer dieser Verzweigungspunkte ist 63-Ni. Die experimentelle Bestimmung des differentiellen Wirkungsquerschnittes für den Neutroneneinfang an diesem Isotop ist das primäre Ergebnis der vorliegenden Arbeit. Der 63-Ni(n,gamma)- Wirkungsquerschnitt hat Einfluss auf die Häufigkeiten von 64-Ni, die Kupfer- und die Zink-Isotope. Die Sensitivität der Produktion dieser Nuklide in s-Prozess-Szenarien wurde ebenfalls im Rahmen dieser Arbeit anhand von Simulationen des entsprechenden Nukleosynthesenetzwerkes untersucht. Zudem wurde die Datenlage für s-Prozess-Modelle mit einer Flugzeit-Messung des 63-Cu(n,gamma)-Wirkungsquerschnitts erweitert.
Die beiden Experimente zur Querschnittsbestimmung von 63-Ni und 63-Cu fanden am Los Alamos Neutron Science Center in New Mexico, USA statt. Eine aus angereichertem 62-Ni hergestellte 63-Ni-Probe wurde im Rahmen einer Flugzeit-Messung gepulst mit Neutronen bestrahlt. Der Nachweis der prompten Gammastrahlung aufgrund von Neutroneneinfängen erfolgte mit dem 4π-BaF_2-Detektor DANCE. Die kalorimetrische Messung macht den Q-Wert der Reaktion für jedes Einfangereignis zugänglich und erlaubt die Unterscheidung von Ereignissen verschiedener Isotope. Es konnte gezeigt werden, dass diese Methode die Bestimmung von Querschnitten selbst mit Proben ermöglicht, die nur zu einem Bruchteil aus dem zu untersuchenden Isotop bestehen. Der 63-Ni(n,gamma)-Wirkungsquerschnitt wurde für den Energiebereich von 40 eV bis 500 keV mit einer maximalen Unsicherheit von 15% bestimmt. Es zeigte sich, dass theoretische Abschätzungen den Querschnitt bislang um etwa einen Faktor 2 unterschätzten. In demselben Energiebereich konnte der 63-Cu(n,gamma)-Wirkungsquerschnitt mit einer maximalen Unsicherheit von 8% vermessen werden.
Das Strahldynamikdesign für den MYRRHA-Injektor wurde im Hinblick auf eine hohe Zuverlässigkeit und Verfügbarkeit, sowie eine verbesserte Strahlausgangsemittanz, neu entwickelt und erfüllt nun die Anforderungen des Kernreaktors.
In der statistischen Fehleranalyse zeigt sich die Strahldynamik der CH-Sektion als äußerst robust und liefert selbst unter pessimistischen Fehlerannahmen eine Transmission von über 99,9 %.
Das neue Injektorkonzept bietet wesentliche Vorteile gegenüber dem in „MAX Referenzdesign 2012“ vorgestellten Injektordesign und wird als neues „MAX Referenzdesign 2014“ für den MYRRHA-Injektor verwendet. Die guten strahldynamischen Eigenschaften des neuen Injektordesigns konnten in Vergleichsrechnungen mit TraceWin am IN2P3@CNRS1 (Institut National de Physique Nucléaire et de Physique des Particules @ Centre National de la Recherche Scientifique, Orsay, Frankreich) bestätigt werden.
Neben der Strahldynamik wurde das HF-Design für die benötigten Beschleunigerkavitäten entwickelt und ebenfalls für eine hohe Zuverlässigkeit und Verfügbarkeit optimiert. Das HF-Design der CH-Strukturen ist für eine größtmögliche Ausfallsicherheit auf den Betrieb mit niedrigen elektrischen Feldgradienten, weit unterhalb der technischen Leistungsgrenzen und Möglichkeiten der jeweiligen Kavität, ausgelegt.
Im Rahmen dieser Arbeit wurden grundlegende Eigenschaften von GEM-Verstärkungsstrukturen untersucht. Dies waren der Einfluss des Alignmenteffektes auf die Reproduzierbarkeit von Messungen, die Elektronenextraktionseffizienz von GEMs im allgemeinen und die Auswirkungen von Druckschwankungen auf die Gasverstärkung. Weiterhin wurden verschiedene vierlagige GEM-Verstärkungssysteme mit einer MP-GEM an erster Stelle in Hinblick auf Ionenrückfluss und Energieauflösung untersucht.
Der Alignmenteffekt ist noch nicht vollkommen verstanden und verlangt weitere Untersuchungen. Was aber definitiv gesagt werden kann ist, dass das Drehen der GEMs um 90° die Reproduzierbarkeit der Messergebnisse sicherstellt.
Die unterschiedlichen Elektronenextraktionseffizienzen der verschiedenen GEM-Typen sind noch unverstanden. Auch wenn die grundsätzliche Zunahme der Extraktion mit zunehmenden Transferfeld verständlich ist, so bleibt vor allem das Verhalten einer LP-GEM in diesem Kontext bis jetzt unerklärlich.
Die Versuche mit einer MP-GEM an erster Stelle einer vierlagigen Verstärkungsstruktur haben sich als keine Verbesserung im Vergleich zu den S-Konfigurationen herausgestellt. Auch wenn manche gefundenen Einstellungen die Kriterien von einem IBF von weniger als 1 % und einem σ(55Fe) von weniger als 12 % gleichzeitig erfüllen, liegen diese Messpunkte so knapp an den definierten Grenzen, dass sie nicht für den Betrieb in der Spurendriftkammer von ALICE geeignet sind. Eine Erkenntnis, die trotzdem gewonnen werden konnte, ist, dass sich das Verhalten von verschiedenen Konfigurationen verstehen lässt. So ist die beste untersuchte Konfiguration die MP-LP-LP-S-Konfiguration gewesen, danach folgte die MP-S-LP-S und als schlechteste hat die MP-S-LP-SP-Konfiguration abgeschnitten. Dies ist genau die gleiche Reihenfolge, wie sie auch bei den S-Konfigurationen auftritt: S-LP-LP-S, dann S-S-LP-S und danach S-S-LP-SP. Ein wichtiger Schritt in einem guten Kompromiss zwischen Ionenrückfluss und σ(55Fe), scheinen zwei LP-GEMs an zweiter und dritter Stelle zu sein und weniger der Lochabstand der letzten GEM.
Die Druckabhängigkeit der Gasverstärkung hat einen großen Einfluss auf die Verstärkung und damit auf die Reproduzierbarkeit von Messungen. Bei einem Höhenunterschied von ca. 400 m ergibt sich eine Änderung der Verstärkung von ca. 35 %. Zusätzlich wird dieser Effekt von lokalen Wetterbedingungen überlagert. Der Einfluss des Luftdruckes kann jedoch mit dem Fit in Abbildung 43 berücksichtigt und damit herausgerechnet werden
Im Laufe dieser Bachelor-Arbeit wurden verschiedene GEM-Anordnungen systematisch auf ihr IBF-Verhalten hin untersucht. Neben der Reproduktion zuvor durchgeführter Messungen wurden auch neue GEM-Kombinationen getestet. Insbesondere lag der Fokus darauf, eine Verbesserung des IBFs gegenüber des Baseline-Setups zu erzielen. Dabei kamen neben der bisher verwendeten S und LP Folien auch SP Folien zum Einsatz. Die Messungen brachten jedoch kein Ergebnis hervor, welches als Verbesserung gegenüber der Ausgangslage angesehen werden könnte. Da mit SP GEMs zuvor wenig gearbeitet wurde, war es unter anderem ein Ziel, zu untersuchen, wie sich die Verwendung dieser GEMs auf den IBF auswirkt. Insbesondere war die Frage zu klären, ob durch ihre Verwendung der IBF des Baseline-Setups
verbessert werden kann. Zum besseren Verständnis wurde ebenfalls eine Variante, S-S-LPS, untersucht. Für dieses Setup konnte durch die Verwendung einer SP Folie auf Position 4 eine Verbesserung des IBF bewirkt werden, für das Baseline-Setup jedoch nicht. Ein wesentliches Ergebnis dieser Bachelor-Arbeit war, dass das Alignment der GEMs, entgegen bisheriger Annahmen, eine große praktische Relevanz hat. Die relative Orientierung zweier aufeinander folgender GEMs gleichen Lochabstands zueinander hat einen großen Ein
uss auf die lokale Ionentransmission. Eine genauere Untersuchung hat ergeben, dass man dem entgegenwirken kann, indem man aufeinander folgende GEMs um 90° gedreht einbaut. Aufgrund der Geometrie der Folien verhindert man dadurch, dass sich die Löcher zweier Folien direkt ßber- bzw. untereinander anordnen. Ein solcher Aufbau konnte durch eine geringfügige Modifikation der Testkammer erreicht werden.
Mit diesem veränderten Aufbau wäre es nun das Ziel gewesen, alle bisherigen Messungen zu wiederholen und auf Reproduzierbarkeit hin zu überprüfen. Die Wiederholung einer Messreihe mit um 90° gedrehten GEMs hat im Rahmen der Fehlertoleranzen reproduzierbare
Ergebnisse geliefert. Aus zeitlichen Gründen war es jedoch im Rahmen dieserArbeit nicht möglich, eine vollständige Wiederholung aller Messungen durchzuführen. Dies wurde zu einem späteren Zeitpunkt von anderen Personen getan.
Im Rahmen dieser Arbeit werden verschiedene Modellsysteme untersucht, die Metriken der klassischen Allgemeinen Relativitätstheorie mit Erweiterungen vergleichen, in denen Ereignishorizonte nicht existieren müssen. Die untersuchten Korrekturterme sind durch Schwachfeldmessungen, wie sie zum Beispiel in unserem Sonnensystem durchgeführt werden, nicht überprüfbar. Es ist deshalb nötig solche Systeme zu betrachten, in denen die vollständigen Gleichungen berücksichtigt werden müssen und keine Entwicklungen für schwache Felder gemacht werden können. Es gibt eine Reihe von astrophysikalischen Systemen, die diese Bedingungen erfüllen, wie das Galaktische Zentrum oder Doppelsternsysteme.
Im zweiten Kapitel der Arbeit werden Testteilchenorbits in einem Zentralpotential beschrieben und Unterschiede zwischen der klassischen und einer modifizierten Kerr-Metrik herausgearbeitet. Drei neue Phänomene der modifizierten Metrik gegenüber der Klassischen treten hier in Erscheinung. Zum einen haben Teilchen, die sich auf prograden Bahnen um den Zentralkörper drehen, ein Maximum in ihrer Winkelgeschwindigkeit. Zum anderen ist das Phänomen des frame-draggings deutlich schwächer ausgeprägt. Schließlich tritt ein letzter stabiler Orbit für entsprechend schnell rotierende Zentralkörper nicht mehr auf. Gleichzeitig sind die Unterschiede in den beiden Metriken für große Abstände (r > 10m) nahezu vernachlässigbar. In Kapitel 3 werden diese Ergebnisse auf zwei unterschiedliche Modelle zur Beschreibung von Akkretionsscheiben angewendet. Untersucht wird zum einen das Verhalten der Eisen-Kα-Emissionslinie und zum anderen der Energiefluss aus einer Akkretionsscheibe.
In der Form der Eisen-Kα-Emissionslinie gibt es eine deutliche Zunahme des rotverschobenen Anteils der Strahlung in der modifizierten Kerr-Metrik gegenüber der klassischen Kerr-Metrik. Die Akkretionsscheibe nach Page und Thorne zeigt unter Verwendung der modifizierten Kerr-Metrik eine signifikante Erhöhung der abgestrahlten Energie, wenn der Zentralkörper so schnell rotiert, dass kein letzter stabiler Orbit mehr auftritt. Zusätzlich gibt es hier in der Scheibe einen dunklen Ring im Vergleich zu den Bildern höherer Ordnung, die in der klassischen Kerr-Metrik auftreten. Erklärbar sind diese Phänomene dadurch, dass sich Teilchen auf stabilen Bahnen in der modifizierten Kerr-Metrik näher an den Zentralkörper heran bewegen können, als es in der klassischen Kerr-Metrik der Fall ist. Die Rotverschiebung ist für beide Fälle annäherend gleich.
Kapitel 4 gibt eine kurze Einführung in die Beschreibung von Gravitationswellen im Rahmen der linearisierten Allgemeinen Relativitätstheorie. Hier wird als Modell ein Binärsystem, wie etwa der Hulse-Taylor-Pulsar, betrachtet. Die Unterschiede zwischen der klassischen Theorie und einer Beschreibung unter Hinzunahme von Zusatztermen sind hier erwartungsgemäß sehr gering, da die Linearisierung der Gleichungen dazu führt, dass Starkfeldeffekte vernachlässigt werden. Für große Abstände, was in diesem Fall auch schwache Felder impliziert, sind die Erweiterungen der Gleichungen vernachlässigbar. Hier werden zum Teil auch Effekte in der klassischen ART vernachlässigt.
In Kapitel 5 befindet sich ein kurzer Ausblick in die 3+1-Formulierung der Einsteingleichungen für die numerische Beschreibung von Gravitationsphänomenen. Diese Beschreibung ermöglicht es auch komplexe Systeme ohne viele nähernde Annahmen genau beschreiben zu können. Diese Systeme können zum einen Akkretionsscheiben um kompakte Objekte sein, aber auch die Verschmelzung von zwei massiven Objekten und die damit verbundenen Gravitationswellensignale. Dadurch lassen sich die Vorhersagen der ART oder etwaiger Erweiterungen präziser modellieren.
Die vorgestellten Ergebnisse liegen innerhalb der Einschränkungen durch aktuelle Messungen. Zukünftige Messungen wie genauere Beobachtungen des Galaktischen Zentrums durch das Event Horizon Telescope sind aber voraussichtlich dazu in der Lage zwischen den untersuchten Metriken zu unterscheiden.
Die Dissertation ist in den Bereichen der semiklassischen Quantengravitation und der pseudokomplexen Allgemeinen Relativitätstheorie (pk-ART) anzusiedeln. Dabei wird unter semiklassischer Quantengravitation die Untersuchung quantenmechanischer Phänomene in einem durch eine klassische Gravitationstheorie gegebenen gravitativen Hintergrundfeld verstanden und bei der pk-ART handelt es sich um eine Alternative zu der aktuell anerkannten klassischen Gravitationstheorie, der Allgemeinen Relativitätstheorie (ART), die die reellen Raumzeitkoordinaten der ART pseudokomplex erweitert. Dies führt zusammen mit einer Veränderung des Variationsprinzips in führender Ordnung auf eine Korrektur der Einstein- Gleichung der ART mit einem zusätzlichen Quellterm (Energie-Impuls-Tensor), dessen exakte Form jedoch bisher nicht bekannt ist.
Die Beschreibung der Gravitation als Hintergrundfeld ergibt sich zwangsläufig daraus, dass auf Basis der ART bisher keine quantisierte Beschreibung für sie gefunden werden konnte. Jedoch wird erhofft, dass die Untersuchung semiklassischer Phänomene Hinweise auf die korrekte Theorie der Quantengravitation gibt. Zudem motiviert der Mangel einer quantisierten Gravitationstheorie die Verwendung alternativer Theorien, da sich dadurch die Frage stellt, ob die ART die korrekte Beschreibung klassischer Felder ist.
Das Ziel der vorliegenden Dissertation war die grundlegenden Unterschiede zwischen der ART und der pk-ART für gebundene sphärisch symmetrische Zustände der Klein-Gordon- und der Dirac-Gleichung zu identifizieren und ein qualitatives Modell der Vakuumfluktuationen in sphärisch symmetrischen Materieverteilungen zu bestimmen, wobei der Zusammenhang der pk-ART mit den Vakuumfluktuationen in der Annahme besteht, dass ein Zusammenhang zwischen ihnen und dem zusätzlichen Quellterm der pk-ART existiert. Dafür wurden die gebundenen Zustände der Klein-Gordon- und der Dirac-Gleichung für drei verschiedene Metrikmodelle (zwei ART-Modelle und ein pk-ART-Modell) mit konstanter Dichte systematisch numerisch berechnet, einige repräsentative Grafiken erstellt, anhand derer die grundlegenden Unterschiede der Ergebnisse der ART-Modelle und des pk-ART-Modells erörtert wurden, und die ART Ergebnisse der Dirac-Gleichung soweit wie möglich mit Ergebnissen der Literatur verglichen. Insbesondere wurde dabei festgestellt, dass die Energieeigenwerte in der pk-ART im Gegensatz zu denen in der ART in Abhängigkeit der Ausdehnung des Zentralobjekts ein Minimum aufweisen. Zudem wurden die Energieeigenwerte der Klein-Gordon-Gleichung teilweise sowohl über das Eigenwertproblem einer Matrix als auch über ein Anfangswertproblem berechnet und es wurde festgestellt, dass die Beschreibung als Eigenwertproblem deutlich uneffektiver ist, wenn dafür die Basis des dreidimensionalen harmonischen Oszillators genutzt wird. Für die Entwicklung des qualitativen Vakuumfluktuationsmodells wurden zwei Näherungen für den Erwartungswert des Energie-Impuls-Tensors in führender Ordnung für die Schwarzschildmetrik (ART) verglichen und die Verwendung eines qualitativen Modells durch die dabei auftretende Diskrepanz gerechtfertigt. Danach wurden die Vakuumfluktuationen für Metriken konstanter Materiedichte mit Hilfe einer der Näherungen in führender Ordnung berechnet und ein Modell gesucht, das den gleichen qualitativen Verlauf aufweist. Im Anschluss wurde dieses Modell noch für einfache Metriken mit variabler Materiedichte verifiziert.
Die Dissertation leistet mit der Analyse der gebundenen Zustände einen Beitrag in der Identifikation der Unterschiede zwischen der pk-ART und der ART und führt somit auf weitere mögliche Messgrößen, die der Unterscheidung der beiden Theorien dienen könnten. Weiterhin ermöglicht das abgeleitete Modell eine Verfeinerung der schon publizierten Ergebnisse über Neutronensterne und die für die Erstellung nötigen Vorarbeiten leisten einen Beitrag zur Identifikation des
pk-ART Quellterms.
Im Rahmen des FRANZ-Projektes wurde nach einer Ionenquelle verlangt welche in der Lage ist einen intensiven hochbrillanten Protonenstrahl von 200 mA bei 120 keV im Dauerstrichbetrieb zur Verfügung zu stellen, bei gleichzeitig niedriger Strahlemittanz. Der recht hohe Protonenstrom von 200 mA stellt dabei eine Herausforderung an den Experimentator dar.
Die grundsätzliche Problematik bei der Entwicklung einer solchen Ionenquelle besteht im Wesentlichen darin, ein geeignetes Extraktionssystem zu designen, welches in der Lage ist den geforderten hohen Protonenstrom zu extrahieren und transportieren. In diesem Zusammenhang wurden Abschätzungen bezüglich des notwendigen Emissionsradius, der elektrischen Feldstärke im Extraktionsspalt sowie des Protonenanteils für den verlangten Protonenstrom von 200 mA durchgeführt. Für die praktische Umsetzung wurden Lösungsstrategien erarbeitet. Ziel war es die elektrische Feldstärke im Gap so hoch wie möglich und den Radius der Emissionsöffnung so klein wie möglich zu wählen, bei gleichzeitig möglichst hohem Protonenanteil. Basierend auf diesen Erkenntnissen wurde ein Prototyp der Bogenentladungs-Volumenionenquelle entwickelt und erfolgreich in Betrieb genommen.
Zur Steigerung des Protonenanteils im Wasserstoffplasma wurden diverse Parameter der Ionenquelle optimiert wie bspw. Bogenleistung, Gasdruck sowie insbesondere die Feldverteilung und die magnetische Flussdichte des magnetischen Filters. Diese Ergebnisse wurden mit dem verbesserten theoretischen Modell zur Erzeugung von atomaren Wasserstoffionenstrahlen verglichen. Um die elektrische Feldstärke im Extraktionsspalt zu steigern wurden die Elektroden aus einem thermisch belastbaren Material hergestellt und einer speziellen Oberflächenbehandlung unterzogen. Des Weiteren wurden theoretische und experimentelle Untersuchungen bezüglich der Emissionsstromdichte und der Strahlqualität durchgeführt. Weiterhin wurde die Emittanz des Ionenstrahls berechnet sowie mit einer eigens am Institut für Angewandte Physik entwickelten Pepperpot-Emittanzmessanlage experimentell bestimmt. Die vorliegende Dissertation präsentiert die Ergebnisse der Entwicklung dieser hocheffizienten Bogenentladungs-Volumenionenquelle.
Das Hauptziel der vorliegenden Arbeit war es, die energieabhängigen Wirkungsquerschnitte von (γ,n)-Reaktionen für 169Tm, 170Yb, 176Yb und 130Te mittels der Photoaktivierungsmethode zu bestimmen.
Dazu wurden zunächst die Effizienzen der verwendeten Detektoren mithilfe von Simulationen korrigiert, da die verwendeten Targets eine ausgedehnte Geometrie aufweisen im Gegensatz zu den punktförmigen Eichquellen. Es hat sich herausgestellt, dass mit den Simulationen die Effizienzen der MCA-Detektoren energieabhängig korrigiert werden konnten, da die Simulationen die Form der gemessenen Effizienzen gut reproduzieren konnten. Bei den Effizienzen der LEPS-Detektoren hingegen konnte keine energieabhäangige Korrektur vorgenommen werden, da die LEPS-Detektoren aufgrund des geringen Abstandes zu den Detektoren hohe Summeneffekte zeigten. Im Rahmen dieser Arbeit konnten diese Summeneffekte jedoch nicht korrigiert bzw. berücksichtigt werden.
Die vorliegende Arbeit befasst sich mit der Untersuchung einzelner chiraler Moleküle durch Koinzidenzmessungen. Ein Molekül wird chiral genannt, wenn es in zwei Varianten, sogenannten Enantiomeren auftritt, deren Strukturmodelle Spiegelbilder voneinander sind.
Da viele biologisch relevante Moleküle chiral sind, sind Methoden und Erkenntnisse dieses Gebiets von großer Bedeutung für Biochemie und Pharmazie. Bemerkenswert ist, dass in der Natur meist nur eines der beiden möglichen Enantiomere auftritt. Ob diese Wahl zufällig war, ob sie aufgrund der Anfangsbedingungen bei Entstehung des Lebens erfolgte, oder ob sie eine fundamentale Ursache hat, ist bisher ungeklärt. Seit der Entdeckung chiraler Molekülstrukturen in der zweiten Hälfte des 19. Jahrhunderts ist eine Vielzahl von Methoden entwickelt worden, um die beiden Enantiomere eines Moleküls zu unterscheiden und ihre Eigenschaften zu untersuchen. Aussagen über die mikroskopische Struktur (Absolutkonfiguration) können jedoch meist nur mithilfe theoretischer Modelle getroffen werden.
Der innovative Schritt der vorliegenden Arbeit besteht darin, eine in der Atomphysik entwickelte Technik zur Untersuchung einzelner mikroskopischer Systeme erstmals auf chirale Moleküle anzuwenden: Mit der sogenannten Cold Target Recoil Ion Momentum Spectroscopy (COLTRIMS) ist es möglich, einzelne Moleküle in der Gasphase mehrfach zu ionisieren und die entstandenen Fragmente (Ionen und Elektronen) zu untersuchen. Die gleichzeitige Detektion dieser Fragmente wird als Koinzidenzmessung bezeichnet.
Zunächst wurde das prototypische chirale Molekül CHBrClF mit einem Femtosekunden-Laserpuls mehrfach ionisiert, sodass alle fünf Atome als einfach geladene Ionen in einer sogenannten Coulomb-Explosion „auseinander fliegen“. Durch Messung der Impulsvektoren dieser Ionen konnte die mikroskopische Konfiguration einzelner Moleküle mit sehr hoher Zuverlässigkeit bestimmt werden. Somit eignet sich die Koinzidenzmethode auch dazu, die Anteile der rechts- bzw. linkshändigen Enantiomere in einer Probe zu bestimmen. Die Messungen an der verwendeten, racemischen Probe zeigen bei der Ionisation mit linear polarisiertem Licht im Rahmen der statistischen Unsicherheit wie erwartet eine Gleichverteilung der beiden Enantiomere.
In einem nachfolgenden Experiment konnte gezeigt werden, dass sich die Coulomb-Explosion auch mit einzelnen hochenergetischen Photonen aus einer Synchrotronstrahlungsquelle realisieren lässt. Für beide Ionisationsmechanismen – am Laser und am Synchrotron - wurden mehrere Fragmentationskanäle untersucht. Im Hinblick auf die Erweiterung der Methode hin zu komplexeren, biologisch relevanten Molekülen ist es entscheidend zu wissen, inwieweit sich die Händigkeit bestimmen lässt, wenn nicht alle Atome des Moleküls als atomare Ionen detektiert werden. Hierbei stellte sich heraus, dass auch molekulare Ionen zur Bestimmung der Absolutkonfiguration herangezogen werden können. Eine signifikante Steigerung der Effizienz konnte für den Fall demonstriert werden, dass nicht alle Fragmente aus der Coulomb-Explosion des Moleküls detektiert wurden – hier lassen sich allerdings nur noch statistische Aussagen über die Absolutkonfiguration und die Häufigkeit der beiden Enantiomere treffen.
Um die Grenzen der Methode in Bezug auf die Massenauflösung zu testen, wurden isotopenchirale Moleküle, d.h. Moleküle, die nur aufgrund zwei verschiedener Isotope chiral sind, untersucht. Auch hier ist eine Trennung der Enantiomere möglich, wenn auch mit gewissen Einschränkungen.
Ein wichtiges Merkmal chiraler Moleküle ist das unterschiedliche Verhalten der Enantiomere bei Wechselwirkung mit zirkular polarisierter Strahlung. Diese Asymmetrie wird Zirkulardichroismus genannt. Die koinzidente Untersuchung von Ionen und Elektronen aus der Fragmentation eines Moleküls eröffnet neue Möglichkeiten für die Untersuchung des Dichroismus. So können die Impulsvektoren der Ionen mit bekannten Asymmetrien in der Elektronenverteilung (Photoelektron-Zirkulardichroismus) verknüpft werden, was zu einem besseren Verständnis der Wechselwirkung elektromagnetischer Strahlung mit chiralen Molekülen führen kann.
In dieser Arbeit wurde nach Asymmetrien in der Winkelverteilung sowohl der Ionen als auch der Elektronen nach der Ionisation von CHBrClF und Propylenoxid (C3H6O) mit zirkular polarisierter Synchrotronstrahlung gesucht. In den durchgeführten Messungen konnte kein zweifelsfreier Nachweis für einen Dichroismus bei den verwendeten experimentellen Bedingungen erbracht werden. Technische und prinzipielle Limitierungen der Methode wurden diskutiert und Verbesserungsvorschläge für zukünftige Messungen genannt.
Mit der erfolgreichen Bestimmung der Absolutkonfiguration und der prinzipiellen Möglichkeit, Asymmetrien in zuvor nicht zugänglichen Messgrößen zu untersuchen, legt diese Arbeit den Grundstein für die Anwendung der Koinzidenzspektroskopie auf Fragestellungen der Stereochemie.
Ein Laserblitz von unvorstellbarer Intensität pulverisiert im Labor ein Molekül. Wachsam zeichnen die Instrumente die Flugbahn und Geschwindigkeit jedes Bruchstücks auf. Physiker gewinnen daraus hochpräzise Informationen über die Molekülstruktur. Auch links- und rechtshändige Formen lassen sich unterscheiden.
Die vorliegende Arbeit beschäftigt sich mit der Emission von Elektronen aus kleinen dissoziierenden Molekülen.
Die Frage, der hier nachgegangen werden soll: Wie läuft ein solcher Prozess, bei dem ein Molekül in seine atomaren Einzelteile zerbricht, tatsächlich ab? Während es Experimentalphysikern schon seit längerem möglich ist präzise Aussagen über den Zustand eines Systems vor und nach einer solchen „halben“ chemischen Reaktion zu machen, war es lange nicht möglich die Reaktion selbst zu be-obachten, da sie auf einer Zeitskala von einigen Femtosekunden (1 fs = 10-15 s) stattfindet. Eine Möglichkeit, solche Prozesse zu untersuchen, ist die Ionisation, also das Herauslösen eines Elektrons aus seinem gebunden Zustand im Molekül, und die anschließende Messung der kinetische Energie oder des Impulsvektors des Elektrons. Dadurch können Rückschlüsse auf die Bindungsenergie und die räumliche Verteilung der Elektronen im gebundenen Zustand gezogen werden. Wenn man in der Lage ist die Elektronen, die von einem dissoziierenden Molekül zu verschiedenen Zeitpunkten während des Dissoziationsprozesses emittiert werden, zu messen, so sollte es unter Umständen möglich sein, den Übergang von molekularen zu atomaren Orbitalen zu beobachten.
Zur Durchführung der Messungen wurde ein COLTRIMS-Multikoinzidenzimpulsspektrometer ver-wendet, mit welchem sowohl die kinetische Energie aller geladenen Reaktionsprodukte als auch deren vollständige Impulsvektoren koinzident gemessen werden können.
In einer Messung an Chlorwasserstoff wurde auf diese Weise die ultraschnelle Dissoziation angeregter neutraler Moleküle untersucht. Hierbei machte man sich den Umstand zunutze, dass die angeregten Zustände bei beliebigen internuklearen Abständen zerfallen und ein Auger-Elektron emittieren können.
Für den resonanten Auger-Zerfall der 2p-16σ-Zustände des Chlorwasserstoffmoleküls wurden unseres Wissens nach erstmals alle Komponenten der Impulsvektoren sowohl der Auger-Elektronen als auch der ionischen Reaktionsprodukte gemessen. Durch diese kinematisch vollständige Messung konnte der Prozess in bisher noch nie dagewesenem Detail untersucht werden. Zum ersten Mal konnte sowohl der angeregte Zustand nach der Absorption des Photons, als auch der elektronische Endzustand für jeden einzelnen Zerfall bestimmt werden. Aufgeschlüsselt nach diesen Zuständen konnten dann die Winkelverteilungen der Auger-Elektronen und die Aufteilung der Energie auf Elektron und Kernbewegung vermessen werden. Dies ist der vollständige Satz aller möglichen Beobachtungsgrößen, so dass die Daten über keine Größe mehr integriert wurden.
In einer Messung an H2O-Molekülen wurde ein Prozess untersucht, bei dem ein einfach geladenes angeregtes Molekül in zwei Fragmente dissoziiert und, wenn die Dissoziation bereits sehr weit fort-geschritten ist, ein weiteres Elektron emittiert. Hier konnte gezeigt werden, wie eine Anisotropie in der Elektronenwinkelverteilung eines dissoziierenden Moleküls mit Hilfe einer einfachen klassischen Simulation dazu verwendet werden kann, den Abstand zwischen einem Proton und einem angeregten Molekül, in welche das ursprüngliche Molekül dissoziiert, zu dem Zeitpunkt an dem das angeregte Molekül durch Autoionisation ein weiteres Elektron emittiert, zu bestimmen. Es wurde nachgewiesen, dass der Auger-Zerfall eines H2O+*-Ions, bei dem ein Sauerstoff 2s-Elektron aus dem Molekülverband entfernt wurde, erst bei sehr großen Abständen von mehreren 100 Ångström zwischen dem Proton und dem OH*-Molekül stattfindet.
Die dritte Messung an dem Ne2-Dimer beschäftigt sich mit der Frage, ob die in einem Molekül er-zeugten Vakanzen als lokalisiert oder delokalisiert zu betrachten sind. Wie bereits in vorhergegangenen Messungen dargelegt wurde, ist die Antwort auf die Frage für kovalente Moleküle eine Frage des Messprozesses. In Rahmen dieser Arbeit konnte nachgewiesen werden, dass dies auch für schwach gebundene Van-der Waals-Moleküle der Fall ist und deren Valenzelektronen ebenfalls unter bestimmten Umständen als delokalisiert angesehen werden müssen. Das ist insoweit überraschend, da die gängige Vorstellung eines solchen Moleküls die eines Systems aus einzelnen Atomen ist, welche nur durch kleine Ladungspolarisationen in den Elektronenschalen eine Bindung eingehen. Des Weiteren wurde gezeigt, dass sich der Prozess qualitativ mit einer einfachen Doppelspalt-Simulation erklären lässt, bei welcher ebene Wellen mit einem bestimmten Phasenversatz, der sich aus der Form der beteiligten Atomorbitale ergibt, von den beiden Kernen emittiert werden.
Die Dissoziation des Moleküls war selber nicht Gegenstand der Untersuchung, sondern wurde ausgenutzt um verschiedene elektronische Zustände, in welchen sich das Molekül nach der Ionisation befinden kann und von denen nur einer dissoziativ ist, zu unterscheiden.
Am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt, wird für die Erweiterung der Forschungsmöglichkeiten am Bau des FAIR Projektes gearbeitet. Hierfür wird unter anderem ein Ringbeschleuniger gebaut (SIS100), der mit 100Tm den bestehenden Ring (SIS18) in magnetischer Steifigkeit ergänzen wird. Um SIS100 an SIS18 anzubinden, wird eine Transferstrecke benötigt, welche den Transfer von Ionen zwischen den Ringen übernimmt. In solchen Transferstrecken werden Quadrupollinsen mit hohen Gradienten benötigt. Ebenso werden für die finale Fokussierung von hochintensiven Strahlpulsen aus Synchrotronen auf Targets Linsen mit hohen Feldgradienten benötigt. Allerdings sind die Pulse nur sehr kurz und das Tastverhältnis bei Synchrotronen sehr klein. Daher sollte ein gepulster Fokussiermagnet entwickelt werden, der den hohen Gradientenanforderungen gerecht wird und sowohl platz- als auch energiesparend ist. Die vorliegende Arbeit befasst sich mit der Auslegung des elektrischen Schaltkreises, der Simulation des Magnetfeldes und der konstruktiven Umsetzung eines solchen gepulsten Quadrupols. Der elektrische Schaltkreis ist so ausgelegt, dass eine hohe Repetitionsrate zur Fokussierung für Teilchenpakete möglich ist. Die Linse wurde aus einer Luftspule ohne Eisenjoch aufgebaut. Die cos(2θ)-Verteilung des Stroms durch die Leiter wurde durch ein Design gesichert, welches den Skin-Effekt berücksichtigt und entsprechend ausgelegte Litzenkabel verwendet. Um die Magnetfeldverteilung des Fokussiermagneten zu untersuchen, wurden statische und transiente Simulationen mit dem Programm CST Mircowave Studio Suite vorgenommen. Zentraler Punkt bei der Neuentwicklung waren die Luftspulen. Um einen linearen Magnetfeldanstieg von der Strahlachse zum Aperturrand zu gewährleisten, muss die Stromverteilung in der Leiterspule so homogen wie möglich sein. Um bei Pulslängen von 170 µsec den Skineffekt zu berücksichtigen, wurde die Leiterspule aus HF-Litzen von je mehreren hundert Einzelleitern zusammengestellt, die jeweils gegeneinander isoliert und in Bündeln miteinander verdrillt sind. Außerdem wurde die Linse mit einer lamellierten Schirmung versehen, um das Magnetfeld effektiv nutzen zu können. Ziel der Auslegung war es, zusammen mit einem zweiten Quadrupol im Duplett einen Strahl mit einer magnetischen Steifigkeit von 11 Tm und einer Bunchlänge von 2µsec auf einen Punkt von 0,5 mm Radius zu fokussieren. Bei dem hierfür angestrebten Gradienten von 76 T/m wird eine maximale Stromamplitude von 400 kA benötigt. Im Rahmen dieser Arbeit wurde die Linse ausgelegt, konstruiert und gebaut. Die Funktionalität wurde untersucht und die Feldqualität wurde vermessen und zeigten die erwarteten Parameter. Bei 26 kA Messstrom wurden im Zentrum des Magneten ein maximaler Gradient von 4,5 T/m und Feldwerte von 0,11 T ermittelt. Somit liegt die Abweichung des gemessenen Gradienten bei ca. 5 %. Die durchgängige Umsetzung der homogenen Verteilung der Leiterbündel in der Luftspule und eine vollständige Kompensation des Skineffekts konnten nicht nachgewiesen werden. Jedoch konnte der Einfluss der Kabelzuleitung des Quadrupols auf den Magnetfeldverlauf in den Simulationen und Messungen nachgewiesen werden. Weiterhin wurde für den energieeffizienten Einsatz im Transferkanal zwischen SIS18 und SIS100 ein Energierückgewinnungsschaltkreis entwickelt, der eine Ersparnis von 84 % der Betriebsleistung ermöglicht.
Ziel der vorliegenden Arbeit ist der Aufbau von koaxialen Plasmabeschleunigern und deren Verwendung für die Untersuchung der Eigenschaften von kollidierenden Plasmen. Zukünftig sollen diese kollidierenden Plasmen als intensive Strahlungsquelle im Bereich der ultravioletten (UV-) und vakuumultravioletten (VUV-)Strahlung sowie in der Grundlagenforschung als Target zur Ionenstrahl-Plasma-Wechselwirkung Verwendung finden. Für diese Anwendungen steht dabei eine Betrachtung der physikalischen Grundlagen im Vordergrund. So sind neben der Kenntnis der Plasmadynamik auch Aussagen bezüglich der Elektronendichte, der Elektronentemperatur und der Strahlungsintensität von Bedeutung. Im Einzelnen konnte gezeigt werden, dass es möglich ist, durch eine Plasmakollision die Elektronendichte des Plasmas im Vergleich zu der eines einzelnen Plasmas deutlich zu erhöhen - im Maximalfall um den Faktor vier. Gleichzeitig stieg durch die Plasmakollision die Lichtintensität im Wellenlängenbereich der UV- und VUV-Strahlung um den Faktor drei an...
Die vorliegende Arbeit handelt von der Entwicklung, dem Bau, den Zwischenmessungen sowie den abschließenden Tests unter kryogenen Bedingungen einer neuartigen, supraleitenden CH-Struktur für Strahlbetrieb mit hoher Strahllast. Diese Struktur setzt das Konzept des erfolgreich getesteten 19-zelligen 360 MHz CH-Prototypen fort, der einen weltweiten Spitzenwert in Bezug auf Beschleunigungsspannung im Niederenergiesegment erreichte, jedoch wurden einige Aspekte weiterentwickelt bzw. den neuen Rahmenbedingungen angepasst. Bei dem neuen Resonator wurde der Schwerpunkt auf ein kompaktes Design, effektives Tuning, leichte Präparationsmöglichkeiten und auf den Einsatz eines Leistungskopplers für Strahlbetrieb gelegt. Die Resonatorgeometrie besteht aus sieben Beschleunigungszellen, wird bei 325 MHz betrieben und das Geschwindigkeitsprofil ist auf eine Teilcheneingangsenergie von 11.4 MeV/u ausgelegt. Veränderungen liegen in der um 90° gedrehten Stützengeometrie vor, um Platz für Tuner und Kopplerflansche zu gewährleisten, und in der Verwendung von schrägen Stützen am Resonatorein- und ausgang zur Verkürzung der Tanklänge und Erzielung eines flachen Feldverlaufs. Weiterhin wurden pro Tankdeckel zwei zusätzliche Spülflansche für die chemische Präparation sowie für die Hochdruckspüle mit hochreinem Wasser hinzugefügt. Das Tuning der Kavität erfolgt über einen neuartigen Ansatz, indem zwei bewegliche Balgtuner in das Resonatorvolumen eingebracht werden und extern über eine Tunerstange ausgelenkt werden können. Der Antrieb der Stange soll im späteren Betrieb wahlweise über einen Schrittmotor oder einen Piezoaktor stattfinden. Für ein langsames/ statisches Tuning kann der Schrittmotor den Tuner im Bereich +/- 1 mm auslenken, um größeren Frequenzabweichungen in der Größenordnung 100 kHz nach dem Abkühlen entgegenzuwirken. Das schnelle Tuning im niedrigen kHz-Bereich wird von einem Piezoaktor übernommen, welcher den Balg um einige µm bewegen kann, um Microphonics oder Lorentz-Force-Detuning zu kompensieren. Der Resonator wird von einem aus Titan bestehendem Heliummantel umgeben, wodurch ein geschlossener Heliumkreislauf gebildet wird.
Derzeit befinden sich mehrere Projekte in der Planung bzw. im Bau, welche auf eine derartige Resonatorgeometrie zurückgreifen könnten. An der GSI basiert der Hauptteil des zukünftigen cw LINAC auf supraleitenden CH-Strukturen, um einen Strahl für die Synthese neuer, superschwerer Elemente zu liefern. Weiterhin könnte ein Upgrade des vorhandenen GSI UNILAC durch den Einsatz von supraleitenden CH-Resonatoren gestaltet werden. Zudem besteht die Möglichkeit, die bisherige Alvarez-Sektion des UNILAC alternativ durch eine kompakte, supraleitende CH-Sektion zu realisieren. Ebenfalls sollen die beiden parallelbetriebenen Injektorsektionen des MYRRHA-Projektes durch den Einsatz von supraleitenden CH-Strukturen erfolgen.
Im Rahmen des FAIR Projekts sollen in den Ringbeschleunigern SIS18 und SIS100 Ionenstrahlen mit höchster Intensität beschleunigt werden. Um die Raumladungsgrenze zu erhöhen, werden dazu Ionen mit mittleren Ladungszuständen verwendet. Diese haben aber größere Wirkungsquerschnitte für Umladung in Wechselwirkungen mit im Strahlvakuum vorhandenen Restgasteilchen als hochgeladene Ionen. Kommt es zu Strahlverlusten, lösen die verlorenen Ionen am Auftreffort weitere Restgasteilchen von den Wänden des Strahlrohrs und erhöhen so lokal die Restgasdichte. Die Qualität des Vakuums ist deshalb für einen stabilen Strahlbetrieb essentiell.
Im SIS100 kommen kryogene Vakuumkammern zum Einsatz, deren Wände als Kryosorptionspumpen für Wasserstoff und Helium dienen und alle schwereren Restgaskomponenten durch Kryokondensation binden können. Um die Vorhersagegenauigkeit des abteilungsinternen Programms „StrahlSim“ zur Simulation des dynamischen Vakuums zu verbessern, wurden im Rahmen dieser Arbeit das Saugvermögen und die Pumpkapazität für Wasserstoff auf einer Edelstahloberfläche untersucht.
Dazu wurde ein UHV Teststand entwickelt und aufgebaut. Dieser besteht aus einem warmen Diagnoseteil, mit dem der Gasfluss in und aus dem kalten Teil überwacht werden kann. Im kalten Teil befindet sich eine kleine Kammer mit Edelstahlwänden, für die verschiedene Temperaturen zwischen 7 und 31 K eingestellt werden können. Diese Kammer repräsentiert ein kleines Stück kryogenes Strahlrohr. Bei verschiedenen Temperaturen und Oberflächenbelegungen wurden dort jeweils das Saugvermögen und der sich einstellende Gleichgewichtsdruck im Bereich von 4E-11 bis 2E-7 mbar gemessen. Die Gleichgewichtsdrücke bei einer bestimmten Temperatur bei wachsender Oberflächenbelegung werden als Adsorptionsisotherme bezeichnet. Sie ergeben sich aus dem Gleichgewicht von thermisch desorbierenden Teilchen und deren Readsorption. Die kalte Kammer wird umgeben von einem Kryostaten, bestehend aus thermischem Schild und Außentank. Für diesen wurde die thermische Auslegung durchgeführt, die Konstruktion erfolgte extern.
Aus dem gemessenen Saugvermögen konnte die Haftwahrscheinlichkeit berechnet werden. Sie stellte sich als im Rahmen der Messgenauigkeit als unabhängig von Belegung und Temperatur heraus. Ihr Wert liegt nahe 1 mit einer Unsicherheit bis 0,1. Da sämtliche Oberflächen in den kryogenen Bereichen als Pumpen wirken, ist dieser Wert mehr als ausreichend um die für den stabilen Strahlbetrieb nötigen Vakuumbedingungen zu erreichen und stabil zu halten.
Die Isothermen hingegen sind stark von der Temperatur abhängig. Über 18 K liegen die Gleichgewichtsdrücke bereits bei minimalen Oberflächenbelegungen in für den Strahlbetrieb nicht tolerierbaren Bereichen. Mit sinkender Temperatur können die Oberflächen immer mehr Gas aufnehmen. Doch auch bei den tiefsten vermessenen Temperaturen zwischen 7 und 8 K ist ein stabiler Strahlbetrieb nur bei Belegungen von deutlich unter einer halben Monolage, etwa 5E14 Wasserstoffmoleküle pro cm², möglich.
Diese Ergebnisse wurden in StrahlSim implementiert. Zunächst wurde der Code für die Simulation von teilweise kryogenen Beschleunigern angepasst. Die wichtigste Änderung war die Einführung von thermischer Transpiration. Sie bewirkt, dass die Restgasteilchendichte an Kalt-Warm-Übergängen auf der kalten Seite erhöht ist. Mit dieser Änderung und den implementierten Ergebnissen aus den Messungen wurden Simulationen für das SIS100 durchgeführt. Mit den Isothermen konnten die bei verschiedenen Temperaturen und Bedeckungen zu erwartenden Durchschnittsdichten berechnet werden, die wiederum bestimmend für die Strahlverluste sind. Des Weiteren wurde ein mehrwöchiger Dauerbetrieb simuliert. Es zeigt sich zunächst eine Verschlechterung der Vakuumbedingungen auf Grund der langsamen Sättigung der Oberflächen. Diese verlangsamt sich aber immer mehr und stabilisiert sich bevor zu hohe Restgasdichten auftreten. Im schlechtesten Fall sind die kryogenen Oberflächen so weit gesättigt, dass sie genauso viele Gasteilchen thermisch desorbieren wie sie adsorbieren, sie also praktisch passiv sind. Auch dann wäre die Gleichgewichtsdichte im Beschleuniger noch tief genug, um Verluste durch Umladung hinreichend niedrig zu halten.
Als problematisch könnten sich hingegen dynamische Temperaturerhöhungen der Kammerwände erweisen. In diesem Fall stellt sich praktisch verzögerungsfrei der durch die neue Isotherme definierte Gleichgewichtsdruck ein, der auch bei wenigen Kelvin Temperaturunterschied bereits um mehrere Größenordnungen höher liegen kann. Sind Temperaturerhöhungen während des Betriebs zu erwarten, sollten die Oberflächen so frei wie möglich von Wasserstoff gehalten werden. Dazu kann man sich eben diesen Effekt zunutze machen: Durch temporäres Anwärmen der Oberflächen unmittelbar vor dem Strahlbetrieb können die Oberflächen schnell von Wasserstoff befreit werden, der dann von lokalisierten Pumpen aus dem System entfernt werden kann.
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Als wir im Herbst 2015 auf den Homepages von BURG FÜRSTENECK und der Schülerakademie unsere Ausschreibung für die Akademie 2016 veröffentlichten, ahnten wir noch nicht, dass wir uns weitere Werbung mit dem jährlichen Flyer, den wir zum Jahreswechsel an die hessischen Gymnasien und Gesamtschulen mit gymnasialen Zweig versenden, hätten (fast) sparen können. Zu unserer Überraschung und großer Freude zählten wir bereits im Februar 2016 "58" Anmeldungen von Schülerinnen und Schülern. Die Werbung hat uns im Anschluss über 20 weitere Bewerbungen beschert und in die unangenehme Situation gebracht, (zu) vielen Schülerinnen und Schülern absagen bzw. sie auf das nächste Jahr vertrösten zu müssen.