Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (91)
- Article (85)
- Bachelor Thesis (67)
- Contribution to a Periodical (46)
- Master's Thesis (41)
- Book (28)
- Part of Periodical (27)
- Diploma Thesis (20)
- diplomthesis (16)
- Conference Proceeding (2)
Language
- German (429) (remove)
Is part of the Bibliography
- no (429)
Keywords
- Ionenstrahl (5)
- Strahldynamik (5)
- Toroidales Magnetfeld (5)
- Beschleunigerphysik (4)
- Teilchenbeschleuniger (4)
- Emittanz (3)
- Speicherring (3)
- Doku Mittelstufe (2)
- FRANZ-Projekt (2)
- Gabor-Linse (2)
Institute
- Physik (429) (remove)
Prof. (em.) Dr. Bruno Lüthi
(2021)
„Bei mir ist viel glücklich gelaufen“, sagt Hannah Petersen, wenn man sie auf ihre beeindruckende Karriere anspricht: Sie war gerade erst 30 Jahre alt, als sie im Oktober 2012 als Nachwuchsgruppenleiterin an die Goethe-Universität kam – eine der jüngsten Physik-Professorinnen in Deutschland. Jetzt wird sie für ihre Arbeit mit dem Heinz Maier-Leibnitz-Preis der Deutschen Forschungsgemeinschaft (DFG) ausgezeichnet. Der mit 20.000 Euro dotierte Preis ist der wichtigste für Nachwuchsforscher in Deutschland.
Das Antiprotonen-Experiment PANDA an der zukünftigen Beschleunigeranlage FAIR wird unter anderem Charmonium-Zustände mit einer bis dato unerreichten Genauigkeit messen können. Um dieses Ziel zu erreichen, wird eine sehr gute Teilchenidentifikationsfähigkeit verlangt. Eine gute Trennung zwischen Pionen und Kaonen wird durch den Einsatz eines Cherenkovdetektors erreicht. Die Leistungsfähigkeit eines DIRC hängt von dessen Radiatorgüte ab. Um die Qualität der Radiatorstäbe spezifizieren zu können, wurde im Rahmen dieser Doktorarbeit eine optische Messapparatur entwickelt. Dieser Aufbau erlaubt es die Transmission sowie die Oberflächenrauheit der Stäbe zu messen. Es wurden mehrere Radiatorstäbe aus synthetischem Quarzglas und Acrylglas untersucht. Die Messgenauigkeit bei hochqualitativen Stäben liegt für die Transmissionsmessung bei etwa 1 Promille und für die Rauheit bei 1-2 Angström. Die Messergebnisse bei verschiedenen Wellenlängen zeigen eine gute Übereinstimmung mit der skalaren Streutheorie, die den Zusammenhang zwischen Reflexionskoeffizienten und Rauheit beschreibt. Bei einer Strahlzeit an der GSI mit einem 2 GeV Protonenstrahl wurde ein erster Prototyp für den Barrel-DIRC mit einem Stab aus synthetischem Quarzglas als Radiator getestet. Durch Variation des Einfallswinkels und der Position des Protonenstrahls auf dem Radiator konnten Cherenkovringe eindeutig nachgewiesen werden. Zudem wurde der Cherenkovwinkel und die Einzelphotonauflösung in guter Übereinstimmung mit dem Erwartetem und der Simulation bestimmt.
Seit hundert Jahren ist bekannt, dass die mikroskopische Welt der Atome und Moleküle von den Gesetzen der Quantenphysik regiert wird. Lange Zeit galten Quantenphänomene als verworren und unkontrollierbar. Heute arbeiten Physikerinnen und Physiker daran, unter Nutzung quantenphysikalischer Effekte Materialien mit neuartigen Eigenschaften zu kreieren.
Die Fermi-Verteilung gibt die Verteilung von Elektronen über die verschiedenen Energieniveaus in einem Festkörper unter der Voraussetzung an, daß sich ein thermodynamischer Gleichgewichtszustand eingestellt hat. Bei der Untersuchung von Leitfähigkeitsproblemen werden geringfügige Störungen dieser Gleichgewichtsverteilung durch elektrische Felder, Temperaturgefälle u. dgl. berücksichtigt. Der innere Photoeffekt bewirkt eine kräftige Störung der Gleichgewichtsverteilung, da fortgesetzt lichtelektrisch ausgelöste Elektronen aus einem niederen in einen höheren Energiezustand gehoben werden.
Im folgenden wird ein statistischer Ansatz für die Verteilung von Elektronen über dargebotene Energiestufen versucht für den Fall, daß laufend je Sekunde eine bestimmte Anzahl aus einem tieferen in ein höheres Niveau gehoben wird.
In der vorliegenden Diplomarbeit wurden verschiedene THz-Emissions- und Detektionsverfahren im Hinblick auf ihre Eignung für das verwendete regenerativ verstärkte Lasersystem verglichen. Als der Emitter mit der höchsten Konversionseffizienz und dementsprechend den höchsten THz-Pulsenergien erwies sich der großfkächige, extern vorgespannte GaAs-Emitter. Bezüglich des für viele Anwendungen wichtigeren Signal-Rausch-Verhältnisses hingegen zeigt sich für Frequenzen oberhalb von etwa 200 GHz der EO-ZnTe-Emitter als überlegen. Weder der intrinsische Emitter, noch das vorgespannte Plasma ließen eine vergleichbare Eignung erkennen. Für die THz-Detektion ist das Ergebnis eindeutig: Die EO-Detektion ist für das verwendete Lasersystem der Detektion mit Halbleiter-Antennen sowohl hinsichtlich Signal-zu-Rauschverhältnis als auch Bandbreite überlegen. Zur Steigerung der emittierten Bandbreite und der detektierten Feldstärke der Emissionsverfahren bestehen verschiedene Ansätze: ...
In dieser Arbeit wurde das Verhalten von repulsiv gebundenen Teilchenpaaren (Dimeren) in eindimensionalen optischen Gittern untersucht. Repulsiv gebundene Teilchenpaare sind metastabile Zustände, die nicht im freien Raum, dafür aber in geordneten Potentialen, wie optische Gitter sie darstellen, vorkommen können. In einem analytischen Teil beschäftigten wir uns mit der Herleitung effektiver Hamiltonians für Dimersysteme. Diese wurden dann unter Verwendung des Time Evolving Block Decimation-Algorithmus (TEBD) numerisch untersucht...
Die Inaktivierung durch Röntgenstrahlen der an Lebermitochondrien gebundenen Bernsteinsäure-Oxydase wurde untersucht. Ihre Halbwertsdosis beträgt 3,5 · 106 r. Bernsteinsäure-Oxydase, die an Hepatommitochondrien gebunden ist, ist empfindlicher als die normaler Mitochondrien. Die Bernsteinsäure-Oxydase an kleinsten Partikeln zeigt dagegen in beiden Fällen eine größere Strahlenresistenz.
A scattering theory for reactions with three-particle channels above the two-particle threshold is developed. The S-matrix-technique is used for the calculation of the extended S-matrix. Correlated two-particle wave functions in the exit channels are employed to describe the exact two-particle continuum. For the usual shell model only a few partial waves dominate. The cross section depends on the energy-distribution between the two outgoing nucleons. Numerical results are presented for the model (d, 2n)-reaction exciting 0+ -states in O16 without Coulomb-effects. The treatment is restricted to three (2p2h)-states with the particles in the (sd)-shell and holes in the p-shell.
DIE ARCHITEKTUR DER ZELLE : Wie sehen die Bausteine des Lebens genau aus, wie interagieren die zellulären Akteure miteinander? Im Rahmen der Exzellenzcluster-Initiative SCALE (Subcellular Architecture of Life) wollen Frankfurter Wissenschaftlerinnen und Wissenschaftler diesen wichtigen Fragen nachgehen. Das Projekt ist interdisziplinär: Mehrere Forschungsgruppen, deren Schwerpunkt Biophysik ist, arbeiten zusammen. Der Biophysiker Achilleas Frangakis und die Bioinformatikerin Kathi Zarnack sind auch dabei. Sie verfolgen im Rahmen des Projekts große Ziele.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
In vorliegender Arbeit wurde ein Modell zur Beschreibung des chiralen Phasen Übergangs eines mesonischen Mediums im Gleichgewicht als effektiver Manifestation des Übergangs von hadronischer Materie zum Quark-Gluon-Plasma präsentiert, und im Rahmen eines selbstkonsistenten Vielteilchenresummationsverfahrens in Doppelblasennäherung numerisch gelöst.
Die Dissertation ist in den Bereichen der semiklassischen Quantengravitation und der pseudokomplexen Allgemeinen Relativitätstheorie (pk-ART) anzusiedeln. Dabei wird unter semiklassischer Quantengravitation die Untersuchung quantenmechanischer Phänomene in einem durch eine klassische Gravitationstheorie gegebenen gravitativen Hintergrundfeld verstanden und bei der pk-ART handelt es sich um eine Alternative zu der aktuell anerkannten klassischen Gravitationstheorie, der Allgemeinen Relativitätstheorie (ART), die die reellen Raumzeitkoordinaten der ART pseudokomplex erweitert. Dies führt zusammen mit einer Veränderung des Variationsprinzips in führender Ordnung auf eine Korrektur der Einstein- Gleichung der ART mit einem zusätzlichen Quellterm (Energie-Impuls-Tensor), dessen exakte Form jedoch bisher nicht bekannt ist.
Die Beschreibung der Gravitation als Hintergrundfeld ergibt sich zwangsläufig daraus, dass auf Basis der ART bisher keine quantisierte Beschreibung für sie gefunden werden konnte. Jedoch wird erhofft, dass die Untersuchung semiklassischer Phänomene Hinweise auf die korrekte Theorie der Quantengravitation gibt. Zudem motiviert der Mangel einer quantisierten Gravitationstheorie die Verwendung alternativer Theorien, da sich dadurch die Frage stellt, ob die ART die korrekte Beschreibung klassischer Felder ist.
Das Ziel der vorliegenden Dissertation war die grundlegenden Unterschiede zwischen der ART und der pk-ART für gebundene sphärisch symmetrische Zustände der Klein-Gordon- und der Dirac-Gleichung zu identifizieren und ein qualitatives Modell der Vakuumfluktuationen in sphärisch symmetrischen Materieverteilungen zu bestimmen, wobei der Zusammenhang der pk-ART mit den Vakuumfluktuationen in der Annahme besteht, dass ein Zusammenhang zwischen ihnen und dem zusätzlichen Quellterm der pk-ART existiert. Dafür wurden die gebundenen Zustände der Klein-Gordon- und der Dirac-Gleichung für drei verschiedene Metrikmodelle (zwei ART-Modelle und ein pk-ART-Modell) mit konstanter Dichte systematisch numerisch berechnet, einige repräsentative Grafiken erstellt, anhand derer die grundlegenden Unterschiede der Ergebnisse der ART-Modelle und des pk-ART-Modells erörtert wurden, und die ART Ergebnisse der Dirac-Gleichung soweit wie möglich mit Ergebnissen der Literatur verglichen. Insbesondere wurde dabei festgestellt, dass die Energieeigenwerte in der pk-ART im Gegensatz zu denen in der ART in Abhängigkeit der Ausdehnung des Zentralobjekts ein Minimum aufweisen. Zudem wurden die Energieeigenwerte der Klein-Gordon-Gleichung teilweise sowohl über das Eigenwertproblem einer Matrix als auch über ein Anfangswertproblem berechnet und es wurde festgestellt, dass die Beschreibung als Eigenwertproblem deutlich uneffektiver ist, wenn dafür die Basis des dreidimensionalen harmonischen Oszillators genutzt wird. Für die Entwicklung des qualitativen Vakuumfluktuationsmodells wurden zwei Näherungen für den Erwartungswert des Energie-Impuls-Tensors in führender Ordnung für die Schwarzschildmetrik (ART) verglichen und die Verwendung eines qualitativen Modells durch die dabei auftretende Diskrepanz gerechtfertigt. Danach wurden die Vakuumfluktuationen für Metriken konstanter Materiedichte mit Hilfe einer der Näherungen in führender Ordnung berechnet und ein Modell gesucht, das den gleichen qualitativen Verlauf aufweist. Im Anschluss wurde dieses Modell noch für einfache Metriken mit variabler Materiedichte verifiziert.
Die Dissertation leistet mit der Analyse der gebundenen Zustände einen Beitrag in der Identifikation der Unterschiede zwischen der pk-ART und der ART und führt somit auf weitere mögliche Messgrößen, die der Unterscheidung der beiden Theorien dienen könnten. Weiterhin ermöglicht das abgeleitete Modell eine Verfeinerung der schon publizierten Ergebnisse über Neutronensterne und die für die Erstellung nötigen Vorarbeiten leisten einen Beitrag zur Identifikation des
pk-ART Quellterms.
In dieser Arbeit wurden Simulationen des γ-Prozesses zu den vier p-Kernen 92;94Mo und 96;98Ru durchgeführt. Die Simulationen wurden mit den Simulationen aus [Rapp et al., 2006] verglichen, und die Ergebnisse waren bis auf wenige Ausnahmen die gleichen.
Die Untersuchung der Sensitivitäten auf insgesamt 38 geänderte Raten hat einige besonders wichtige Raten für jedes der Isotope identifiziert. Es stellte sich heraus, dass die Isotope jeweils auf eine destruktive Rate besonders sensitiv sind. Bei 92Mo war dies die 92Mo(γ,p) Rate, bei 94 die 94Mo(γ,n) Rate, bei 96Ru die 96Ru(γ,α) Rate und bei 98Ru die Destruktion über 98Ru(γ,n).
Diese Raten sind nur theoretisch bestimmt, haben aber großen Einfluss auf die Häufigkeiten der untersuchten Isotope. Experimentelle Untersuchungen dieser Raten sind nötig, um ein besseres Verständnis des γ-Prozesses in dieser Massenregion zu erlangen.
Leider konnten schon exisitierende neuere Untersuchungen im Rahmen dieser Arbeit nicht berücksichtigt werden, beispielsweise [Utsunomiya et al., 2013]. In zukünftigen Simulationen sollten diese Untersuchungen berücksichtigt werden. Außerdem sollten die Simulationen Neutroneneinfänge untersuchen, da diese vermutlich auch zur Produktion von 94Mo und 98Ru beitragen.
Ein Problem in dieser Arbeit war die Rekonstruktion der Reaktionsflüsse aus Raten und Häufigkeiten, in Zukunft sollten die Reaktionsflüsse direkt mitgeschrieben werden.
Die Unsicherheiten der Raten reichen nicht aus, um die Unterproduktion von 92;94Mo und 96;98Ru erklären. Zur Verdeutlichung dieser Tatsache befinden sich im Anhang A.15 Abbildungen der Überproduktionsfaktoren mit den geänderten Raten 92Mo(γ,p)x0.5 und 98Ru(γ,n)x0.5, also den beiden Raten, die eine Sensitivität größer eins aufweisen. Trotz der geänderten Raten werden 92Mo und 98Ru um mehr als einen Faktor 10 unterproduziert. Wenn man annehmen würde, dass die Sensitivität linear verläuft und eins beträgt, würde selbst die Reduktion der Raten auf Null nur eine Verdopplung der Häufigkeit bewirken. In der Realität wird sich die Sensitivität noch verringern, wenn andere Desintegrationsprozesse dominant werden. Es ist also nicht anzunehmen, dass die Unsicherheiten in diesen Raten die Unterproduktion erklären können. Dies war auch nicht erwartet worden[Rapp et al., 2006].
Einen größeren Einfluss auf die Endhäufigkeiten hat die Saatverteilung vor der Supernova Phase des Sterns. Diese wird durch einige entscheidende Reaktionen während der Sternentwicklung stark beeinflusst (Kapitel 1). Teilweise sind die Raten dieser Reaktionen mit großen Unsicherheiten behaftet, und eine Änderung führt zu sehr unterschiedlichen Häufigkeiten der p-Kerne [Pignatari et al., 2013]. Der Ort des p-Prozesses spielt ebenfalls eine entscheidende Rolle. Supernova Ia oder Neutronensterne könnten entscheidend zur Produktion der p-Kerne beitragen, speziell bei den leichteren Kernen mit A < 110. Diese Szenarien sind aber schwerer zu modellieren und wenig untersucht [Rauscher, 2010]. In zukünftigen Arbeiten sollten diese Szenarien genauer untersucht werden. Die Unterschiede in Saatverteilung und Temperaturverlauf sowie die neutronenreiche Umgebung einer Supernova Ia lassen veränderte Sensitivitäten erwarten.
Zum besseren Verständnis des p-Prozess sind also sowohl weitere experimentelle Daten als auch weitere Untersuchungen der Rahmenbedingungen nötig.
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
This thesis deals with the simulation, optimization and realization of quasi-optical scanning systems for active THz cameras. Active THz cameras are sensitive in the THz regime of the electromagnetic spectrum and are suitable for the detection of metal objects such as weapons behind clothing or fabrics (maybe for security applications) or material investigation. An advantage of active THz-systems is the possibility to measure the phase of the THz-radiation and thus to reconstruct the surface topography of the objects under test. Due to the coherent illumination and the required system parameters (like image field size, working distance and lateral resolution) the optical systems (in the THz region often called quasi-optical systems) must be optimized. Specifically, the active illumination systems require highly optimized quasioptical systems to achieve a good image quality. Since currently no suitable multi-pixel detectors are available, the object has to be scanned in one or two dimensions in order to cover a full field of view. This further reinforces the occurring aberrations. The dissertation covers, alongside the underlying theory, the simulation, optimisation and realisation of three different active THz systems. The subdivision of the chapters is as follows: Chapter 1 deals with a motivation. Chapter 2 develops the underlying theory and it is demonstrated that the geometrical optics is an adequate and powerful description of the image field optimization. It also addresses the developed analytic on-axis and the off-axis image field optimization routine. Chapter 3, 4 and 5 are about the basis of various active THz cameras, each presented a major system aspect. Chapter 3 shows how active THz-cameras with very high system dynamics range can be realised. Within this chapter it could although be demonstrated how very high depth resolution can be achieved due to the coherent and active illumination and how high refresh rate can be implemented. Chapter 4 shows how absolute distance data of the objects under test can be obtained. Therefore it is possible to reconstruct the entire object topography up to a fraction of the wavelength. Chapter 5 shows how off-axis quasi-optical systems must be optimized. It is also shown how the illumination geometry of the active THz systems must be changed to allow for real-time frame rates. The developed widened multi-directional lighting approach also fixes the still existing problem of phase ambiguity of the single phase measurement. Within this chapter, the world’s first active real-time camera with very high frame rates around 10 Hz is presented. This could be only realized with the highly optimised quasioptical system and the multi-directional lighting approach. The paper concludes with a summary and an outlook for future work. Within the outlook some results regarding the simulation of synthetic aperture radar systems and metamaterials are shown.
Im Rahmen dieser Arbeit wurde die Analyse von Dielektronen im Bereich niedriger Massen für zwei unterschiedliche Magnetfeldstärken des ALICE-L3-Magneten untersucht. Hierfür wurden zwei Arten von Simulationen, volle Simulationen und schnelle Simulationen, jeweils für die Magnetfeldeinstellungen 0, 2 T und 0, 5 T erstellt und verglichen. Zunächst wurde die Konsistenz der vollen und schnellen Simulationen anhand von Monte Carlo Truth Spektren überprüft. Es zeigte sich eine gute Übereinstimmung der invarianten Massenspektren mit Ausnahme der f-Resonanz, die in den schnellen Simulationen fast 3-mal höher lag. Dann wurden die vollen Simulationen der Magnetfeldeinstellung 0, 5 T mit ALICEMessdaten desselben Magnetfeldes verglichen. Hierbei zeigte sich, dass die Messdaten im Hinblick auf die Transversalimpulsverteilung der einzelnen Elektronen um einen Faktor 1, 2 bis 2 und im Hinblick auf die Transversalimpulsverteilung der Paare um einen Faktor 2 bis 2, 5 über den Simulationen lagen. Dies konnte zum Teil auf eine Kontamination durch Pionen zurückgeführt werden. Das Signal-Untergrund-Verhältnis war mit 0, 99 für die Simulationen 6-mal größer als das der Messdaten mit 0, 16. Die normierte Signifikanz der Simulationen von 0, 0044 lag 3,5-mal über dem Wert 0, 0012 der Messdaten. Für die schnellen Simulationen wurden die Effizienzen für einzelne Elektronen benötigt. Diese wurden mithilfe von Boxensimulationen erstellt. Es wurde zwischen den Elektronidentifikationsmethoden TOF optional und TOF required und den Magnetfeldstärken 0, 2 T und 0, 5 T unterschieden. Die Boxensimulationen ergaben, dass bei einem Magnetfeld von 0, 2 T insgesamt mehr Elektronen rekonstruiert und identifiziert werden konnten. Außerdem konnte die Analyse zu niedrigeren Transversalimpulsen hin ausgedehnt werden. Die schnellen Simulationen zeigten, dass eine Reduktion des Magnetfeldes von 0, 5 T auf 0, 2 T eine Erhöhung der Anzahl an gemessenen Paaren um einem Faktor 2, 0 für die Elektronidentifikation TOF optional und um einem Faktor 6, 0 für die Elektronidentifikation TOF required zur Folge hat. Die vollen Simulationen der Elektronidentifikation TOF optional ergaben nach Reduktion des Magnetfeldes eine Verbesserung des Signal-zu-Untergrund-Verhältnisses um 11% von 0, 98 auf 1, 11. Die Signifikanz konnte von 0, 0043 auf 0, 0060, d.h. um 40%, verbessert werden. Für die Elektronidentifikation TOF required erhielt man ein Signal-zu-Untergrund-Verhältnis von 16, 5 (0, q 2 T) und 19, 1 (0, 2 T). Jedoch war die normierte Signifikanz (sgn = sqrt((s exp 2)/2*B)* (1/sqrt(NEv)))) für das reduzierte Magnetfeld 100% höher und lag bei 0, 086, während sie für 0, 5 T einen Wert von 0, 0043 hatte. In der vorliegenden Arbeit konnte gezeigt werden, dass eine Reduktion der Magnetfeldstärke des ALICE-L3-Magneten von 0, 5 T auf 0, 2 T zu Verbesserungen in der Messung von Elektron-Positron-Paaren führt. Als Fazit kann angenommen werden, dass eine Datennahme bei einem reduzierten Magnetfeld von 0, 2 T sinnvoll erscheint.
Die P-Typ-ATPasen finden sich in allen Domänen des Lebens und stellen die größte Gruppe aktiver Ionentransporter in Zellen dar. Es handelt sich bei den P-Typ-ATPasen um integrale Membranproteine, die eine große Anzahl verschiedenster Ionen aktiv über eine biologische Membran transportieren. Die für diesen Ionentransport notwendige Energie wird durch Bindung und Hydrolyse von Adenosintriphosphat (ATP) und durch Phosphorylierung des Enzyms gewonnen. Diese, im cytoplasmatischen Teil gewonnene Energie, muss für den Ionentransport von der Phosphorylierungsstelle zur räumlich entfernten transmembranen Ionenbindungsstelle übertragen werden, bei dem das Protein einem Reaktionszyklus mit zwei Hauptkonformationszuständen E1 und E2 unterliegt. Zwischen diesen beiden Zuständen finden große strukturelle Änderungen statt, durch die die Ionenaffintät und die Zugänglichkeit der Ionenbindungsstelle reguliert wird. Da dieser Mechanismus der Energiegewinnung für alle Ionenpumpen dieser Art ähnlich ist, wurde die Ca2+-ATPase und die Na+/K+-ATPase als Modellproteine für die Untersuchung molekularer Mechanismen in P-Typ-ATPasen ausgewählt. Im Rahmen der vorliegenden Arbeit soll die Energietransduktion in P-Typ-ATPasen im Allgemeinen und der Protonengegentransport bzw. ein potentieller Protonentransportweg in der Ca2+-ATPase im Speziellen untersucht werden. Die beiden oben genannten Mechanismen sollen mittels computergestützter Methoden analysiert werden. Vor allem die Ca2+-ATPase ist prädestiniert für computergestützte Untersuchungen, da für diese sehr viele hochaufgelöste Röntgenstrukturdaten vorliegen, wenn auch bisher aufgrund der Größe und Komplexität des Systems nur sehr wenige theoretische Arbeiten durchgeführt wurden. Um den Energietransduktionsmechanismus in P-Typ-ATPasen zu untersuchen, wurde mittels Elektrostatik-Rechnungen der Einfluss eines elektrischen Feldes auf die verschiedenen Transmembranhelices untersucht. Dazu wurde ein Simulationssystem entwickelt, welches aus einem molekularen Kondensator besteht, der im Modell das Anlegen eines homogenen elektrischen Feldes über den Transmembranbereich simuliert. Da es sich bei dem Energietransduktionsmechanismus um einen dynamischen Prozess handelt, wurden die Elektrostatik-Rechnungen um Molekulardynamik-Simulationen erweitert. Mit diesen kann die konformelle Dynamik der P-Typ-ATPasen während der Energietransduktion in die Elektrostatik-Rechnungen einbezogen werden. Aus Spannungsklemmen-Fluorometrie-Experimenten, bei denen eine Spannung über eine Membran angelegt wird, kann geschlossen werden, dass die Helix M5 für die Energietransduktion verantwortlich ist. Mit den in dieser Arbeit durchgeführten Elektrostatik-Rechnungen konnte für verschiedene Enzymzustände der Ca2+-ATPase und für die Na+/K+-ATPase gezeigt werden, dass die Helix M5 die größten Konformeränderungen aufgrund des elektrischen Feldes aufweist. Durch die Erweiterung der Elektrostatik-Rechnungen um die Methode der Molekulardynamik-Simulation konnte zusätzlich die elektrische Feldstärke reduziert werden. Auch dabei zeigte sich, dass auf der Helix M5 die meisten Rotameränderungen durch das elektrische Feld induziert werden. Die aus Experimenten vermutete Rolle der Helix M5 als wichtiges Energietransduktionselement ließ sich mit diesen Simulationsrechnungen bestätigen. Um einen möglichen Protonenweg durch den Transmembranbereich der Ca2+-ATPase aufzuklären, wurden explizite Wassermoleküle in sechs verschiedene Enzymzustände der Ca2+-ATPase eingefügt. Aus Experimenten ist bekannt, dass in der Ca2+-ATPase ein Protonengegentransport stattfindet. Deshalb wurden für verschiedene Enzymzustände der Ca2+-ATPase mittels Elektrostatik-Rechnungen die Protonierungen der eingefügten Wassermoleküle sowie der titrierbaren Aminosäuren bestimmt. Aus den Ergebnissen dieser Rechnungen kann geschlossen werden, dass es sich bei dem Protonentransfer nicht um einen linearen Transport der Protonen handelt. Die Untersuchungen zeigen einen mehrstufigen Prozess, an dem Protonen in verschiedenen Transmembranbereichen der Ca2+-ATPase beteiligt sind. Anhand der berechneten Protonierungszustände der eingefügten Wassermoleküle und der pK-Werte der Aminosäuren im Transmembranbereich konnte weiterhin ein möglicher Protonenweg identifiziert werden.
Das Compressed Baryonic Matter Experiment (CBM) wird im Rahmen der Facility for Antiproton and Ion Research (FAIR) entwickelt, um das Phasendiagramm stark wechselwirkender Materie vorwiegend im Bereich hoher Dichte ausgiebig zu studieren. Dazu sollen Kollisionen schwerer Ionen durchgeführt werden und die Reaktionsprodukte mit hoher Präzision in Teilchendetektoren gemessen und identfiziert werden. Eine wichtige Aufgabe besteht in der Unterscheidung von Elektronen und Pionen, zu der ein Übergangsstrahlungszähler (Transition Radiation Detector) beiträgt. Übergangsstrahlung wird im relevanten Impulsbereich dieser Teilchen nur von Elektronen emittiert und soll im Detektor registriert werden.
In der vorliegenden Arbeit wird die Entwicklung dieses Detektors auf Basis von Vieldrahtproportionalkammern (Multiwire Proportional Chamber ) hauptsächlich anhand von Simulationen diskutiert, aber auch erste Testmessungen eines Prototypen vorgestellt. Der Schwerpunkt der Simulationen eines einzelnen Detektors liegt in der Untersuchung der Effiienz in Abhängigkeit seiner Dicke.
Der Übergangsstrahlungszähler für CBM wird aus mehreren Detektorlagen bestehen. Daher wird außerdem die Effizienz des Gesamtsystems analysiert, indem verschiedene Methoden zur Kombination der einzelnen Signale angewendet werden. Darüber hinaus wird die Effizienz des verfolgten Detektorkonzepts in Abhängigkeit des Radiators, der Anzahl der Detektorlagen, sowie des Teilchenimpulses präsentiert.
Ziel der Simulationsstudien in dieser Arbeit war es, die Leistungsfähigkeit des Transition Radiation Detectors zur Identifikation von leichten Kernen und Hyperkernen im CBM-Experiment zu untersuchen. Die Trennung von Helium und Deuterium
mithilfe ihres spezifischen Energieverlustes im TRD ist zentral, um eine Rekonstruktion des seltenen Hyperkerns 6 ΛΛHe mit einem hohen Signal-zu-Untergrund-Verhältnisse zu leisten. Zur Erfüllung der Anforderungen, die sich aus dem CBM-Forschungsprogramm ergeben, wird eine Auflösung des Energieverlustes dEdx von Helium von höchstens 30 % verlangt...
In der vorliegenden Arbeit werden Stabilitätstests an einer Vieldrahtproportionalkammer nach ALICE-Geometrie vorgestellt. Wegen elektrischer Instabilitäten, das heißt dem Abschalten der Hochspannungsversorgung einzelner Kammern aufgrund von Entladungen an der Ausleseebene, wurde die ALICE-TPC bisher mit zwei unterschiedlichen Gasmischungen betrieben. Es wurden die Gasmischungen Ne-CO2 (90-10) und Ne-CO2-N2 (90-10-5) verwendet.
In dieser Arbeit soll nun mit systematischen Stabilitätstests mit einer α- und einer γ-Quelle am Testaufbau am IKF untersucht werden, ob eine Beimischung von Stickstoff zur Gasmischung Ne-CO2 wirklich positive Auswirkungen auf die elektrische Stabilität der Vieldrahtproportionalkammern der ALICE-TPC hat. Messungen mit der Gasmischung Ar-CO2 (90-10) dienen dabei als Referenzmessungen.
Zunächst wurden vorbereitende Messungen zum bessseren Verständnis des Einflusses der Ausleseelektronik auf die Padsignale am Testaufbau durchgeführt. Die Untersuchung der von einem Pulser induzierten Signale zeigt, dass keine Korrektur der Nullverschiebung nötig ist. Auÿerdem konnten durch diese Messung die Verstärkungsfaktoren des verwendeten Hauptverstärkers ermittelt werden. Ein weiterer wichtiger Faktor für Stabilitätstests ist die Genauigkeit des Mischungsverhältnisses des Gases. Um eine hohe Genauigkeit zu gewährleisten, wurde der Gasfliss der verschiedenen Kanäle des zur Herstellung der Gasmischung genutzten Gasmischers überprüft und so die Bereiche für den Gasfluss gefunden, in denen sich das Mischungsverhältnis nicht ändert.
Eine gute Auflösung kann mit Vieldrahtproportionalkammern erreicht werden, wenn die Kammern auch bei einem möglichst groÿen Gain noch stabil betrieben werden können. Um den Gain aus Anodestrommessungen bestimmen zu können, wurden die Primärströme für die α- und die γ-Quelle ermittelt.
Frühere Messungen mit einer γ-Quelle, aufgrund derer Stickstoff als Beimischung in den Fokus rückte, ließen vermuten, dass sich durch die Beimischung von Stickstoff die Stabilität der Auslesekammern verbessern lassen würde. Die durchgeführten Messungen mit der γ-Quellen sollten diese Aussage nun überprüfen. Sie können die früheren Ergebnisse jedoch nicht bestätigen, sondern zeigen, dass die Gasmischung Ne-CO2-N2 (90-10-5) im Gegensatz zur Gasmischung Ne-CO2 (90-10) bei Bestrahlung mit der γ-Quelle zu instabileren Bedingungen für die Auslesekammer führt.
Zum Erzeugen der Anodensignale bei Stabilitätstests wurden erstmals geladene Teilchen aus einer α-Quelle verwendet. Im Gegensatz zur Messung mit der γ-Quelle kann die Auslesekammer bei der Beimischung von Stickstoff zu Ne-CO2 bis zu einem um 25% höheren Gain stabil betrieben werden als bei der Gasmischung Ne-CO2.
Aufgrund des je nach verwendeter Quelle unterschiedlichen Effekts auf die Stabilität der Auslesekammer lässt sich nicht mit absoluter Sicherheit sagen, ob eine Beimischung von Stickstoff die gewünschten Auswirkungen hat. Allerdings werden die Spuren in der ALICE-TPC durch geladene Teilchen hervorgerufen, sodass die Messungen mit der α-Quelle den experimentellen Bedingungen bei ALICE näher kommen als die Messungen mit der γ-Quelle und deshalb die Gasmischung Ne-CO2-N2 (90-10-5) zu bevorzugen ist.
Im Rahmen dieser Arbeit wurden astrophysikalisch relevante, kernphysikalische Raten, die zum Verständnis der beobachteten Häufigkeit des langlebigen Isotopes 60Fe wichtig sind, am GSI Helmholtzzentrum für Schwerionenforschung GmbH und am Forschungsreaktor TRIGA in Mainz gemessen.
Zunächst wurde der Coulombaufbruch von 59Fe und 60Fe am GSI Helmholtzzentrum für Schwerionenforschung GmbH untersucht. Zur Produktion der radioaktiven Strahlen wurde ein 64Ni-Primärstrahl auf ein Spallationstarget geleitet. Im Fragmentseparator wurden die Isotope nach deren magnetischen Steifigkeit separiert und nur die gewünschte Spezies im LAND/R3B-Aufbau untersucht. Die Bestimmung von Impuls und Ladung der eingehenden Ionen erlaubte eine individuelle Identifikation. Der Coulombaufbruchwirkungsquerschnitt wurde mit einer Bleiprobe bestimmt. Die verschiedenen Untergrundkomponenten ergaben sich aus einer begleitenden Leermessung, sowie einer Messung mit einer Kohlenstoffprobe. Der Wirkungsquerschnitt der Reaktion Pb(60Fe,n+59Fe)Pb bei (530±5) MeV/u wurde zu σ(60Fe,n+59Fe) COULEX = (298±11stat±31syst) mb (0.1) bestimmt und für die Reaktion Pb(59Fe,n+58Fe)Pb ergab sich σ(59Fe,n+58Fe) COULEX = (410±11stat±41syst) mb. (0.2)
Außerdem konnten für beide einkommenden Strahlsorten die Wahrscheinlichkeiten für die Produktion von zwei Neutronen bestimmt werden.
Anschließend wurde der Neutroneneinfangsquerschnitt von 60Fe bei kT = 25,3 meV am Forschungsreaktor TRIGA in Mainz bestimmt. Hierfür wurde eine 60Fe Probe zunächst anhand des Anstieges der Aktivität der 60Co-Tochterkerne charakterisiert und anschließend im Reaktor bestrahlt. Die frisch erzeugte Aktivität des 61Fe wurde mit einem HPGe-Detektor nachgewiesen. Mit Hilfe der Cadmiumdifferenzmethode konnte daraus erstmals der thermische Neutroneneinfangsquerschnitt von 60Fe zu σ60Fe(n,γ) th = 0,22±0,02stat±0,02syst b. (0.3) bestimmt werden. Für das Resonanzintegral ergab sich die obere Schranke von I 60Fe(n,γ) res = 0,61 b. (0.4)
In dieser Arbeit wurde die Leistungsfähigkeit des neuen Inner Tracking System (ITS) in Bezug auf die Messung von Spektren der invarianten Masse von Dielektronpaaren im Rahmen des ALICE Experiments am LHC ausgewertet. Zu Beginn der Planungen zum zukünftigen ITS wurden zwei verschiedene Designmöglichkeiten in Betracht gezogen: Auf der einen Seite ein ITS, welches die Möglichkeit zur Teilchenidentifizierung mittels spezifischem Energieverlust pro Wegstrecke bietet und auf der anderen Seite ein ITS welches diese Möglichkeiten nicht hat. Es wurde untersucht, ob es zukünftig möglich sein wird aus der Steigung des Spektrums der invarianten Masse von Dileptonen zwischen 1,1 GeV/c2 < Mee < 2,0 GeV/c2 direkt die Temperatur des Quark-Gluon-Plasmas zu extrahieren. Weiterhin wurde geprüft welches der beiden Systeme diese Aufgabe besser erfüllt.
Das neue ITS bietet gegenüber dem alten ITS Vorteile, die in dieser Analyse genutzt wurden. Zuerst, siehe Abschnitt 3.4, wurde ein zweidimensionaler Schnitt auf den Öffnungswinkel und die invariante Masse angewandt um Elektronen und Positronen aus Dalitzzerfällen und Photonkonversionen zu identifizieren und für die folgende Analyse zu verwerfen. Hierzu wurde die verbesserte Spurfindungseffizienz hin zu kleinen Transversalimpulsen ausgenutzt, um die Anzahl an zu kombinierenden Teilchen und damit die Wahrscheinlichkeit richtige Paare zu finden, zu erhöhen. Allerdings können Teilchen, welche nur im ITS nachgewiesen werden können, nicht zweifelsfrei (ITSPID), beziehungsweise gar nicht (ITSnoPID) identifiziert werden. Die Simulationen ergeben, dass ein zukünftiges ITS mit der Möglichkeit zur Teilchenidentifizierung leicht bessere Werte in der Signifikanz und im Verhältnis von Signal zu Untergrund liefern kann.
Die verbesserte Vertexfindung wird zur Reduktion des Beitrags durch Elektronen und Positronen aus semileptonisch zerfallenden D-Mesonen (Abschnitt 3.4.4) ausgenutzt.
Die Elektronen und Positronen, welche nach den Schnitten in der Stichprobe blieben, wurden verwendet um den Untergrund zu simulieren (Abschnitt 3.4.5). Daraufhin wurde die Signifikanz und das Verhältnis von Signal zu Untergrund berechnet. Mit diesen Informationen (Abschnitt 3.5.3) wurde ein Spektrum der invarianten Masse von Dileptonen mit der zu erwartenden Anzahl von 2,5 · 109 zentralen Blei-Blei-Kollisionen erzeugt. Dies führt zu den in Abschnitt 3.5.4 gezeigten Spektren. Nach Abzug der Beiträge durch die semileptonischen D-Meson Zerfälle und durch den hadronischen Cocktail ist noch der zu erwartende Beitrag durch die thermische Strahlung (Abschnitt 1.5) im Spektrum vorhanden. Eine Parametrisierung dieser Kurve ergibt die Temperatur des Quark-Gluon-Plasmas.
Der Unterschied der ermittelten Messwerte der Temperatur zwischen dem zukünftigen ITS mit Teilchenidentifizierung und ohne ist gering (Abschnitt 3.5.5). Die Messung ergibt keine signifikanten Unterschiede zwischen beiden ITS Entwürfen. Aufgrund dieses Ergebnisses kann man sagen, dass für die Messung von Dileptonen im Niedrigmassenbereich keine ITS PID notwendig ist. In den mittlerweile veröffentlichten ITS Technical Design Report sind die Ergebnisse dieser Studie eingeflossen. Es wurde beschlossen, dass der ITSnoPID umgesetzt wird.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.
Erwärmt man Eis, so brechen die Molekülbindungen auf und bei einer kritischen Temperatur von 0°C entsteht durch einen Phasenübergang flüssiges Wasser. Dies ist wohl bekannt und das Phasendiagramm, sowie die Anomalie von Wasser ein bekanntes Hilfsmittel in Physik und Chemie. Doch was passiert, wenn man Kernmaterie erhitzt? Kann diese auch verschiedene Aggregatzustände annehmen? Physiker erwarten, dass ab einer definierten kritischen Temperatur auch die Bindungen zwischen den kleinsten Teilchen unserer Materie, den Quarks, aufbrechen und das bis dahin bestehende Hadronengas in ein Quark-Gluon-Plasma übergeht. In Experimenten auf der ganzen Welt sollen die Eigenschaften des Quark-Gluon- Plasmas und der Phasenübergang der Materie untersucht werden. Daraus möchte man ein Phasendiagramm für die hadronische Materie entwickeln (Abb. 1). In verschiedenen Experimenten werden die unterschiedlichen Stationen des Phasendiagramms abgelaufen. Die laufenden Projekte an den großen Teilchenbeschleuniger Anlagen am LHC (Large Hadron Collider) am CERN (Conseil Européen pour la Abbildung 1: Das Phasendiagramm stark wechselwirkender Materie. Aufgetragen ist die Temperatur gegen die Baryonendichte. Der braune Bereich stellt den Übergangsbereich zwischen Hadronengas und Quark-Gluon-Plasma dar [ZAM]. Recherche Nucléaire) und am RHIC (Relativistic Heavy Ion Collider) in Brookhaven untersuchen das Phasendiagramm bei hohen Temperaturen und geringen Dichten. An der neuen, noch im Aufbau befindlichen Beschleunigeranlage FAIR (Facility for Antiproton and Ion Research) soll nun, im Rahmen des CBM-Experiment (Compressed Baryonic Matter), das Phasendiagramm bei hohen baryonischen Dichten und geringeren Temperaturen untersucht werden. Dafür werden spezielle Detektorkomplexe entwickelt. Diese werden benötigt, um herauszufinden, wann ein Quark-Gluon-Plasma vorliegt. Hierbei ist die Identifizierung von Elektronen von großer Bedeutung. Beim CBM-Experiment wird zur Unterscheidung zwischen Pionen und Elektronen unter anderem ein Transition Radiation Detektor (TRD) verwendet. (Kapitel 4) Dessen Eingangsfenster besteht aus einer dünnen Mylar®-Folie, welche empfindlich auf Druckschwankungen reagiert. Dies führt zu einer Veränderung des Kammervolumens, was zu einer Variation der Gasverstärkung und des daraus gewonnenen Signals führt. Die Auswirkungen von Druckschwankungen auf das Eingangsfenster des CBM-TRDs sollen in der folgenden Arbeit anhand von Simulationen (Kapitel 5) sowie anhand von Messungen (Kapitel 6) untersucht und verglichen werden. Zunächst wird jedoch ein Überblick der Grundlagen gegeben.
Das CBM-Experiment an der zukünftigen FAIR Beschleunigeranlage zielt unter anderem darauf, Open-Charm-Teilchen zu rekonstruieren, die in Schwerionenkollisionen im Energiebereich von 10 bis 40 AGeV erzeugt werden. Ein für diese Teilchenrekonstruktion essentieller Detektor ist der Mikro-Vertex-Detektor (MVD).
Im Rahmen der Entwicklungsarbeiten für diesen Detektor werden regelmäßig Detektorsimulationen durchgeführt. Bei einer dieser Simulationen [CAD11], wurden nach Einführung eines verbesserten Simulationsmodells des Detektors, Einbrüche in Rekonstruktionseffizienz für Open-Charm Teilchen festgestellt. Als mögliche Ursache wurde eine Überlastung der Software für die Spurrekonstruktion von CBM vermutet, die erstmals mit realistischen Trefferdichten auf den MVD-Stationen konfrontiert war. Zusätzlich wurde in der Simulation die Geometrie eines MVD mit nur zwei Detektorebenen verwendet. Auch der durch die kleine Anzahl an MVD-Stationen große Abstand zwischen MVD und STS (Silicon-Tracking-System) und dessen potentiell ungünstiger Einfluss auf die Spurrekonstruktion konnte als Ursache für den beobachteten Einbruch der Rekonstruktionseffizienz nicht ausgeschlossen werden.
Die Aufgabe dieser Arbeit bestand in der Prüfung, ob der beobachtete Einbruch der Rekonstruktionseffizienz des Detektorsystems tatsächlich auf eine Überlastung der Spurrekonstruktionssoftware zurückzuführen ist. Darüber hinaus sollte festgestellt werden, ob mögliche konstruktive Verbesserungen im MVD (zusätzliche Detektorstationen) diesem Effekt entgegen wirken können...
Im Rahmen dieser Arbeit werden verschiedene Modellsysteme untersucht, die Metriken der klassischen Allgemeinen Relativitätstheorie mit Erweiterungen vergleichen, in denen Ereignishorizonte nicht existieren müssen. Die untersuchten Korrekturterme sind durch Schwachfeldmessungen, wie sie zum Beispiel in unserem Sonnensystem durchgeführt werden, nicht überprüfbar. Es ist deshalb nötig solche Systeme zu betrachten, in denen die vollständigen Gleichungen berücksichtigt werden müssen und keine Entwicklungen für schwache Felder gemacht werden können. Es gibt eine Reihe von astrophysikalischen Systemen, die diese Bedingungen erfüllen, wie das Galaktische Zentrum oder Doppelsternsysteme.
Im zweiten Kapitel der Arbeit werden Testteilchenorbits in einem Zentralpotential beschrieben und Unterschiede zwischen der klassischen und einer modifizierten Kerr-Metrik herausgearbeitet. Drei neue Phänomene der modifizierten Metrik gegenüber der Klassischen treten hier in Erscheinung. Zum einen haben Teilchen, die sich auf prograden Bahnen um den Zentralkörper drehen, ein Maximum in ihrer Winkelgeschwindigkeit. Zum anderen ist das Phänomen des frame-draggings deutlich schwächer ausgeprägt. Schließlich tritt ein letzter stabiler Orbit für entsprechend schnell rotierende Zentralkörper nicht mehr auf. Gleichzeitig sind die Unterschiede in den beiden Metriken für große Abstände (r > 10m) nahezu vernachlässigbar. In Kapitel 3 werden diese Ergebnisse auf zwei unterschiedliche Modelle zur Beschreibung von Akkretionsscheiben angewendet. Untersucht wird zum einen das Verhalten der Eisen-Kα-Emissionslinie und zum anderen der Energiefluss aus einer Akkretionsscheibe.
In der Form der Eisen-Kα-Emissionslinie gibt es eine deutliche Zunahme des rotverschobenen Anteils der Strahlung in der modifizierten Kerr-Metrik gegenüber der klassischen Kerr-Metrik. Die Akkretionsscheibe nach Page und Thorne zeigt unter Verwendung der modifizierten Kerr-Metrik eine signifikante Erhöhung der abgestrahlten Energie, wenn der Zentralkörper so schnell rotiert, dass kein letzter stabiler Orbit mehr auftritt. Zusätzlich gibt es hier in der Scheibe einen dunklen Ring im Vergleich zu den Bildern höherer Ordnung, die in der klassischen Kerr-Metrik auftreten. Erklärbar sind diese Phänomene dadurch, dass sich Teilchen auf stabilen Bahnen in der modifizierten Kerr-Metrik näher an den Zentralkörper heran bewegen können, als es in der klassischen Kerr-Metrik der Fall ist. Die Rotverschiebung ist für beide Fälle annäherend gleich.
Kapitel 4 gibt eine kurze Einführung in die Beschreibung von Gravitationswellen im Rahmen der linearisierten Allgemeinen Relativitätstheorie. Hier wird als Modell ein Binärsystem, wie etwa der Hulse-Taylor-Pulsar, betrachtet. Die Unterschiede zwischen der klassischen Theorie und einer Beschreibung unter Hinzunahme von Zusatztermen sind hier erwartungsgemäß sehr gering, da die Linearisierung der Gleichungen dazu führt, dass Starkfeldeffekte vernachlässigt werden. Für große Abstände, was in diesem Fall auch schwache Felder impliziert, sind die Erweiterungen der Gleichungen vernachlässigbar. Hier werden zum Teil auch Effekte in der klassischen ART vernachlässigt.
In Kapitel 5 befindet sich ein kurzer Ausblick in die 3+1-Formulierung der Einsteingleichungen für die numerische Beschreibung von Gravitationsphänomenen. Diese Beschreibung ermöglicht es auch komplexe Systeme ohne viele nähernde Annahmen genau beschreiben zu können. Diese Systeme können zum einen Akkretionsscheiben um kompakte Objekte sein, aber auch die Verschmelzung von zwei massiven Objekten und die damit verbundenen Gravitationswellensignale. Dadurch lassen sich die Vorhersagen der ART oder etwaiger Erweiterungen präziser modellieren.
Die vorgestellten Ergebnisse liegen innerhalb der Einschränkungen durch aktuelle Messungen. Zukünftige Messungen wie genauere Beobachtungen des Galaktischen Zentrums durch das Event Horizon Telescope sind aber voraussichtlich dazu in der Lage zwischen den untersuchten Metriken zu unterscheiden.
Die vorliegende Arbeit befallt sich im theoretischen Teil mit den Grundlagen zu Strahl-Resonator-Wechselwirkungen bei Beschleunigerresonatoren und mit den sich daraus ergebenden Konsequenzen bei der Resonatorentwicklung für zukünftige lineare Kollider mit Multibunch-Betrieb. Zur Bekämpfung der vor allem im Multibunchbetrieb störenden Long-Range-Wakefelder müssen die schädlichen Moden möglichst so stark bedämpft werden, daß ihre Felder bis zum Eintreffen des nächsten Bunches auf ein erträgliches Maß abgeklungen sind. Im experimentellen Teil befaßt sich diese Arbeit daher mit der Entwicklung von Meßmethoden zur Bestimmung sehr kleiner Resonatorgüten sowie sehr kleiner transversaler Shuntimpedanzen bzw. sehr kleiner Feldpegel in stark störmodenbedämpften Beschleunigerresonatoren. Diese Meßmethoden sind an mehreren S-Band-Modellresonatoren (Betriebsfrequenz lag bei etwa 2.4 GHz) mit verschiedenen Dämpfungssystemen, die für den Einbau in einen normalleitenden Linearbeschleuniger für einen Kollider geeignet wären, erfolgreich getestet worden. Die Feldmessungen an den Modellresonatoren haben bisher unbekannte Gesetzmäßigkeiten bezüglich des Verhaltens dieser Dämpfungssysteme ergeben. In einer kurzen Beschreibung und Diskussion der sechs wichtigsten Vorschläge für zukünftige lineare Kollider wurde ein Überblick über die Unterschiede bei diesen verschiedenen Konzepten gegeben. Zunächst konnten über eine qualitative Diskussion der beim Linearbeschleuniger vom Iristyp vorkommenden Beam Blowup Phänomene, wie der regenerative BBU und der cumulative BBU, die Erscheinungsformen und die physikalischen Ursachen dieser BBU Phänomene verstanden werden. Hier zeigt sich, daß bei Irisstrukturen die HEM11-Moden die Hauptursache sowohl für den regenerativen- als auch für den cumulativen BBU sind. Der dritte Abschnitt führte in eine allgemeine Methode zur quantitativen Beschreibung der sogenannten Strahl-Resonator-Wechselwirkung ein. Diese Methode heißt Condon- Methode und erlaubt die Berechnung von BBU verursachenden Wakefeldern über eine Eigenwellenentwicklung aus den Eigenmoden des leeren Rersonators. Im vierten Abschnitt wurde durch die Herleitung des Theorems von Panofsky-Wenzel die Theorie der Strahl-Resonator-Wechselwirkung vervollständigt, wonach der einer Testladung während der Durchquerung eines felderfüllten Resonators mitgeteilte Transversalimpuls vollständig durch die räumliche Verteilung der elektrischen Longitudinalkomponente allein bestimmt ist. Damit erhält man also eine Aussage über die Wirkung der in Beschleunigerresonatoren feldanfachenden vorauslaufenden Ladungen auf die nachfolgenden. Dabei konnte auch die Frage geklärt werden, welche Moden zylindrischer Symmetrie wegen ihrer transversal ablenkenden Wirkung für den Teilchenstrahl gefährlich sind. Hier zeigt sich, daß alle BBU verursachenden Moden TM2np- bzw. TM2np-Moden sind, d.h., die Moden mit dipol- bzw. quadrupolartiger Symmetrie. Die Anwendung der in den Abschnitten drei und vier entwickelten Theorie zur Strahl-Resonator-Wechselwirkung konnte im Abschnitt fünf anhand dreier, für die Beschleunigerphysik sehr interessanter Beispiele gezeigt werden. Im ersten Beispiel gelang die Beschreibung der Wechselwirkung eines in Längsrichtung homogenen Strahls, welcher transversal Betatranschwingungen vollführt, mit der TM110-Mode eines Zylinderresonators. Dieses Beispiel ist von praktischer Bedeutung bei Linearbeschleunigern. die bei hohem Duty Cycle betrieben werden, also z.B. beim RACE TRACK Mikrotron oder bei supraleitenden Linacs. Beim zweiten Beispiel hat die Anwendung der Theorie auf eine Irisstruktur zu Formeln geführt, die sich Fair eine numerische Berechnung des Startstroms zum regenerativen BBU eignen, was jedoch relativ aufwendig ist. Es konnte aber auch eine einfache Abschätzungsformel für den Startstrom durch die Anwendung des Poyntingschen Satzes auf eine differentielle Länge des der Irisstruktur entsprechenden Wellenleiters abgeleitet werden. Aus der Bedingung, daß die durch den Strahl erzeugte Leistung pro Längeneinheit gleich den Leistungsverlusten pro Längeneinheit ist, findet man den Startstrom für den regenerativen BBU. Das letzte Beispiel, die Wechs 1 e Wirkung einer hochrelativistischen Punktladung mit einem beliebigen Resonator, ist auch das wichtigste. Hier wurden die Wakefelder aus einer simplen Energiebilanzbetrachtung abgeleitet, da eine Berechnung nach der Condon-Methode relativ aufwendig und langwierig wäre. Diese Vorgehensweise hat hier zu einem tieferen physikalischen Verständnis der Vorgänge im Resonator geführt. Die mit Hilfe einer Punktladung abgeleiteten Wakefelder sind Greensfunktionen. die zur quantitativen Beschreibung des cumulativen BBU’s bei linearen Kollidern benutzt werden können. Die Diskussion der anhand der Beispiele gewonnenen Ergebnisse am Ende des fiinften Abschnitts führte zu verschiedenen Maßnahmen zur Verringerung der schädlichen Strahl-Resonator-Wechselwirkung. Hier hat sich gezeigt, daß sowohl der regenerative BBU als auch der cumulative BBU u. a. durch eine Verringerung der Resonatorgüte der strahlstörenden Dipolmode verhindert werden können. Im sechsten Abschnitt erfolgte die noch ausstehende quantitative Beschreibung des cumulativen BBU mit Hilfe der im vorangehenden Abschnitt am dritten Beispiel gewonnenen Formeln für die Wakefelder. Die Berechnung der Strahlablage und Strahlrichtung geschieht hier über einen Matrizenformalismus, der aus der Idee heraus entstand, die Beschleunigersektionen des linearen Kolliders durch Resonatoren verschwindender Länge zu ersetzen. Uber den Matrizenformalismus konnte die durch den Einfluß von Beschleunigung, Fokussierung und Wakefeldern doch recht komplizierte Teilchenbewegung sehr elegant formuliert werden, jedoch eignet sich dieser Formalismus nur für numerische Zwecke. Abschätzungen sind in diesem allgemeinen Fall unmöglich. Durch die Einführung eines sehr restriktiven Modells, des sogenannten DAISY-CHAIN Modells, welches nur bei sehr stark bedämpften Beschleunigersektionen gültig ist. hat sich der Matrizenformalismus auf sehr einfache, der analytischen Berechnung zugängliche Gleichungen reduzieren lassen. Die Bedämpfung der Beschleunigersektionen muß dabei so stark sein, daß eine Ladung innerhalb einer ganzen Kette äquidistanter Ladungen nur ein signifikantes Wakefeld der unmittelbar vorrauslaufenden Ladung erfährt. Wie stark im Einzelfall bedämpft werden muß, um einen stabilen Transport einer Kette von Teilchenpaketen zu ermöglichen, konnte anhand zweier, in der Betriebsfrequenz unterschiedlicher Konzepte für normalleitende Linearbeschleuniger zukünftiger Kollider gezeigt werden. Dabei wurde deutlich, daß man bei ausschließlicher Anwendung von in Bezug auf die HEM11-pi-Mode stark bedämpften Beschleunigerstrukturen zur Kontrolle des cumulativen BBU bei einer hohen Betriebsfrequenz, z.B. im X-Band (11.45 GHz), sehr unbequem niedrige Gütewerte von ca. Q=5 erreichen muß. Das ist, wie sich im praktischen Teil der vorliegenden Arbeit gezeigt hat, vom technischen Aufwand her gesehen sehr schwierig. Für einen X-Band-Kollider wird man also eine Kombination von Maßnahmen zur Kontrolle des cumulativen BBU’s bevorzugen, z.B. neben dem Bedämpfen auch das sogenannte “Detunen” der Beschleunigersektionen. Bei einem Linearbeschleuniger im S-Band (Betriebsfrequenz bei 3 GHz) befindet man sich von vornherein bei ausschließlicher Verwendung gedämpfter Strukturen in bequemeren Gütebereichen Q ungefähr gleich 20-50, was ohne weiteres praktikabel ist. Aber auch hier kann man durch Zusatzmaßnahmen die Anforderungen an die Resonatordämpfung weiter reduzieren. Als erste Methode zur Bestimmung der Güte eines störmodenbedämpften Beschleunigerresonators wurde die Chipman-Methode angewendet. Meßobjekt war hier das dreizellige Modell einer Irisstruktur mit Halbzellenabschluß. Zur Auskopplung der dominanten Störmode, der sogenannten HEM11-Mode, war die mittlere Irisblende einseitig geschlitzt. Bei diesem Modell lag die Frequenz der als Beschleunigermode vorgesehenen TM010-2pi/3-Mode etwa bei 2.35 GHz und die Frequenz der dominanten Störmode, der HEM11-pi-Mode, lag bei etwa 2.81 GHz. Die mittlere geschlitzte Irisblende war austauschbar, so daß eine Messung der durch das Dämpfungssystem belasteten Güte QL bzw. des Koppelfaktors K in Abhängigkeit von der Schlitzhöhe möglich war. Die Messungen ließen sich bei diesem Koppelsystem ohne Schwierigkeiten durchrühren, bei der größten möglichen Schlitzhöhe von 10 mm wurde auch der größte Koppelfaktor mit 46 gemessen. Bei einer vom Dämpfungssystem unbelasteten Güte von Q0=4500 korrespondiert ein Koppelfaktor von K=46 mit einer durch das Dämpfungssystem belasteten Güte von QL = 100. Ein Mangel wurde bei der Anwendung der Chipman-Methode sofort sichtbar: Durch die Anregung der HEM11-pi-Mode von der Meßleitung aus sind im Koppelsystem offenbar Störmoden angeregt worden. Liegen diese Störmoden nahe bei der zu messenden Resonanz, dann ist eine präzise Bestimmung des Koppelfaktors unmöglich. Glücklicherweise war das hier nicht der Fall. Die Messungen mit der einseitig geschlitzten Irisblende haben gezeigt, daß dieses Dämpfungssystem Anwendung finden könnte bei Beschleunigerstrukturen im S-Band. wie sie z.B beim DESY/THD-Kollider vorgeschlagen wurden. Natürlich kann bei den hier erreichten Koppelfaktoren nicht die Dämpfung der schädlichen HEM11-pi- Mode die alleinige Maßnahme sein, die einseitig geschlitzte Irisblende könnte nur zusammen mit dem Detunen angewendet werden. Da die einseitig geschlitzte Irisblende auch eine Feldasymmetrie bei der Beschleunigermode erzeugt, müssen die Dämpfer entlang einer Beschleunigersektion alternierend angebracht werden, d.h. jeder Dämpfer ist im Bezug zum nächsten Nachbardämpfer um 90° gedreht. Die 90° ergeben sich aus der Notwendigkeit, auch die Dämpfung der zweit en Polarisationsebene der HEM11-pi-Mode zu gewährleisten. Als zweite, der Chipman-Methode sehr ähnliche Methode, wurde die Kurzschlußschiebermethode angewendet. Erstes Untersuchungsobjekt war die bei der Chipman- Methode bereits erwähnte dreizeilige Irisstruktur. Ein Vorteil im Vergleich zur Chipman-Methode ist vor allem die schnelle Durchführbarkeit der Messung bei wenig experimentellem Aufwand, wenn auch die Kurzschlußschiebermethode weniger präzise ist, und man auf einige Informationen, wie z.B. der Verlauf des Reflexionsfaktors und dessen Phase, verzichten muß. Im Vergleich mit der Chipman-Methode waren die mit der Kurzschlußschiebermethode gemessenen Koppelfaktoren immer um etwa 10-15% höher. Das liegt vor allem daran, daß die Theorie zur Kurzschlußschiebermethode von einem verlustfreien Resonator-Hohlleitersystem ausgeht, so daß die nach dieser Theorie ermitteten Koppelfaktoren prinzipiell zu groß sind. Auch bei dieser Methode hat sich gezeigt, daß eine Auswertung der Meßergebnisse scheitern muß, falls ein Modenüberlapp auftritt. Bei Experimenten mit komplizierteren Dämpfungssystemen, bestehend aus mehr als vier Hohlleitern an Resonatoren mit mehr als zwei Zellen ist deutlich geworden, daß eine Bestimmung des Koppelfaktors über die Kurzschlußschiebermethode durch die entstehende Modenvielfalt praktisch unmöglich ist. Es stellte sich heraus, daß bei der Auswertung der Meßergebnisse dadurch ein Fehler entsteht, wenigstens bei sehr starker Dämpfung, daß man die Feldverteilung als konstant animmt, denn bei dem Vergleich der unbelasteten Güte Q0 mit der vom Dämpfungssystem belasteten Güte QL geht man davon aus, daß die Feldverteilungen im ungedämpften- und gedämpften Fall identisch sind. Das kann bei Koppelfaktoren im Bereich von einigen zehn bis zu einigen hundert nicht mehr zutreffen, da das Feld der Mode immer stärker in das Dämpfungssystem eindringt, je stärker die Kopplung ist. Das ändert die Modengeometrie natürlich in dramatischer Weise und die belastete Güte QL kann dann nicht mehr einfach über die Gleichung QL=Q0/(1+ K) aus den gemessenen Größen Q, und K ausgerechnet werden, da der Koppelfaktor K nun nicht mehr konstant sein kann, sondern im Gegenteil sich sehr stark ändert, je nachdem an welcher Stelle die Felder gemessen werden. Ein weiterer Mangel bei beiden Methoden ist, daß über diese Methoden weder die longitudinale noch die transversale Shuntimpedanz bestimmt werden kann. Ein Ausweg aus diesem Dilemma war die Anwendung zweier neuer Meßmethoden, die Antennenmethode und die nichtresonante Störkörpermethode. Diese beiden Methoden beruhen im Gegensatz zu den ersten beiden Methoden auf einer direkten Bestimmung der Feldpegel bzw. der transversalen Shuntimpedanz im bedämpften Resonator was den Vorteil hat, daß im Resonator genau das Feld bzw. die Shuntimpedanz vermessen wird, welches die Teilchen bei der Durchquerung des Resonators auch tatsächlich sehen. Die Antennenmethode war eine komplette Neuentwicklung, während es sich bei der nichtresonante Störkörpermethode um die Anwendung einer seit 1966 bekannten, jedoch in Vergessenheit geratenen Theorie handelte. Beide Meßmethoden konnten am Beispiel eines im Bezug auf die TM110-Mode (Frequenz bei ca. 3.2 GHz) sehr stark bedämpften Zylinderresonators (Die Frequenz der TM010-Mode lag bei ca. 2.049 GHz) erfolgreich getestet werden. Die durch das Dämpfungssystem belastete Güte QL war hier ca. 10. Bei der Bestimmung der longitudinalen elektrischen Feldstärken bzw. der longitudinalen Shuntimpedanz der TM110-Mode in Abhängigkeit vom axialen Abstand vor und nach der Bedämpfung konnten zunächst folgende Feststellungen gemacht werden: 1) Die Modengeometrie im ungedämpften- und gedämpften Fall unterscheiden sich sehr stark voneinander. Dadurch mißt man verschiedene Koppelfaktoren, je nachdem an welcher Stelle man die Felder mißt. 2) der maximal gemessene Koppelfaktor liefert über die Gleichung QL=Q0/(1+K) die richtige beklastete Güte QL. 3) Der höchste Koppelfaktor wurde bei der Feldmessung in einem Achsortabstand vom halben Radius des Zylinderresonators gemessen. Da die beiden Meßmethoden das Verhältnis der elektrischen Feldstärkequadrate in Abhängigkeit vom Meßort vor und nach der Bedämpfung liefern, konnte die zweite Feststellung nur durch eine Kontrollmessung mit Hilfe der Kurzschlußschiebermethode, die hier dank des einfachen Aufbaus leicht durchfiihrbar war, gemacht werden. Die Kurzschlußschiebermessung lieferte eine Güte QL ungefähr gleich 9, während der höchste bzw. der niedrigste mit den beiden neuen Megmethoden ermittelte Koppelfaktor mit einer Güte von QL ungefähr gleich 11 bzw. mit einer Güte von QL ungefähr gleich 14 korrespondierte, d.h. also. daß der höchste gemessene Koppelfaktor für dieses Dämpfungssystem die richtige Resonatorgüte liefert. Anhand eines zweizeiligen Resonators (Die Frequenz der TM010-2pi/3-Beschleunigermode lag bei ca. 2.35 GHz) mit beidseitig geschlitzter Irisblende als Dämpfungssystem für die HEM11-pi-Mode (ca. 3.5 GHz) konnte gezeigt werden, daß die zweite Feststellung eine Gesetzmäßigkeit bei spiegelsymmetrischen Dämpfungssystemen ist. Im Unterschied zum Zylinderresonator wurde der höchste mit der richtigen bedämpften Güte QL ungefähr gleich 37 korrespondierend Koppelfaktor K ungefähr gleich 153 jedoch direkt auf der Resonatorachse gemessen. Die bedämpfte Güte wurde auch hier wieder mit Hilfe der Kurzschlußschiebermethode kontrolliert. Ein sehr interessantes Verhalten zeigte der gleiche zweizeilige Resonator mit einseitig geschlitzter Irisblende als Dämpfungssystem. Hier korrespondierte der in der Nähe der Resonatorwand gemessene niedrigste Koppelfaktor mit der bedämpften Güte QL ungefähr gleich 230 des Resonators. In Achsennähe hingegen war der Koppelfaktor etwa dreimal höher, K ungefähr gleich 82, als aus der der Güteerniedrigung K ungefähr gleich 35 nach der Dämpfung hervorgegangen wäre, die transversale Shuntimpedanz ist also auch etwa um den Faktor 3 erniedrigt. Durch dieses Verhalten ist der einseitig bedämpfte Resonator für die Verwendung bei einem linearen Kollider im S-Band (hier muß nicht so stark bedämpft werden) interessant geworden, denn wenn nur wenige Zellen einer Beschleunigersektion mit einem Dämpfungssystem ausgerüstet werden müssen, ist es wichtig in diesen Zellen ein effektives Dämpfungssystem bei Gewährleistung eines einwandfreien Transports der Feldenergie der HEM11-pi-Mode in diese gedämpften zu haben. Das funktioniert einerseits nur, wenn sich die Resonanzfrequenz der gedämpften Zellen in Bezug auf die HEM11-pi-Mode auf die Resonanzfrequenz der benachbarten ungedämpften Zellen einstellen läßt und andererseits die mit einer Dämpfung einhergehende schlechtere Anregungsfähigkeit dieser Störmode in den gedämpften Zellen nicht zu schlecht ist. Bei einer zu starken Dämpfung wäre beides nicht möglich. Zusammenfassend kann man sagen, daß durch die Antennen- und die nichtresonante Störkörpermethode ein für die Entwicklung von störmodenbedämpften Beschleunigerresonatoren für zukünftige lineare Kollider und natürlich auch anderer Elektronenbeschleuniger sehr wirksames Instrument zur Verfügung steht. Ein detailliertes Design eines für einen bestimmten Beschleuniger passenden Dämpfungssystems ist mit Hilfe dieser Meßmethoden möglich geworden, da kleine Unterschiede zwischen verschiedenen Ausführungen von Dämpfungssystemen meßbar sind. Durch die bei der Anwendung der Meßmethoden auf unterschiedliche bedämpfte Resonatoren gefundenen Gesetzmäßigkeiten ist unter anderem auch die Frage geklärt worden, auf welche Weise ein Dämpfungssystem auch auf numerischem Wege mit Hilfe von Computerprogrammen wie z.B. MAFIA berechnet werden kann.
In der vorliegenden Arbeit wird versucht, die sog. selektiven Effekte der Ultrakurzwellentherapie (UKWT) thermisch zu erklären, und zwar durch die Temperaturschwingungen, welche durch die pulsierende Wärmebildung der Hochfrequenz(HF)-Bestrahlung in Mikroorganismen hervorgerufen werden. Bei Annahme verschiedener Mechanismen der Energieumsetzung in Wärme innerhalb oder an der Oberfläche von Teilchen, die sich in einem Suspensionsmedium befinden, wird eine Art thermische Resonanz (Selektivität) aufgefunden. Die Lage der Selektivität, abhängig von der Frequenz des HF-Feldes, der Teilchengröße und der Wärmeleitfähigkeit des Teilcheninneren und das Verhältnis der Temperaturamplitude des Teilchenmittelpunkts zur Umgebungstemperatur lassen die Vermutung zu, in Übereinstimmung mit experimentellen Befunden bei der UKWT, daß der Effekt zur Erklärung der Wirksamkeit dieser medizinischen Behandlungsmethode beiträgt. Zurückgreifend auf ältere Arbeiten wird der Anlaufvorgang des Temperaturfeldes in Mikroorganismen, der durch das Einschalten des HF-Feldes entsteht, untersucht, durch einen Modellversuch gestützt und seine Bedeutung für die UKWT, die vielfach angenommen wurde, der Kürze der Anlaufzeiten wegen in Frage gestellt.
Diese Arbeit beschäftigt sich mit der Wasserkühlung einer normalleitenden CH-Kavität. Insbesondere stellt sich die Frage, ob die im CST Thermal Steady State Solver simulierten Temperaturen mit Messungen während High Power Tests übereinstimmen. Zusätzlich interessiert, inwiefern die Temperatur über die dissipierte Leistung aus dem CST Eigenmode Solver und dem gemessenen Volumenstrom im Kanal abgeschätzt werden kann. In dem Kontext wird auch geklärt, ob die Reihenschaltung der Mantelkanäle den Kühlanforderungen genügt.
Neben Volumenstrom- und Druckmessungen an den in Reihe und parallelgeschalteten Kanälen werden die Leistungs- und Temperaturwerte der Konditionierung in sämtlichen Simulationen aufgegriffen. Indem die Kavität in einzelne Sektionen unterteilt wird und in diesen die dissipierte Leistung mit dem Eigenmode Solver simuliert wird, die ein Kühlkanal abführt, werden die Temperaturerhöhungen direkt berechnet und verglichen.
Zusammengefasst hat sich der Durchfluss in kritischen Bauteilen wie den Stützen durch die Reihenschaltung der Mantelkanäle erhöht und wird damit empfohlen. Es werden die simulierten Temperaturverteilungen gezeigt. Die Näherung über den Eigenmode Solver liefert erneut für die thermisch belasteten Bauteile wie die Stützen präzise Vorhersagen.
Abschließend werden Erfahrungen aus dem Institut in dieser Arbeit zusammengetragen und die Verwendung des Steady State Solver freigegeben.
Ulrich Gerhardt : Nachruf
(2018)
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Im Rahmen dieser Arbeit ist es gelungen, eine weltweit einmalige Messapparatur zu entwickeln, mit der Wasserstoffmolekülionen mittels kurzer Laserpulse ionisiert und die Reaktionsprodukte kinematisch vollständig vermessen werden können. Es wird dazu eine an die Coltrims-Technik angelehnte Detektionsmethode genutzt, bei der sowohl Protonen als auch Elektronen über den vollen Raumwinkel nachgewiesen werden können. Die H2+ -Ionen stammen aus einer Hochfrequenz-Ionenquelle und werden auf 400keV beschleunigt. Die Besetzungshäufigkeit der Vibrationsniveaus entspricht daher der Franck-Condon-Verteilung für den Übergang aus dem Grundzustand des neutralen Wasserstoffmoleküls in den elektronischen Grundzustand des Molekülions: H2 (xPg, ν = 0) → H2+ (1sσg, ν′) Dieser Ionenstrahl wird mit einem 780 nm Laserpuls der Pulslänge 40 fs überlappt. Nach der Reaktion fragmentiert das Molekülion entweder über den Dissoziationskanal H2+ + nhν ⇒ H + H+ oder über eine Ionisation gefolgt von einer Coulomb-Explosion: H2+ + nhν ⇒ H+ + H+ + e−. Die Projektile werden nach einer Driftstrecke von etwa 3 m auf einem Ionendetektor nachgewiesen. Für den Nachweis der Elektronen wurde ein spezielles Spektrometer konzipiert, das eine Unterdrückung ungewollter Elektronen erlaubt und so die Messung der Elektronen ermöglicht. Um Elektronen auszublenden, die vom Laser aus dem Restgas ionisiert werden, ist der Elektronendetektor in Flugrichtung der Ionen versetzt angebracht. Durch die unkonventionelle Ausrichtung des Lasers in einem Winkel von 20◦ relativ zur Flugrichtung der Ionen können vom Laser erzeugte Elektronen nur dann den Elektronendetektor erreichen, wenn sie aus dem bewegten Bezugsystem der Projektile stammen. Diese Unterdrückung macht die Messung der Elektronen erst möglich, hat aber auch eine nachteilige Geometrie der Verteilungen gegenüber den Detektorebenen zur Folge. Durch die Ausnutzung der Projektilgeschwindigkeit ist überdies die Benutzung eines B-Feldes zur Verbesserung der Flugzeitauflösung der Elektronen nicht möglich. Um eine Überlappung des Ionenstrahls mit dem Laserfokus zu erreichen, wurde im Bereich der Reaktionszone ein System zur Visualisierung der Strahlpositionen integriert. Dieses kann überdies für eine Intensitätseichung bei linear polarisiertem Licht verwendet werden. Bei der Reaktion kommt es durch die vergleichsweise lange Pulsdauer schon bei relativ niedrigen Intensitäten zu Dissoziationsprozessen. Das dissoziierende Molekül erreicht noch während der ansteigenden Flanke des Laserpulses auf diese Weise Abstände, bei denen der Prozess der Charge-Resonance-Enhanced-Ionization (CREI) stattfinden kann. Auch die in einem sehr engen Winkelbereich um die Polarisationsrichtung des Lasers liegende Winkelverteilung der gemessenen Protonen deutet darauf hin, dass CREI der dominante Ionisationsprozess ist. Durch die vorausgehende Dissoziation nimmt das Molekül schon vor der Ionisation eine kinetische Energie auf, so dass die gemessene KER-Verteilung einer Summe aus KERDissoziation und KERIonisation darstellt. Ein Vergleich mit den KER-Spektren des Dissoziationsprozesses zeigt, dass die aufgenommene Energie durch Dissoziation zu einem überwiegenden Anteil in einem Bereich von 0, 6 ± 0, 35 eV besitzt, während die Gesamt-KER-Verteilung deutlich höhere Werte bis zu 6 eV aufweist. Dies ermöglicht, aus der gemessenen KER-Verteilung den internuklearen Abstand zum Ionisationszeitpunkt näherungsweise zu bestimmen. Die gemessenen Elektronen weisen, ebenso wie die Protonen, eine scharfe Ausrichtung entlang der Laserpolarisation auf, was durch den Einfluss des Lasers auf dieser Achse nicht verwunderlich ist. Bei zirkularer Polarisation dagegen findet eine Netto-Beschleunigung der Elektronen senkrecht zur Richtung des elektrischen Feldes zum Ionisationszeitpunkt statt, sodass die Messung der Elektronenimpulse eine geeignete Messgröße zur Untersuchung des Ionisationsprozesses darstellt. Auf diese Art konnten Winkelverteilungen der Elektronen bezüglich der internuklearen Achse innerhalb der Polarisationsebene gemessen werden. Abhängig von KER und Elektronenergie konnte dabei eine Verdrehung der Verteilung gegenüber den klassisch erwarteten 90◦ relativ zur internuklearen Achse festgestellt werden. Die Winkelverteilung rotiert dabei mit steigendem KER entgegen des Drehsinns. Dies widerspricht der gängigen Vorstellung einer Tunnelionisation, bei der nur die Beschleunigung des Elektrons im Laserfeld eine Rolle spielt und der Einfluss des Coulomb-Potentials vernachlässigt wird. Für höhere Elektronenergien zeigt sich eine zweite konkurrierende Struktur, die für die höchsten Energien die sonst vorherrschende erste Struktur sogar dominiert. Da sich in den Protonenspektren für linear polarisiertes Licht kein Einfluss einer Ionisationsenkrecht zur Polarisationsrichtung findet, erscheint dies als Grund für die zweite Struktur in den Elektron-Winkelverteilungen als unwahrscheinlich. Eine stichhaltige und gestützte Erklärung gibt es bisher weder für die Rotation der ersten Struktur noch für die Herkunft der zweiten. Dies zeigt deutlich, dass es auch für dieses einfachste Molekülsystem noch einen erheblich Handlungsbedarf sowohl auf theoretischer als auch von experimenteller Seite gibt. Da dieses Experiment den ersten experimentellen Zugang für die direkte Untersuchung der Elektronimpulse bei der Ionisation von H2+ -Ionen in kurzen Laserpulsen darstellt, bietet sich hier die bisher einzige Möglichkeit, dieses Verhalten experimentell zu untersuchen.
Untersuchung der Konformation und Dynamik von RNA mit Hilfe fluoreszierender Farbstoffmoleküle
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung der konformationellen und elektronischen Eigenschaften sowie der Dynamik verschiedener RNA-Systeme. Zur Durchführung dieser Experimente wurde zusätzlich zu bereits vorhandenen statischen und zeitaufgelösten Absorptionsspektrometern im Rahmen dieser Arbeit eine Apparatur zur Messung von Fluoreszenzlebensdauern entwickelt, die durch die integrative Verwendung zweier verschiedener, etablierter Technologien (TCSPC und Aufkonvertierung) über einen weiten Zeitbereich von 9 Größenordnungen (100 fs - 0,1 ms) operiert. Mit diesem Aufbau konnten neben den RNA-Studien wichtige Beiträge zum Verständnis der Isomerisierung eines Retinalproteins, des Transportprozess des Membrantransportproteins TbSMR und der im Infraroten liegenden Fluoreszenz des Radikalkations von Astaxanthin gewonnen werden. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Untersuchung verschiedener RNA-Systeme: So werden die optischen Eigenschaften einer 1-Ethinylpyren-modifzierten RNA-Adeninbase allein und in RNA-Strängen eingebunden untersucht. Statische Fluoreszenzmessungen zeigen einen ausgeprägten Ladungstransfercharakter des Chromophors und eine generell große Wechselwirkung zwischen Ethinylpyren und Adenin, die in einer substanziellen Änderung der optischen Eigenschaften des Pyrens resultiert. Die Untersuchung der schnellen Photodynamik von Pyrenadenin zeigt zudem eine Verringerung der Lebensdauer von Pyren um etwa 2 Größenordnungen. Pyrenadenin zeigt sowohl Fluoreszenz eines neutralen (100-200 ps), als auch eines energetisch tiefer liegenden Ladungstransferzustands (1-2 ns). Die Formationszeit des Ladungstransferzustandes fällt mit steigender Polarität des Lösemittels. Eingebunden in Modell-RNA-Stränge ist Fluoreszenzquantenausbeute des Chromophors ein deutlicher Indikator für seine Interkalation. Nur in der stabileren Umgebung von GC-Basenpaaren ist das Pyren in der Lage, sich dauerhaft innerhalb des Duplex aufzuhalten, während in einer flexibleren AU-Umgebung eine Position außerhalb des RNA-Duplex präferiert wird. Transiente Absorptionsmessungen zeigen, dass die Photophysik des in RNA eingebundenen Pyrenadenins nur kleine Variationen im Vergleich zur Photophysik des Labels allein aufweist. Die deutliche Abnahme der Quantenausbeute des interkalierten Chromophors geht hauptsächlich auf Kosten der langlebigeren Ladungstransferfluoreszenz, so dass interkaliertes Pyren insgesamt schneller in den Grundzustand zurückkehrt als nicht interkaliertes. Mit Hilfe eines doppelt modifizierten Duplex, bei dem sich jeweils ein Farbstoff an einem der beiden Stränge befindet, kann nachgewiesen werden, dass aufgrund von Exzimerwechselwirkungen eine Verschiebung des Fluoreszenzmaximums von 35 nm auftritt. Kurzzeitspektroskopische Messungen zeigen Signale, die als Superposition von Monomeren und Exzimeren interpretiert werden können, wobei die Lebensdauer des letzteren mit 18,5 ns die der Monomerkomponente um ein Vielfaches übertrifft. Ein weiterer Teil dieser Arbeit beschäftigt sich mit einer Studie zur Bindung des fluoreszenten Liganden Tetrazyklin an das Tetrazyklin bindende Aptamer. Hier wird auf Basis verschiedener Mutanten mit Hilfe des TCSPC eine Analyse der Stabilität der Bindetasche sowie mit der Stopped-Flow-Methode eine Beobachtung des Bindungsprozesses durchgeführt. Insgesamt folgt die Bindung des Tetrazyklins an das Aptamer einer zweistufigen Kinetik, deren zweiter Schritt irreversibel ist. Die Bindung läuft, verglichen mit anderen Aptameren, sehr schnell ab. Während die Mutationen von A13 und A50,die direkte Kontakte zum Substrat bilden, nur einen leichten Einfluss auf beide Bindungsschritte ausüben, führt eine Mutation der für die Präformation verantwortlichen Base A9 zu einer Verlangsamung des Bindungsprozesses um mehr als einen Faktor 20 durch eine immens gesteigerten Rückreaktionsrate des ersten Bindungsschritts. Hieraus lässt sich schließen, dass bei fehlender Präformation des Aptamers nur wenige Tetrazyklinmoleküle ein für vollständige Bindung geeignetes Aptamer vorfinden. Die Bindung an A13 und A50 geschieht bereits im ersten Schritt des Bindungsprozesses. Ferner konnte anhand von Lebensdauermessungen gezeigt werden, dass nach dem Wildtyp die Mutante A9G die stabilste Bindetasche aufwies. Das Fehlen eines direkten Kontaktes wirkt sich deutlich stärker aus. Insbesondere führt die Abwesenheit der Fixierung des Gegenions durch A50 zu der instabilsten Bindetasche. Wie in dieser Arbeit gezeigt wird, ist die zeitaufgelöste optische Spektroskopie insbesondere in Verbindung mit fluoreszierenden Molekülen ein ausgezeichnetes Mittel zur Beobachtung von Struktur und Dynamik von RNA. Die Empfindlichkeit von Fluoreszenz auf die Veränderung der Umgebung des Chromophors erlaubt es, Konformationsdynamik und elektronische Konfigurationen in Echtzeit zu beobachten.
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
Zur Erforschung des Strahlstransports durch zwei Toroidsegmente wurden im Rahmen dieser Arbeit theoretische Betrachtungen, Simulationen und experimentelle Untersuchungen durchgeführt. Dazu wurde ein toroidaler Teststand, bestehend aus zwei 30 Grad Toroidsegmenten mit einer magnetischen Feldstärke von 0,6 T und einer Driftsektion zwischen diesen beiden Magneten von 400 mm Länge, verwendet. Von einer Volumenionenquelle wurde ein Wasserstoffionenstrahl erzeugt und dieser mittels eines Solenoids angepasst und in das erste Toroidsegment eingeschossen. Mit Hilfe eines beweglichen Detektors konnte der Ionenstrahl an jeder Position im Rezipienten beim Transport durch den toroidalen Aufbau experimentell untersucht und vermessen werden.
Bei den Experimenten mit dem vorhandenen Detektor konnten auf den Aufnahmen der Leuchtdichteverteilung starke Sekundärelektroneneffekte beobachtet werden, welche die Untersuchung des Ionenstrahls mit dem Detektor erschwerten oder teilweise ganz unmöglich machten. Aus diesem Grund wurde zur Unterdrückung dieser Elektronen eine Wasserstoffatmosphäre im Rezipienten aufgebaut, welche die Elektronen stärker absorbiert als die Ionen und damit die Beobachtung des Ionenstrahls ermöglichen sollte. Auf diesem Wege lässt sich das transversale Verhalten des Strahls beim Strahltransport durch die toroidalen Magnetfelder mit dem vorhandenen Detektor untersuchen. Die Auswirkungen des Wasserstoffgases auf die geladenen Teilchen wurden dabei theoretisch und experimentell untersucht und analysiert. Die Auswirkung von Helium-, Stickstoff- und Argongas auf den Ionenstrahl und die Elektronen wurde in diesem Zusammenhang experimentell betrachtet.
Des Weiteren wurde mit Hilfe des Computerprogramms TBT der Strahltransport durch die zwei toroidalen Magnetfeldsegmente unter Verwendung von Referenzeinstellungen simuliert und die Ergebnisse mit den theoretischen und experimentellen Daten des Strahltransports verglichen. Bei diesen Simulationen konnten die Gyrationsbewegungen sowie die Transmission des Ionenstrahls durch die Driftsektion genauer untersucht werden.
Da die Magnetfelder der Toroidsegmente auch in der Driftsektion als Führungsfelder dienen sollen, sind die im experimentellen Aufbau verwendeten Toroidsegmente nicht magnetisch geschirmt. Dies hat zur Folge, dass das von den Magneten erzeugte Feld Auswirkungen auf andere Komponenten des toroidalen Teststandes besitzt. Aus diesem Grund wurden die Auswirkungen dieser Magnetfelder auf die Ionenquelle sowie auf das Druckmesssystem des Teststands genauer betrachtet.
Die Arbeit entstand im Rahmen des Förderprogramms ”Profil NT” und war Bestandteil des BMBF–Projektes ”NANOTHERM” (FKZ17PNT005). Dabei sollte die Möglichkeit der Integration und Verwendung von Nanodrähten als funktionsbestimmende Komponente im thermoelektrischen Sensorelement untersucht werden. Eine wichtige Aufgabe bestand darin die thermoelektrischen Eigenschaften der einzelnen Nanodrähte, insbesondere den Seebeck–Koeffizienten, zu untersuchen. Im Hinblick auf die weitere Entwicklung der Nanotechnologie ist es sehr wichtig, geeignete Messplattformen zu generieren und der Wissenschaftlichen Gemeinschaft zur Verfügung zu stellen für die Charakterisierung von Nanostrukturen. Für die Forschung bedeutet dies, dass man immer präziser die ”Physik im kleinen” studieren kann. Im Bezug auf die Anwendungen stellen die ausgeführten Untersuchungen eine wesentliche Basis für die Bauelemente–Optimierung und ihren späteren industriellen Einsatz dar.
In dieser Arbeit werden zwei Chipdesigns vorgestellt für die Bestimmung des Seebeck–Koeffizienten, die eine ausreichend hohe Temperaturdifferenz in Nanostrukturen erzeugen. Für beide Chips wird die mikromechanische Fertigung im einzelnen erläutert. Zusätzlich wurden die Chips in FEM–Simulationen analysiert. Eine messtechnische Charakterisierung der Chips bestätigt die Simulationen und die Funktionsweise der Chips für Untersuchungen des Seebeck–Koeffizienten an Nanostrukturen. Erstmals wurden Wolfram bzw. Platin FEBID–Deponate hinsichtlich des Seebeck–Koeffizienten untersucht. Für die Wolfram–Deponate ergab sich ein negativer Seebeck–Koeffizient. Der gemessenen Seebeck–Koeffizient war über mehrere Tage stabil. Als Ergebnis temperaturabhängiger Messungen des Seebeck–Koeffizienten konnte eine Wurzel-T Abhängigkeit beobachtet werden, die in der Theorie beschrieben wird.
Eine Untersuchung des Seebeck–Koeffizienten an Pt–FEBID–Deponaten zeigt einen Vorzeichenwechsel für Proben mit geringer elektrischer Leitfähigkeit (isolierender Charakter, schwache Kopplung). In der Literatur wird dieser Vorzeichenwechsel allerdings für Proben mit metallischer elektrischer Leitfähigkeit beschrieben. Aufgrund der Messergebnisse ist zu prüfen inwiefern die Theorie des Seebeck–Koeffizienten auf Proben mit schwacher Kopplung zu übertragen ist. Da die gemessenen Seebeck–Koeffizienten bei einigen nanoskaligen Proben sehr klein waren, wurde der Seebeck–Koeffizient des Kontaktmaterials in separaten Versuchen untersucht. Für das hier verwendete Schichtsystem Ti(40nm)/Au(120nm) kann ein Seebeck–Koeffizient von -0,22µV/K angegeben werden. Bei der Charakterisierung der Pt–FEBID–Deponaten wurde dieser Beitrag des Kontaktschichtsystems zur Thermospannung berücksichtigt.
Untersuchungen an BiTe–Nanodrähten mit dem Seebeck–Chip ergaben einen negativen Seebeck–Koeffizienten. Die ersten Untersuchungen wurden mit Kupfer als Kontaktmaterial durchgeführt, weil dieses sehr gute Lift–Off Eigenschaften besaß. Trotz der Kupferdiffusion in den Nanodraht hinein, wird der negative Seebeck–Koeffizient einem Tellur–Überschuss zugeschrieben, denn an Proben mit einer geeigneten Diffusionsbarriere war in nachfolgenden Untersuchungen ebenso ein negativer Seebeck–Koeffizient zu messen. Die ermittelten Beweglichkeiten sind niedriger als die von Bulkmaterial und können durch klassische Size–Effekte erklärt werden. Die gemessenen Ladungsträgerkonzentrationen liegen in typischen Bereichen für Halbmetalle. Die Charakterisierung des Seebeck–Koeffizienten mit Hilfe des hier vorgestellten Z–Chip ergab einen negativen Seebeck–Koeffizienten für die BiTe–Nanodrähte, die wie oben erläutert auf einen Tellur–Überschuss zurückzuführen sind. Eine Abschätzung eines mit Nanodrähten aufgebauten Sensors zeigt, dass im Vergleich zu konventionellen Dünnschicht–Thermopiles deutlich höhere Empfindlichkeiten zu erzielen sind. Erste technologische Konzepte für den Aufbau von Nanodraht–Arrays wurden erarbeitet und durch entsprechende Untersuchungen verifiziert.
Grundsätzlich ist der Z–Chip für die Charakterisierung aller drei Transportkoeffizienten geeignet und bietet die Option, anderen Arbeitsgruppen eine universelle thermoelektrische Messplattform zur Verfügung zu stellen.
Epileptische Anfälle, unabhängig von ihrer Art und Auftrittshäufigkeit, bilden eine Symptomatik, welche bei ca. 1% der Weltbevölkerung auftritt. Hierbei kann es beispielsweise zu unkontrollierten Muskelkrämpfen kommen, ebenso aber zu einer Vielzahl anderer Symptome, die in ihrer Gesamtheit das Krankheitsbild der sogenannten Epileptogenesis bilden. Bei etwa zwei Drittel der an Epilepsie leidenden Patienten kann in vielen Fällen Anfallsfreiheit im Rahmen einer medikamentösen Therapie erreicht werden. Dies umso besser, wenn die Medikation präventiv zum geeigneten Zeitpunkt erfolgen könnte. Demzufolge würden in einer großen Anzahl von Fällen Patienten von einem System profitieren, das eine automatisierte zuverlässige Anfallsvorhersage ermöglicht. Bei nur 20% der anderen Patienten kann eine chirurgische Behandlung erfolgreich sein.
In dieser Arbeit soll eine weitergehende Untersuchung des im Institut für Angewandte Physik der Johann Wolfgang Goethe- Universität entwickelten Prädiktionsverfahrens an verschiedenen EEG-Registrierungen unterschiedlicher Patienten erfolgen. Dabei soll im speziellen untersucht werden, ob basierend auf den Resultaten einer Signalprädiktion eine Unterscheidung zwischen Voranfallszeitraum, Anfall und anfallsfreier Phase getroffen werden kann, und ob basierend auf den Kenngrößen eines Prädiktors und des Prädiktionsfehlers eine Merkmalsdefinition gefunden werden kann, welche in einem späteren, implantierbaren Frühwarnsystem eine automatisierte Anfallsvorhersage ermöglicht. Als Datenbasis sollen vier Langzeit-EEG-Registrierungen mit einer Länge von jeweils 5 – 10 Tagen zugrunde gelegt werden. Zur Prädiktion sollen zeitdiskrete, gedächtnisbehaftete, mehrschichtige Zellulare Nichtlineare Netzwerke herangezogen werden. Dabei soll insbesondere anhand von unterschiedlichen Netzwerken festgestellt werden, inwieweit mittels einer Signalprädiktion Synchronisationseffekte zwischen EEG-Signalen verschiedener Hirnareale festgestellt werden können.
Im Rahmen dieser Arbeit wurden grundlegende Eigenschaften von GEM-Verstärkungsstrukturen untersucht. Dies waren der Einfluss des Alignmenteffektes auf die Reproduzierbarkeit von Messungen, die Elektronenextraktionseffizienz von GEMs im allgemeinen und die Auswirkungen von Druckschwankungen auf die Gasverstärkung. Weiterhin wurden verschiedene vierlagige GEM-Verstärkungssysteme mit einer MP-GEM an erster Stelle in Hinblick auf Ionenrückfluss und Energieauflösung untersucht.
Der Alignmenteffekt ist noch nicht vollkommen verstanden und verlangt weitere Untersuchungen. Was aber definitiv gesagt werden kann ist, dass das Drehen der GEMs um 90° die Reproduzierbarkeit der Messergebnisse sicherstellt.
Die unterschiedlichen Elektronenextraktionseffizienzen der verschiedenen GEM-Typen sind noch unverstanden. Auch wenn die grundsätzliche Zunahme der Extraktion mit zunehmenden Transferfeld verständlich ist, so bleibt vor allem das Verhalten einer LP-GEM in diesem Kontext bis jetzt unerklärlich.
Die Versuche mit einer MP-GEM an erster Stelle einer vierlagigen Verstärkungsstruktur haben sich als keine Verbesserung im Vergleich zu den S-Konfigurationen herausgestellt. Auch wenn manche gefundenen Einstellungen die Kriterien von einem IBF von weniger als 1 % und einem σ(55Fe) von weniger als 12 % gleichzeitig erfüllen, liegen diese Messpunkte so knapp an den definierten Grenzen, dass sie nicht für den Betrieb in der Spurendriftkammer von ALICE geeignet sind. Eine Erkenntnis, die trotzdem gewonnen werden konnte, ist, dass sich das Verhalten von verschiedenen Konfigurationen verstehen lässt. So ist die beste untersuchte Konfiguration die MP-LP-LP-S-Konfiguration gewesen, danach folgte die MP-S-LP-S und als schlechteste hat die MP-S-LP-SP-Konfiguration abgeschnitten. Dies ist genau die gleiche Reihenfolge, wie sie auch bei den S-Konfigurationen auftritt: S-LP-LP-S, dann S-S-LP-S und danach S-S-LP-SP. Ein wichtiger Schritt in einem guten Kompromiss zwischen Ionenrückfluss und σ(55Fe), scheinen zwei LP-GEMs an zweiter und dritter Stelle zu sein und weniger der Lochabstand der letzten GEM.
Die Druckabhängigkeit der Gasverstärkung hat einen großen Einfluss auf die Verstärkung und damit auf die Reproduzierbarkeit von Messungen. Bei einem Höhenunterschied von ca. 400 m ergibt sich eine Änderung der Verstärkung von ca. 35 %. Zusätzlich wird dieser Effekt von lokalen Wetterbedingungen überlagert. Der Einfluss des Luftdruckes kann jedoch mit dem Fit in Abbildung 43 berücksichtigt und damit herausgerechnet werden
Untersuchung von Korrelationseffekten in der Doppelphotoemission von normal- und supraleitendem Blei
(2012)
Im Rahmen dieser Arbeit wurde für die erstmalige Untersuchung der Doppelphotoemission von supraleitenden Materialien eine neue Messapparatur aufgebaut. Mit ihr lassen sich auf eine neue Weise Korrelationseffekte zwischen zwei Elektronen untersuchen, denn beide werden für jedes Reaktionsereignis mit ihrem vollständigen Impulsvektor aufgezeichnet. Die Apparatur kann daher für einen direkten Nachweis der Cooperpaarung in Supraleitern verwendet werden. Dazu wurden ein speziell für diesen Zweck angepasstes Spektrometer, Vakuumsystem und Probenhalter konstruiert. Ein mehrfach verbessertes Vakuumsystem sorgte dafür, dass eine Bleioberfläche über einen Zeitraum von mindestens 15 Stunden nach einer Reinigung gemessen werden konnte. Das Spektrometer erlaubte die koinzidente Messung von Elektronen über einen großen Raumwinkelbereich mit ausschließlich elektrischen Feldern. Dadurch war es auch im supraleitenden Zustand möglich, die Trajektorien der Elektronen zu berechnen. Die Energieauflösung für jedes Elektron lag zwischen 1/30 und 1/50, je nach untersuchtem Emissionswinkel. Ein eigens entwickelter Probenhalter erlaubte es, eine nur von einer Seite thermisch abgeschirmte Probe auf eine Temperatur von 4,5 K zu kühlen. Die Experimente wurden an einer Beamline des Berliner Synchrotrons BESSY durchgeführt.
Von entscheidender Bedeutung für die Auswertung der Daten ist die Qualität der Pulserkennungsroutine. Sie bestimmt die Totzeit der Messapparatur, das heisst wie nahe zwei Elektronen zeitlich und räumlich beieinander liegen dürfen, um noch detektiert zu werden. Sie beeinflusst somit die Beobachtung erheblich. In den als digitalisierte Pulse aufgenommen Rohdaten besteht die Schwierigkeit darin, zwei übereinander liegende Signale als solche zu erkennen und die richtige Zeit beider Signale zu bestimmten. Dies wurde erheblich verbessert, indem ein in Vorabeiten simulierter Doppelpulsalgorithmus modifiziert und erstmalig verwendet wurde. In der Folge konnte die Totzeit deutlich verringert und daher bis zu 20% mehr Doppelereignisse gefunden werden. Darüber hinaus ließen sich Fehler bei der Zeiterkennung nahe aufeinander folgender Pulse korrigieren. Ein in diesem Zusammenhang entwickeltes Programm erzeugte durch die Addition von gemessenen Einzelpulsen künstliche Doppelereignisse mit beliebiger Abstandsverteilung und erlaubte so erstmals eine exakte Simulation der Detektortotzeit mit verschiedenen Pulserkennungsalgorithmen.
Neben den Koinzidenzereignissen wurden auch die Ergebnisse der gewöhnlichen Photoemission untersucht und mit Bandstrukturrechnungen verglichen. Aufgrund der Messmethode wurde keine Vorauswahl bezüglich des Emissionswinkels oder der kinetischen Energie getroffen. Die Ergebnisse der Fermiflächen stimmen innerhalb der erreichten Auflösung mit den theoretischen Vorhersagen überein. Ebenso konnten die Strukturen in den Parallelimpulsspektren der Elektronen, die aus lokalisierten Energieniveaus emittiert wurden, mit der Interferenz der ausgehenden Wellenfunktionen erklärt werden. Eine Simulation dieses Effekts lieferte trotz der vergleichsweise sehr niedrigen Elektronenenergien eine gute Übereinstimmung der wesentlichen Merkmale.
Es wurden Doppelphotoemissionspektren von Blei bei verschiedenen Photonenenergien im Bereich von 21,22 eV bis 40 aufgenommen. Dabei konnten verschiedene Emissionskanäle identifiziert werden. Das Korrelationsloch ist ein sehr grundlegender Effekt, der aufgrund der Coulombabstoßung und des Pauli-Prinzips auftritt und daher bei allen Metallen vorkommt. Betrachtet man das Korrelationsloch im Impulsraum, so führt es dazu, dass zwei gleichzeitig emittierte Elektronen keine ähnlichen Impulsvektoren besitzen dürfen. Durch die verbesserten Pulserkennungsalgorithmen war es möglich, das Korrelationsloch zu untersuchen und über einen weiten Energiebereich zu vermessen. Es zeigte sich wie erwartet als Verarmungszone in der Impulsverteilung eines Elektrons um den Impuls eines zweiten. Ein solcher Effekt ist mit einem einzelnen Detektor sehr schwer zu messen, da die Totzeit die gleiche Auswirkung auf die Spektren hat. Durch eine Simulation konnte ihr Einfluss in jedem Spektrum herausgefunden und so beide Effekte voneinander getrennt werden. Sie stehen damit für einen Vergleich mit einer noch zu entwickelnden theoretischen Vorhersage zur Verfügung.
Aufgrund der bei Blei sehr nahe an der Fermikante liegenden, lokalisierten Energieniveaus konnte der Augerzerfall aus dem Valenzband identifiziert und untersucht werden. Korrelationseffekte zwischen den beiden Elektronen spielten aufgrund des sehr breiten Valenzbandes wie erwartet eine untergeordnete Rolle. Dies ließ sich nachweisen, indem die Energieverteilung durch eine Selbstfaltung der Valenzbandzustandsdichte beschrieben wurde und die Winkelverteilung der Augerelektronen keine Beeinflussung durch die Emissionsrichtung der Photoelektronen zeigte. Beide Beobachtungen deuten auf einen vollständig unabhängigen Emissionsprozess der beiden Elektronen hin. Überraschenderweise zeigte sich aber eine Energieverschiebung des Photoelektrons, abhängig von der kinetischen Energie des Augerelektrons. Dieser in der Gasphase als Post-Collision-Interaction bekannte Effekt sollte aufgrund der schnellen Abschirmung der im Festkörper zurückbleibenden Löcher nicht auftauchen. Die Ursache für die Energieverschiebung ist noch unbekannt.
Für die Identifizierung der Emission von Cooperpaaren wurden Messungen oberhalb und unterhalb der Sprungtemperatur bei verschiedenen Photonenenergien zwischen 20 eV und 40 eV durchgeführt. Verschiedene Spektren wurde nach der Signatur des Prozesses untersucht. Aufgrund der geringen Statistik konnte er nicht identifiziert werden. Demnach konnte auch die theoretische Vorhersage nicht widerlegt werden. Da dieses Experiment aus technischer Sicht äußerst herausfordernd ist, war die Untersuchung von Blei, als einfach zu präparierendes Material mit hoher Sprungtemperatur, naheliegend. Es stellte sich jedoch durch die Auswertung heraus, dass es im Hinblick auf die untersuchte Fragestellung einen wesentlichen Nachteil besitzt. Die Hauptintensität befindet sich im Gegensatz zu Kupfer für alle hier verwendeten Photonenenergien bei niedrigen Elektronenenergien, so dass nur wenige Ereignisse in dem für die Cooperpaaremission interessanten Energiefenster liegen.
Ionenstrahlen werden in der Grundlagenforschung, in der Industrie und der Medizin verwendet. Um die Teilchen für die jeweiligen Anforderungen nutzbar zu machen, werden sie mit Ionenbeschleunigern je nach Anwendung auf eine bestimmte Energie beschleunigt. Eine Beschleunigeranlage besteht dabei aus einer Reihe von unterschiedlichen Elementen: Ionenquellen, Linearbeschleuniger, Kreisbeschleuniger, Fokussierelemente, Diagnosesysteme usw. In jeder dieser Kategorien gibt es wiederum verschiedene Realisierungsmöglichkeiten, je nach Anforderung des jeweiligen Abschnitts und der gesamten Anlage. Im Bereich der Linearbeschleuniger ist als Bindeglied zwischen Ionenquelle/Niederenergiebereich und Nachfolgebeschleuniger der Radiofrequenzquadrupol (RFQ) weit verbreitet. Dieser kann den aus der Quelle kommenden Gleichstromstrahl in Teilchenpakete (Bunche) formen und diese gleichzeitig auf die nächste Beschleunigerstufe angepasst vorbeschleunigen. Desweiteren wird der Teilchenstrahl innerhalb des RFQ kontinuierlich fokussiert, wodurch insbesondere bei diesen niedrigen Energien Strahlverluste minimiert werden. Bei hohem Masse-zu-Ladungs-Verhältnis wird für schwere Ionen eine niedrige Resonanzfrequenz von deutlich unter 100 MHz benötigt. Dies führt zu längeren Beschleunigungszellen entlang der Elektroden, womit durch eine bessere Fokussierung auch höhere Strahlströme beschleunigt werden können. Im Allgemeinen bedeutet eine niedrigere Resonanzfrequenz aber auch einen größeren Querschnitt der Resonanzstruktur sowie einen längeren Beschleuniger. Gegenstand dieser Arbeit ist die Untersuchung unterschiedlicher RFQ-Strukturen für niedrige Frequenzen, wie sie beispielsweise im Linearbeschleunigerbereich der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt Anwendung finden. Zunächst wird die Beschleunigeranlage des GSI Helmholtzzentrums für Schwerionenforschung in Darmstadt und dessen zur Zeit im Bau befindliche Erweiterung FAIR (Facility for Antiproton and Ion Research) kurz vorgestellt. Teil dieser Anlage ist der Hochstrominjektor genannte Anfangsbeschleuniger, der wiederum aus einem RFQ und zwei nachfolgenden Driftröhrenbeschleunigern besteht. Dieser Hochstrominjektor dient als Referenz für die vorliegende Arbeit. In Kapitel 3 wird kurz auf Linearbeschleuniger im Allgemeinen und auf das Grundprinzip und die Eigenschaften eines RFQ näher eingegangen. Anschließend werden verschiedene RFQ-Strukturkonzepte vorgestellt und die Strahldynamik in einem RFQ sowie charakteristische Resonatorgrößen beschrieben. Ausgangspunkt ist der aktuelle RFQ des Hochstrominjektors (Kapitel 4). Dieser IH-RFQ mit einer Betriebsfrequenz von 36 MHz ist seit vielen Jahren in Betrieb und soll für eine verbesserte Effizienz und Betriebssicherheit ein Upgrade erfahren. Dazu wurden Simulationen sowohl der bestehenden Struktur als auch mit Modifikationen durchgeführt und diese miteinander verglichen. Zur Entwicklung eines kompakten Resonators werden in Kapitel 5 verschiedene Splitring-RFQ-Modelle als Alternative zur IH-Struktur mittels Simulationen untersucht. Diese wurden für eine niedrigere Frequenz von 27 MHz entworfen, was der Frequenz des ursprünglichen Wideröe-Beschleunigers (Vorgänger des Hochstrominjektors HSI) entspricht und ebenso wie die 36 MHz des IH-RFQ eine Subharmonische der 108 MHz des Folgebeschleunigers ist. Abschließend wurde noch eine neue RFQ-Struktur, der Splitframe-RFQ, entworfen und untersucht. Auch dieser wurde für eine Frequenz von 27 MHz ausgelegt. Die Ergebnisse dieser Entwicklung, die eine Mischung aus einem Splitring- und einem klassischen 4-Rod-RFQ darstellt, befinden sich in Kapitel 6. Alle Feldsimulationen wurden mit dem Programm Microwave Studio von CST durchgeführt. Zusammenfassend werden die verschiedenen Konzepte anhand der charakteristischen Resonatorgrößen verglichen und ein Ausblick auf weiterführende Arbeiten gegeben.
In den letzten Jahren haben die Forschungsaktivitäten im Bereich Thermoelektrik stetig zugenommen. Das neu erweckte Interesse an der Thermoelektrik ist zurückzuführen auf neue nanostrukturierte Materialien, Quantenschicht-Strukturen und Nanodrähte, welche
eine wesentliche Steigerung der thermoelektrischen Effektivität Z im Vergleich zum Massivmaterial versprechen. Für Nanodrähte ist die größte Steigerung der thermoelektrischen Effektivität zu erwarten. Zur Bestätigung der Theorie bedarf es neuer Messmethoden zur Bestimmung des Seebeck-Koeffizienten S, der elektrischen Leitfähigkeit σ und der Wärmeleitfähigkeit λ, um hieraus eine Steigerung der thermoelektrischen Effektivität Z = (Sexp2)σ/λ experimentell zu bestätigen.
Der Schwerpunkt der Doktorarbeit lag in der Untersuchung thermoelektrischer Eigenschaften von Nanodrähten. Hierzu wurden neueMessmethoden zur Bestimmung der elektrischen und thermischen Leitfähigkeit von Nanodrähten entwickelt.
Die elektrische und thermische Leitfähigkeit von Pt-Nanodrähten wurden mit dem in dieser Arbeit entwickelten λ-Chip gemessen. Die elektrische Leitfähigkeit der Pt-Nanodrähte ist im Vergleich zum Massivmaterial entsprechend der klassischen Size-Effekt-Theorie reduziert. Ebenso wurde eine Abnahme der Wärmeleitfähigkeit beobachtet. Die Ergebnisse stimmen mit den im Rahmen der klassischen Size-Effekt-Theorie zu erwartenden Resultaten gut überein, jedoch bedarf die Reduzierung der Lorenz-Zahl noch einer theoretischen Erklärung.
Im Weiteren wurde die elektrische Leitfähigkeit von BixTe1-x und BixSb1-x-Nanodrähten mit dem λ-Chip bestimmt. Hierzu wurden zunächst unterschiedliche Kontaktmaterialien getestet, um die Diffusion des Kontaktmaterials in den Nanodraht auszuschließen. Als bewährtes Kontaktmaterial stellte sich ein Schichtsystem aus Titan und Gold heraus. Die Ti-Schicht wirkt hierbei als Diffusionsbarriere und Haftvermittler-Schicht. Die Wärmeleitfähigkeit der Bi-haltigen Nanodrähte konnte mit dem λ-Chip nicht gemessen werden, da die Unterätzung der Nanodrähte mittels reaktivem Ionenätzen die Nanodrähte angriff. Als Alternative können die Nanodrähte auf dem λ-Chip mit einem fokusierten Ionenstrahl unterätzt werden. Der Aufwand hierzu ist jedoch relativ hoch und diese Alternative wurde deshalb nicht weiter verfolgt. Als weitere Alternative wurde der Z-Chip entwickelt. Hierbei werden die Nanodrähte auf den fertigen Chip aufgebracht und mittels Elektronenstrahl-induzierter Deposition an den elektrischen Kontakten fixiert. Der Chip ermöglicht die Messung der elektrische Leitfähigkeit in 4-Punkt-Anordnung, der Wärmeleitfähigkeit und des Seebeck-Koeffizienten an
einem einzelnen Nanodraht. Somit ist die Bestimmung der thermoelektrischen Effektivität an einem Nanodraht möglich. DesWeiteren wurden die theoretischen Grundlagen zur Bestimmung der Wärmekapazität an einzelnen Nanodrähten mit dem Z-Chip präsentiert. Zum Zeitpunkt der Durchführung dieser Arbeit fehlte jedoch das notwendige Equipment zur Ausführung der Wärmekapazitätsmessung an einzelnen Nanodrähten.
Des Weiteren wurde die Cross-Plane Methode zur Bestimmung der Wärmeleitfähigkeit an eingebetteten Nanodrähten entwickelt. Analog der Messmethode, welche für die Einzeldrahtmessungen verwendet wird, handelt es sich hierbei um eine stationäre „Joule-Heating“ Methode. Die Temperaturdifferenz wird aus der Widerstandsänderung einer auf die eingebetteten Nanodrähte aufgebrachten Heizschicht bestimmt.Mit derMethode wurde die Wärmeleitfähigkeit von BixTe1-x-Nanodrähten ermittelt.
Die elektrische Leitfähigkeit wurde von BixTe1-x-Nanodrähten unterschiedlicher Zusammensetzung und Herstellungsparameter mit dem λ- und dem Z-Chip bestimmt. Die gemessenen Nanodrähte zeigen sowohl intrinsisches wie extrinsisches Leitungsverhalten verbunden mit einer, im Vergleich zum Volumenmaterial, reduzierten Temperaturabhängigkeit der elektrischen Leitfähigkeit infolge von Oberflächen- und Korngrenzenstreuung der Ladungsträger. Die elektrischen Leitfähigkeitsmessungen stimmen mit Beobachtungen anderer Gruppen gut überein.
Die Wärmeleitfähigkeit konnte an einem einzelnen BixTe1-x-Nanodraht und an eingebetteten BixTe1-x-Nanodrähten gemessen werden. Die Wärmeleitfähigkeit ist gegenüber dem Massivmaterial reduziert. Die Ergebnisse sind in guter Übereinstimmung mit bisher publizierten Ergebnissen von Bismuttellurid-Nanodrähten.
Ziel dieser Arbeit war die Untersuchung eines neuen Prototypen für den Übergangsstrahlungsdetektor im zukünftigen CBM-Experiment. Da der TRD zur Untersuchung des Quark-Gluon-Plasmas im Bereich hoher Baryonendichten bei hohen Kollisionsraten besonders schnell sein muss, wurde ein Prototyp mit einem kleinen Gasvolumen ohne Driftbereich entwickelt. Die Geometrie ist jedoch mit einer Reduzierung der Stabilität der Gasverstärkung verbunden, denn das elektrische Feld in der Kammer ist bei den geringen Abständen von Verformungen des dünnen Kathodenfensters abhängig. Daher wurde eine vielversprechende, veränderte Drahtgeometrie eingeführt: zwischen den Anodendrähten wurden zusätzliche Felddrähte positioniert, um das elektrische Feld im Bereich der Gasverstärkung zu stabilisieren.
Der neue Prototyp mit alternierender Hochspanngung und mit einer Dicke von 8 mm sowie einer aktiven Fläche von 15 x 15 cm2 wurde im Labor mit einer 55Fe-Quelle getestet.
Dazu wurden Strommessungen und eine spektrale Analyse für 25 verschiedene Positionen der Quelle vor der Kammer durchgeführt, sowohl mit der neuen Kammer als auch mit einer Standardkammer als Referenz. Die mit der neuen Kammer verbundenen positiven Erwartungen konnten durchweg bestätigt werden. Sowohl für die Strom- als auch für Energiemessung konnte eine signifikante Verbesserung der Stabilität der Gasverstärkung festgestellt werden. Variationen von über 60 % über die verschiedenen Messpunkte für die Standardkammer konnten mit der Kammer mit alternierender Hochspannung auf unter 15 % reduziert werden. Auch bei einer Variation des differentiellen Drucks, der mit der Ausdehnung des Folienfensters verbunden ist, kann das elektrische Feldes mithilfe der Felddrähte stabilisiert werden. Ebenso kann eine Analyse der Energieauflösung für die mit den Prototypen aufgezeichneten Spektren den stabilisierenden Effekt bestätigen. Eine zusätzliche Verbesserung durch das Anlegen einer negativen Spannung an den Felddrähten konnte allerdings nicht beobachtet werden. Ebenso zeigten die Messungen mit einer zweiten Kammer mit asymmetrischer Geometrie, das heißt die Drahtebene wurde in Richtung der hinteren Kathode verschoben, keine weitere Stabilisierung. Messungen der an den Felddrähten influenzierten Ströme zeigen, dass diese etwa bei einem Drittel der Anodenströme liegen, wobei sie für eine Erhöhung der Felddrahtspannung ebenso wie für die Messung mit der asymmetrischen Kammer leicht ansteigen. Die Ströme an den Felddrähten sind mit der Bewegung der Ionen in der Kammer verbunden, die das elektrische Feld stören können. Durch die Einführung der Felddrähte wird sich ein Teil der Ionen zu diesen bewegen, anstelle den Weg durch die Kammer bis zu den Kathoden zurückzulegen.
Die positiven Ergebnisse für die Kammer mit alternierenden Drähten sind nun Ausgangspunkt für weitere Schritte. Größere Kammern mit einer Fläche von 60 x 60 cm2, wie sie auch im finalen Experiment eingesetzt werden, wurden bereits gebaut und in einem gemischten Elektron-Pion-Strahl am PS (Protonsynchrotron) und mit einem Bleitarget am SPS (Super-Proton Synchrotron) am CERN getestet. Dabei wurde die Dicke des Gasvolumens nochmals – auf 7 mm – reduziert, was die Schnelligkeit des Detektors weiter erhöht, allerdings auch die Stabilität der Gasverstärkung wieder auf die Probe stellt. Die Daten werden derzeit ausgewertet. Eine weitere Analyse auf Basis der Padauslese im Labor ist in Planung. Hierbei ist insbesondere die Verteilung eines Signals über die Pads (Pad-Response-Funktion) von Bedeutung, wobei diese von der Bewegung der Ionen und damit von der Geometrie des elektrischen Feldes beeinflusst wird. Die Einführung der Felddrähte spielt hier eine wesentliche Rolle; insbesondere beträgt der Drahtabständ zwischen den Andodendrähten nun 5 mm, während die Abstände bei den vorhergehenden Generationen bei 2-3 mm lagen.
Auch die Signalform ist von Interesse. Die derzeit ebenfalls in Entwicklung befindliche Ausleseelektronik und die Algorithmen zur Datenverarbeitung sind auf die bekannte Signalform eines Standardprototypen ausgerichtet. Eine veränderte Form müsste entsprechend berücksichtigt werden, um aussagekräftige Ergebnisse zu erhalten. Die Auswertungen in dieser Arbeit zeigen, dass sich die Signalform grundsätzlich nicht von der des Standardprototypen unterscheidet. Wichtig sind auch die Driftzeiten für Elektronen aus der Lawine. Sie spielen eine entscheidende Rolle für die die Schnelligkeit des Detektors. Mit der Einführung der Felddrähte liegen sie zwar zum großen Teil nach wie vor im Bereich eines Standardprototyen mit entsprechender Dicke des Gasvolumens von 8 mm bei bis zu 150 ns, jedoch folgt dann ein sehr langsamer Abfall mit Elektrondriftzeiten von bis zu 450 ns [47]. Eine Verbesserung ist durch ein kleineres Gasvolumen möglich, für einen Anoden-Kathoden-Abstand von 3 mm sinken die maximalen Driftzeiten auf 300 ns. Eine andere Alternative ist das Anlegen einer negativen Spannung an das Eintrittsfenster.
Die minoren Aktinoiden dominieren auf lange Sicht die Radioaktivität des gesamten abgebrannten Brennstoffes und können somit, obwohl sie nur etwa 0,2 % davon ausmachen, als die Hauptverursacher der Endlagerproblematik betrachtet werden.
Neben einer möglichen Endlagerung und den damit verbundenen Problemen, bietet die Transmutation eine Alternative im Umgang mit dieser Art der radioaktiven Abfälle. Hierbei werden die minoren Aktinoide durch Neutroneneinfang zur Spaltung angeregt, wodurch sowohl deren Halbwertszeit, als auch deren Radiotoxizität deutlich reduziert werden soll.
Innerhalb des in der vorliegenden Arbeit vorgestellten MYRRHA-Projektes, das im belgischen Mol realisiert werden soll, soll gezeigt werden, dass die Transmutation in einem industriellen Maßstab möglich ist. Bei MYRRHA handelt es sich um ein sog. ADS (Accelerator Driven System), bei dem ein 4 mA Protonenstrahl mit 600 MeV in einem Target aus LBE (Lead-Bismuth Eutectic) per Spallation Neutronen erzeugen soll, die für die Transmutation in einem ansonsten unterkritischen Reaktor notwendig sind. Da eine solche Anlage enorme Ansprüche an die Zuverlässigkeit des Teilchenstrahls stellt, um den thermischen Stress innerhalb des Reaktors so gering wie möglich zu halten, werden auch hohe Ansprüche an die verwendeten Kavitäten innerhalb des Beschleunigers gestellt.
Besonderes Augenmerk muss hierbei auf den Injektor gelegt werden. In diesem wird der Protonenstrahl auf 16,6 MeV beschleunigt, wobei in seinem aktuellen Design nur noch normalleitende Kavitäten verwendet werden.
Als erstes beschleunigendes Bauteil nach der Ionenquelle fungiert hier ein im Rahmen der vorliegenden Arbeit gebauter 4-Rod-RFQ, dessen HF-Design auf dem bereits am IAP getesteten MAX-Prototypen basiert.
Für den MYRRHA-RFQ konnte eine neue Art der Dipolkompensation für 4-Rod-RFQs entwickelt werden, die bereits in anderen Beschleunigern, wie etwa dem neuen HLI-RFQ-Prototypen eingesetzt werden konnte. Hierbei werden die Stützen, auf denen die Elektroden befestigt werden alternierend verbreitert, um so den Strompfad zum niedrigeren Elektrodenpaar zu verlängern, wodurch sich die dortige Spannung erhöht. Im Zuge dieser Entwicklung wurden Simulations- und Messmethoden erarbeitet, um den Dipolanteil sowohl an bereits gebauten, wie auch an zukünftigen 4-Rod-RFQs untersuchen zu können. Der Erfolg dieser neuartigen Dipolkompensation konnte in den Low-Level-Messungen, die sich an den Zusammenbau des MYRRHA-RFQs anschlossen, validiert werden.
Die CH-Sektion, die im MYRRHA-Injektor auf den RFQ und die MEBT folgt, besteht aus insgesamt 16 normalleitenden Kavitäten. Sie gliedert sich in sieben beschleunigende CHs, auf die ein CH-Rebuncher und weitere acht beschleunigende CHs folgen.
Im Rahmen der vorliegenden Arbeit wurde - aufbauend auf bereits vorhandenen Entwürfen - das Design der ersten sieben CH-Strukturen des MYRRHA-Injektors erstellt und hinsichtlich seiner HF-Eigenschaften optimiert.
Die dabei während den Simulationen zu CH1 auftretende Problematik einer parasitären Tunermode konnte durch zahlreiche Simulationen umgangen werden.
Weiter wurde das aus der FRANZ-CH bekannte Kühlkonzept überarbeitet, um eine hohe thermische Stabilität gewährleisten zu können, wobei mehrere verschiedene Konzepte entwickelt, simuliert und bewertet wurden.
Das so entwickelte HF- und Kühldesign der ersten sieben MYRRHA-CHs dient als Vorlage für die weiteren MYRRHA-CHs sowie für zukünftige Beschleunigerprojekte, wie etwa HBS am Forschungszentrum Jülich.
Im Anschluss an die Designphase wurden die ersten beiden CH-Strukturen des Injektors und ein zusätzlicher dickschichtverkupferter Deckel für CH1 von den Fimen NTG und PINK gefertigt und anschließend Low-Level-Messungen unterzogen, in denen die Simulationsergebnisse bestätigt werden konnten, während diese Messungen zusätzlich als Vorbereitung für die Konditionierung dienten.
Sowohl der MYRRHA-RFQ, als auch die CH-Strukturen wurden nach ihren jeweiligen Low-Level-Messungen duch eine Konditionierung auf den späteren Strahlbetrieb vorbereitet.\\
Die Konditionierung des MYRRHA-RFQ erfolgte in zwei Phasen. Zunächst wurde er in der Experimentierhalle des IAP im cw-Betrieb vorkonditioniert, bevor er nach Louvain-la-Neuve transportiert wurde. In der dort fortgesetzten Konditionierung, die sowohl gepulst, als auch im cw-Betrieb erfolgte, konnten im Rahmen dieser Arbeit 120 kW cw stabil eingkoppelt werden, wobei diese transmittierte Leistung später noch vom SCK auf bis zu 145 kW cw gesteigert wurde. Nach Abschluss der Konditionierung konnten sowohl vom IAP, als auch vom SCK Röntgenspektren aufgenommen werden, um so die Shuntimpedanz bestimmen zu können. Die Ergebnisse dieser Messungen zusammen mit der alternativen Bestimmung der Shuntimpedanz über den R/Q-Wert wurden ebenfalls in dieser Arbeit besprochen.
Die CH-Kavitäten wurden im Bunker der Experimentierhalle des IAP konditioniert, wobei zusätzlich neue Konditionierungsmethoden erarbeitet und erprobt werden konnten. In den abschließenden Untersuchungen, die sich an jede der drei Konditionierungen anschlossen, konnten Erkenntnisse über das thermische Verhalten der CHs, sowie über den Einfluss verschiedener Verschaltungen des Kühlsystems darauf gewonnen werden, die bei der Installation auch zukünftiger CHs von Nutzen sein werden.
Zur vollständigen Charakterisierung der Hochstrom-Protonenquelle im Rahmen des FRANZ-Projektes war es notwendig, die Emittanz dieser zu bestimmen. Die vorliegende Arbeit befasst sich mit der Entwicklung zweier unterschiedlicher Emittanz-Messsysteme, welche in der Lage sind, im kritischen Einsatzbereich hinter der Ionenquelle die Emittanz zu bestimmen.
Die grundsätzliche Problematik der Emittanzmessung an Hochstrom-Ionenquellen liegt in den besonderen Anforderungen, die an diese Messsysteme gestellt werden. Zum einen müssen diese extrem hohe Strahlleistungsdichten und Strahlströme verarbeiten können, ohne Schaden zu nehmen. Zum anderen, was die besondere Herausforderung darstellt, ist es notwendig, dass sie unempfindlich gegenüber Hochspannungsüberschläge sind, da es naturgemäß an einer Ionenquelle zu Hochspannungsüberschlägen kommen kann, welche die sensible und teure Messelektronik schädigen können.
Aus diesem Grund wurde eine Pepperpot-Emittanz-Messanlage weiterentwickelt, welche komplett ohne hochspannungsempfindliche Elektronik auskommt. Diese besteht aus einem effizient wassergekühlten Messkopf mit einer Lochblende aus einer Wolframlegierung. Die Lochgeometrie wurde an die zu vermessende Ionenquelle angepasst. Anstelle einer Multichannelplate und / oder eines Leuchtschirms kommt eine mit Öl vorbehandelte Aluminiumplatte als Schirm zum Einsatz. Aufgrund der Wechselwirkung der, durch die Lochblende hindurch driftenden, Teilstrahlen mit der Oberfläche des Schirms, bilden sich auf diesem, mit bloÿem Auge sichtbare, Kohlenstoffabdrücke aus. Aus der Lage im Ortsraum und der Intensitätsverteilung der einzelnen Abdrücke kann die Phasenraum-Verteilung berechnet werden. Der Nachweis, dass die Intensitätsverteilung der Kohlenstoffabdrücke proportional zur Strahlstromdichtenverteilung eines jeden Abdrucks ist, wurde im Rahmen der Grundlagenuntersuchungen erbracht. Parallel wurde eine zweite, konventionelle Schlitz-Gitter-Emittanz-Messanlage entwickelt und aufgebaut.
Für die Auswertung der Rohdaten wurde eine Analysesoftware entwickelt, welche kompatibel zu beiden Messsystemen ist. Mittels dieser kann aus den Rohdaten die Phasenraum-Verteilung, die Emittanzen (Lage und Fläche) berechnet und in verschiedenen Schnittebenen graphisch dargestellt werden. Ein Hauptaspekt lag in der notwendigen Untergrundreduktion. Insbesondere bei der Analyse der Pepperpot-Schirme tritt bei der Digitalisierung derselben eine nicht physikalische Veränderung der Intensitätsverteilung der Kohlenstoffabdrücke auf. Die erfolgreiche Separation der Abdrücke vom Hintergrund war von entscheidender Bedeutung.
Mit beiden Emittanzmesssystemen konnte im Rahmen dieser Arbeit die Emittanz der FRANZ-Hochstrom-Protonenquelle bestimmt und Abhängigkeiten diverser Strahlparameter untersucht werden. Dabei zeigen die Ergebnisse beider Messsysteme eine sehr gute Übereinstimmung, was die Leistungsfähigkeit des Pepperpot-Messsystems in diesem Einsatzbereich bestätigt.
Für die Erzeugung der, im Rahmen verschiedener Emittanzmessungen, benötigten Plasmadichten wurde die eingespeiste Bogenleistung um 265% von 2.85kW auf 7.56kW erhöht. Die geringe Varianz der gemessenen Emittanzen lässt den Schluss zu, dass sich die Ionentemperatur im Rahmen der Messgenauigkeit in dem untersuchten Bereich nicht merklich ändert. Dies ist insofern bemerkenswert, da dies bedeutet, dass sich die Ionentemperatur nicht signifikant verändert hat, obwohl die Leistung im Plasma stark erhöht wurde.
Im Laufe der Grundlagenuntersuchungen des Pepperpot-Systems wurde festgestellt, dass es unter bestimmten Voraussetzungen zur Bildung von zwei Kohlenstoffabdrücken pro Blendenloch kommen kann. Mit Hilfe von Strahlsimulationen mittels dem Code IGUN sowie vergleichenden Emittanzmessungen konnte nachgewiesen werden, dass bei der Extraktion im sogenannten angepassten Fall zwei Teilstrahlen extrahiert werden. Durch eine geringfügige Erhöhung der Perveanz können diese beiden Teilstrahlen in einen laminaren Ionenstrahl überführt werden.
Im Hinblick auf die Konditionierung der FRANZ-LEBT wurde erstmals im Institut der Transport eines Hochstrom-Ionenstrahls durch einen Solenoiden sowie die Auswirkungen dessen auf die Strahlemittanz untersucht. Aufgrund des projektierten Protonenstroms von Ip = 50mA wurden diese Untersuchungen mit einem vergleichbaren Protonenstrom und einer Strahlenergie von E = 55keV durchgeführt.
Darüber hinaus wurde die zeitliche Entwicklung der Emittanz innerhalb eines Strahlpulses (80Hz,1ms,Ip = 56mA,It = 70mA) hinter dem Solenoiden untersucht. Eine Analyse zeigt, dass die Strahlemittanz innerhalb der Messgenauigkeit entlang des Pulsplateus nahezu konstant bleibt. Jedoch ändert sich die Divergenz des Strahlkerns innerhalb des Zeitraumes des Pulsanstiegs, aufgrund der Raumladungskompensation sowie des ansteigenden Stroms.
In dieser Arbeit wurde die grundsätzliche Funktionsweise und die Eigenschaften von photokonduktiven CW-Thz-Emittern dargestellt. In diesem Rahmen wurde der Prozess des Photomischens und die Funktionsweise und Eigenschaften von Antennen auf Halbleitersubstraten untersucht. Um das erwartete frequenzabhängige Emissionsverhalten zu überprüfen wurde ein Messplatz zur Durchführung von Vergleichsmessungen diverser Emitter aufgebaut. Desweiteren wurde ein Fourier-Transform-Interferometer zur frequenzaufgelösten Detektion im THz-Bereich entwickelt. Zur Charakterisierung der Emitter wurde die emittierte Leistung in Abhängigkeit der Frequenz gemessen. Als abstrahlende Strukturen wurden Dipol- und Patch-Antennen verwendet. Dabei wurde gezeigt, daß eine Einschränkung der Bandbreite eine Verstärkung der Emission in dem verbleibenden Frequenzbereich ergibt. Dies wird bei Dipolantennen durch eine Filterstruktur oder allgemein durch Verwendung einer stark resonanten Antennenstruktur wie der Patchantenne erreicht. Es wurde gezeigt, daß die Einbeziehung der zu höheren Frequenzen abfallenden Leistung des Photomischers notwendig für eine Beschreibung der Resonanzkurve ist. Dadurch verschiebt sich das Maximum der Abstrahlung und liegt im Falle des Dipols nicht mehr bei der Anregung nah der Wellenlänge die gleich der Dipollänge ist. Allerdings wurde auch gezeigt, daß dies nicht für eine Beschreibung der Resonanzkurve ausreicht, und daß zur korrekten Modellierung die Übertragung der Leistung von Photomischer auf die Antenne eingefügt werden muß. Diese ist stark von dem komplexen Widerstand des Photoschalters abhängig. Die Resonanzcharakteristik von Patch-Antennen konnte durch die Berechnung der TMModen eines dreidimensionalen mit einem Dielektrikum gefüllten Resonators erklärt werden. Dieser besitzt aber so viele mögliche Moden, daß schon kleine geometrische Veränderungen die Resonanzfrequenz verändern können. Somit ist die Berechnung der Resonanzfrequenz sehr schwierig, und die praktische Einsetzbarkeit der gezeigten Patch-Antennen gering. Allerdings ist bei Patchantennen anders als bei Dipolen die Quelle der Emission, in diesem Fall der Resonator aus Polyamid, unabhängig vom Substrat auf dem sich die Antenne befindet. Dies macht ein Aufbringen auf ein für die Emission optimales Substrat oder einen Spiegel möglich. Die berechnete Resonanzfrequenz der Filterstruktur in der Zuleitung ist auch die tatsächliche Resonanzfrequenz des Dipols. Hier ist eine Vorhersage und somit ein funktionierendes Design relativ leicht zu erreichen. Allerdings wurde die durch die Filterstruktur in der Zuleitung gewählte Resonanzfrequenz fälschlicherweise für eine Anregung mit der vollen Wellenlänge gewählt und liegt wie die vergleichende Messung mit identischem Dipol ohne Filterstruktur zeigt, nicht im Emissionsmaximum des Emitters. Für zukünftige Designs muß eine detaillierte Berechnung oder eine Messung des Emissionsmaximums des Dipols ohne Verwendung eines Filters vorangehen, um die Resonanzfrequenz des Filters auf dieses Maximum zu legen. Um eine bestimmte Frequenz zu erreichen muß also erst der Dipol ohne Filter so gewählt werden, daß dessen Emissionsmaximum bereits bei der gewünschten Frequenz liegt, um dann die Emission mit Hilfe eines Filters zu verstärken. Ebenfalls muß in der Zukunft um die Anwendbarkeit zu erhöhen, die bolometrische Detektion durch photokonduktive oder elektrooptische Detektion ersetzt werden.
Im Rahmen dieser Arbeit wurden neue Ansätze zur Optimierung eines Alvarez Beschleunigers für Schwerionen untersucht. Dabei dient die Alvarez-Sektion des GSI UNILAC als Untersuchungsfeld, da für den Injektionsbetrieb für FAIR eine Erneuerung dieser Sektion erforderlich ist. Dies wird durch einen neuen und optimierten Alvarez-Beschleuniger gewährleistet, wobei Effizienz und Feldstabilität sowie hohe Verfügbarkeit eine wichtige Rolle spielen. Dazu wurden im Rahmen dieser Arbeit wichtige Simulationsrechnungen durchgeführt, ein Messaufbau zum experimentellen Test eines neuartigen Konzepts zur Feld-Stabilisierung ausgelegt, in Betrieb genommen und anhand von Messungen an einem speziell dafür entwickelten Resonatormodell verifiziert.
Ziel dieser Arbeit war es die experimentelle Demonstration des neuen Konzepts zur Feldstabilisierung eines Resonators. Es sollte geprüft werden, ob die zuvor durchgeführten Simulationen die realen Felder hinreichend zuverlässig vorhersagen. Diese experimentelle Prüfung ist angesichts der sehr hohen Baukosten eines realen Resonators von mehreren Millionen Euro unerlässlich. Vor Beginn dieser Arbeit war ein geeigneter Messaufbau, d.h. im Wesentlichen ein dediziertes Resonator-Modell, nicht verfügbar. Es galt ein Modell zu entwickeln, dessen Geometrie seht gut durch Simulationen modelliert werden kann, dessen Aufbau es aber trotzdem gestattet, eben diese Geometrie lokal zu variieren, um den angestrebten Effekt der Feld-Stabilisierung zu erreichen.
Aufgrund von Fertigungs- sowie Justage-Toleranzen gibt es Störungen der Feldhomogenität auf der Strahl- bzw. Resonatorachse. Die Feldhomogenität quantifiziert die Fluktuationen der tatsächlichen Feldstärke bezüglich des Idealwertes. Ein perfekt homogenes Feld weist keine Abweichungen auf. Bei einer lokalen Störung ist die Feldveränderung am Ort der Störung maximal und verringert sich mit dem Abstand von dieser. Es entsteht eine Verkippung des Feldes. Die Feldverkippung ist definiert als die durch die Störung verursachte Feldabweichung normiert auf die ungestörte Feldverteilung sowie auf die damit verbundene Änderung der Modenfrequenz. Letztere wird mit Tauchkolben kompensiert; die Feldhomogenität allerdings kann nicht wieder hergestellt werden. Die Feldhomogenität muss durch eine andere Maßnahme sichergestellt werden. Bei Alvarez-Kavitäten mit einem Tankradius R < 0,4m werden „post-coupler“ eingesetzt. Post-coupler sind dünne zylinderförmige Kupferstangen die seitlich an die Driftröhren herangefahren werden und an die Resonanzmode des Beschleunigers koppeln. Gleichzeitig wird die Sensibilität auf Störungen im Tank verringert, sodass die homogene Feldverteilung auch bei Störungen gut erhalten bleibt. Bei Beschleunigerstrukturen mit größeren Tankradien werden die post-coupler zu lang und erfordern einen zu großen Aufwand in der Konstruktion. In dieser Arbeit wurde eine alternative Methode für die Stabilisierung der Feldverteilung untersucht, welche die Winkelposition der Driftröhrenstützen nutzt.
Der in dieser Arbeit realisierte Resonator erlaubt die freie Einstellung der Winkel der Stützen sowie die exakte Justage der Driftröhren auf der Strahlachse. Es wurde ein Aluminium-Modell im Maßstab 1:3 zum realen Alvarez-Resonator gebaut. Dieser hatte zunächst eine Länge von ∼ 525mm und neun Driftröhren. Das Modell ist mit einem Profil der Geschwindigkeit der zu beschleunigenden Ionen ausgestattet, sodass die Driftröhren sowie die Spaltabstände entlang des Resonators länger werden. Mittels Simulationen wurden diverse Stützenkonfigurationen ausgewählt, die in den Messungen getestet wurden.
Mit dem Modell konnte gezeigt werden, dass bei bestimmten Stützenanordnungen die nächst höheren Moden weiter von der Betriebsmode entfernt werden können. Die besten Ergebnisse lieferte die Stützenkonfiguration mit fünf nach unten und vier nach oben orientierten Stützenpaaren (V-Stützen-Konfiguration 5+4). Hier liegt die nächst höhere Mode in den Messungen um mehr als 160MHz von der Grundfrequenz (326,7MHz) entfernt (Vergleich originale V-Stützen-Konfiguration: nächste Mode liegt 88MHz von der Grundmode entfernt). Wichtig ist die Eigenschaft der Modenseparation vor allem für den realen Einsatz der Kavität, da hier die Moden nur um wenige MHz voneinander entfernt liegen und dies zu Störungen im Betrieb des Resonators bei hoher HF-Leistung führen kann. Bei ungenügender Modenseparation wird die eingekoppelte HF-Leistung vom Resonator reflektiert. Mitunter können die erforderlichen Felder der Betriebsmode nicht erzeugt werden.
Im Falle einer Feldverkippung stimmt die reale Ionengeschwindigkeit entlang des Tanks nicht mehr mit der bei der Auslegung angenommenen überein. Das führt zu einer Verringerung der longitudinalen Strahlqualität bezüglich der erreichbaren Energieschärfe.
Zur systematischen Prüfung der Methode zur Feldstabilisierung wurden definierte Störungen in den Tank eingebaut. Die erste Driftröhre wurde jeweils um 1, 2 und 3mm verlängert. Da die Zahl der Zellen zu gering war für die statistisch signifikante Feldverkippungs-Messung, musste das Modell auf 21 Spalte erweitert werden. Die besten Ergebnisse bzgl. Feld-Stabilisierung lieferte die V-Stützen-Konfiguration 7+7+6. Hier bleibt das Feld trotz Störstelle homogen. Die Feldverkippung kann auf weniger als die Hälfte derjenigen der originalen V-Stützen-Konfiguration reduziert werden. Für den Fall der originalen Stützenkonfiguration erzeugt die oben beschriebene Störung eine Abweichung der Feldhomogenität von ±28%. Mit der in dieser Arbeit optimierten Stützenkonfiguration verändert sich die Feldhomogenität nur um ±9%.
Die Methode zur Feldstabilisierung mit einer optimierten Stützenanordnung ohne den Einsatz von post-couplern konnte am Modell gezeigt werden. Weiterhin wurde eine bessere Effizienz mit Zunahme der Tanklänge verifiziert. Im realen Alvarez-Tank wird die Anzahl der Spalte um einen Faktor 3 größer sein. Damit ergeben sich durch die erhöhte Anzahl zur Verfügung stehenden Stützen zusätzliche Konfigurationen, um eine Feldhomogenität von besser als ±1% zu gewährleisten.
Auf der Basis dieser Untersuchungen ist bei GSI der Bau einer zunächst ca. 2m langen Sektion des neuen Alvarez-DTL mit 11 Driftröhren vorgesehen. Dabei werden Flansche für verschiedene Stützenkonfigurationen integriert. Ziel ist es hierbei die Konstruktion, die Produktion, die Feldabstimmung sowie den Betrieb bei nominalen FAIR-Parametern zu testen. Sind die Tests erfolgreich, kommt diese Sektion bei der ersten Serie für den neuen Beschleuniger zum Einsatz.
Die Dokumente enthalten jeweils die gleiche Arbeit, allerdings in drei unterschiedlichen Varianten, die sich in der Qualität der Bilder und damit in der Filegröße unterscheiden: * Bilder in voller Druckqualität (8,2 MB): DissWFOM1.pdf (Dokument1) * Photos in reduzierter Auflösung (3,1 MB): DissWFOM2.pdf (Dokument2) * Photos und Zeichnungen in red. Auflösung (1,4 MB): DissWFOM3.pdf (Dokument3)
Das Ziel der vorliegenden Arbeit war der Einbau, die Inbetriebnahme, die Abstimmung und der Test eines Strahlmatchingsystems in eine Zweistrahl-RFQ-Beschleunigerstruktur. Dieses Strahlmatchingsystem wurde entwickelt, um die Beschleunigereinheit des Frankfurter Funneling-Experimentes besser an die nachfolgende HF-Deflektoreinheit anzupassen und um zu zeigen, dass ein Strahlmatching innerhalb der RFQ-Beschleunigerstruktur möglich ist. Des Weiteren wurden die zum Versuch gehörigen Ionenquellen modifiziert, um eine bessere Anpassung der Strahlherstellung an die Beschleunigerstruktur zu erreichen. Die Spannungsverteilung in der Beschleunigerstruktur selbst wurde durch weitergehende Tuningmaßnahmen verbessert, um die Teilchenverluste weiter zu minimieren Mit dem Funnelingexperiment soll experimentell geprüft werden, ob eine Strahlstromerhöhung durch das Zusammenführen mehrerer Ionenstrahlen verschiedener Ionenquellen möglich ist. Solch ein System ist für einige Zukunftsprojekte (HIDIF, SNS-Ausbau, ESS, u.ä.), die große Strahlströme benötigen, die nicht aus nur einer Ionenquelle extrahiert werden können, erforderlich. Das in dieser Arbeit behandelte Strahlmatching ist für das Experiment notwendig, da zu große Teilchenverluste in der Funnelsektion entstanden und somit eine bessere Anpassung des Strahls an den HF-Deflektor erforderlich wurde. Es konnte gezeigt werden, dass die hier verwendete Art der Strahlfokussierung auch in eine komplizierte RFQ-Beschleunigerstruktur integrierbar ist, in der zwei Strahlkanäle auf der gleichen Stützen-Bodenplatten-Konstruktion aufgebaut sind. Die Verlängerung der Endelektroden und die Integration einer Strahlanpassung haben einen positiven Einfluss auf die Transsmission innerhalb des Beschleunigers und verbessern die Transmission durch den Deflektor. Es konnten Energiemessungen und zeitaufgelöste Faradaytassenmessungen der Teilchenbunche sowie zeitaufgelöst Makropulse mit der Faradaytasse gemessen werden. Floureszensschirmmessungen zeigten, dass die beiden Teilchenstrahlen auf eine neue gemeinsame Strahlachse gebogen wurden. Die Energiemessung zeigte, dass die Simulationen mit RFQSIM sehr genau die Endenergie der Teilchen berechnen konnte. Im Strahlkreuzungspunkt hinter dem Zweistrahl-RFQ-Beschleuniger konnten nahezu identische Teilchenbunche erzeugt werden. Diese Teilchenbunche wiesen zudem die in vorherigen Simulationen errechneten Charakteristika auf, in denen eine transversale und eine longitudinale Fokussierung gegenüber dem ungematchten Strahl simuliert wurden. Es konnte auch eine weitere Strahlradiusreduzierung gemessen werden, die auf eine exaktere Justierung der Elektroden zurückzuführen ist. Die Phasenfokussierung konnte verbessert werden, indem die Elektrodenspannung besser an die Strahlmatchingsektion angepasst wurde. Hierzu mussten auch die Einschussparameter der Strahlen in die Beschleuniger angepasst werden, damit die Transmission der Beschleuniger sich nicht verschlechterte. Insgesamt konnte mit den durchgeführten Experimenten erstmals demonstriert werden, dass zwei Strahlen in einem RFQ-Beschleuniger auf einen Punkt hinter dem Beschleuniger angepasst werden können und die Spannungsverteilung in solch einer Struktur durch Tuningmaßnahmen abstimmbar ist. Es konnte erstmals demonstriert werden das über 90% der Teilchen beider Strahlen, bei guten Strahleigenschaften, auf eine neue gemeinsame Strahlachse abgelenkt (gefunnelt) wurden.
Mit dem Dileptonenspektrometer HADES sollen Dielektronen aus Kern - Kern - Stößen in einem hadronischen Untergrund bei hohen Multiplizitäten untersucht werden. Die Ereignisrate von 106 pro Sekunde erfordert eine Auslese der Detektoren innerhalb von 10 mikrosek. Die erwarteten hohen Multiplizitäten führen zu einer hohen Granularität der Detektoren und damit auch der Ausleseelektronik. Durch die Verwendung mehrere Triggerstufen wird eine Aufteilung des Auslesesystems auf mehrere Stufen notwendig. Für die Auslese von ~ 26.000 Driftzellen in 24 Driftkammermodulen wurde ein an die Anforderungen des Detektorsystems angepaßtes Auslesekonzept entwickelt. Analoge Signalaufbereitung und Messung der Driftzeit werden direkt am Detektor auf zwei miteinander kombinierten Karten untergebracht. Die nötige Integrationsdichte im Digitalisierungsteil wird durch die Verwendung eines speziellen Zeitmeßverfahrens (TDC) erreicht, das auf Signallaufzeiten in Halbleiterschaltungen basiert. Im gleichen Chip befindet sich auch eine Datenübertragungseinheit, die in der Lage ist die Daten mit der erforderlichen Geschwindigkeit zu transferieren. Durch zwei weitere Module mit Speicher zum Puffern der Ereignisdaten wird den Anforderungen des Triggerkonzeptes Rechnung getragen. Dem verwendete Zeitmeßverfahren (Ringoszillator) ist eine Abhängigkeit der Zeitauflösung von Temperatur und Versorgungsspannung inherent. Ausführliche Messungen im Rahmen dieser Arbeit zeigen, daß die relativen Abhängigkeiten mit 0,2 Promille jedoch in einem Bereich liegen, in dem sie durch geeignete Maßnahmen kontrolliert werden können. Dazu zählen die regelmäßige Kalibrierung, sowie die Messung und Überwachung von Temperatur und Versorgungsspannung. Die Leistungsaufnahme des Auslesesystems liegt mit 5kW (total) noch um ca. einen Faktor zwei über den Spezifikationen. Sowohl die Tests des TDC Zeitmeßteils, als auch die Simulationen zeigen die Realisierbarkeit des Systems. Dies konnte auch durch Simulationen des gesamten Auslesesystems im Rahmen einer Projektstudie zum Triggerkonzept an der Universität Giessen nachgewiesen werden. Ein abschließender Funktionstest der Ausleseelektronik mit dem TDC an der Prototypdriftkammer im Labor ist gegenwärtig in Vorbereitung. Zur endgültigen Realisierung der Ausleseelektronik bedarf es noch der Reduzierung des Platzbedarfes sowie der Leistungsaufnahme. Zur Reduktion der Größe des Motherboardes wird eine mehrlagige Platine entwickelt. Für die Anbringung der Daughterboards ist eine platzsparende Geometrie vorgesehen. Die Reduktion der Leistungsaufnahme wird hauptsächlich durch neuere Entwicklungen bei den Daughterboards möglich. Auch die Verwendbarkeit des im Rahmen eines anderen Projektes entwickelten SAM - Modules als Konzentrator für die Driftkammerauslese ist zu untersuchen. Da diese Karte auch einen DSP enthält, ist entsprechende Software erforderlich. Die Segmentierung des modularen Spektrometersystems erlaubt den endgültigen Aufbau in mehreren Schritten. Vorgesehen ist, zunächst nur einzelne Segmente oder einzelne Ebenen der Driftkammern aufzubauen, und das komplette System erst zu einem spätern Zeitpunkt in Betrieb zu nehmen. Einzelne Komponenten können durch Neuentwicklungen ersetzt werden.
Die vorliegende Arbeit hat das Ziel, Plasmen koaxialer Beschleuniger in Hinblick auf die Erzeugung hoher Elektronendichten sowie als intensive UV/VUV-Backlighterquelle zu untersuchen. Hierzu wurde zunächst die Geometrie eines einzelnen Beschleunigers charakterisiert und optimiert, um die bestmöglichen Voraussetzungen für die anschließend durchgeführten Untersuchungen zur Kollision und Kompression der erzeugten Plasmen zu schaffen.
Das Funktionsprinzip des verwendeten Plasmabeschleunigers basiert auf einer Lorentzkraft, die aus dem Stromfluss zwischen zwei koaxial angeordneten Elektroden und dem damit verbundenen Magnetfeld resultiert. Da weder Stromdichte noch Magnetfeld homogen sind, wirkt auch die Lorentzkraft inhomogen auf die Plasmaschicht. Unter Einbeziehung von Simulationen wurde der Abstand zwischen den Elektroden auf 2,5 mm gesetzt, sodass die Ausprägung dieser Inhomogenität möglichst gering gehalten wird. Um ein Pinchen des Plasmas am Ende der Elektroden zu vermeiden haben die Elektroden im Gegensatz zu Plasma Focus Devices die gleiche Länge. Der mit 130 nH niederinduktive elektrische Aufbau ermöglicht die zur Ausbildung einer Plasmaschicht erforderlichen Stromanstiegsraten in der Größenordnung von 10^11 A/s.
Die Messung der Geschwindigkeit der Plasmaschicht erfolgte mit einem Array aus sechs Dioden, die gleichzeitig die Geschwindigkeitsabnahme im Rezipienten dokumentieren. Zusätzlich wurden die Messungen mit Kameraaufnahmen verglichen. Bei einer Elektrodenlänge von 100 mm konnten mit dem verwendeten Heliumgas Schichtgeschwindigkeiten von bis zu (79,49 ± 7,98) km/s erreicht werden. Die Untersuchung von Elektroden mit 200 mm Länge verfolgte das Ziel, durch die größere Beschleunigungszeit höhere Geschwindigkeiten und kinetische Energien der austretenden Plasmaschicht zu erreichen. Es zeigte sich jedoch, dass es hierbei zur Ausbildung einer zweiten Entladung und einer damit verbundenen Abbremsung des Initialplasmas kommt. Die Untersuchungen ergaben, dass die optimale Elektrodenlänge dadurch gegeben ist, dass der Austritt des Plasmas aus dem Beschleuniger zum Zeitpunkt des ersten Stromnulldurchgangs erfolgt. Für die Berechnung der optimalen Elektrodenlänge wurde ein Skalierungsgesetz gefunden, die auf experimentellen Ergebnissen und Simulationen basiert.
Mit spektroskopische Messungen der Stark-Verbreiterung der Hβ-Linie konnte die Elektronendichte des Plasmas zeit- und ortsintegriert bestimmt werden. Die hierbei erzielte Maximaldichte von (6,83 ± 0,83) · 10^15 cm^-3 wurde bei 9 kV und 70 mbar gemessen. Die nach der Boltzmann-Methode zeit- und ortsintegriert bestimmten Elektronentemperaturen bewegt sich bei etwa 1 eV.
Nach ausreichender Charakterisierung des Einzelbeschleunigers wurde das Experiment um einen zweiten, baugleichen Plasmabeschleuniger erweitert, um die planare Kollision zweier Plasmen zu untersuchen. Die maximal gemessene Elektronendichte von n max e = (1,36 ± 0,21) · 10^16 cm^-3 bei 9 kV und 70 mbar stellt im Vergleich zum Einzelplasma eine Steigerung um einen Faktor von 2,48 dar und ist mit einer Temperaturerhöhung einhergehend. Diese Elektronendichteerhöhung lässt sich nicht durch einfaches Durchdringen der Schichten erklären. Vielmehr muss es in der Kollisionszone zu Wechselwirkungsprozesse in Form von Kompression, zur Erzeugung neuer Ladungsträger oder der Kombination aus beidem kommen.
Das Spektrum im UV/VUV-Bereich weist Linien von ab 85 nm auf. Dies stellt eine Verbesserung gegenüber dem Einzelbeschleuniger dar, bei dem die hochenergetischste Spektrallinie erst bei 97 nm gemessen wurde. In der Kollisionskonfiguration mit einem Beschleunigerabstand von 30 mm steigt die integrierte Gesamtintensität des Spektrums bis 300 nm zudem um einen Faktor von etwa 5,2.
Als Alternative zur Plasmakollision wurde die Kompression des Plasmas des Einzelbeschleunigers durch unterschiedliche Trichtergeometrien untersucht. Die untersuchten Trichter der ersten und zweiten Generation unterscheiden sich im Wesentlichen im Durchmesser der kleineren Öffnung. Dieser wurde basierend auf Simulationen von 5 mm auf 0,5 mm reduziert. Die Dichtediagnostik der ersten Trichtergeneration erfolgte hierbei über Hα-Linie, da die Verbreiterung der Hβ-Linie zu stark und daher nicht mehr anwendbar war. Die Auswertung der Halbwertsbreiten der Hα-Linie führt zu Elektronendichten in der Größenordnung von bis zu 1018 cm−3 bei Spannungen von 9 kV. Diese Steigerung um 1,5 bis 2,5 Größenordnungen im Vergleich zum Einzelbeschleuniger ist deutlich höher als das Verhältnis der Flächen des initialen Plasmas bzw. dem Ende des Trichters von etwa acht.
Der Trichter mit verringerter Öffnung wurde bei 5 kV und 5 mbar vermessen, um die mechanische Belastung durch den hohen Druck gering zu halten. Die Bestimmung der Elektronendichte erfolgte durch die Verbreiterung der Kupferlinie bei 479,4 nm nach den quadratischen Stark-Effekt. Trotz der im Vergleich zur ersten Trichtergeneration reduzierten Entladungsenergie und verringertem Druck sind die gemessenen Elektronendichten ebenfalls bei bis zu 10^18 cm^-3.
Durch die Kompression des Plasmas weist das Spektrum im UV/VUV-Bereich bereits Linien ab Wellenlängen etwa 53 nm auf, wobei es unter Berücksichtigung der Transmissionsgrenze von Helium bei 50 nm denkbar ist, dass das Plasma noch niedrigere Wellenlängen emittiert.
Aufgrund der gesammelten Ergebnisse lässt sich festhalten, dass sich die Elektronendichte sowohl durch die Kollision zweier Plasmen als auch durch die Kompression in Trichtergeometrien steigern lässt. Der Verdichtungseffekt der Trichterkompression ist hierbei um ein vielfaches höher, als bei der Plasmakollision. Dies spiegelt sich auch im UV/VUV-Spektrum wider. Beide Versuchsanordnungen eignen sich als Linienstrahler, allerdings weist das Spektrum der Trichterkompression Linien deutlich höherer Anregungszustände auf.
A model for the quantum yield of the coloration caused by UV-light in spiropyran layers is described. This model allows to calculate the sensitivity of layers having different compositions. The mechanism concerning the stability of the coloration is essentially clarified. Calculations of the stability for layers of different compositions are possible by a model describing the mechanism approximately.
Die Dissertation betrachtet zunächst die Anatomie der Lautentstehung und die Historie von Untersuchungen zu Sprechtraktakustik (u.a. Ibn Sina, Hook, Mical, Kratzenstein, Kempelen, Faber, Wheatstone, Helmholz, Riesz, Dunn, Chiba, Kajiyama, Kelly, Lochbaum, Saito, Itakura, Burg ) und geht insbesondere auf das Rohrmodell zu Beschreibung der Vokaltraktakustik ein.
Mittels Finiter-Differenzen wird die Aksutik der Sprechens dann dreidimensional beschrieben, und die zuätzlich auftretenden Effekte betrachtet. Fur die sich beim Sprechen schnell bewegende Mundhöhle wird ein Verfahren entwickelt und untersucht, mittels Sprachsignalen durch inverse Filterung und MRT-Aufnahmen die räumliche Konfiguration zu bestimmen. Für den Nasaltrakt wurden dreidimensional abbildende Verfahren aus der medizinischen Diagnostik verglichen (MRT und CT), und anhand eines Computer-Tomographischen Datensatzes die akustischen Vorgänge dreidimensional bestimmt.
Das CBM-Experiment konzentriert sich auf die Untersuchung der Eigenschaften des Quark-Gluon-Plasmas bei hohen Netto-Baryonendichten und moderaten Temperaturen. An der zukünftigen Beschleunigeranlage FAIR an der GSI findet das Experiment, neben vielen anderen Experimenten, ihren Platz. Der TRD ist, neben dem RICH, STS und TOF, einer der zentralen Detektoren im CBM-Experiment. Der TRD nutzt dabei den physikalischen Effekt der Übergangsstrahlung, die durch ein geladenes Teilchen beim Durchqueren einer Grenze zweier Medien mit unterschiedlichen Dielektrizitätskonstanten mit einer gewissen Wahrscheinlichkeit entsteht, um Elektronen von Pionen trennen zu können. Im Jahr 2017 wurde an der DESY 4 TRD-Prototypen in einer Teststrahlzeit getestet. Dabei handelt es sich um große TRD-Module mit den Maßen 95 · 95 cm2 , was dem finalen Design sehr nahe kommt. Die Untersuchung der DESY-Daten in Kapitel 5 brachte große Problematiken in den Daten zum Vorschein. Die Hauptprobleme der DESY-Daten sind: 1) Bug des SPADIC-Chips 2.0, bei der FN-Trigger zeitlich verschoben wurden; 2) schwache und suboptimale Trigger-Bedingung, wodurch sehr viel Rauschen aufgenommen wurde. Die Daten müssen für weitere Auswertung aufbereitet werden, wobei sehr viel Information und Statistik verloren geht, da einige Daten durch diverse Probleme nicht mehr rekonstruierbar sind. Kapitel 6 beschäftigt sich mit der Simulation der Detektorantwort und geht genauer auf die einzelnen Schritte, die zur Simulation des vom SPADIC erzeugten Pulses benötigt werden, ein. Am Ende werden Ergebnisse aus beiden Datensätzen miteinander verglichen. Um einen optimalen Vergleich zu gewähren, wird die Simulation bestmöglich an die Einstellungen in der Teststrahlzeit angepasst. Hauptsächlich geht es um die Erhöhung des Gasgains und der Verschiebung der Peaking-Zeit des Pulses. Im Allgemeinen können wir in der Simulation einige Effekte, die auch in den DESY-Daten vorkommen, nachsimulieren. Wir erhalten zum Teil sehr unterschiedliche Ergebnisse in der Simulation, deren Richtigkeit nicht verifiziert werden kann, da die Daten aufgrund der Probleme unzuverlässig werden. Durch die Analyse der DESY-Daten konnten wir die Problematik in den Daten besser verstehen. Eine sinnvolle Anpassung der Simulation wird durch die Unzuverlässigkeit der DESY-Daten unmöglich. Für die Optimierung der Simulation müsste man einen Vergleich mit neueren, zuverlässigeren Daten aus zukünftigen Teststrahlzeiten nehmen.
In dieser Arbeit wurde gezeigt, ob Simulation und Messung der realen Struktur übereinstimmen. Dazu wurde mit Hilfe der Störkörpermessmethode über die Phasenverschiebung die elektrische Feldverteilung einer IH-Struktur bestimmt (unter Variation der Tunerhöhe). Die Feldverteilung von Simulation und Messung sind im Kurvenverlauf gleich, allerdings ist die Stärke der Simulationsfelder um einen Faktor 1,1 – 1,2 größer...
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
Im Rahmen des FAIR Projekts sollen in den Ringbeschleunigern SIS18 und SIS100 Ionenstrahlen mit höchster Intensität beschleunigt werden. Um die Raumladungsgrenze zu erhöhen, werden dazu Ionen mit mittleren Ladungszuständen verwendet. Diese haben aber größere Wirkungsquerschnitte für Umladung in Wechselwirkungen mit im Strahlvakuum vorhandenen Restgasteilchen als hochgeladene Ionen. Kommt es zu Strahlverlusten, lösen die verlorenen Ionen am Auftreffort weitere Restgasteilchen von den Wänden des Strahlrohrs und erhöhen so lokal die Restgasdichte. Die Qualität des Vakuums ist deshalb für einen stabilen Strahlbetrieb essentiell.
Im SIS100 kommen kryogene Vakuumkammern zum Einsatz, deren Wände als Kryosorptionspumpen für Wasserstoff und Helium dienen und alle schwereren Restgaskomponenten durch Kryokondensation binden können. Um die Vorhersagegenauigkeit des abteilungsinternen Programms „StrahlSim“ zur Simulation des dynamischen Vakuums zu verbessern, wurden im Rahmen dieser Arbeit das Saugvermögen und die Pumpkapazität für Wasserstoff auf einer Edelstahloberfläche untersucht.
Dazu wurde ein UHV Teststand entwickelt und aufgebaut. Dieser besteht aus einem warmen Diagnoseteil, mit dem der Gasfluss in und aus dem kalten Teil überwacht werden kann. Im kalten Teil befindet sich eine kleine Kammer mit Edelstahlwänden, für die verschiedene Temperaturen zwischen 7 und 31 K eingestellt werden können. Diese Kammer repräsentiert ein kleines Stück kryogenes Strahlrohr. Bei verschiedenen Temperaturen und Oberflächenbelegungen wurden dort jeweils das Saugvermögen und der sich einstellende Gleichgewichtsdruck im Bereich von 4E-11 bis 2E-7 mbar gemessen. Die Gleichgewichtsdrücke bei einer bestimmten Temperatur bei wachsender Oberflächenbelegung werden als Adsorptionsisotherme bezeichnet. Sie ergeben sich aus dem Gleichgewicht von thermisch desorbierenden Teilchen und deren Readsorption. Die kalte Kammer wird umgeben von einem Kryostaten, bestehend aus thermischem Schild und Außentank. Für diesen wurde die thermische Auslegung durchgeführt, die Konstruktion erfolgte extern.
Aus dem gemessenen Saugvermögen konnte die Haftwahrscheinlichkeit berechnet werden. Sie stellte sich als im Rahmen der Messgenauigkeit als unabhängig von Belegung und Temperatur heraus. Ihr Wert liegt nahe 1 mit einer Unsicherheit bis 0,1. Da sämtliche Oberflächen in den kryogenen Bereichen als Pumpen wirken, ist dieser Wert mehr als ausreichend um die für den stabilen Strahlbetrieb nötigen Vakuumbedingungen zu erreichen und stabil zu halten.
Die Isothermen hingegen sind stark von der Temperatur abhängig. Über 18 K liegen die Gleichgewichtsdrücke bereits bei minimalen Oberflächenbelegungen in für den Strahlbetrieb nicht tolerierbaren Bereichen. Mit sinkender Temperatur können die Oberflächen immer mehr Gas aufnehmen. Doch auch bei den tiefsten vermessenen Temperaturen zwischen 7 und 8 K ist ein stabiler Strahlbetrieb nur bei Belegungen von deutlich unter einer halben Monolage, etwa 5E14 Wasserstoffmoleküle pro cm², möglich.
Diese Ergebnisse wurden in StrahlSim implementiert. Zunächst wurde der Code für die Simulation von teilweise kryogenen Beschleunigern angepasst. Die wichtigste Änderung war die Einführung von thermischer Transpiration. Sie bewirkt, dass die Restgasteilchendichte an Kalt-Warm-Übergängen auf der kalten Seite erhöht ist. Mit dieser Änderung und den implementierten Ergebnissen aus den Messungen wurden Simulationen für das SIS100 durchgeführt. Mit den Isothermen konnten die bei verschiedenen Temperaturen und Bedeckungen zu erwartenden Durchschnittsdichten berechnet werden, die wiederum bestimmend für die Strahlverluste sind. Des Weiteren wurde ein mehrwöchiger Dauerbetrieb simuliert. Es zeigt sich zunächst eine Verschlechterung der Vakuumbedingungen auf Grund der langsamen Sättigung der Oberflächen. Diese verlangsamt sich aber immer mehr und stabilisiert sich bevor zu hohe Restgasdichten auftreten. Im schlechtesten Fall sind die kryogenen Oberflächen so weit gesättigt, dass sie genauso viele Gasteilchen thermisch desorbieren wie sie adsorbieren, sie also praktisch passiv sind. Auch dann wäre die Gleichgewichtsdichte im Beschleuniger noch tief genug, um Verluste durch Umladung hinreichend niedrig zu halten.
Als problematisch könnten sich hingegen dynamische Temperaturerhöhungen der Kammerwände erweisen. In diesem Fall stellt sich praktisch verzögerungsfrei der durch die neue Isotherme definierte Gleichgewichtsdruck ein, der auch bei wenigen Kelvin Temperaturunterschied bereits um mehrere Größenordnungen höher liegen kann. Sind Temperaturerhöhungen während des Betriebs zu erwarten, sollten die Oberflächen so frei wie möglich von Wasserstoff gehalten werden. Dazu kann man sich eben diesen Effekt zunutze machen: Durch temporäres Anwärmen der Oberflächen unmittelbar vor dem Strahlbetrieb können die Oberflächen schnell von Wasserstoff befreit werden, der dann von lokalisierten Pumpen aus dem System entfernt werden kann.
Mit dieser Arbeit wurde gezeigt, wie sich Störung und Kopplung auf ein System zwei gekoppelter Resonatoren auswirkt. Das Einfahren des Tauchkolbens birgt die Möglichkeit die Eigenfrequenzen des Systems zu verändern und die Feldverteilungen anzupassen. Ein Tauchkolben auf der anderen Seite des Resonators wäre für die Anschauung der Störung praktisch gewesen, hätte jedoch keine weiteren Erkenntnisse geliefert.
Es ist möglich mit zwei verschiedenen eingekoppelten Frequenzen eine Schwebung im Resonator zu erzeugen. Dies könnte theoretisch für eine Hochfrequenzstrahlablenkung nützlich sein. Mit einer speziell auf Strahlablenkung optimierten Resonatorgeometrie gilt es dies praktisch zu überprüfen.
Die vorliegende Dissertation behandelt das Thema der Wechselstromleitfähigkeit nano-granularer Metalle, welche mit Hilfe der fokussierten elektronenstrahlinduzierten Direktabscheidung (FEBID) hergestellt wurden, sowie der dielektrischen Relaxation in metall-organischen Gerüstverbindungen (MOFs). Sie war eingebettet in das interdisziplinäre Projekt „Dielectric and Ferroelectric Surface-Mounted Metal-Organic Frameworks (SURMOFs) as Sensor Devices“ im Rahmen des DPG-Schwerpunktsprogramms „Coordination Networks: Building Blocks for Functional Systems“ (SPP 1928, COORNETs). Dabei verfolgt sie ein Sensorkonzept zur selektiven Detektion von Analytgasen. Der zentrale Erfolg der Arbeit besteht dabei in neuen Erkenntnissen über die Wechselstromleitfähigkeit nano-granularer Pt(C)-FEBID-Deponate. Die hierbei gewonnen Erkenntnisse können in Zukunft einen weiteren Baustein in der theoretischen Beschreibung dieses grundlegend interessanten und für sensorische Anwendungen wichtigen Teilgebiets der Festkörperphysik darstellen.
Nichtinvasive Detektoren für ortsaufgelöste Strahlprofilmessungen gewinnen mit zunehmenden Strahlströmen und -energien immer mehr an Bedeutung. An der Universität Frankfurt im Institut für Angewandte Physik (IAP) wird ein “Figure Eight”-förmiger magnetostatischer Speichering mit Stellarator-Konfiguration (F8SR) entwickelt. Einige Aspekte der Strahldynamik in einem solchen Ring können mit einem experimentellen Aufbau am IAP untersucht werden. Die Herausforderung bei der Entwicklung eines Detektors an einem (F8SR) liegt auf der einen Seite darin den Strahl nichtinvasiv zu detektieren, und andererseits müssen magnetisch unempfindliche Komponenten für den Detektor ausgewählt werden. Dabei sollte der Detektor so flexibel sein, dass der Strahl entlang der Flugbahn transversal gemessen werden kann. In dieser Arbeit geht es um einen Detektor mit radial um den Strahl angeordneten Photodioden, mit deren Hilfe die strahlinduzierte Fluoreszenz detektiert wird und mit einem geeigneten Rekonstruktionsverfahren, Strahlposition und den Strahldurchmesser ermittelt werden kann. Die Messungen werden mit einem weiteren schon erprobten Detektor - einem Szintillationsschirm verglichen.
Ein Laserblitz von unvorstellbarer Intensität pulverisiert im Labor ein Molekül. Wachsam zeichnen die Instrumente die Flugbahn und Geschwindigkeit jedes Bruchstücks auf. Physiker gewinnen daraus hochpräzise Informationen über die Molekülstruktur. Auch links- und rechtshändige Formen lassen sich unterscheiden.