Refine
Year of publication
Document Type
- Doctoral Thesis (216)
- Article (100)
- diplomthesis (97)
- Bachelor Thesis (67)
- Contribution to a Periodical (46)
- Master's Thesis (41)
- Book (31)
- Diploma Thesis (30)
- Part of Periodical (27)
- Preprint (7)
Language
- German (692) (remove)
Has Fulltext
- yes (692) (remove)
Is part of the Bibliography
- no (692)
Keywords
- Ionenstrahl (9)
- Strahldynamik (7)
- Teilchenbeschleuniger (7)
- Emittanz (5)
- RFQ (5)
- Toroidales Magnetfeld (5)
- Beschleunigerphysik (4)
- Ionenbeschleuniger (4)
- Schwerionenphysik (4)
- Speicherring (4)
Institute
- Physik (692) (remove)
Im Rahmen dieser Arbeit wurde die Analyse von Dielektronen im Bereich niedriger Massen für zwei unterschiedliche Magnetfeldstärken des ALICE-L3-Magneten untersucht. Hierfür wurden zwei Arten von Simulationen, volle Simulationen und schnelle Simulationen, jeweils für die Magnetfeldeinstellungen 0, 2 T und 0, 5 T erstellt und verglichen. Zunächst wurde die Konsistenz der vollen und schnellen Simulationen anhand von Monte Carlo Truth Spektren überprüft. Es zeigte sich eine gute Übereinstimmung der invarianten Massenspektren mit Ausnahme der f-Resonanz, die in den schnellen Simulationen fast 3-mal höher lag. Dann wurden die vollen Simulationen der Magnetfeldeinstellung 0, 5 T mit ALICEMessdaten desselben Magnetfeldes verglichen. Hierbei zeigte sich, dass die Messdaten im Hinblick auf die Transversalimpulsverteilung der einzelnen Elektronen um einen Faktor 1, 2 bis 2 und im Hinblick auf die Transversalimpulsverteilung der Paare um einen Faktor 2 bis 2, 5 über den Simulationen lagen. Dies konnte zum Teil auf eine Kontamination durch Pionen zurückgeführt werden. Das Signal-Untergrund-Verhältnis war mit 0, 99 für die Simulationen 6-mal größer als das der Messdaten mit 0, 16. Die normierte Signifikanz der Simulationen von 0, 0044 lag 3,5-mal über dem Wert 0, 0012 der Messdaten. Für die schnellen Simulationen wurden die Effizienzen für einzelne Elektronen benötigt. Diese wurden mithilfe von Boxensimulationen erstellt. Es wurde zwischen den Elektronidentifikationsmethoden TOF optional und TOF required und den Magnetfeldstärken 0, 2 T und 0, 5 T unterschieden. Die Boxensimulationen ergaben, dass bei einem Magnetfeld von 0, 2 T insgesamt mehr Elektronen rekonstruiert und identifiziert werden konnten. Außerdem konnte die Analyse zu niedrigeren Transversalimpulsen hin ausgedehnt werden. Die schnellen Simulationen zeigten, dass eine Reduktion des Magnetfeldes von 0, 5 T auf 0, 2 T eine Erhöhung der Anzahl an gemessenen Paaren um einem Faktor 2, 0 für die Elektronidentifikation TOF optional und um einem Faktor 6, 0 für die Elektronidentifikation TOF required zur Folge hat. Die vollen Simulationen der Elektronidentifikation TOF optional ergaben nach Reduktion des Magnetfeldes eine Verbesserung des Signal-zu-Untergrund-Verhältnisses um 11% von 0, 98 auf 1, 11. Die Signifikanz konnte von 0, 0043 auf 0, 0060, d.h. um 40%, verbessert werden. Für die Elektronidentifikation TOF required erhielt man ein Signal-zu-Untergrund-Verhältnis von 16, 5 (0, q 2 T) und 19, 1 (0, 2 T). Jedoch war die normierte Signifikanz (sgn = sqrt((s exp 2)/2*B)* (1/sqrt(NEv)))) für das reduzierte Magnetfeld 100% höher und lag bei 0, 086, während sie für 0, 5 T einen Wert von 0, 0043 hatte. In der vorliegenden Arbeit konnte gezeigt werden, dass eine Reduktion der Magnetfeldstärke des ALICE-L3-Magneten von 0, 5 T auf 0, 2 T zu Verbesserungen in der Messung von Elektron-Positron-Paaren führt. Als Fazit kann angenommen werden, dass eine Datennahme bei einem reduzierten Magnetfeld von 0, 2 T sinnvoll erscheint.
In dieser Arbeit wurde der Entwurf eines Rebunchers für die Ionenstrahltherapieanlage MedAustron mit Hilfe des Simulationsprogramms Microwave Studio entwickelt. Es wurde ein neues Design in Anlehnung an einen Spiralresonator gewählt, wobei der Spiralarm aus einem wassergekühlten induktiven Teil und einem aus massivem Kupfer gefertigten kapazitiven Teil besteht.
Die Frequenz der ersten Eigenmode liegt zwischen 217,8 MHz (ohne Keramik) und 217,3 MHz (mit Keramik). In der Realität könnte die Frequenz von diesem Wert etwas abweichen (bis zu 0,5 MHz), da einerseits Details wie Ein- und Auskopplung und andererseits reale Effekte wie Oberflächenverunreinigung oder kleinste Abweichungen in der Geometrie in Microwave Studio nicht berücksichtigt werden können. Außerdem wird die Genauigkeit der Simulationen durch die Anzahl Gitterpunkte limitiert. Um diese Eekte kompensieren zu können, wurden die Auswirkungen eines Tuners auf die Frequenz untersucht. Hierbei ergab sich für eine Tunerhöhe von 40 mm eine Frequenzveränderung von 220 kHz, bei 70 mm sind es schon 1,224 MHz.
Da sich bei dieser Frequenz und Geometrie ein Laufzeitfaktor von nur 0,66 auf der Strahlachse ergibt und die Spannung dort zusätzlich um den Faktor 0,983 niedriger ist als am Spaltrand, muss bei einer effektiven Shuntimpedanz von 13,4 M Ω/m eine Leistung von 2,46 kW aufgebracht werden. Nähere Untersuchungen der elektrischen Felder fürten zu dem Ergebnis, dass der Grund für den niedrigen Laufzeitfaktor dynamische Eekte sein müssen. Die "statischen Felder" verhalten sich wie erwartet.
Aber auch die reale Shuntimpedanz und somit auch die reale Verlustleistung können beträchtlich von den berechneten Werten abweichen. Es wird erwartet, dass die Shuntimpedanz im ungünstigsten Fall nur 60% der simulierten Impedanz beträgt, weswegen man mit einer Verlustleistung von 4,09 KW rechnen muss.
Der Rebuncher soll zusammen mit der Beschleunigeranlage in Österreich im Jahr 2013 in Betrieb gehen, aber bereits in 2012 zu Strahlexperimenten am CERN zur Verfügung stehen.
Diese Arbeit beschäftigt sich mit dem Aufbau und der Kalibrierung eines Neutronendetektorarrays für niedrige Energien (Low Energy Neutron detector Array, kurz „LENA“) am kommenden R³B-Aufbau (Reactions with Relativistic Radioactive Beams) am FAIR (Facility for Antiproton and Ion Research) an der GSI in Darmstadt. Die Detektion niederenergetischer Neutronen im Bereich von 100 keV bis 1 MeV ist nötig, um Ladungsaustauschreaktionen, speziell (p,n)-Reaktionen in inverser Kinematik zu untersuchen. In diesem Energiebereich ist die Detektion äußerst schwierig, da Methoden für thermische als auch hochenergetische (100 MeV bis 1 GeV) Neutronen versagen. Neben dem Aufbau des Detektors wird die Bedeutung des Experiments für die nukleare Astrophysik verdeutlicht. Der theoretische Teil dieser Arbeit legt Grundlagen zum Verständnis für den Nachweis von Neutronen, die Funktionsweise des LENA-Detektors und den damit nachweisbaren Kernreaktionen. Des Weiteren wurde eine Simulation des Detektors mit GEANT4 (GEometry And Tracking), einer C++ orientierten Plattform für Simulationen von Wechselwirkungen von Detektormaterial mit Teilchen, durchgeführt. Die Ergebnisse wurden zur Auswertung von Messungen, die im Rahmen einer Strahlzeit im März 2011 an der Physikalisch Technischen Bundesanstalt (PTB) in Braunschweig durchgeführt wurden, herangezogen. Ziel der Arbeit ist es, die Effizienz des Detektors zu bestimmen.
Der für diese Arbeit entwickelte Prototyp zur Neutronenproduktion hat sich bereits während der ersten Tests bewährt, womit schnell festgestellt wurde, dass sich das Grunddesign des Prototypen für die späteren Experimente am FRANZ eignet. Wie man gesehen hat, entstand die verwendete Revision in mehreren Schritten, da immer wieder aus gemachten Planungsfehlern gelernt werden musste. Zusätzlich gab es bei der Planung mehrere Beschränkungen, die beachtet werden mussten, dazu zählt unter anderem die Form des Prototypen, um ohne Probleme den Bedampfungstand des FZK verwenden zu können.
Das neue Kühlsystem verlangte während der Planung besonderer Aufmerksamkeit. Bei Experimenten wie am IRMM oder FZK kann aufgrund der geringen Leistung des Beschleunigers mit einer Luftkühlung oder einfachen Wasserkühlung gearbeitet werden. Diese Arten der Kühlung beeinflussen den Neutronenfluss nicht. Bei FRANZ muss aufgrund der im Vergleich zu den vorher genannten Experimenten viel höheren Leistung von 4 kW, ein gänzlich neuer Kühlungsansatz verwendet werden. Um die Leistung vom Target abzuführen, muss nun ein viel größerer Bereich gekühlt werden, um die entstehenden Temperaturen unter Kontrolle zu halten. Auch das Vorhersagen der entstehenden Temperaturen war nur unter Annahme mehrerer Parameter möglich. Durch die komplexe Struktur des Prototypen stieß die Berechnung des Temperaturprofis mit einfachen analytischen Mitteln schnell an ihre Grenzen. Aus diesem Grund wurden für diese Arbeit jeweils nach der Einführung der Wärmeleitung vereinfachte Annahmen gemacht, um dennoch Berechnungen durchführen zu können. Dass dies nicht immer zu exakten Ergebnissen führt, wurde während des Prozesses mehrfach festgestellt. Dennoch konnten so die Größenordnungen der Temperaturen bestimmt werden, was letztlich zur Auslegung des Kühlsystems beitrug.
Die Lösung, für die sich entschieden wurde, war die Kühlung der Rückseite des Target mit Wasser. Der große Nachteil dieser neuen, aber notwendigen Kühllösung, sind die Materialien, die nun den Neutronenfluss aus der Li(p,n) Reaktion beeinflussen. Wichtig war es eine Balance zwischen Schichtdicken von Kupfer und Wasser, die für die mechanische und thermische Stabilität notwendig waren, und der Qualität des erhaltenen Spektrums zu finden. Hierfür wurden zahlreiche Simulationen mit GEANT 3 angefertigt, um die Einflüsse beider Stoffe abschätzen zu können, wobei sich schließlich herausstellte, dass die Schichtdicke von Wasser die Neutronen am meisten beeinflusst. Da Wasser stark moderierend auf Neutronen wirkt, stellte man fest, dass man bei Experimenten vor allem hochenergetische Neutronen verliert. Konsequenz war die strikte Kontrolle der Wasserdicke.
Im September 2005 wurden von der HADES-Kollaboration an der GSI in Darmstadt Daten der Schwerionen-Reaktion Ar+KCl bei 1,76A GeV aufgenommen. Neben den Pionen und Dileptonen wurden bereits fast alle Teilchen mit Seltsamkeitsinhalt rekonstruiert. In dieser Arbeit wird zum ersten Mal eine Analyse der leichten Fragmente Deuteronen, Tritonen und 3Helium mit HADES durchgeführt.
Die gemessenen Multiplizitäten wurden mit einem statistischen Hadronisationsmodell verglichen und zeigen gute Übereinstimmung mit diesem. Dies legt die Vermutung nahe, dass das System Ar+KCl bei 1,76A GeV einen hohen Grad an Thermalisierung erreicht. Zu einer weiteren Untersuchung dieser Hypothese wurden die sogenannten effektiven Temperaturen Teff der Teilchen der chemischen Ausfriertemperatur aus dem statistischen Modellfit gegenübergestellt. Bei der effektiven Temperatur handelt es sich um die inversen Steigungsparameter von Boltzmann-Fits an die transversalen Massenspektren mt-m0 bei Schwerpunktsrapidität. Diese Temperatur entspricht bei einer isotropen, statischen Quelle der kinetischen Ausfriertemperatur und sollte somit unterhalb oder gleich der chemischen Ausfriertemperatur sein. Im Falle der effektiven Temperaturen der Ar+KCl-Daten liegen diese jedoch systematisch höher und die Teilchen ohne Seltsamkeitsinhalt zeigen einen massenabhängigen Anstieg, welcher eine radiale kollektive Anregung des Systems vermuten lässt.
Die transversalen Massenspektren der leichten Fragmente werden unter der Annahme eines thermalisierten Systems mit Boltzmann-Funktionen angepasst. Daraus werden die effektiven Temperaturen von Teff,Deuteronen = (139,5 ± 34,9) MeV und Teff,T ritonen = (247,9 ± 62,0) MeV extrahiert, was die Annahme von kollektivem Fluss der Teilchen zu unterstützen scheint. Vergleicht man diese Werte mit den effektiven Temperaturen der leichteren Teilchen, kann mithilfe einer linearen Funktion die kinetische Ausfriertemperatur Tkin = (74,7 ± 5,8) MeV und radiale Flussgeschwindigkeit βr = 0,37 ± 0,13 bestimmt werden. In einem zweiten Ansatz werden daher die Spektren mit Siemens-Rasmussen-Funktionen, die eine radiale Ausdehnung mit einbeziehen, angepasst und daraus die globalen Parameter T = (74 ± 7) MeV und βr = 0,36 ± 0,02 bestimmt. Diese Werte liegen an der oberen Grenze in dem für diesen Energiebereich erwarteten Bereich.
Die Siemens-Rasmussen-Funktionen liefern eine bessere Beschreibung der transversalen Massenspektren und werden zur Extrapolation der nicht abgedeckten transversalen Massenbereiche genutzt. Die Integration liefert die Verteilung der Zählrate als Funktion der Rapidität. Diese Verteilung zeigt zwei Maxima nahe Strahl- und Target-Rapidität, was im Widerspruch zu einer statischen, thermischen Quelle der Teilchen steht.
Untersuchung von Korrelationseffekten in der Doppelphotoemission von normal- und supraleitendem Blei
(2012)
Im Rahmen dieser Arbeit wurde für die erstmalige Untersuchung der Doppelphotoemission von supraleitenden Materialien eine neue Messapparatur aufgebaut. Mit ihr lassen sich auf eine neue Weise Korrelationseffekte zwischen zwei Elektronen untersuchen, denn beide werden für jedes Reaktionsereignis mit ihrem vollständigen Impulsvektor aufgezeichnet. Die Apparatur kann daher für einen direkten Nachweis der Cooperpaarung in Supraleitern verwendet werden. Dazu wurden ein speziell für diesen Zweck angepasstes Spektrometer, Vakuumsystem und Probenhalter konstruiert. Ein mehrfach verbessertes Vakuumsystem sorgte dafür, dass eine Bleioberfläche über einen Zeitraum von mindestens 15 Stunden nach einer Reinigung gemessen werden konnte. Das Spektrometer erlaubte die koinzidente Messung von Elektronen über einen großen Raumwinkelbereich mit ausschließlich elektrischen Feldern. Dadurch war es auch im supraleitenden Zustand möglich, die Trajektorien der Elektronen zu berechnen. Die Energieauflösung für jedes Elektron lag zwischen 1/30 und 1/50, je nach untersuchtem Emissionswinkel. Ein eigens entwickelter Probenhalter erlaubte es, eine nur von einer Seite thermisch abgeschirmte Probe auf eine Temperatur von 4,5 K zu kühlen. Die Experimente wurden an einer Beamline des Berliner Synchrotrons BESSY durchgeführt.
Von entscheidender Bedeutung für die Auswertung der Daten ist die Qualität der Pulserkennungsroutine. Sie bestimmt die Totzeit der Messapparatur, das heisst wie nahe zwei Elektronen zeitlich und räumlich beieinander liegen dürfen, um noch detektiert zu werden. Sie beeinflusst somit die Beobachtung erheblich. In den als digitalisierte Pulse aufgenommen Rohdaten besteht die Schwierigkeit darin, zwei übereinander liegende Signale als solche zu erkennen und die richtige Zeit beider Signale zu bestimmten. Dies wurde erheblich verbessert, indem ein in Vorabeiten simulierter Doppelpulsalgorithmus modifiziert und erstmalig verwendet wurde. In der Folge konnte die Totzeit deutlich verringert und daher bis zu 20% mehr Doppelereignisse gefunden werden. Darüber hinaus ließen sich Fehler bei der Zeiterkennung nahe aufeinander folgender Pulse korrigieren. Ein in diesem Zusammenhang entwickeltes Programm erzeugte durch die Addition von gemessenen Einzelpulsen künstliche Doppelereignisse mit beliebiger Abstandsverteilung und erlaubte so erstmals eine exakte Simulation der Detektortotzeit mit verschiedenen Pulserkennungsalgorithmen.
Neben den Koinzidenzereignissen wurden auch die Ergebnisse der gewöhnlichen Photoemission untersucht und mit Bandstrukturrechnungen verglichen. Aufgrund der Messmethode wurde keine Vorauswahl bezüglich des Emissionswinkels oder der kinetischen Energie getroffen. Die Ergebnisse der Fermiflächen stimmen innerhalb der erreichten Auflösung mit den theoretischen Vorhersagen überein. Ebenso konnten die Strukturen in den Parallelimpulsspektren der Elektronen, die aus lokalisierten Energieniveaus emittiert wurden, mit der Interferenz der ausgehenden Wellenfunktionen erklärt werden. Eine Simulation dieses Effekts lieferte trotz der vergleichsweise sehr niedrigen Elektronenenergien eine gute Übereinstimmung der wesentlichen Merkmale.
Es wurden Doppelphotoemissionspektren von Blei bei verschiedenen Photonenenergien im Bereich von 21,22 eV bis 40 aufgenommen. Dabei konnten verschiedene Emissionskanäle identifiziert werden. Das Korrelationsloch ist ein sehr grundlegender Effekt, der aufgrund der Coulombabstoßung und des Pauli-Prinzips auftritt und daher bei allen Metallen vorkommt. Betrachtet man das Korrelationsloch im Impulsraum, so führt es dazu, dass zwei gleichzeitig emittierte Elektronen keine ähnlichen Impulsvektoren besitzen dürfen. Durch die verbesserten Pulserkennungsalgorithmen war es möglich, das Korrelationsloch zu untersuchen und über einen weiten Energiebereich zu vermessen. Es zeigte sich wie erwartet als Verarmungszone in der Impulsverteilung eines Elektrons um den Impuls eines zweiten. Ein solcher Effekt ist mit einem einzelnen Detektor sehr schwer zu messen, da die Totzeit die gleiche Auswirkung auf die Spektren hat. Durch eine Simulation konnte ihr Einfluss in jedem Spektrum herausgefunden und so beide Effekte voneinander getrennt werden. Sie stehen damit für einen Vergleich mit einer noch zu entwickelnden theoretischen Vorhersage zur Verfügung.
Aufgrund der bei Blei sehr nahe an der Fermikante liegenden, lokalisierten Energieniveaus konnte der Augerzerfall aus dem Valenzband identifiziert und untersucht werden. Korrelationseffekte zwischen den beiden Elektronen spielten aufgrund des sehr breiten Valenzbandes wie erwartet eine untergeordnete Rolle. Dies ließ sich nachweisen, indem die Energieverteilung durch eine Selbstfaltung der Valenzbandzustandsdichte beschrieben wurde und die Winkelverteilung der Augerelektronen keine Beeinflussung durch die Emissionsrichtung der Photoelektronen zeigte. Beide Beobachtungen deuten auf einen vollständig unabhängigen Emissionsprozess der beiden Elektronen hin. Überraschenderweise zeigte sich aber eine Energieverschiebung des Photoelektrons, abhängig von der kinetischen Energie des Augerelektrons. Dieser in der Gasphase als Post-Collision-Interaction bekannte Effekt sollte aufgrund der schnellen Abschirmung der im Festkörper zurückbleibenden Löcher nicht auftauchen. Die Ursache für die Energieverschiebung ist noch unbekannt.
Für die Identifizierung der Emission von Cooperpaaren wurden Messungen oberhalb und unterhalb der Sprungtemperatur bei verschiedenen Photonenenergien zwischen 20 eV und 40 eV durchgeführt. Verschiedene Spektren wurde nach der Signatur des Prozesses untersucht. Aufgrund der geringen Statistik konnte er nicht identifiziert werden. Demnach konnte auch die theoretische Vorhersage nicht widerlegt werden. Da dieses Experiment aus technischer Sicht äußerst herausfordernd ist, war die Untersuchung von Blei, als einfach zu präparierendes Material mit hoher Sprungtemperatur, naheliegend. Es stellte sich jedoch durch die Auswertung heraus, dass es im Hinblick auf die untersuchte Fragestellung einen wesentlichen Nachteil besitzt. Die Hauptintensität befindet sich im Gegensatz zu Kupfer für alle hier verwendeten Photonenenergien bei niedrigen Elektronenenergien, so dass nur wenige Ereignisse in dem für die Cooperpaaremission interessanten Energiefenster liegen.
Phänomenologie der Pseudovektormesonen und Mischung mit Axialvektormesonen im kaonischen Sektor
(2012)
Ziel dieser Bachelorarbeit war die Vorstellung und die Untersuchung eines effektiven, mesonischen Drei-Flavor-Modells der Quantenchromodynamik und dessen Phänomenologie. Dazu wurden zunächst die Kopplungskonstanten a und b des Modells durch die Berechnung dominanter Zerfallsbreiten der im Modell enthaltenen Axialvektor- und Pseudovektor-Mesonen festgelegt. Dabei wurde für die Festlegung der Kopplungskonstanten a der Zerfall von f1 (1420) in KK*(892) verwendet. Die so berechnete Kopplungskonstante wurde anschließend unter Verwendung des ρπ-Zerfalls von a1 (1260) auf Konsistenz geprüft. Das dadurch erhaltene Resultat von Γa1--> ρπ= (443:962 ± 13:456) MeV liegt sehr gut in dem von der particle data group angegebenen Wertebereich der Gesamtbreite von a1 (1260). Die Festlegung und Berechnung der Kopplungskonstante b des Pseudovektor-Sektors war Gegenstand der Bachelorarbeit von Lisa Olbrich, so dass in dieser Arbeit nur die Resultate dieser Rechnung präsentiert wurden. Jedoch passen die dort erzielten Resultate auch mit guter Genauigkeit zu den experimentell bestimmten Werten der particle data group.
Das zweite Ziel dieser Bachelorarbeit war die Untersuchung der im Modell enthaltenen Mischungseffekte der Kaonen-Felder von K1 (1270) und K1 (1400). Zunächst waren im Axialvektor- und Pseudovektor-Nonet dieses Modells nur unphysikalische Kaonen-Felder K1;A und K1;B enthalten. Durch den Mischungsterm Lmix der Lagrange-Dichte des Modells existieren allerdings Mischterme beider Felder. Diese Mischterme wurden durch die Einführung der physikalischen Felder K1 (1270) und K1 (1400), welche durch eine SU(2)-Drehung aus den unphysikalischen Feldern hervorgehen, zum Verschwinden gebracht. Dies hat allerdings zur Folge, dass die Wechselwirkungsterme der physikalischen Felder K1 (1270) und K1 (1400) nun über eine gedrehte Kopplungskonstante koppeln. Diese gedrehte Kopplungskonstante ist eine Funktion der ursprünglich bestimmten Kopplungskonstanten a; b und eines Mischwinkels Φ. Dieser Mischungswinkel wurde von uns über den K? (892) π-Zerfall von K1 (1270) festgelegt. Anschließend konnten wir unter Verwendung des so berechneten Mischungswinkels Φ die Zerfallsbreite von K1 (1400) berechnen und mit den experimentell festgelegten Daten der particle data group vergleichen. Auch hier konnten wir eine gute Übereinstimmung unserer durch das Modell vorhergesagten Daten mit den experimentell bestimmten Werten erzielen.
Die Arbeit ist in zwei Teile gegliedert. Der erste Teil behandelt einige naturphilosophische und mathematische Probleme. Es wird außerdem das Pfeil-Paradoxon von Zeno vorgestellt, auf dem die moderne Variante des Quanten-Zeno-Paradoxons basiert. Im zweiten Teil wird zunächst eine allgemeine Analyse des Zerfallsgesetzes instabiler Quantensysteme gegeben. Es ist eine Mischung aus Zusammenfassungen von Reviews und neuen Ideen. Eine wichtige Rolle spielt dabei die Wellenfunktion in Energiedarstellung bzw. deren Betragsquadrat, genannt Energiedichte. Es wird auch auf den Fall eingegangen, wenn ein Quantensystem wiederholten (frequenten) Messungen ausgesetzt ist. Anschließend wird der Quanten-Zeno-Effekt und das Quanten-Zeno-Paradoxon als Folge des Verhaltens der Überlebenswahrscheinlichkeit für Zeiten kurz nach der Zustandspräparation beschrieben. Danach wird das Lee-Modell zur Beschreibung eines Teilchenzerfalls vorgestellt. Das Modell beschreibt den Zerfall eines instabilen Teilchens in zwei mögliche Kanäle, d.h. entweder in (genannt) a-Teilchen oder b-Teilchen. Es werden alle wichtigen Funktionen (Zerfallsgesetz, Energiedichte, etc.) analytisch hergeleitet. Es folgen darauf die Ergebnisse der numerischen Auswertung.
In der Atom- und Molekülphysik werden häufig Multichannelplate Detektoren mit Delay-Line-Auslese eingesetzt. Um eine große Präzision und eine hohe Reaktionsrate zu erhalten, ist es wichtig, dass alle Daten genau analysiert werden können. Die aktuelle Methode der Datenanalyse stößt dabei auf Probleme, wenn mehrere Teilchen kurz hintereinander auf den Detektor treffen. In dieser Arbeit wird versucht, ein neuronales Netz so zu trainieren, dass es eine bessere Datenanalyse liefert. Hierzu wird im ersten Kapitel der Detektoraufbau beschrieben, um zu verstehen, woher die einzelnen Signale kommen und wie sie zu interpretieren sind. Im zweiten Kapitel wird dann die Theorie vorgestellt, auf der neuronale Netze basieren. Das dritte Kapitel gibt einen kurzen Überblick über die benutzte Technik. Im vierten und fünften Kapitel werden die Ergebnisse dieser Arbeit vorgestellt. Im abschließenden sechsten Kapitel werden die Ergebnisse zusammengefasst und ein Ausblick auf weitere mögliche Projekte gegeben.
In dieser Arbeit wurde das Verhalten von repulsiv gebundenen Teilchenpaaren (Dimeren) in eindimensionalen optischen Gittern untersucht. Repulsiv gebundene Teilchenpaare sind metastabile Zustände, die nicht im freien Raum, dafür aber in geordneten Potentialen, wie optische Gitter sie darstellen, vorkommen können. In einem analytischen Teil beschäftigten wir uns mit der Herleitung effektiver Hamiltonians für Dimersysteme. Diese wurden dann unter Verwendung des Time Evolving Block Decimation-Algorithmus (TEBD) numerisch untersucht...
Entwicklung und Untersuchung verschiedener Elektrodenkonfigurationen eines gepulsten Plasmajets
(2012)
Die vorliegende Arbeit befasst sich mit der Hochfrequenzabstimmung und den Feldoptimierungen zweier Linearbeschleunigerstrukturen für eine in der Entwicklung befindliche Forschungsanlage an der Goethe-Universität in Frankfurt am Main. Ein 4-Rod-RFQ sowie ein IH-Driftröhrenbeschleuniger sollen gekoppelt betrieben, d.h. nicht wie üblich von zwei, sondern nur von einem Hochfrequenz-Sender mit Leistung versorgt werden. Hierdurch lässt sich nicht nur der benötigte Platz reduzieren, sondern auch ein beträchtlicher Teil der Kosten des Projekts einsparen. Um das Verhalten der gekoppelten Beschleuniger genauer vorhersagen zu können, wurden Untersuchungen an bereits gebauten Modellen im Maßstab 1:2 durchgeführt und diese vermessen. Eine Methode zur systematischen Anpassung der Feldverteilung in 4-Rod-RFQs wurde darüber hinaus am einzeln betriebenen RFD-Modell angewandt und optimiert, sowie ein Algorithmus zur Automatisierung entwickelt. Parallel laufende Computersimulationen ermöglichten Vergleiche zu den realen Messwerten. Darüberhinaus konnten Rückschlüsse auf die Genauigkeit der Simulationen am Computermodell gezogen und hier liegende Herausforderungen, auch in Bezug auf die bei FRANZ zum Einsatz kommenden Beschleunigerstrukturen, näher untersucht werden. Hieraus resultierende Empfehlungen für das Design der FRANZ-IH-Struktur konnten gegeben werden und wurden bereits umgesetzt.
An der Goethe Universität in Frankfurt wird ein Konzept für ein magnetostatischen Hochstromspeicherring für Protonen- und Ionenstrahlen entwickelt und untersucht. Zur Zeit stehen dem Experiment zwei Toroidsegmente und eine Volumenionenquelle zur Verfügung. An diesem Aufbau werden Experimente mit dem Ziel die Strahldynamik zu untersuchen und die Strahldiagnose in toroidalen Magnetfeldern zu entwickeln, durchgeführt [Joshi] Für Experimente ist eine Strahldiagnose entlang der starken toroidalen Magnetfelder bis maximal 0, 6T nötig. Dabei sind die zur Verfügung stehenden Strahldiagnoseverfahren zum Einen ein Faraday-Cup und zum Anderen ein entlang des kompletten Aufbaus beweglicher Szintillatordetektor. Der Szintillatordetektor, besteht aus einem Phosphorschirm und einer Kamera, die hinter dem Schirm angebracht ist. [Nonn] Aufgrund der geschlossenen Ringgeometrie und dem Anspruch auf eine hohe Flexibilität des Detektors ist die Konstruktion eines neuen von starken Magnetfeldern unbeeinflussbaren und sehr kompakten Detektors notwendig. Ziel dieser Arbeit ist es, ein allgemeines Strahldiagnoseverfahren zu entwickeln.
Zur Erforschung des Strahlstransports durch zwei Toroidsegmente wurden im Rahmen dieser Arbeit theoretische Betrachtungen, Simulationen und experimentelle Untersuchungen durchgeführt. Dazu wurde ein toroidaler Teststand, bestehend aus zwei 30 Grad Toroidsegmenten mit einer magnetischen Feldstärke von 0,6 T und einer Driftsektion zwischen diesen beiden Magneten von 400 mm Länge, verwendet. Von einer Volumenionenquelle wurde ein Wasserstoffionenstrahl erzeugt und dieser mittels eines Solenoids angepasst und in das erste Toroidsegment eingeschossen. Mit Hilfe eines beweglichen Detektors konnte der Ionenstrahl an jeder Position im Rezipienten beim Transport durch den toroidalen Aufbau experimentell untersucht und vermessen werden.
Bei den Experimenten mit dem vorhandenen Detektor konnten auf den Aufnahmen der Leuchtdichteverteilung starke Sekundärelektroneneffekte beobachtet werden, welche die Untersuchung des Ionenstrahls mit dem Detektor erschwerten oder teilweise ganz unmöglich machten. Aus diesem Grund wurde zur Unterdrückung dieser Elektronen eine Wasserstoffatmosphäre im Rezipienten aufgebaut, welche die Elektronen stärker absorbiert als die Ionen und damit die Beobachtung des Ionenstrahls ermöglichen sollte. Auf diesem Wege lässt sich das transversale Verhalten des Strahls beim Strahltransport durch die toroidalen Magnetfelder mit dem vorhandenen Detektor untersuchen. Die Auswirkungen des Wasserstoffgases auf die geladenen Teilchen wurden dabei theoretisch und experimentell untersucht und analysiert. Die Auswirkung von Helium-, Stickstoff- und Argongas auf den Ionenstrahl und die Elektronen wurde in diesem Zusammenhang experimentell betrachtet.
Des Weiteren wurde mit Hilfe des Computerprogramms TBT der Strahltransport durch die zwei toroidalen Magnetfeldsegmente unter Verwendung von Referenzeinstellungen simuliert und die Ergebnisse mit den theoretischen und experimentellen Daten des Strahltransports verglichen. Bei diesen Simulationen konnten die Gyrationsbewegungen sowie die Transmission des Ionenstrahls durch die Driftsektion genauer untersucht werden.
Da die Magnetfelder der Toroidsegmente auch in der Driftsektion als Führungsfelder dienen sollen, sind die im experimentellen Aufbau verwendeten Toroidsegmente nicht magnetisch geschirmt. Dies hat zur Folge, dass das von den Magneten erzeugte Feld Auswirkungen auf andere Komponenten des toroidalen Teststandes besitzt. Aus diesem Grund wurden die Auswirkungen dieser Magnetfelder auf die Ionenquelle sowie auf das Druckmesssystem des Teststands genauer betrachtet.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer spektroskopischen Methode für die medizinische Diagnostik und zielt auf die Einführung neuer analytischer Methoden in die klinische Praxis, die eine höhere Qualität bei der Behandlung von Patienten sowie eine Kostensenkung versprechen. Es wird eine reagenzienfreie infrarotspektroskopische Messmethode vorgestellt, mit der die Konzentrationen bestimmter Inhaltsstoffe von Körper- und anderen Flüssigkeiten quantitativ bestimmt werden können. Dabei kommt das kommerzielle FTIR- (Fourier-Transform Infrarot-) Spektrometer ALPHA der Firma Bruker zum Einsatz, für das eine spezielle ATR- (Abgeschwächte Totalreflexion) Messzelle konstruiert wurde. Diese eignet sich sowohl für Durchflussmessungen bei Volumenströmen von bis zu 1 l/min als auch für diskrete Proben mit einem minimalen Volumen von 10 µl. Die Kombination aus Spektrometer und Messzelle stellt somit ein kompaktes Messgerät dar, das zur Steuerung und Auswertung lediglich einen Computer benötigt und dessen Stabilität ebenfalls Langzeitmessungen erlaubt. Es stellt damit eine Basis für ein neuartiges Medizingerät dar, das auch außerhalb der Laborumgebung und insbesondere in der klinischen Routine von ungeschultem Personal eingesetzt werden kann.
Die quantitative Auswertung der Spektren erfolgt mittels multivariater Kalibrierung und PLS (Partial Least Squares) Regression. Dabei werden für die unterschiedlichen Inhaltsstoffe entsprechende Kalibriermodelle verwendet, die aus einer Reihe sorgfältig ausgewählter Proben erstellt wurden. Die Auswahl bezieht sich dabei vor allem auf einen breiten Konzentrationsbereich und auf möglichst unabhängig voneinander schwankende Konzentrationswerte der Inhaltsstoffe. Es wurden daher sowohl Proben im physiologischen als auch im pathologischen Bereich verwendet. Da die Konzentrationswerte der Kalibrierproben bekannt sein müssen, wurden die Proben mittels konventioneller klinischer Methoden analysiert. Die Genauigkeit dieser Referenzanalytik begrenzt dabei die maximale Genauigkeit der vorgestellten Methode.
Im Rahmen dieser Arbeit wurden Kalibriermodelle für die Inhaltsstoffe Glucose, Harnstoff, Creatinin und Lactat in der Waschlösung bei der Hämodialyse (Dialysat) sowie für die Inhaltsstoffe Glucose, Harnstoff, Cholesterol, Triacylglyceride, Albumin und Gesamtprotein in Vollblut und ebenso für Hämoglobin und Immunglobulin G in hämolysiertem Vollblut erstellt. Im Fall von Dialysat wurden hierfür sowohl künstlich erstellte sowie auch bei realen Dialysebehandlungen von Patienten entnommene Proben verwendet. Für Vollblut wurden bestehende Spektren an das neue Messgerät angepasst und durch Spektren neuer Blutproben erweitert. Die hiermit erreichte Genauigkeit und Präzision genügt in den meisten Fällen bereits klinischen Ansprüchen.
Für Dialysat wird gezeigt, dass mit dem vorgestellten Aufbau bereits kontinuierliche inline-Messungen direkt am Patienten möglich sind und gute Ergebnisse liefern. Dabei wurde sowohl auf eine einfache Anwendbarkeit während der Dialysebehandlung als auch auf eine einfache Bedienung mittels der vorgestellten Software geachtet. Das Gerät lässt sich somit problemlos in den klinischen Alltag integrieren und bietet aufgrund der Reagenzienfreiheit eine kostengünstige Methode zur kontinuierlichen und regelmäßigen Überwachung der Behandlungsverläufe.
Im Fall von Vollblut wird gezeigt, dass Messungen mit einer Probenmenge von 10 µl beispielsweise aus der Fingerbeere prinzipiell möglich sind und ebenfalls reproduzierbare Ergebnisse liefern. Damit steht eine präzise, einfache, kompakte und betriebskostengünstige Methode zur Verfügung, um in kurzer Zeit wichtige Blutparameter quantitativ bestimmen zu können.
Das kompakte und reagenzienfreie Messsystem erlaubt eine Vielzahl von Anwendungen, die insbesondere von den schnellen Analyseergebnissen und den geringen Verbrauchskosten profitieren. Beispielsweise beim Blutspendedienst, beim Hausarzt oder in Seniorenheimen kann die schnelle und einfache Ermittlung der hier untersuchten Blutparameter zur ersten Beurteilung des Patienten dienen und damit die Diagnose erleichtern. Der hohe Probendurchsatz und die vernachlässigbaren Betriebskosten führen in diesem Fall zu einer schnellen Amortisierung der Anschaffungskosten. Auch in Apotheken kann mit einem derartigen System ein erweiterter Service für Kunden angeboten werden.
Aufgrund des geringen Probenvolumens kommt das Messsystem ebenfalls für Anwendungen im Versuchstierbereich in Frage, beispielsweise für die Untersuchung von Mäuseblut in der German Mouse Clinic am Helmholtz Zentrum München. Die der Maus zu entnehmende Blutmenge und damit die Belastung des Tieres kann hierdurch erheblich reduziert werden.
Die Kompaktheit dieses universellen Systems erlaubt es weiterhin, eine Vielzahl anderer Flüssigkeiten zu untersuchen, die bereits erfolgreich infrarotspektroskopisch analysiert wurden. Dazu gehört unter anderem Urin, Bier und Wein.
In der Arbeit wird abschließend ebenfalls gezeigt, dass der Einsatz abstimmbarer Quantenkaskadenlaser zusammen mit der ATR-Technik prinzipiell die Möglichkeit eröffnet, die aufwändigen und teuren FTIR-Spektrometer zu ersetzen. Langfristig ist sowohl mit einer Verkleinerung des Aufbaus als auch mit einem Sinken des derzeit noch sehr hohen Anschaffungspreises zu rechnen. Der bereits verfügbare Abstimmbereich genügt zur Bestimmung der Glucosekonzentration. Eine Erweiterung, beispielsweise durch die Verwendung mehrerer Quantenkaskadenlaser mit unterschiedlichem Abstimmbereich, ermöglicht die Untersuchung weiterer Parameter.
Heparin wird als gerinnungshemmendes Medikament in vielen Bereichen eingesetzt: in niedriger Dosierung wird es vor allem zur Thromboseprophylaxe verwendet, in höheren Konzentrationen kommt es zum Beispiel in der Hämodialyse oder bei herzchirurgischen Eingriffen unter Verwendung der Herz-Lungen-Maschine zum Einsatz, um ein Gerinnen des Patientenblutes zu verhindern. Obwohl Heparin schon seit vielen Jahrzehnten eingesetzt wird, fehlt bis heute eine Methode, mit der sich die Heparin-Konzentration einfach, schnell und kostengünstig während des OP-Verlaufs bestimmen lässt. Vielmehr wird der Zustand des Patientenblutes über Gerinnungsverfahren eingeschätzt, die nur indirekt abhängig von Heparin sind und die von vielen Parametern beeinflusst werden. Eine Überwachung des Heparinspiegels ist mit diesen Methoden nicht möglich. Ein weiteres Problem ergibt sich, wenn am Ende des Eingriffs die normale Blutgerinnung wiederhergestellt werden soll. Zu diesem Zweck wird Protamin verabreicht, welches das im Patientenblut zirkulierende Heparin binden und damit dessen gerinnungshemmende Wirkung neutralisieren soll. Die Verabreichung des Protamins geschieht jedoch nicht, wie es idealerweise wäre, entsprechend der aktuellen Heparin-Konzentration, da derzeit kein Heparin-Messverfahren existiert. Dies kann eine fehlerhafte Heparin-Neutralisierung zur Folge haben, welche mit weitreichenden Nebenwirkungen, vor allem einer erhöhten Blutungsgefahr, verbunden ist.
Aufgrund dieser Problematik wurde eine streulichtphotometrische Methode (LiSA-H) entwickelt, mit dem die Bestimmung der Heparin-Konzentration einer Patientenprobe während chirurgischen Eingriffen möglich ist. Diese basiert auf der Messung der Intensität des an Heparin-Protamin-Nanopartikeln gestreuten Lichts. Diese Nanopartikel bilden sich, sobald Protamin einer Lösung mit Heparin, z.B. heparinisiertes Blutplasma, zugegeben wird.
Mit Hilfe von analytischer Ultrazentrifugation sowie Rasterkraftmikroskop-Aufnahmen konnten die Größe und die Größenverteilung der Heparin-Protamin-Partikel charakterisiert werden. Beide Methoden zeigten gut übereinstimmende Ergebnisse und lieferten Partikeldurchmesser von etwa 70 – 200 nm.
Um den Prozess der Messung zu optimieren, wurde nach Filtrationsmethoden gesucht, um den zeit- und arbeitsaufwendigen Zentrifugationsschritt zu vermeiden. Dazu wurden Filtermembranen aus verschiedenen Materialien und mit unterschiedlichen Porengrößen getestet, die eine Plasmagewinnung durch Filtration von Vollblut ermöglichen sollten. Leider war dies mit den getesteten Filtersystemen nicht möglich. Dies bleibt jedoch ein aktuelles Thema und wird weiterhin untersucht werden.
Zusätzlich zu der streulichtbasierten Messmethode konnte gezeigt werden, dass über fluoreszenzspektroskopische Methoden die Bestimmung kleiner Heparin-Konzentrationen möglich ist. Dafür wurde Protaminsulfat mit Fluoreszenzfarbstoffen markiert und die Erniedrigung der Emissionsintensität des fluoreszierenden Protamins nach Zugabe von Heparin beobachtet. Aus dem Grad dieser Intensitätsabnahme lässt sich auf die Heparin-Konzentration schließen. Diese Methode wäre hervorragend dafür geeignet, das streulichtbasierte Verfahren zu ergänzen, das im niedrigen Konzentrationsbereich zunehmend unempfindlich wird. Hierfür müssen jedoch noch einige Messungen durchgeführt werden, um zu zeigen, ob eine Messung auch von Plasma- oder sogar Vollblutproben möglich ist.
Es wurde ein klinischer Prototyp entwickelt, der die Bestimmung der Heparin-Konzentration in einer Blutplasmaprobe während chirurgischer Eingriffe ermöglicht. Dabei wird eine LED mit einem Emissionsmaximum bei 627 nm verwendet und die Streulichtintensität zur Bestimmung der Anzahl und der Größe der Heparin-Protamin-Partikel genutzt. Die Steuerung der Messung sowie die Auswertung der Messdaten werden mit einem Netbook und eigens dafür neu entwickelter Software realisiert. Mit diesem Prototyp lässt sich reproduzierbar aus der Änderung der Streulichtintensität einer Blutplasmaprobe nach Protaminzugabe innerhalb weniger Minuten deren Heparin-Konzentration bestimmen. Es wurde eine Kalibrierfunktion erstellt, mit der es möglich ist, aus der Streulichtintensität die Heparin-Konzentration zu berechnen.
Eine erste Studie im Universitätsklinikum der Johann Wolfgang Goethe-Universität Frankfurt a.M., bei der bei 50 herzchirurgischen Eingriffen unter Verwendung der Herz-Lungen-Maschine parallel zur üblichen Gerinnungsmessung eine Heparin-Bestimmung mit dem neuen Heparin-Assay erfolgte, zeigte, dass es mit diesem Verfahren möglich ist, im OP-Verlauf die Heparin-Konzentration im Patientenblut zu ermitteln. Daraus konnten schließlich weitere Informationen wie die individuelle Geschwindigkeit des Heparin-Abbaus erhalten werden.
Eine zweite Studie in der Kinderkardiologie des Universitätsklinikums Gießen, deren Ergebnisse statistisch noch nicht vollständig ausgewertet sind, wurde ebenfalls mit Erfolg abgeschlossen. Die vorläufigen Ergebnisse zeigten hier, dass sich die Heparin-Abbaukinetik bei Erwachsenen und Kindern deutlich unterscheidet. Zudem zeigte sich, dass die gemessene Gerinnungszeit bei Kindern wesentlich schlechter (nur 30 % der Fälle) mit der gemessenen Heparin-Konzentration korreliert als bei Erwachsenen (etwa 70 % der Fälle).
Zellulare Nichtlineare Netzwerke bzw. Zellulare Neuronale Netzwerke, sogenannte CNN, wurden 1988 von L.O. Chua und L.Yang eingeführt und seither intensiv untersucht. Diese sind als Simulations-Software und als schaltungstechnische Realisierungen, in Hardware, verfügbar.
Als analog arbeitende Hardware Schaltungen können diese Netzwerke erhebliche Rechenleistungen erzielen.
Durch ihren Aufbau ermöglichen sie eine parallele Daten- und Signalverarbeitung.
Eine Einführung in CNN wird gegeben und das EyeRIS 1.1 Systems des Unternehmens ANAFOCUS Ltd. vorgestellt.
Das EyeRIS 1.1 System ist mit einem analog arbeitenden Focal Plane Prozessor (FPP) und einem digitalen Prozessor ausgestattet, wobei der Focal Plane Prozessor auch als Kamera zur Aufnahme von Bildern und Bildsequenzen benutzt werden kann.
Dies ermöglicht es, analoge CNN-Algorithmen zusammen mit digitalen Algorithmen auf einem System zu implementieren und so die Vorteile beider Ansätze zu nutzen. Der Datenaustausch zwischen dem analogen und digitalem Teil des EyeRIS 1.1 Systems geschieht mittels digital/analog und analog/digital Wandlung. Es werden Algorithmen auf dem EyeRIS 1.1 System untersucht und mit Ergebnissen die mittels Simulationen erzeugt wurden verglichen.
In Voruntersuchungen werden die Darstellungsgenauigkeit von Werten im analogen Teil des EyeRIS 1.1 Systems und die Verarbeitungsgeschwindigkeiten des EyeRIS 1.1 Systems untersucht.
Im Weiteren wird besonderes Augenmerk auf medizinische und technische Anwendungsgebiete gelegt werden.
Im medizinischen Anwendungsbereich wird die Implementierung von Algorithmen zur Vorhersage epileptischer Anfälle untersucht.
Hierfür wird ein evolutionär motiviertes Optimierungsverfahren entwicklet und auf dem EyeRIS 1.1-System implementiert.
Hierbei werden Simulationen durchgeführt und mit Ergebnissen, die mittels Verwendung des EyeRIS 1.1 Systems erlangt wurden, verglichen.
Ein zweites Verfahren geht die Signalanalyse für die Vorhersage auf dem EyeRIS 1.1-System mittels Mustererkennung an.
Das Mustererkennungsverfahren wird eingehend beschrieben sowie die hierbei zu beachtenden Randbedingungen erläutert.
Die Ergebnisse zeigen, daß Algorithmen zur Vorhersage von epileptischen Anfällen auf schaltungstechnichen Realisierungen von CNN implementiert werden können.
Im technischen Bereich wird die Anwendbarkeit auf die Problemstellung der Bildverarbeitung gelegt und die Möglichkeit von CNN basierten Algorithmen zur Erkennung von Prozessparametern bei Laserschweißverfahren untersucht. Ein solcher Prozessparameter ist das sogenannte Key-Hole, welches in Bildsequenzen von Laserschweißprozessen als ein Maß für die zu erwartende Qualität einer Schweißnaht herangezogen werden kann. Ein CNN basierter Algorithmus für die Erkennung solcher Key-Holes wird in dieser Arbeit vorgestellt und untersucht.
Für die Überwachung eines Laserschweißverfahrens wird der entwickelte Algorithmius und seine Funktionsweise beschrieben.
Dieser wird in Teilalgorithmen auf die analog bzw. digital arbeitenden Komponenten des EyeRIS 1.1 Systems verteilt.
Die Teilalgorithmen und die möglichen Aufteilungen und deren Laufzeitverhalten werden beschrieben und untersucht.
Die Ergebnisse der Untersuchung zeigen, daß eine Prozessüberwachung mittels CNN möglich ist und heben die Vorteile hervor, welche die Bildaufnahme und -verarbeitung mittels analoger CNN-Hardware bietet.
Eine Untersuchung des Laufzeitverhaltens auf Grafikkarten Prozessoren (GPU's) wird im Anhang vorgestellt.
Das CBM-Experiment an der zukünftigen FAIR Beschleunigeranlage zielt unter anderem darauf, Open-Charm-Teilchen zu rekonstruieren, die in Schwerionenkollisionen im Energiebereich von 10 bis 40 AGeV erzeugt werden. Ein für diese Teilchenrekonstruktion essentieller Detektor ist der Mikro-Vertex-Detektor (MVD).
Im Rahmen der Entwicklungsarbeiten für diesen Detektor werden regelmäßig Detektorsimulationen durchgeführt. Bei einer dieser Simulationen [CAD11], wurden nach Einführung eines verbesserten Simulationsmodells des Detektors, Einbrüche in Rekonstruktionseffizienz für Open-Charm Teilchen festgestellt. Als mögliche Ursache wurde eine Überlastung der Software für die Spurrekonstruktion von CBM vermutet, die erstmals mit realistischen Trefferdichten auf den MVD-Stationen konfrontiert war. Zusätzlich wurde in der Simulation die Geometrie eines MVD mit nur zwei Detektorebenen verwendet. Auch der durch die kleine Anzahl an MVD-Stationen große Abstand zwischen MVD und STS (Silicon-Tracking-System) und dessen potentiell ungünstiger Einfluss auf die Spurrekonstruktion konnte als Ursache für den beobachteten Einbruch der Rekonstruktionseffizienz nicht ausgeschlossen werden.
Die Aufgabe dieser Arbeit bestand in der Prüfung, ob der beobachtete Einbruch der Rekonstruktionseffizienz des Detektorsystems tatsächlich auf eine Überlastung der Spurrekonstruktionssoftware zurückzuführen ist. Darüber hinaus sollte festgestellt werden, ob mögliche konstruktive Verbesserungen im MVD (zusätzliche Detektorstationen) diesem Effekt entgegen wirken können...
Die Arbeit entstand im Rahmen des Förderprogramms ”Profil NT” und war Bestandteil des BMBF–Projektes ”NANOTHERM” (FKZ17PNT005). Dabei sollte die Möglichkeit der Integration und Verwendung von Nanodrähten als funktionsbestimmende Komponente im thermoelektrischen Sensorelement untersucht werden. Eine wichtige Aufgabe bestand darin die thermoelektrischen Eigenschaften der einzelnen Nanodrähte, insbesondere den Seebeck–Koeffizienten, zu untersuchen. Im Hinblick auf die weitere Entwicklung der Nanotechnologie ist es sehr wichtig, geeignete Messplattformen zu generieren und der Wissenschaftlichen Gemeinschaft zur Verfügung zu stellen für die Charakterisierung von Nanostrukturen. Für die Forschung bedeutet dies, dass man immer präziser die ”Physik im kleinen” studieren kann. Im Bezug auf die Anwendungen stellen die ausgeführten Untersuchungen eine wesentliche Basis für die Bauelemente–Optimierung und ihren späteren industriellen Einsatz dar.
In dieser Arbeit werden zwei Chipdesigns vorgestellt für die Bestimmung des Seebeck–Koeffizienten, die eine ausreichend hohe Temperaturdifferenz in Nanostrukturen erzeugen. Für beide Chips wird die mikromechanische Fertigung im einzelnen erläutert. Zusätzlich wurden die Chips in FEM–Simulationen analysiert. Eine messtechnische Charakterisierung der Chips bestätigt die Simulationen und die Funktionsweise der Chips für Untersuchungen des Seebeck–Koeffizienten an Nanostrukturen. Erstmals wurden Wolfram bzw. Platin FEBID–Deponate hinsichtlich des Seebeck–Koeffizienten untersucht. Für die Wolfram–Deponate ergab sich ein negativer Seebeck–Koeffizient. Der gemessenen Seebeck–Koeffizient war über mehrere Tage stabil. Als Ergebnis temperaturabhängiger Messungen des Seebeck–Koeffizienten konnte eine Wurzel-T Abhängigkeit beobachtet werden, die in der Theorie beschrieben wird.
Eine Untersuchung des Seebeck–Koeffizienten an Pt–FEBID–Deponaten zeigt einen Vorzeichenwechsel für Proben mit geringer elektrischer Leitfähigkeit (isolierender Charakter, schwache Kopplung). In der Literatur wird dieser Vorzeichenwechsel allerdings für Proben mit metallischer elektrischer Leitfähigkeit beschrieben. Aufgrund der Messergebnisse ist zu prüfen inwiefern die Theorie des Seebeck–Koeffizienten auf Proben mit schwacher Kopplung zu übertragen ist. Da die gemessenen Seebeck–Koeffizienten bei einigen nanoskaligen Proben sehr klein waren, wurde der Seebeck–Koeffizient des Kontaktmaterials in separaten Versuchen untersucht. Für das hier verwendete Schichtsystem Ti(40nm)/Au(120nm) kann ein Seebeck–Koeffizient von -0,22µV/K angegeben werden. Bei der Charakterisierung der Pt–FEBID–Deponaten wurde dieser Beitrag des Kontaktschichtsystems zur Thermospannung berücksichtigt.
Untersuchungen an BiTe–Nanodrähten mit dem Seebeck–Chip ergaben einen negativen Seebeck–Koeffizienten. Die ersten Untersuchungen wurden mit Kupfer als Kontaktmaterial durchgeführt, weil dieses sehr gute Lift–Off Eigenschaften besaß. Trotz der Kupferdiffusion in den Nanodraht hinein, wird der negative Seebeck–Koeffizient einem Tellur–Überschuss zugeschrieben, denn an Proben mit einer geeigneten Diffusionsbarriere war in nachfolgenden Untersuchungen ebenso ein negativer Seebeck–Koeffizient zu messen. Die ermittelten Beweglichkeiten sind niedriger als die von Bulkmaterial und können durch klassische Size–Effekte erklärt werden. Die gemessenen Ladungsträgerkonzentrationen liegen in typischen Bereichen für Halbmetalle. Die Charakterisierung des Seebeck–Koeffizienten mit Hilfe des hier vorgestellten Z–Chip ergab einen negativen Seebeck–Koeffizienten für die BiTe–Nanodrähte, die wie oben erläutert auf einen Tellur–Überschuss zurückzuführen sind. Eine Abschätzung eines mit Nanodrähten aufgebauten Sensors zeigt, dass im Vergleich zu konventionellen Dünnschicht–Thermopiles deutlich höhere Empfindlichkeiten zu erzielen sind. Erste technologische Konzepte für den Aufbau von Nanodraht–Arrays wurden erarbeitet und durch entsprechende Untersuchungen verifiziert.
Grundsätzlich ist der Z–Chip für die Charakterisierung aller drei Transportkoeffizienten geeignet und bietet die Option, anderen Arbeitsgruppen eine universelle thermoelektrische Messplattform zur Verfügung zu stellen.
In den letzten Jahren haben die Forschungsaktivitäten im Bereich Thermoelektrik stetig zugenommen. Das neu erweckte Interesse an der Thermoelektrik ist zurückzuführen auf neue nanostrukturierte Materialien, Quantenschicht-Strukturen und Nanodrähte, welche
eine wesentliche Steigerung der thermoelektrischen Effektivität Z im Vergleich zum Massivmaterial versprechen. Für Nanodrähte ist die größte Steigerung der thermoelektrischen Effektivität zu erwarten. Zur Bestätigung der Theorie bedarf es neuer Messmethoden zur Bestimmung des Seebeck-Koeffizienten S, der elektrischen Leitfähigkeit σ und der Wärmeleitfähigkeit λ, um hieraus eine Steigerung der thermoelektrischen Effektivität Z = (Sexp2)σ/λ experimentell zu bestätigen.
Der Schwerpunkt der Doktorarbeit lag in der Untersuchung thermoelektrischer Eigenschaften von Nanodrähten. Hierzu wurden neueMessmethoden zur Bestimmung der elektrischen und thermischen Leitfähigkeit von Nanodrähten entwickelt.
Die elektrische und thermische Leitfähigkeit von Pt-Nanodrähten wurden mit dem in dieser Arbeit entwickelten λ-Chip gemessen. Die elektrische Leitfähigkeit der Pt-Nanodrähte ist im Vergleich zum Massivmaterial entsprechend der klassischen Size-Effekt-Theorie reduziert. Ebenso wurde eine Abnahme der Wärmeleitfähigkeit beobachtet. Die Ergebnisse stimmen mit den im Rahmen der klassischen Size-Effekt-Theorie zu erwartenden Resultaten gut überein, jedoch bedarf die Reduzierung der Lorenz-Zahl noch einer theoretischen Erklärung.
Im Weiteren wurde die elektrische Leitfähigkeit von BixTe1-x und BixSb1-x-Nanodrähten mit dem λ-Chip bestimmt. Hierzu wurden zunächst unterschiedliche Kontaktmaterialien getestet, um die Diffusion des Kontaktmaterials in den Nanodraht auszuschließen. Als bewährtes Kontaktmaterial stellte sich ein Schichtsystem aus Titan und Gold heraus. Die Ti-Schicht wirkt hierbei als Diffusionsbarriere und Haftvermittler-Schicht. Die Wärmeleitfähigkeit der Bi-haltigen Nanodrähte konnte mit dem λ-Chip nicht gemessen werden, da die Unterätzung der Nanodrähte mittels reaktivem Ionenätzen die Nanodrähte angriff. Als Alternative können die Nanodrähte auf dem λ-Chip mit einem fokusierten Ionenstrahl unterätzt werden. Der Aufwand hierzu ist jedoch relativ hoch und diese Alternative wurde deshalb nicht weiter verfolgt. Als weitere Alternative wurde der Z-Chip entwickelt. Hierbei werden die Nanodrähte auf den fertigen Chip aufgebracht und mittels Elektronenstrahl-induzierter Deposition an den elektrischen Kontakten fixiert. Der Chip ermöglicht die Messung der elektrische Leitfähigkeit in 4-Punkt-Anordnung, der Wärmeleitfähigkeit und des Seebeck-Koeffizienten an
einem einzelnen Nanodraht. Somit ist die Bestimmung der thermoelektrischen Effektivität an einem Nanodraht möglich. DesWeiteren wurden die theoretischen Grundlagen zur Bestimmung der Wärmekapazität an einzelnen Nanodrähten mit dem Z-Chip präsentiert. Zum Zeitpunkt der Durchführung dieser Arbeit fehlte jedoch das notwendige Equipment zur Ausführung der Wärmekapazitätsmessung an einzelnen Nanodrähten.
Des Weiteren wurde die Cross-Plane Methode zur Bestimmung der Wärmeleitfähigkeit an eingebetteten Nanodrähten entwickelt. Analog der Messmethode, welche für die Einzeldrahtmessungen verwendet wird, handelt es sich hierbei um eine stationäre „Joule-Heating“ Methode. Die Temperaturdifferenz wird aus der Widerstandsänderung einer auf die eingebetteten Nanodrähte aufgebrachten Heizschicht bestimmt.Mit derMethode wurde die Wärmeleitfähigkeit von BixTe1-x-Nanodrähten ermittelt.
Die elektrische Leitfähigkeit wurde von BixTe1-x-Nanodrähten unterschiedlicher Zusammensetzung und Herstellungsparameter mit dem λ- und dem Z-Chip bestimmt. Die gemessenen Nanodrähte zeigen sowohl intrinsisches wie extrinsisches Leitungsverhalten verbunden mit einer, im Vergleich zum Volumenmaterial, reduzierten Temperaturabhängigkeit der elektrischen Leitfähigkeit infolge von Oberflächen- und Korngrenzenstreuung der Ladungsträger. Die elektrischen Leitfähigkeitsmessungen stimmen mit Beobachtungen anderer Gruppen gut überein.
Die Wärmeleitfähigkeit konnte an einem einzelnen BixTe1-x-Nanodraht und an eingebetteten BixTe1-x-Nanodrähten gemessen werden. Die Wärmeleitfähigkeit ist gegenüber dem Massivmaterial reduziert. Die Ergebnisse sind in guter Übereinstimmung mit bisher publizierten Ergebnissen von Bismuttellurid-Nanodrähten.
Im Rahmen dieser Arbeit wurden zwei verschiedene Zerfallsprozesse behandelt. Zunächst wurde im Rahmen des erweiterten Linearen Sigma-Modells die Antwort auf die Frage gesucht, welches Teilchen als chiraler Partner des Nukleons in Frage kommt. Dazu wurde der Zerfall des chiralen Partners in ein Nukleon und ein skalares Teilchen betrachtet. Das skalare Teilchen wurde mit dem Tetraquark-Zustand f0(600) identifiziert. In Augenschein genommen wurden die Resonanzen N(1535) und N(1640). Aufgrund der berechneten Zerfallsbreiten erkannte man im Falle von N(1650) eine größere Übereinstimmung mit den experimentellen Werten. Die Zerfallsbreite von 45.91 MeV liegt in der Größenordnung des im Particle Data Book verzeichneten Intervalls. Der Wert, den man bei Verwendung von N(1535) als Ausgangsteilchen erhielt, ist allerdings gegenüber der Vorhersage zu groß.
Ein nächster Schritt im Studium dieses Sachverhalts stellt das erweiterte Misch-Szenario dar. Es beinhaltet nicht nur zwei, sondern vier Spinoren. Zwei davon beschreiben Nukleon-Resonanzen, zwei sind mögliche chirale Partner. Da die Zustände mischen, wird der chirale Partner nicht eindeutig durch ein, sondern durch zwei Resonanzen repräsentiert. Weiterhin steht die eingehende Betrachtung des Ursprungs von m0 aus. Dazu muss außer derWechselwirkung mit dem Tetraquark-Zustand auch die Wechselwirkung eines Glueballs mit den beteiligten Hadronen berücksichtigt werden. Dadurch erhält die Masse von m0 einen Anteil, der aus dem Glueball-Kondensat stammt. Dies muss beim Rückschluss auf die Nukleonmasse beachtet werden.
Als nächstes wurde der Zerfall des pseudoskalaren Glueballs in zwei Nukleonen betrachtet. Da die Kopplungskonstante dieses Zerfalls noch nicht experimentell bestimmt wurde, wurde ein Verhältnis zwischen zwei Zerfallskanälen berechnet. Es zeigte sich, dass der Zerfall in zwei Nukleonen fast doppelt so wahrscheinlich ist wie der Zerfall in Nukleon und chiralen Partner, der an der Energieschwelle liegt. Die Berechnung wurde mit einem Teilchen der Masse 2.6 GeV als Glueball durchgeführt. Die Untersuchung derart schwerer Glueballs wird in naher Zukunft erstmalig im Rahmen des PANDA-Experiments der GSI möglich sein.
Zukünftige Studien sollten die Beteiligung des Glueballs an gemischten Zuständen berücksichtigen. Außerdem sollte ein möglicher skalarer Glueball in die Betrachtung miteinbezogen werden.
Im Rahmen des Programms zur Intensitätserhöhung am Universal Linear Accelerator UNILAC für das Element Uran hat sich die Forderung nach einer Ionenquelle ergeben, die einen intensiven, hochbrillianten Ionenstrahl aus vierfach geladenen Uranionen bereitstellen kann. Ziel war es, im Zusammenspiel von Ionenquelle, Nachbeschleunigungssystem und Niederenergiestrahlführung einen Strahlstrom von mindestens 15 emA U4+ am Eingang des RFQ-Beschleunigers bereitzustellen. Die vorliegende Arbeit befaßt sich mit den Optimierungen und den experimentellen Untersuchungen an der Vakuumbogenionenquelle VARIS für den Uranbetrieb, welche schließlich ihre Leistungsfähigkeit an der Beschleunigeranlage der GSI erfolgreich unter Beweis gestellt hat. Der erste Teil dieser Arbeit widmet sich der Theorie der Vakuumbogenentladung unter besonderer Berücksichtigung der Erzeugung von U4+. Die Generierung von U4+ erfolgt dabei zu einem Teil im dichten Kathodenspotplasma, wo das Ionisationspotential von 31 auf 21 eV herabgesetzt ist, U4+ also bei vergleichsweise niedrigen Elektronenenergien erzeugt werden kann. Der U4+-Anteil beträgt jedoch nur 30 %. Die Erzeugung eines höheren Anteils an U4+ ist geknüpft an zusätzlich Ionisationsvorgänge im expandierenden Zwischenelektrodenplasma, für welches eine neuartige Theorie (MHD Ansatz) angegeben werden konnte. Für die Vakuumbogenentladung im axialen Magnetfeld konnte eine Erhöhung der Elektronentemperatur vorhersagt werden, die für eine höhere Ionisationsrate für U4+ verantwortlich ist. Für die Elektronentemperatur wurde bei einer magnetischen Flußdichte von 40 mT ein Wert von 10 eV vorhergesagt, welcher experimentell bestätigt werden konnte. Zieht man zudem die berechneten Wirkungsquerschnitte für die Ein- und Mehrfachionisation heran, so konnte aus den Wirkungsquerschnitten vorausgesagt werden, daß für die Produktion eines hohen Anteils an U4+ eine Elektronenenergie von zirka 50 eV für die Generierung von U4+ aus U3+ erforderlich ist. Im weiteren wurde ausgeführt, wie ein Extraktionssystem ausgelegt sein muß, welches den Forderungen nach einem Gesamtstrom von 140 mA entspricht oder diesen übertrifft. Das Erreichen dieses Stroms ist im Einlochextraktionssystem mit Schwierigkeiten verbunden (große Emissionsfläche, langes Extraktionssystem, Extraktionsspannung zirka 180 kV). Aus diesen Gründen ist die Entscheidung zugunsten eines Extraktionssystem mit 13 Öffnungen mit einem Durchmesser von jeweils 3 mm gefallen. Die Gesamtemissionsfläche aller Aperturen liegt bei 0,92 cm2. Zur Bestimmung der Strahlformierung einer Öffnung im Extraktionssystem ist das Strahlsimulationsprogramm KOBRA3INP unter Berücksichtigung einer experimentell gut zugänglichen Feldstärke von 11 kV/mm bei einem Aspektverhältnis von 0,5 genutzt worden. Es ergab sich ein minimaler Divergenzwinkel von etwa 55 mrad, die unnormierte effektive Emittanz geht mit steigender Stromdichte asymptotisch einem Wert von 65p mm mrad entgegen. Für das Extraktionssystem (13 Öffnungen) kann die unnormierte effektive Emittanz zu 610p mm mrad abgeschätzt werden. Die Stromdichte, welche der Plasmagenerator bereitstellen muß, beträgt etwa 1600 A/m2. Die Extraktionsspannung liegt bei 32 kV, welche, ebenso wie die Stromdichte, experimentell erreicht wurde. Bei den experimentellen Untersuchungen wurde zunächst untersucht, inwieweit die Impedanz des Vakuumbogenplasmas gesteigert werden kann. Ziel war es, eine möglichst hohe Plasmaimpedanz und damit eine hohe Bogenspannung zu erhalten, wodurch die erreichbare Elektronenenergie vergrößert wird (Regelung der Bogenspannung durch die Plasmaimpedanz). Es ist gezeigt worden, daß die Impedanz vor allem durch eine geeignete Magnetfeldkonfiguration erhöht werden kann (axiales Feld). Ebenso sind die Geometrie der Ionenquelle (Abstand Kathode-Anode 15 mm, Anodenöffnung 15 mm) und die verwendeten Materialien (Anode aus Edelstahl, kleiner Sputterkoeffizient und Sekundärelektronenaus97 löse) entscheidend, wobei zugunsten eines zuverlässigen Zündverhaltens der Ionenquelle die Entscheidung für eine Anodenöffnung von 15 mm statt 25 mm gefallen ist. So erreicht man für eine magnetische Flußdichte von 120 mT bei einem Bogenstrom von 700 A eine Bogenspannung von 54 V, wodurch die Erzeugung bis zu sechsfach geladenen Uranionen möglich wird. Um grundlegende Eigenschaften des Vakuumbogenplasmas zu bestimmen und das theoretische Modell zur Erzeugung von U4+ zu überprüfen, wurden die Ionen- und Elektronenenergieverteilung im Plasma gemessen ...
Ziel der durchgeführten Experimente dieser Arbeit war es, den Versuch zu unternehmen, Cooper-Paare als Träger des supraleitenden Stroms direkt mit Hilfe des Photoelektrischen Effektes nachzuweisen. Die Methode der koinzidenten Photoelektronenspektroskopie zielt dabei auf den Nachweis von zwei kohärent emittierten Elektronen durch die Wechselwirkung mit einem Photon ab. Da elektrostatische Analysatoren typischerweise nur einen sehr kleinen Raumwinkel erfassen, was mit sehr geringen Koinzidenzraten einhergeht, ist im Zusammenhang mit dieser Arbeit ein Flugzeitprojektionssystem entwickelt worden, welches nahezu den gesamten Raumwinkel auf einem ortsauflösenden Detektor abbildet. Die zur Messung erforderliche gepulste Lichtquelle in Form von spezieller Synchrotronstrahlung ist so schwach eingestellt worden, daß nur vereinzelt Photonen auf die Probe gelangen konnten. Spektroskopiert wurde neben Testmessungen an Silberschichten sowohl ein Blei-Einkristall als Vertreter der klassischen BCS-Supraleiter als auch einkristallines Bi2Sr2CaCu2O8 aus der Gattung der Hochtemperatursupraleiter. Mit Anregungsenergien bis 40 eV konnte gezeigt werden, daß hinreichend glatte und saubere Oberflächen in der supraleitenden Phase innerhalb des Auflösevermögens von ungefähr 0.5 eV keine erkennbaren, signifikanten Unterschiede im Vergleich zur normalleitenden Phase aufweisen. Neben diesen Untersuchungen ist weiterhin ausführlich die einfache Photoemission an den verschiedenen Proben und insbesondere im Falle des Bleikristalls behandelt, da hier keine vergleichbaren Resultate bekannt sind. Dabei wird der gesamte Impulsraum besprochen und die Fermi-Fläche als dreidimensionales Modell erstellt, mit dessen Hilfe die Meßergebnisse diskutiert werden. In den theoretischen Beschreibungen sind verschiedene Modelle zur Cooper-Paar-Emission vorgestellt, wobei beispielsweise dem Impulsaustausch mit dem Kristall eine besondere Rolle beigemessen wird, da dieser bei direkten Anregungen nur über diskrete Gittervektoren erfolgen kann.
Für das Helmholtzzentrum für Schwerionenforschung (GSI), in Darmstadt, wurde ein neuer RFQ zur Beschleunigung schwerer Ionen für den Hochladungsinjektor (HLI) entwickelt. Dieser RFQ hat den bereits vorhandenen ersetzt und soll, für die Anpassung des HLI an die neue 28 GHz-ECR-Ionenquelle, den Duty-cycle von 25 % auf 100 % erhöhen, um superschwere Ionen zu erzeugen und die Experimente mit schweren Ionen zu versorgen. Der RFQ hat die Aufgabe schwere, hochgeladene Ionen von 4 keV/u auf 300 keV/u zu beschleunigen. Wichtige Eigenschaften sind ein hoher Strahlstrom, eine hohe Strahl-Transmission, eine kleine Strahlemittanz und eine geringe transversale Emittanzzunahme. Die Erhöhung der Injektionsenergie von 2,5 keV/u auf 4 keV/u ermöglicht eine Verkleinerung des Konvergenzwinkels. Der Aufbau des 4-Rod-RFQs für den HLI ist Thema der vorliegenden Arbeit. Die Auslegung des HLI-RFQs bezieht sich auf ein festgelegtes max. Masse zu Ladungsverhältnis von A/q = 6, bei einer Betriebsfrequenz von 108,408 MHz. Die Ionen sollen bei einem Strahlstrom von 5 mA von 4 keV/u auf 300 keV/u beschleunigt werden. Durch die spezielle teilchendynamische Auslegung konnte die Länge des Tanks von vorher 3 m auf jetzt 2 m verkürzt werden. Dies begünstigt den CW-Betrieb der Struktur. Durch den CW-Betrieb hat man eine hohe Leistungsaufnahme, dies erfordert eine besondere teilchendynamische und hochfrequenztechnische Auslegung der RFQ-Struktur und eine effiziente Kühlung. Zur Simulation der Hochfrequenzeigenschaften wurde ein Modell des RFQ mit dem Programm Microwave Studio (MWS) erstellt. Die Simulationen ergaben einen nur 2 m langen RFQ mit sehr hoher Transmission > 95%. Nach den entsprechenden Simulationsrechnungen bezüglich der Teilchendynamik und der Hochfrequenzeigenschaften wurde der RFQ aufgebaut. Der zeitaufwändige Aufbau lässt sich in drei Abschnitte einteilen. Die Elektroden wurden präzise ausgemessen. Danach wurden Stützen, Elektroden und Tuningplatten an der Bodenplatte montiert und in den Tank eingesetzt. Im Tank wurden die Elektroden justiert, die zuerst außerhalb vermessen wurden. Die korrekte Position der Elektroden zur Referenzfläche wurde berechnet und mit Hilfe eines Faro-Gage im Tank eingemessen. Die maximale Abweichung der Elektrodenposition konnte auf 0,03 mm reduziert werden. Nach der mechanischen Einrichtung folgte die HF-Anpassung des Resonators. Durch das Erhöhen der Tuningplattenpositionen zwischen den Stützen konnte die Resonanzfrequenz von 90,8 MHz auf 108,4 MHz erhöht werden. Als nächstes wurde die Spannungsverteilung im Tank gemessen und mit Hilfe der Tuningplatten konnte sie so eingestellt werden, dass die maximale Abweichung zur mittleren Elektrodenspannung bei nur ± 2% liegt. Zur weiteren Hochfrequenzabstimmung wurde die Wirkung zweier Tauchkolben mit einem Durchmesser von 75 mm untersucht. Die Tauchkolben ermöglichen eine Anpassung der Frequenz im Bereich von 1,4 MHz. Sie sollen die möglichen Frequenzverschiebungen durch beispielsweise thermische Effekte, auf Grund des HF-Betriebs, regulieren. Für die Hochfrequenzabstimmung wurde eine Ankoppelschleife gefertigt und angepasst. Die Güte des Resonators betrug Q0 = 3100, bei einem RP-Wert RP = 100 kΩm, d.h. die zur Versorgung stehende HF-Leistung (50 kW im CW-Betrieb) reicht aus. An der GSI wurde nach dem Transport eine Kontrolle der Elektroden vorgenommen, danach wurde der RFQ erst einzeln, danach als komplette HLI Einheit getestet. Dazu wurden verschiedene Pulsmessungen und Emittanzmessungen mit Argon 7+ und Argon 8+ durchgeführt. Bei der ersten Strahlinbetriebnahme wurden die Transmission, die Ionenenergie und die Emittanz mit verschiedenen Ionen gemessen. Die ersten Tests des HLI-RFQ waren sehr vielversprechend. In den Tests war zu sehen, dass die vorgenommenen Arbeiten, wie Justage und HF-Abstimmung der Resonanzstruktur, erfolgreich waren. Danach wurde der Strahlbetrieb mit Calcium, bei einer Leistung von 50 kW, durchgeführt. Die gemessene Transmission bei einer Spannung von 43 kV lag bei 70 %. Im Mai 2010 gab es eine 14Stickstoff2+ -Strahlzeit mit einer gepulsten Leistung von N = 90 kW. Danach wurde Anpassungstests mit verschiedenen Schwerionen durchgeführt. Im November 2010 wurden neue Tuningplatten mit einer besseren Stützenkontaktierung sowie einer besseren Kühlung eingebaut. Die Elektroden wurden nach diesen Maßnahmen auf ± 0,04 mm einjustiert. Die Flatness liegt bei ± 2,1 %, die Güte beträgt Q0 = 3300. Der RFQ wurde in die Beamline eingebaut und geht im Januar 2011 in Betrieb.
Optimierung der Rekonstruktionsparameter zur Messung von Quarkonia im zentralen ALICE Detektor
(2011)
Seit den ersten Kollisionen im November 2009 läuft der LHC am CERN und dringt in noch nie dagewesene Energiebereiche vor. Die Schwerionenkollisionen innerhalb des ALICE Detektors sollen Aufschluss über die stark wechselwirkende Materie und ihre verschiedenen Phasen geben. Dem liegt die Untersuchung des Quark-Gluon-Plasmas zugrunde. Eine Signatur des Quark-Gluon-Plasmas ist die Rate von produzierten Quarkonia. Diese zerfallen in Leptonenpaare und sind damit zu identifizieren.
In der vorliegenden Arbeit wird diese Rate zur Messung von Quarkonia aufgegriffen und untersucht. Bei der Untersuchung der Simulation durch die Selektion der e++e--Paare, die ausschließlich aus einem J/y stammen, lässt sich ein Massenspektrum produzieren, das im Rahmen dieser Arbeit genauer betrachtet wurde. Durch die genaue Untersuchung der Bremsstrahlung und deren Lokalisierung lässt sich zeigen, dass besonders der ITS ein hohes Maß an Bremsstrahlungsprozessen mit sich bringt, was auf die große Materialanhäufung zurückzuführen ist. Um dies näher zu untersuchen, wurde das Augenmerk auf den ITS gelegt. Eines der wichtigsten Merkmale, die den Bremsstrahlungsprozess beschreiben, ist der Energieverlust. Durch die Bethe-Heitler-Funktion lässt sich der gesamte Detektor nur bedingt beschreiben. Erst die Betrachtung, die sich mit einer Einschränkung auf den ITS und den Azimutwinkel beschäftigt, zeigt eine genaue Beschreibung durch die Parameter der Funktion.
Nach der genauen Beschreibung der Bremsstrahlung wurden verschiedene Methoden entwickelt, in denen die Bremsstrahlungsprozesse innerhalb des invarianten Massenspektums der e++e--Paare ausgeschnitten werden können. Die Methoden der Selektion durch die Anzahl der Spurpunkte sowie die Selektion durch die Position der Spurpunkte zeigen, dass bereits minimale Selektionen ein sehr gutes Signal ergeben. Durch den Vergleich mit den herkömmlichen Selektionen SPDany und SPDfirst, zeigt sich, dass hierbei viel Signal verloren geht und diese Methode für bestimmte Analysen optimiert werden kann.
Durch die Anwendung auf die Datensätze, die während einer Strahlzeit im Jahr 2010 genommen wurden, bestätigte sich die Vermutung. Durch die Selektion von SPDany wird das Signal reduziert. Vergleicht man die Anzahl der Einträge im Signalbereich durch die Reduktion der Teilchen ohne Spurpunkte im ITS (NITSpunkten>0) zu der Anzahl der Einträge durch SPDany, ergibt dies eine Verminderung von bis zu 40%. Die Ursache für den großen Verlust innerhalb des Signalbereichs wird zusätzlich verstärkt, indem der SPD durch Kühlungsprobleme ausgeschaltet ist.
Eine weitere Methode, die untersucht wurde, war die Reduktion der Auswirkungen von Bremsstrahlung mit Hilfe der Kinkanalyse. Diese Methode ließ keine qualitativen Rückschlüsse auf die Analyse der Bremsstrahlung zu.
Dennoch zeigt das Ergebnis, dass das Signal von J/y’s in Proton-Proton Kollisionen um mehr als 40% mehr Einträge verbessert werden kann und sich dieses Prinzip nicht nur theoretisch in den simulierten Daten niederschlägt sondern auch in den untersuchten Datensätzen. Nun gilt es, diese Methode auch in anderen Studien einzubauen, um so eine alltagstaugliche Überprüfung der Erkenntnisse zu gewährleisten.
Das Compressed Baryonic Matter Experiment (CBM) wird im Rahmen der Facility for Antiproton and Ion Research (FAIR) entwickelt, um das Phasendiagramm stark wechselwirkender Materie vorwiegend im Bereich hoher Dichte ausgiebig zu studieren. Dazu sollen Kollisionen schwerer Ionen durchgeführt werden und die Reaktionsprodukte mit hoher Präzision in Teilchendetektoren gemessen und identfiziert werden. Eine wichtige Aufgabe besteht in der Unterscheidung von Elektronen und Pionen, zu der ein Übergangsstrahlungszähler (Transition Radiation Detector) beiträgt. Übergangsstrahlung wird im relevanten Impulsbereich dieser Teilchen nur von Elektronen emittiert und soll im Detektor registriert werden.
In der vorliegenden Arbeit wird die Entwicklung dieses Detektors auf Basis von Vieldrahtproportionalkammern (Multiwire Proportional Chamber ) hauptsächlich anhand von Simulationen diskutiert, aber auch erste Testmessungen eines Prototypen vorgestellt. Der Schwerpunkt der Simulationen eines einzelnen Detektors liegt in der Untersuchung der Effiienz in Abhängigkeit seiner Dicke.
Der Übergangsstrahlungszähler für CBM wird aus mehreren Detektorlagen bestehen. Daher wird außerdem die Effizienz des Gesamtsystems analysiert, indem verschiedene Methoden zur Kombination der einzelnen Signale angewendet werden. Darüber hinaus wird die Effizienz des verfolgten Detektorkonzepts in Abhängigkeit des Radiators, der Anzahl der Detektorlagen, sowie des Teilchenimpulses präsentiert.
Im Rahmen der Bachelorarbeit wurden verschiedene Messungen am CH-Modell des Protonen - Linearbeschleunigers für FAIR durchgeführt.
Zu Beginn wurde die Wirkung der Tuner auf das elektrische Feld im Resonator und die Frequenz untersucht. Aus den systematischen Messungen konnte man feststellen, wie die Tuner das elektrische Feld beeinflussen. Außerdem konnte man sehen, dass die Tuner zu einer Erhöhung der Frequenz führen, was auch durch den theoretischen Hintergrund erwartet wurde. Aus den so gewonnenen Erkenntnissen konnte nun versucht werden, die Spaltspannungen an eine Vorgabe aus LORASR anzupassen. Dies nahm den Hauptteil der Bachelorarbeit ein. Die Anpassung konnte durch Variation der Tuner und der Spaltlängen erreicht werden. Die Abweichungen zur LORASR - Vorgabe lagen alle, bis auf einen Wert, im vorgegebenen Bereich. Allerdings waren die Messungen nicht perfekt reproduzierbar, da es bei der Störkörpermessung zu Fehlern kam. Der Motor, der den Störkörper durch die CH-Struktur ziehen sollte, war in diesem Zeitraum defekt, wodurch sich die gemessenen Spaltspannungen etwas veränderten.
Weiterhin wurde noch eine Sensibilitätsuntersuchung bei Erwärmung des Niederenergieteils des Resonators und eine Modenuntersuchung durchgeführt.
Durch die Erwärmung des Niederenergieteils konnte man sehen, dass das Feld im Inneren des Resonators auf Temperaturunterschiede reagiert. Dies hat aber keinen Einfluss auf die Betriebsfähigkeit des Resonators, da die zu erwartenden Einflüsse auf den Resonator im Betrieb sehr gering sind. Die Modenuntersuchung hat die vorherigen Annahmen bestätigt. Die Hochfrequenzleistung wird über die Linse hinweg störungsfrei weitergegeben und die ersten 4 Moden schwingen alle in dem Modell an und sind messbar, wenn man außen in den Tanks einkoppelt.
In der vorliegenden Arbeit wird die Ionisation von Stickstoff- und Sauerstoff-Molekülen in starken, nicht-resonanten Laserlicht-Pulsen untersucht. Die dreidimensionalen Impulsvektoren der freigesetzten Elektronen und Ionen wurden mittels eines sogenannten COLTRIMS Spektrometers vermessen. Das Hauptaugenmerk galt dem Kanal der Einfachionisation, der ein stabiles Molekülion ($N_2^+$ / $O_2^+$) erzeugt. Da in diesem Fall keine Dissoziation des Ions stattfindet, kann nicht aus der Flugrichtung ionischer Fragmente auf die Ausrichtung der Molekülachse geschlossen werden. Die Abhängigkeit des Prozesses vom Winkel zwischen der Molekülachse und der Polarisationsrichtung des ionisierenden Lichtes ist nur dann zugänglich, wenn die Ausrichtung der Molekülachsen vordem Zeitpunkt der Ionisation aktiv kontrolliert werden kann. Hierzu wurde die Technik der nichtadiabatischen Molekülausrichtung'' (non-adiabatic molecular alignment'') [1] angewandt. Ein erster, mäßig intensiver Lichtpuls bewirkte die Ausrichtung der Molekülachsen im Laborsystem. Sodann wurden die ausgerichteten Moleküle von einem zweiten, hochintensiven Puls ionisiert. In einem ersten Experiment wurden Elektronen-Impulsverteilungen für zwei verschiedene Molekülausrichtungen bestimmt. Ein Vergleich der Verteilungen brachte zwei wichtige Ergebnisse: 1) Im Bereich niedriger Elektronen-Impulse senkrecht zur Polarisationsrichtung des ionisierenden Lichtpulses wird der Fingerabdruck'' des ionisierten Molekülorbitals sichtbar. 2) Bei höheren Impulsen zeigten sich Strukturen, die als Doppelspalt-Interferenz interpretiert werden können. Ein ionisiertes Elektron propagiert im oszillierenden elektrischen Feld des Laser-Pulses. Von diesem kann es auf das Ion hin zurück beschleunigt werden und dort streuen [2]. Wir betrachten den Fall elastischer Rückstreuung''. In erster Näherung wirken die Bestandteile des diatomaren Molekülions wie ein Doppelspalt, an dem die streuende Elektronen-Welle gebeugt wird. In einem zweiten, dem ersten sehr ähnlichen Experiment wurde die Molekülausrichtungs-Richtung in kleinen Schritten variiert. Sowohl der Effekt der Elektronenbeugung am Ion, als auch - mit Einschränkungen - die Abbildung des ionisierten Orbitals wurde erneut beobachtet. Letztere ist durch eine Projektion des Orbitals in den Impulsraum senkrecht zur Laser-Polarisationsrichtung bestimmt [3,4]. Die Messung der Strukturen unter verschiedenen Molekül-Ausrichtungen im zweiten Experiment entspricht daher der Aufnahme verschiedener Projektionen des Orbitals. Der so gewonnene Datensatz sollte prinzipiell eine Rekonstruktion der dreidimensionalen Elektronen-Dichteverteilung des ionisierten Molekülorbitals mittels eines Tomographie-Algorithmus ermöglichen. Entsprechende Entwicklungen sind bei Kooperationspartnern im Gange. Die beobachtete Beugung des rückgestreuten Elektrons ermöglicht den Rückschluss auf die Positionen der Kerne im Molekülion. Es besteht die Hoffnung, dass sich in Zukunft detailliertere Informationen über das streuende Potential jenseits des einfachen Doppelspalt-Modells gewinnen lassen. Rückstreuung höherenergetischer Elektronen sollte hingegen eine verbesserte Ortsauflösung ermöglichen. Beide Informationen - Ionisiertes Orbital und Beugungsbild des Ions - werden simultan in ein- und derselben Messung gewonnen. Die zeitliche Auflösung wird durch rein optische Parameter (Licht-Wellenlänge, Pulslänge) determiniert. Sie kann mittels ultrakurzer, phasenstabiler Laserlicht-Pulse in den Bereich einer Femtosekunde oder darunter verbessert werden. [1] Stapelfeldt et al., Rev. Mod. Phys. 75, 543-557 (2003). doi:10.1103/RevModPhys.75.543 [2] Corkum, Phys. Rev. Lett. 71, 1994-1997 (1993). doi:10.1103/PhysRevLett.71.1994 [3] Spanner et al., J. Phys. B 37, L243-L250 (2004). doi:10.1088/0953-4075/37/12/L02 [4] Ivanov et al., J. Mod. Opt. 52, 165 (2005). doi:10.1080/0950034042000275360
This thesis deals with the simulation, optimization and realization of quasi-optical scanning systems for active THz cameras. Active THz cameras are sensitive in the THz regime of the electromagnetic spectrum and are suitable for the detection of metal objects such as weapons behind clothing or fabrics (maybe for security applications) or material investigation. An advantage of active THz-systems is the possibility to measure the phase of the THz-radiation and thus to reconstruct the surface topography of the objects under test. Due to the coherent illumination and the required system parameters (like image field size, working distance and lateral resolution) the optical systems (in the THz region often called quasi-optical systems) must be optimized. Specifically, the active illumination systems require highly optimized quasioptical systems to achieve a good image quality. Since currently no suitable multi-pixel detectors are available, the object has to be scanned in one or two dimensions in order to cover a full field of view. This further reinforces the occurring aberrations. The dissertation covers, alongside the underlying theory, the simulation, optimisation and realisation of three different active THz systems. The subdivision of the chapters is as follows: Chapter 1 deals with a motivation. Chapter 2 develops the underlying theory and it is demonstrated that the geometrical optics is an adequate and powerful description of the image field optimization. It also addresses the developed analytic on-axis and the off-axis image field optimization routine. Chapter 3, 4 and 5 are about the basis of various active THz cameras, each presented a major system aspect. Chapter 3 shows how active THz-cameras with very high system dynamics range can be realised. Within this chapter it could although be demonstrated how very high depth resolution can be achieved due to the coherent and active illumination and how high refresh rate can be implemented. Chapter 4 shows how absolute distance data of the objects under test can be obtained. Therefore it is possible to reconstruct the entire object topography up to a fraction of the wavelength. Chapter 5 shows how off-axis quasi-optical systems must be optimized. It is also shown how the illumination geometry of the active THz systems must be changed to allow for real-time frame rates. The developed widened multi-directional lighting approach also fixes the still existing problem of phase ambiguity of the single phase measurement. Within this chapter, the world’s first active real-time camera with very high frame rates around 10 Hz is presented. This could be only realized with the highly optimised quasioptical system and the multi-directional lighting approach. The paper concludes with a summary and an outlook for future work. Within the outlook some results regarding the simulation of synthetic aperture radar systems and metamaterials are shown.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.
Mit dieser Arbeit konnte die Funktionsweise von gekoppelten Resonatoren erklärt werden. Das Verhalten von induktiv gekoppelten Beschleunigerkavitäten wurde näher studiert. Dabei wurde verstanden, wie sich Verstimmungen auf die Resonatoren auswirken und was zu tun ist um die Spannungsamplituden des gekoppelten Systems zu beeinflussen. Zudem wurden die Grundlagen für den gekoppelten Betrieb des FRANZ-Beschleunigers gelegt.
Der Karlsruhe 4π-Bariumfluorid-Detektor, entwickelt und aufgebaut Ende der Achtzigerjahre am Forschungszentrum Karlsruhe, ist ein effizienter Detektor für Gammastrahlung und bietet vielfältige Einsatzmöglichkeiten für kernphysikalische Experimente. Insbesondere für Experimente der nuklearen Astrophysik ist er geeignet, aber auch für die Forschung zur Entwicklung neutronengetriebener Reaktoren, zum Beispiel zur Transmutation radioaktiver Abfälle. Derzeit befindet sich der Detektor an der Goethe-Universität Frankfurt, wo er mit der sich dort in Entwicklung befindenden FRANZ-Neutronenquelle eingesetzt werden soll. Diese ermöglicht zum Beispiel Messungen von Wirkungsquerschnitten für den s-Prozess in astrophysikalisch relevanten Energiebereichen und bei hohen Intensitäten.
Diese Arbeit behandelt astrophysikalische Möglichkeiten die der Detektor bietet sowie dessen allgemeinen Aufbau und Eigenschaften. Es wurden eine Funktionsprüfung des Detektors, Messungen der Zeit- und Energieauflösung, Energiekalibration sowie kleine Optimierungen und Reparaturen durchgeführt.
Das Antiprotonen-Experiment PANDA an der zukünftigen Beschleunigeranlage FAIR wird unter anderem Charmonium-Zustände mit einer bis dato unerreichten Genauigkeit messen können. Um dieses Ziel zu erreichen, wird eine sehr gute Teilchenidentifikationsfähigkeit verlangt. Eine gute Trennung zwischen Pionen und Kaonen wird durch den Einsatz eines Cherenkovdetektors erreicht. Die Leistungsfähigkeit eines DIRC hängt von dessen Radiatorgüte ab. Um die Qualität der Radiatorstäbe spezifizieren zu können, wurde im Rahmen dieser Doktorarbeit eine optische Messapparatur entwickelt. Dieser Aufbau erlaubt es die Transmission sowie die Oberflächenrauheit der Stäbe zu messen. Es wurden mehrere Radiatorstäbe aus synthetischem Quarzglas und Acrylglas untersucht. Die Messgenauigkeit bei hochqualitativen Stäben liegt für die Transmissionsmessung bei etwa 1 Promille und für die Rauheit bei 1-2 Angström. Die Messergebnisse bei verschiedenen Wellenlängen zeigen eine gute Übereinstimmung mit der skalaren Streutheorie, die den Zusammenhang zwischen Reflexionskoeffizienten und Rauheit beschreibt. Bei einer Strahlzeit an der GSI mit einem 2 GeV Protonenstrahl wurde ein erster Prototyp für den Barrel-DIRC mit einem Stab aus synthetischem Quarzglas als Radiator getestet. Durch Variation des Einfallswinkels und der Position des Protonenstrahls auf dem Radiator konnten Cherenkovringe eindeutig nachgewiesen werden. Zudem wurde der Cherenkovwinkel und die Einzelphotonauflösung in guter Übereinstimmung mit dem Erwartetem und der Simulation bestimmt.
In der LEBT-Sektion der Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) befinden sich zur transversalen Fokussierung des Ionenstrahls vier Solenoide. Die ersten beiden dienen dem Einschuss in das ExB-Choppersystem, die letzten beiden dem Einschuss in die erste Beschleunigerstruktur, den Radiofrequenzquadrupol (RFQ). In numerischen Transportsimulationen konnte gezeigt werden, dass insbesondere der erste Solenoid einen hohen Füllgrad aufweisen wird, was zu Strahlaberrationen und damit zu einer unerwünschten Erhöhung der Strahlemittanz führen kann.
Um diesen Effekt zu untersuchen, wurden die Fokussier- und Abbildungseigenschaften des ersten FRANZ-Solenoides analysiert. Analytische Rechnung unter Verwendung der Twissparametertransformation wurden durchgeführt, numerische Simulationen mit einem idealisiertem und einem realistischem Magnetfeldverlauf gemacht und 2 Messaufbauten mit einer Volumenquelle, dem Solenoid und einer Schlitz-Gitter-Emittanzmessanlage realisiert, um gemessene mit analytischen und numerischen Daten vergleichen zu können. Die Parameter, die ausgewertet und verglichen wurden, sind die Lage der Emittanzellipse, die Emittanz im x-x'-Phasenraum und die normierten vierten Momente (Wölbung) im Ortsraum.
Neutroneneinfangquerschnitte werden häufig mithilfe der Aktivierungsmethode bestimmt. Hierbei wird die zu untersuchende Probe mit Neutronen der gew¨unschten Energie bestrahlt und danach in einem untergrundoptimierten Labor ausgezählt. Am Institut für Angewandte Physik der Goethe Universität Frankfurt wurde ein solcher Aufbau realisiert. Er besteht aus zwei Clover Detektoren, die gegenüberliegend in enger Geometrie angeordnet sind. Die aktivierte Probe wird mittels spezieller Probenhalter reproduzierbar und zentriert zwischen den Detektoren platziert. Die Clover Detektoren sind mit passiven Schilden (Pb) und einer aktiven Abschirmung (BGO) umgeben. Die unterschiedlichen Abschirmungen wirken sich in verschieden Energiebereichen jeweils anders aus.
Diese Arbeit befasst sich mit der astrophysikalischen Motivation und dem Aufbau, mit dem später die Ausbeute einer neutronenaktivierten Probe bestimmt werden kann. Außerdem werden die Ergebnisse der verschiedenen Untergrundmessungen miteinander verglichen.
Im Rahmen dieser Arbeit wird ein Gammaspektroskopie-Aufbau unter Verwendung eines HPGe-Clover-Detektors zur Nutzung in Aktivierungsexperimenten charakterisiert und untersucht. Die für präzise Aktivitätsmessungen nach einer Aktivierung nötigen Effizienzen werden mit Hilfe der Eichquellen 60Co und 22Na unter Nutzung verschiedener Modi des Clover-Detektors abstandsabhängig errechnet. „Listmode“-Daten ermöglichen dabei eine „offline“-Verarbeitung. Begleitet werden die Messungen von aufwändigen Monte-Carlo-Simulationen in Geant4. Parallele Auswertungsmethoden erlauben einen genauen Vergleich zwischen simulierten und experimentellen Ergebnissen.
Ziel der durchgeführten Experimente war es, die Zerfallsmechanismen Van-der-Waals gebundener Argon- und Neon Di- und Trimere in intensiven Laserfeldern zu untersuchen, um mehr über den Einfluss der schwachen Van-der-Waals Bindung auf die Dynamik des Ionisationsprozesses zu erfahren. Da Dimere aufgrund ihrer elektronischen Struktur sehr stark zwei separaten benachbarten Atomen gleichen, vereinen sie atomare und molekulare Eigenschaften in sich und ihre Untersuchung verspricht ein tieferes Verständnis der Wechselwirkungsmechanismen in starken Laserfeldern. Die Verwendung der Impulsspektroskopie Methode COLTRIMS ermöglichte die koinzidente Messung aller beim Aufbruch entstandener ionischer Fragmente sowie eines elektronischen Impulsvektors. Für die beidseitige Einfachionisation des Argon Dimers, konnten bei der gewählten Intensität (etwa 3.3E14W/cm2) drei unterschiedliche Ionisationsprozesse identifiziert werden, von denen zwei zu einer überraschend hohen kinetischen Gesamtenergie der Ionen führen. Aufgrund der Messung der Winkelverteilung der ionischen Fragmente und eines der emittierten Elektronen für lineare und zirkulare Polarisation gelang es, die den drei Prozessen zugrunde liegende Dynamik im Laserfeld zu entschlüsseln. Der dominierende Zerfallskanal stellt demzufolge eine schnelle sequentielle Doppelionisation des Argon Dimers dar, die noch am Gleichgewichtsabstand des Dimers stattfindet. Für den zweithäufigsten Ionisationsprozess ergaben sich zwei mögliche Erklärungsansätze: Entweder wird das Dimer zunächst einseitig doppelionisiert, so dass es auf einer attraktiven Potentialkurve zusammenläuft, bevor es zu einem späteren Zeitpunkt – wenn das Laserfeld bereits abgeklungen ist – durch eine Umverteilung seiner Ladungen in einer Coulomb Explosion fragmentiert, oder das Dimer wird bei einer beidseitigen Tunnelionisation zugleich angeregt, so dass die Coulomb Explosion von einer Potentialkurve erfolgt, die wesentlich steiler als 1/R verläuft. Der schwächste Zerfallskanal, der sich durch die höchste Gesamtenergie auszeichnet, ist auf eine "Frustrated Triple Tunnel Ionization" zurückzuführen, bei der ein hoch angeregter Rydberg Zustand erzeugt wird. Bei der Untersuchung des Neon Dimers konnte bei der gewählten Intensität (etwa 6.3E14W/cm2) nur die sequentielle beidseitige Einfachionisation identifiziert werden, obwohl die Daten Hinweise auf einen weitern Ionisationsprozess mit sehr geringer Statistik aufweisen. Zudem wurde in dieser Arbeit nach der Methode des Coulomb-Explosion-Imaging aus den in Koinzidenz gemessenen Impulsvektoren aller einfachgeladenen ionischen Fragmente eines Aufbruchs die geometrische Struktur der Cluster im Orts-und Impulsraum rekonstruiert. Die ermittelte Grundzustandswellenfunktion des Argon und Neon Dimers zeigt eine gute Übereinstimmung mit quantenmechanischen Berechnungen. Für das Argon und Neon Trimer konnten aus den gemessenen Impulsvektoren mittels einer numerischen Simulation die Bindungswinkel im Ortsraum bestimmt werden, so dass erstmals gezeigt werden konnte, dass diese Trimere gleichseitige Dreieckskonfigurationen aufweisen. Vergleiche mit theoretischen Berechnungen zeigen für die breite Winkelverteilung des Neon Trimers eine hervorragende Übereinstimmung, während die gemessene Winkelverteilung des Argon Trimers etwas breiter als die berechnete ist.
Optische Untersuchungen des Entladungsverhaltens einer dielektrischen Barriere Entladung in Argon
(2011)
Im Rahmen dieser Arbeit wurde eine "Dielektrische Barriere Entladung" (DBE) mit planparalleler Elektrodengeometrie aufgebaut und mittels optischer Diagnostik untersucht und analysiert. Die mit der Dielektrischen Barriere Entladung erzeugte Strahlung soll für die Wassersterilisation durch UV-Entkeimung genutzt werden.
Als Arbeitsgas wurde Argon verwendet. Argon Excimere emittieren VUV-Strahlung mit einer Wellenlänge von 126nm. Die Ansteuerung der DBE erfolgte mit einer Sinusspannung. Die Amplitude der Sinusspannung wurde von 1600V/SS-5000V/SS bei einer Frequenz von 5kHz-20kHz und einem Druck von 100mbar-1000mbar variiert.
Bei der Entwicklung einer Lampe zur Wassersterilisation ist die Kenntnis der Effizienz notwendig. In dieser Arbeit wurde daher untersucht, welchen Einfluss Druck, Spannung und Frequenz auf die VUV-Konversionseffizienz (Verhältnis der eingekoppelten Leistung zur Lichtleistung bei 126nm) haben. Bei einem Druck von 600mbar und einer Effektivspannung von ca. 1050V konnte bei 6kHz eine
maximale VUV-Konversionseffizienz von ca. 6% erzielt werden. Die Lichtleistung bei einer Wellenl¨ange von 126nm betrug dabei 11, 5mW.
Die Bildung von Excimeren setzt das Vorhandensein von Argonatomen im metastabilen Zustand voraus. Zum einen entstehen diese metastabilen Anregungszustände durch direkte Anregung bei Stoßprozessen, zum anderen können sie durch Abregung eines höheren Anregungszustandes unter Aussendung von Strahlung entstehen. Die Wellenlängen, der bei einem solchen Übergang emittierten Strahlung (Erzeugerlinien) befinden sich im sichtbaren Bereich. Zur Analyse des sichtbaren Spektrums wurde ein Spektrometer verwendet. Es konnte ein direkter Zusammenhang zwischen den Erzeugerlinien und der Entstehung von Excimerstrahlung nachgewiesen werden. Eine Messung dieser Erzeugerlinien kann daher als erster Indikator für die Erzeugung von VUV-Excimerstrahlung dienen. Bei dielektrischen Barriere Entladungen muss zwischen drei Entladungsformen unterschieden werden. Man unterscheidet homogene, filamentierte und quasihomogene Entladungen. Zur genaueren Untersuchung der Dynamik der DBE und der Entstehung dieser unterschiedlichen Entladungsformen wurden Aufnahmen mittels Kurzzeitkamera angefertigt und in Bezug auf die Parameter Druck, Spannung und Frequenz untersucht. In Zusammenarbeit mit [Hoc11] wurden Entladungsphasendiagramme erstellt, welche unter Kenntnis von Druck, Spannung und Frequenz eine Zuordnung der Entladungsform bei den jeweiligen Parametern ermöglichen. Es wurde gezeigt, dass die maximale VUV-Konversionseffizienz im Bereich homogener Entladungen erreicht wird und das homogene Entladungen bei Variation der Parameter nur einen kleinen Bereich im Vergleich zu den anderen Entladungsformen einnehmen.
Die vorliegende Arbeit beschäftigt sich mit optischen und elektrischen Untersuchungen an einer koaxial aufgebauten Lorentz-Drift-Geometrie. So wurden Messungen an der Lorentz-Drift-Sputterquelle bezüglich der Durchbruchspannung durchgeführt. Es hat sich gezeigt, dass das Verhalten der Durchbruchspannung in Abhängigkeit vom Druck trotz der koaxialen Elektrodengeometrie vergleichbar mit der Paschenkurve fur eine planparallele Anordnung ist.
Zur Untersuchung des Sputterverhaltens wurden zunächst einige Kurzzeitaufnahmen mit einer Belichtungszeit im Mikrosekundenbereich durchgefuhrt, um so die Ausbreitung der Plasmawolke zu betrachten. Bei einem Durchbruch führt der Stromfluss zu einem Magnetfeld, sodass ein Lorentz-Drift entsteht. Durch die resultierende Kraft wird das Plasma beschleunigt.
Es zeigt sich, dass sich die Plasmawolke mit zunehmender Zeit bzw. zunehmendem Abstand von den Elektroden homogener im Rezipient verteilt. Da durch die Ausbreitung der Plasmafront auch ausgelöstes Elektrodenmaterial zu einem entsprechend platzierten Substrat beschleunigt wird, lagert sich dort eine dünne Schicht an.
Die Ablagerungen am Substrat wurden bei verschiedenen Drucken und verschiedenen Abständen zu den Elektroden betrachtet. Erste Messungen zeigen, dass die Schichten mit größerem Abstand homogener werden und besser am Substrat haften bleiben, jedoch die Schichtdicke geringer wird. Bei geringem Abstand lagern sich vergleichsweise dicke Schichten an, die jedoch sehr inhomogen und instabil sind. Durch Optimierung sollte es aber möglich sein, einen gewünschten Kompromiss aus Schichtdicke, Stabilität und Homogenität zu finden.
Bei niedrigeren Drucken und somit hohen Durchbruchspannungen kommt es aufgrund der höheren Stromdichte zu stärkeren Lorentz-Drifts, sodass die Teilchenenergien im Plasma steigen und es zu dickeren Ablagerungen kommt.
Die Schlussfolgerung dieser Arbeit ist, dass die Beschichtung durch eine Lorentz-Drift-Geometrie prinzipiell möglich ist. Es konnten bisher qualitative Messungen durchgeführt werden, die jedoch noch quantitativ verifiziert werden sollten.
Mit der hier vorliegenden Arbeit ist das Entladungsverhalten einer Dielektrischen Barriere Entladung anhand der elektrischen Parameter untersucht worden. Dazu wurde ein planparallele Elektrodenkonfiguration entwickelt und aufgebaut, die mit einer Sinus-Spannungs von maximal 5000 Vss und einer Frequenz von 5 kHz-20 kHz angesteuert wurde. Als Arbeitsgas wurde Argon im Druckbereich von 100 mbar - 1000 mbar verwendet. Auf diese Weise konnte ein Plasma erzeugt werden, in das bei einer maximalen Transfereffiienz von 96%, eine mittlere Leistung von bis zu 845 mW eingekoppelt werden konnte.
Da die Dielektrische Barriere Entladung auf Grund der Abschirmung der Elektroden vom Gasraum einige Besonderheiten gegenüber eines klassischen kapazitiv eingekoppelten Plasmas aufweist, können keine Rückschlüsse mittels einer einfachen Strom-Spannungsmessung auf die Vorgänge im Plasma gemacht werden.
Um trotzdem Einblick in die Entladung zu erhalten, wurde das von [Tra08] vorgeschlagene Ladungstransportmodel für die Analyse herangezogen und an den hier vorliegenden experimentellen Aufbau angepasst. So konnte unter anderem der Ein
uss der auf den Dielektrika befindlichen Restladungsträger auf die Ausbildung der Entladung untersucht werden. Des Weiteren ist aus den gewonnen Größen die Elektronendichte des Plasmas bestimmt worden. Diese liegt bei der hier untersuchten dielektrischen Glimmentladung, je nach Gasdruck und Frequenz, im Bereich zwischen 5 X 10exp9 - 2 X 10exp10 1/cm3 . Auch konnten in diesem Zusammenhang qualitative Aussagen über die Entwicklung der Elektronentemperatur gemacht werden.
Zusammen mit Kurzzeitaufnahmen, die den Verlauf der Entladung dokumentieren und den in [Sch11] gemachten Untersuchungen zur Excimerstrahlung konnte so ein umfassendes Bild der Vorgänge im Plasma erstellt und Kriterien erarbeitet werden, die den für eine Dielektrische Barriere Entladung typischen Ubergang zwischen einer Glimmentladung zu einer filamentierten Entladung erklären können.
Im Rahmen dieser Diplomarbeit haben Arbeiten am Elektronen-Streuexperiment von Prof. J. Jacoby und Dr. R. Berezov an der Goethe-Universität Frankfurt stattgefunden. Am Experiment wurden durch Møller-Streuung verschränkte Elektronen auf ihre Spin-Abhängigkeit untersucht. Die Untersuchung erfolgte als Koinzidenzmessung, dessen Genauigkeit von der zeitlichen Auflösung der Detektoren abhängt. Als Koinzidenzlogik diente ein von Julian Schunk entwickeltes Datenerfassungsprogramm, das auf einem Oszilloskop installiert wurde...
In dieser Arbeit wurden Verfahren zur Identifikation hirnelektrischer Aktivität mit Zellularen Nichtlinearen Netzwerken (CNN), im Besonderen Reaktions-Diffusions-Netzwerken, entwickelt und untersucht. Mit Hilfe der eingeführten Methoden wurden Langzeitaufzeichnungen hirnelektrischer Aktivität bei Epilepsie analysiert und mittels eines automatisierten Verfahrens ermittelt, inwieweit sich mögliche Voranfallszustände vom anfallsfreien Zustand im statistischen Sinne trennen lassen.
Zunächst wurde ein Überblick über CNN gegeben und deren Beschreibung durch Systeme gekoppelter Differentialgleichungen dargestellt. Weiterhin wurden die Möglichkeiten der Informationsverarbeitung mit CNN durch Ausnutzung von Gleichgewichtszuständen oder der vollständigen raum-zeitlichen Dynamik der Netzwerke diskutiert. Zusätzlich wurde die Klasse der Reaktions-Diffusions-Netzwerke (RD-CNN) eingeführt. Für die Repräsentation der hierbei benötigten weitgehend allgemeinen nichtlinearen Zellkopplungsvorschriften wurden polynomiale Gewichtsfunktionen vorgeschlagen. Mit einer Darstellung der Theorie der Lokalen Aktivität wurden notwendige Bedingungen für emergentes Verhalten in RD-CNN angegeben. Die statistische Bewertung von Vorhersagemodellen wurde aus theoretischer Sicht beleuchtet. Mit der Receiver Operating Characteristic (ROC) wurde eine Analysemethode zur Beurteilung der Vorhersagekraft des zeitlichen Verlaufs von Kenngrößen bezüglich bevorstehender epileptischer Anfälle vorgestellt.
Als nächstes wurden Überlegungen zur numerischen Simulation von CNN und deren flexible und erweiterbare programmtechnische Umsetzung entwickelt. Die daraus resultierende und im Rahmen dieser Arbeit entstandene objektorientierte Simulationsumgebung FORCE++ wurde konzeptionell und im Hinblick auf die Softwarearchitektur vorgestellt.
Die Verfahren zur numerischen Simulation wurden auf die Problemstellung der Systemidentifikation mit CNN angewandt. Dazu wurden Netzwerke derart bestimmt, dass deren Zellausgangswerte entsprechende Signalwerte des beobachteten, zu identifizierenden Systems approximieren.
Da die Parameter der zu bestimmenden CNN im vorliegenden Fall der Untersuchung hirnelektrischer Aktivität nicht bekannt sind und nicht direkt abgeleitet werden können, wurden überwachte Lernverfahren zur Bestimmung der Netzwerke eingesetzt. Hierbei wurden Lernverfahren verschiedener Klassen für die Identifikation mit CNN mit polynomialen Gewichtsfunktionen untersucht. Die Leistungsfähigkeit des vorgestellten Identifikationsverfahrens wurde anhand bekannter Systeme einer genauen Betrachtung unterzogen. Dabei wurde festgestellt, dass die betrachteten Systeme mit hoher Genauigkeit durch CNN repräsentiert werden konnten. Exemplarisch wurde das Parametergebiet lokaler Aktivität für ein RD-CNN berechnet und durch numerische Simulationen die Ausbildung von Mustern innerhalb des Netzwerkes nachgewiesen.
Nach einem einleitenden Überblick über die medizinischen Hintergründe von Epilepsie und der Erfassung hirnelektrischer Aktivität wurde eine vergleichende Übersicht über den Stand veröffentlichter Studien zur Vorhersage epileptischer Anfälle gegeben. Für die Anwendung des hier vorgestellten Identifikationsverfahrens zur Analyse hirnelektrischer Aktivität wurde zunächst die Genauigkeit der Approximation kurzer, als quasi-stationär betrachteter Abschnitte, von EEG-Signalen untersucht. Durch gezielte Erhöhung der Komplexität herangezogener Netzwerke konnte hier die Genauigkeit der Repräsentation von EEG-Signalverläufen deutlich verbessert werden. Dabei wurde zudem die Verallgemeinerungsfähigkeit der ermittelten Netzwerke untersucht, wobei festgestellt wurde, dass auch solche Signalwerte mit guter Genauigkeit approximiert werden, die nicht im Identifikationsverfahren durch die überwachte Parameteroptimierung berücksichtigt waren. Um speziell den Einfluss der Information aus der Korrelation benachbarter Elektrodensignale zu untersuchen, wurde ein Verfahren zur multivariaten Prädiktion mit Discrete Time CNN (DT-CNN) entwickelt.
Hierbei werden durch ein CNN Signalwerte der betrachteten Elektrode aus vergangenen, korrelierten Signalwerten von Nachbarelektroden geschätzt. Für diese Aufgabenstellung konnte eine Methode zur Bestimmung der Netzwerkparameter im optimalen Sinn, alleine aus den statistischen Eigenschaften der Elektrodensignale angegeben werden. Dadurch gelang eine erhebliche Reduzierung der Rechenkomplexität, die eine umfangreiche Untersuchung intrakranieller Langzeitableitungen ermöglichte.
Zur Analyse von Langzeitaufzeichnungen mit dem RD-CNN Identifikationsverfahren, wurden die numerischen Berechnungen zur Simulation von CNN mit FORCE++ auf einem durchsatz-orientierten Hochleistungs-Rechnernetzwerk durchgeführt. Mit den so gewonnen Ergebnissen konnten vergleichende Analysen vorgenommen werden. Zudem wurden Untersuchungen zum Vorliegen lokaler Aktivität in den ermittelten RD-CNN durchgeführt.
Die bei den beschriebenen Verfahren extrahierten Kenngrößen hirnelektrischer Aktivität wurden durch ein automatisiertes Verfahren auf ihre Vorhersagekraft für epileptische Anfälle bewertet. Dabei wurde untersucht, inwieweit der anfallsfreie Zustand und ein angenommener Voranfallszustand durch die jeweils betrachtete Kenngröße im statistischen Sinn diskriminiert werden kann. Durch parallele Analysen mit Anfallszeitsurrogaten wurden hierzu ergänzende Signifikanztests durchgeführt.
Nach Auswertung von mehrtägigen Hirnstromsignalen verschiedener Patienten konnte festgestellt werden, dass mit den in dieser Arbeit entwickelten Verfahren Kenngrößen hirnelektrischer Aktivität bestimmt werden konnten, welche offenbar die Identifikation potentieller Voranfallszustände ermöglichen.
Auch wenn für eine breite medizinische Anwendung die Spezifität und Sensitivität noch weiter verbessert werden muss, so können doch die erzielten Ergebnisse einen wesentlichen Schritt hin zu einer implantierbaren, CNN-basierten Plattform zur Erkennung und Verhinderung epileptischer Anfälle darstellen. Die Berechnungen für das Identifikationsverfahren mit RD-CNN könnten dabei durch zukünftige, spezialisierte schaltungstechnische Realisierungen für mehrschichtige CNN mit polynomialen Gewichtsfunktionen eine erhebliche Beschleunigung erfahren.
Epileptische Anfälle, unabhängig von ihrer Art und Auftrittshäufigkeit, bilden eine Symptomatik, welche bei ca. 1% der Weltbevölkerung auftritt. Hierbei kann es beispielsweise zu unkontrollierten Muskelkrämpfen kommen, ebenso aber zu einer Vielzahl anderer Symptome, die in ihrer Gesamtheit das Krankheitsbild der sogenannten Epileptogenesis bilden. Bei etwa zwei Drittel der an Epilepsie leidenden Patienten kann in vielen Fällen Anfallsfreiheit im Rahmen einer medikamentösen Therapie erreicht werden. Dies umso besser, wenn die Medikation präventiv zum geeigneten Zeitpunkt erfolgen könnte. Demzufolge würden in einer großen Anzahl von Fällen Patienten von einem System profitieren, das eine automatisierte zuverlässige Anfallsvorhersage ermöglicht. Bei nur 20% der anderen Patienten kann eine chirurgische Behandlung erfolgreich sein.
In dieser Arbeit soll eine weitergehende Untersuchung des im Institut für Angewandte Physik der Johann Wolfgang Goethe- Universität entwickelten Prädiktionsverfahrens an verschiedenen EEG-Registrierungen unterschiedlicher Patienten erfolgen. Dabei soll im speziellen untersucht werden, ob basierend auf den Resultaten einer Signalprädiktion eine Unterscheidung zwischen Voranfallszeitraum, Anfall und anfallsfreier Phase getroffen werden kann, und ob basierend auf den Kenngrößen eines Prädiktors und des Prädiktionsfehlers eine Merkmalsdefinition gefunden werden kann, welche in einem späteren, implantierbaren Frühwarnsystem eine automatisierte Anfallsvorhersage ermöglicht. Als Datenbasis sollen vier Langzeit-EEG-Registrierungen mit einer Länge von jeweils 5 – 10 Tagen zugrunde gelegt werden. Zur Prädiktion sollen zeitdiskrete, gedächtnisbehaftete, mehrschichtige Zellulare Nichtlineare Netzwerke herangezogen werden. Dabei soll insbesondere anhand von unterschiedlichen Netzwerken festgestellt werden, inwieweit mittels einer Signalprädiktion Synchronisationseffekte zwischen EEG-Signalen verschiedener Hirnareale festgestellt werden können.
Untersuchung der Konformation und Dynamik von RNA mit Hilfe fluoreszierender Farbstoffmoleküle
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung der konformationellen und elektronischen Eigenschaften sowie der Dynamik verschiedener RNA-Systeme. Zur Durchführung dieser Experimente wurde zusätzlich zu bereits vorhandenen statischen und zeitaufgelösten Absorptionsspektrometern im Rahmen dieser Arbeit eine Apparatur zur Messung von Fluoreszenzlebensdauern entwickelt, die durch die integrative Verwendung zweier verschiedener, etablierter Technologien (TCSPC und Aufkonvertierung) über einen weiten Zeitbereich von 9 Größenordnungen (100 fs - 0,1 ms) operiert. Mit diesem Aufbau konnten neben den RNA-Studien wichtige Beiträge zum Verständnis der Isomerisierung eines Retinalproteins, des Transportprozess des Membrantransportproteins TbSMR und der im Infraroten liegenden Fluoreszenz des Radikalkations von Astaxanthin gewonnen werden. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Untersuchung verschiedener RNA-Systeme: So werden die optischen Eigenschaften einer 1-Ethinylpyren-modifzierten RNA-Adeninbase allein und in RNA-Strängen eingebunden untersucht. Statische Fluoreszenzmessungen zeigen einen ausgeprägten Ladungstransfercharakter des Chromophors und eine generell große Wechselwirkung zwischen Ethinylpyren und Adenin, die in einer substanziellen Änderung der optischen Eigenschaften des Pyrens resultiert. Die Untersuchung der schnellen Photodynamik von Pyrenadenin zeigt zudem eine Verringerung der Lebensdauer von Pyren um etwa 2 Größenordnungen. Pyrenadenin zeigt sowohl Fluoreszenz eines neutralen (100-200 ps), als auch eines energetisch tiefer liegenden Ladungstransferzustands (1-2 ns). Die Formationszeit des Ladungstransferzustandes fällt mit steigender Polarität des Lösemittels. Eingebunden in Modell-RNA-Stränge ist Fluoreszenzquantenausbeute des Chromophors ein deutlicher Indikator für seine Interkalation. Nur in der stabileren Umgebung von GC-Basenpaaren ist das Pyren in der Lage, sich dauerhaft innerhalb des Duplex aufzuhalten, während in einer flexibleren AU-Umgebung eine Position außerhalb des RNA-Duplex präferiert wird. Transiente Absorptionsmessungen zeigen, dass die Photophysik des in RNA eingebundenen Pyrenadenins nur kleine Variationen im Vergleich zur Photophysik des Labels allein aufweist. Die deutliche Abnahme der Quantenausbeute des interkalierten Chromophors geht hauptsächlich auf Kosten der langlebigeren Ladungstransferfluoreszenz, so dass interkaliertes Pyren insgesamt schneller in den Grundzustand zurückkehrt als nicht interkaliertes. Mit Hilfe eines doppelt modifizierten Duplex, bei dem sich jeweils ein Farbstoff an einem der beiden Stränge befindet, kann nachgewiesen werden, dass aufgrund von Exzimerwechselwirkungen eine Verschiebung des Fluoreszenzmaximums von 35 nm auftritt. Kurzzeitspektroskopische Messungen zeigen Signale, die als Superposition von Monomeren und Exzimeren interpretiert werden können, wobei die Lebensdauer des letzteren mit 18,5 ns die der Monomerkomponente um ein Vielfaches übertrifft. Ein weiterer Teil dieser Arbeit beschäftigt sich mit einer Studie zur Bindung des fluoreszenten Liganden Tetrazyklin an das Tetrazyklin bindende Aptamer. Hier wird auf Basis verschiedener Mutanten mit Hilfe des TCSPC eine Analyse der Stabilität der Bindetasche sowie mit der Stopped-Flow-Methode eine Beobachtung des Bindungsprozesses durchgeführt. Insgesamt folgt die Bindung des Tetrazyklins an das Aptamer einer zweistufigen Kinetik, deren zweiter Schritt irreversibel ist. Die Bindung läuft, verglichen mit anderen Aptameren, sehr schnell ab. Während die Mutationen von A13 und A50,die direkte Kontakte zum Substrat bilden, nur einen leichten Einfluss auf beide Bindungsschritte ausüben, führt eine Mutation der für die Präformation verantwortlichen Base A9 zu einer Verlangsamung des Bindungsprozesses um mehr als einen Faktor 20 durch eine immens gesteigerten Rückreaktionsrate des ersten Bindungsschritts. Hieraus lässt sich schließen, dass bei fehlender Präformation des Aptamers nur wenige Tetrazyklinmoleküle ein für vollständige Bindung geeignetes Aptamer vorfinden. Die Bindung an A13 und A50 geschieht bereits im ersten Schritt des Bindungsprozesses. Ferner konnte anhand von Lebensdauermessungen gezeigt werden, dass nach dem Wildtyp die Mutante A9G die stabilste Bindetasche aufwies. Das Fehlen eines direkten Kontaktes wirkt sich deutlich stärker aus. Insbesondere führt die Abwesenheit der Fixierung des Gegenions durch A50 zu der instabilsten Bindetasche. Wie in dieser Arbeit gezeigt wird, ist die zeitaufgelöste optische Spektroskopie insbesondere in Verbindung mit fluoreszierenden Molekülen ein ausgezeichnetes Mittel zur Beobachtung von Struktur und Dynamik von RNA. Die Empfindlichkeit von Fluoreszenz auf die Veränderung der Umgebung des Chromophors erlaubt es, Konformationsdynamik und elektronische Konfigurationen in Echtzeit zu beobachten.
Die vorliegende Arbeit bietet zunächst einen weiteren Beweis für die Existenz des neutralen Heliumdimers. Darüber hinaus konnten zwei verschiedene Prozesse identifiziert werden, über die die Absorbtion eines Photons zur Ionisation beider Atome des Dimers über sehr große Abstände führen kann. Oberhalb einer Photonenenergie von 65,4 eV konnte ein ICD Prozess beobachtet werden, der über Photoionisation mit gleichzeitiger Anregung von einem der beiden Atome realisiert wird. Bei 77,86 eV konnte ICD über elektronisch angeregte Zustände bis n=6 nachgewiesen werden. In der KER-Verteilung konnten zudem Strukturen gefunden werden, die auf Vibrationsanregungen im Zwischenzustand des Dimer-Ions schließen lassen. Eine vollständig quantenmechanische Rechnung von Sisourat et al. konnte dies schließlich hervorragend bestätigen. Es konnte also ein direkter Blick auf die Vibrationswellenfunktionen des Systems erlangt werden. In anderen Systemen ist dies in der Regel nicht möglich, da sich alle Zustände üblicherweise zu einer strukturlosen Verteilung überlagern. Weiterhin konnte gezeigt werden, dass sich die Winkelverteilungen von ICD- und Photoelektronen in verschiedenen Bereichen des KER mitunter stark voneinander unterscheiden. Dies konnte auf die unterschiedliche Besetzung von verschiedenen Potentialkurven zurückgeführt werden. Unterhalb der Photonenenergieschwelle zur Anregung und Ionisation eines Heliumatoms konnte ein weiterer, zweistufiger Ionisationsmechanismus gefunden werden. Hier wird zunächst durch Photoionisation ein Elektron aus einem der beiden Atome im Dimer freigesetzt. Dieses Photoelektron kann nun am neutralen Atom gestreut werden und dabei ausreichend viel Energie übertragen, um dieses ebenfalls zu ionisieren. Es konnte gezeigt werden, dass der Prozess einer Abhängigkeit von der Polarisation der Synchrotronstrahlung unterliegt, die man für Photoionisation erwarten würde. Die Energie- und Winkelverteilungen der Elektronen konnten daher mit vorangegangenen Elektronenstoß-Experimenten verglichen werden. Die gute Übereinstimmung mit diesen Daten rechtfertigt eine anschauliche Sichtweise des Prozesses als Analogon zum klassischen Billiard-Stoß. Der Two-Step-Prozess wurde bisher zwar schon in vielen Systemen als theoretisches Modell zur Doppelionisation beschrieben, allerdings konnten die einzelnen Unterprozesse bisher nicht gesondert gemessen werden. Die großen Abstände im Heliumdimer ermöglichen erstmals eine deutliche Trennung in Photoionisation an einem Atom und Elektronenstoß (e,2e) am Nachbaratom. Der Two-Step-Prozess konnte außerdem dazu verwendet werden, die ungewöhnliche Grundzustandswellenfunktion des Heliumdimers zu experimentell zu bestätigen. Eine Analyse des gemessenen KER konnte dabei deutliche Abweichungen zu einer klassischen Theorie aufzeigen. Erst eine vollständig quantenmechanische Rechnung des Übergangs von Sisourat et al. konnte die Messdaten beschreiben.
Mit der vorliegenden Arbeit wurden zu ersten Mal die seit mehreren Jahren vorhergesagten dynamischen Aufbruchsmechanismen - der direkte, der sequentielle und der asynchrone Zerfall - in mehratomigen Molekülen kinematisch vollständig untersucht. Experimentell wurde hierfür ein Kohlenstoffdioxid-(CO2)-Molekül in langsamen Ion-Molekül Stößen dreifach ionisiert, indem die Elektronen des Targets von den langsamen, hochgeladenen Projektilionen (Ar8+-Ionen) eingefangen wurden. Die Untersuchung des Zerfalls des CO2-Ions in die einfach geladenen ionischen Fragmente C+ + O+ + O+ zeigte, dass bei diesem Zerfall das Projektilion vornehmlich einen positiven Ladungszustand von q = 6 und nicht den zunächst erwarteten Ladungszustand q = 5 aufweist. Dies ist darauf zurückzuführen, dass die eingefangenen Elektronen oftmals elektronisch hoch angeregte Zustände im Projektil populieren und demnach im weiteren Verlauf über Autoionisationsprozesse dieses auch wieder verlassen können. Ähnliche Autoionisationsprozesse können auch im Target ablaufen, treten dort jedoch mit einer geringeren Wahrscheinlichkeit auf, da der Wirkungsquerschnitt für Autoionisationsprozesse im Target um einen Faktor 1,3 kleiner ist als für Autoionisationen im Projektil. Zusätzlich zeigte die Untersuchung der Stoßdynamik, dass der dreifache Elektroneneinfang primär bei einer parallelen Orientierung der Molekülachse zur Projektilstrahlachse auftritt. Eine weitere Abhängigkeit der Stoßdynamik zum Beispiel vom Stoßparameter beziehungsweise vom Streuwinkel konnte nicht beobachtet werden. Durch die koinzidente Messung aller vier Reaktionsteilchen konnte der Kanal Ar8+ + CO2 --> Ar6+ + C+ + O+ + O+ eindeutig bestimmt werden und die Reaktionsdynamik des CO2-Ions nach dem Stoß analysiert werden. Dabei tritt deutlich der direkte Aufbruch hervor, bei welchem die drei einfach geladenen Ionen sich rein aufgrund ihrer Coulombkräfte voneinander abstoßen. Bei einer solchen Coulombexplosion bleibt dem Molekülion kaum Zeit, um eine molekulare Schwingung zu vollführen. Neben diesem schnellen Zerfall konnten aber auch jene Zerfälle beobachtet werden, bei denen das Molekülion zuerst molekular schwingt und dann zu einem späteren Zeitpunkt in die ionischen Fragmente zerfällt. Dieser letztere Zerfallsprozess gehört zu den sogenannten asynchronen Zerfallsmechanismen. Er stellt einen Zwischenprozess zwischen dem reinen 1-Stufen-Prozess wie dem direkten Aufbruch und dem reinen 2-Stufen-Prozess dar. Bei solchen sequentiellen 2-Stufen Prozessen fragmentiert das CO2-Molekül im ersten Schritt in ein O+- und ein CO2+-Ion. Im zweiten Schritt dissoziiert dann das CO2+-Fragment, nachdem es nahezu keine Wirkung der Coulombkräfte des ersten Sauerstoffions mehr spürt, in ein C+- und ein O+-Ion. Durch die Darstellung der Schwerpunktsimpulse der Fragmente in Dalitz- und Newton-Diagrammen ist es mit dieser Arbeit erstmals gelungen diesen sequentiellen Prozess experimentell eindeutig nachzuweisen. In der weiteren Analyse konnte gezeigt werden, dass über die im System deponierte Energie, welche über die kinetische Energie der Fragmente bestimmt wird, die verschiedenen Reaktionsmechanismen direkt kontrolliert werden können. Speziell bei Energien unterhalb von 20 eV wurde gezeigt, dass es keine Potentialflächen gibt, die über einen direkten bzw. simultanen Aufbruch zu dem Endzustand C+ + O+ + O+ führen. Bei mehratomigen Molekülen erweist sich das Treffen detaillierter Aussagen über mögliche Dissoziationskanäle ohne die genaue Kenntnis der Lage der Potentialflächen und den Übergängen zwischen diesen als äußerst schwierig. Selbst bei genauer Kenntnis der Lage und Form der Potentialflächen, ist es aufgrund der hohen Dichten innerhalb der Übergangsbereiche der Potentialflächen nahezu unmöglich, den Verlauf der Dissoziationskanäle zu verfolgen. Mit dieser Arbeit ist es gelungen, die verschiedenen Reaktionskanäle ohne die Existenz von Energiepotentialflächen eindeutig zu identifizieren. Außerdem konnte gezeigt werden, dass die Energie, die während des Stoßes im Molekül deponiert wird, eine Schlüsselgröße darstellt, mit welcher die Fragmentationskanäle direkt kontrolliert werden können.
In der vorliegenden Arbeit wird die Gestaltung eines Teststandes für die optische Tomographie eines Ionenstrahles untersucht. Nachdem Ionenstrahlen hoher Intensität immer mehr Leistung in den Diagnosegeräten deponieren, müssen neue nicht Strahlzerstörende Diagnosemethoden gefunden werden. Die Diagnose mittels strahlinduziertem Restgasleuchten ist dabei eine viel versprechende nicht zerstörende Methode. Neben der Definition der Anforderungen für einen solchen Teststand werden verschiedene Realisierungsmöglichkeiten untersucht. Mit einem Testaufbau wird das strahlinduzierte Leuchten in Abhängigkeit verschiedener Restgase und Restgasdrücke untersucht, sowie die Eigenschaften des optischen Systems und der Kamera analysiert. Weiterhin wird die Möglichkeit der Emittanzbestimung aus einer optischen Aufnahme mit vorhandenen Methoden untersucht.
In der vorliegenden Dissertation wird die Frage der Vereinheitlichung der Quantentheorie mit der Allgemeinen Relativitätstheorie behandelt, wobei entsprechend dem Titel der Arbeit der Beziehung der Grundbegriffe der beiden Theorien die entscheidende Bedeutung zukommt. Da das Nachdenken über Grundbegriffe in der Physik sehr eng mit philosophischen Fragen verbunden ist, werden zur Behandlung dieser Thematik zunächst in einem Kapitel, das die vier jeweils drei Kapitel umfassenden Teile vorbereitet, die Entwicklung der Theoretischen Physik betreffende wissenschaftstheoretische Betrachtungen sowie einige wesentliche Gedanken aus der Klassischen Philosophie vorgestellt, welche für die weitere Argumentation wichtig sind. Bei letzteren geht es neben einer kurzen Schilderung der Platonischen Ideenlehre in Bezug auf ihre Relevanz für die Physik insbesondere um die Kantische Auffassung von Raum und Zeit als a priori gegebenen Grundformen der Anschauung, deren Bezug zur Evolutionären Erkenntnistheorie ebenfalls thematisiert wird. In den beiden ersten Teilen werden die wesentlichen Inhalte der Allgemeinen Relativitätstheorie und der Quantentheorie vorgestellt, wobei der Deutung der beiden Theorien jeweils ein Kapitel gewidmet wird. In Bezug auf die Allgemeine Relativitätstheorie wird diesbezüglich die Bedeutung der Diffeomorphismeninvarianz herausgestellt und in Bezug auf die Quantentheorie wird zunächst die Grundposition der Kopenhagener Deutung verdeutlicht, die im Mindesten als eine notwendige Bedingung zum Verständnis der Quantentheorie angesehen wird, um anschließend eine Analyse und Interpretation des Messproblems und vor allem entscheidende Argumente für die grundlegende Nichtlokalität der Quantentheorie zu geben. Im dritten Teil der Arbeit wird die seitens Carl Friedrich von Weizsäcker in der zweiten Hälfte des letzten Jahrhunderts entwickelte Quantentheorie der Ur-Alternativen beschrieben, in welcher die universelle Gültigkeit der allgemeinen Quantentheorie begründet und aus ihr die Existenz der in der Natur vorkommenden Entitäten hergeleitet werden soll, auf deren Beschreibung die konkrete Theoretische Physik basiert. Es werden sehr starke Argumente dafür geliefert, dass diese Theorie von den bislang entwickelten Ansätzen zu einer einheitlichen Theorie der Natur, welche die heute bekannte Physik in sich enthält, die vielleicht aussichtsreichste Theorie darstellt und damit die Aussicht bietet, auch für das Problem der Suche nach einer Quantentheorie der Gravitation den richtigen begrifflichen Rahmen zu bilden. Ihre große Glaubwürdigkeit erhält sie durch eine die Klassische Philosophie miteinbeziehende philosophische Analyse der Quantentheorie. Dieses Urteil behält seine Gültigkeit auch dann, wenn die Quantentheorie der Ur-Alternativen aufgrund der ungeheuren Abstraktheit der Begriffsbildung innerhalb der Theorie und der sich hieraus ergebenden mathematischen Schwierigkeiten bisher noch nicht zu einer vollen physikalischen Theorie entwickelt werden konnte. Die alles entscheidende Kernaussage dieser Dissertation besteht darin, dass aus einer begrifflichen Analyse der Quantentheorie und der Allgemeinen Relativitätstheorie mit nahezu zwingender Notwendigkeit zu folgen scheint, dass die physikalische Realität auf fundamentaler Ebene nicht-räumlich ist. Dies bedeutet, dass die These vertreten wird, dass es sich bei dem physikalische Raum, wie er gewöhnlich schlicht vorausgesetzt wird, wenn auch in unterschiedlicher Struktur, in Wahrheit nur um eine Darstellung dahinterstehender dynamischer Verhältnisse nicht-räumlicher Objekte handelt. Diese These stützt sich auf die Diffeomorphismeninvarianz in der Allgemeinen Relativitätstheorie und in noch höherem Maße auf die Nichtlokalität in der Quantentheorie, welche sich wiederum nicht nur in konkreten für die Quantentheorie konstitutiven Phänomenen, sondern dazu parallel ebenso im mathematischen Formalismus der Quantentheorie manifestiert. In Kombination mit der Kantischen Behandlung von Raum und Zeit ergibt sich damit ein kohärentes Bild in Bezug auf die eigentliche Natur des Raumes. Die Quantentheorie der Ur-Alternativen ist diesbezüglich als einzige derzeit existierende Theorie konsequent, indem sie auf der basalen Ebene den Raumbegriff nicht voraussetzt und rein quantentheoretische Objekte als fundamental annimmt, aus deren Zustandsräumen sie die Struktur der Raum-Zeit allerdings zu begründen in der Lage ist. Damit befinden sich diese fundamentalen durch Ur-Alternativen beschriebenen Objekte nicht in einem vorgegebenen Raum, sondern sie konstituieren umgekehrt den Raum. Dies ist eine Tatsache von sehr großer Bedeutung. Im vierten Teil wird schließlich die vorläufige Konsequenz aus diesen Einsichten gezogen. Nach einer kurzen Behandlung der wichtigsten bisherigen Ansätze zu einer quantentheoretischen Beschreibung der Gravitation, wird die Bedeutung der Tatsache, dass die Allgemeine Relativitätstheorie und die Quantentheorie eine relationalistische Raumanschauung nahelegen, nun konkret in Bezug auf die Frage der Vereinheitlichung der beiden Theorien betrachtet. Das bedeutet, dass das Ziel also letztlich darin besteht, einen Ansatz zu einer quantentheoretischen Beschreibung der Gravitation zu finden, bei der so wenig räumliche Struktur wie möglich vorausgesetzt wird. In Kapitel 12 wird diesbezüglich ein von mir entwickelter Ansatz vorgestellt, um zumindest eine Theorie zu formulieren, bei der die metrische Struktur der Raum-Zeit nicht vorausgesetzt sondern in Anlehnung an die Eigenschaften eines fundamentalen Spinorfeldes konstruiert wird, das im Sinne der Heisenbergschen einheitlichen Quantenfeldtheorie die Elementarteilchen einheitlich beschreiben soll. Dieser Ansatz geht bezüglich der Sparsamkeit der Verwendung von a priori vorhandener räumlicher Struktur über die bisherigen Ansätze zu einer Quantentheorie der Gravitation hinaus. Er ist aber dennoch nur als ein erster Schritt zu verstehen. Die konsequente Weiterführung dieses Ansatzes würde in dem Versuch bestehen, eine Verbindung zur von Weizsäckerschen Quantentheorie der Ur-Alternativen herzustellen, die überhaupt keine räumliche Struktur mehr voraussetzt. Hierzu konnten bisher nur aussichtsreiche Grundgedanken formuliert werden. Es wird allerdings basierend auf den in dieser Dissertation dargelegten Argumentationen die Vermutung aufgestellt, dass es im Rahmen der von Weizsäckerschen Quantentheorie der Ur-Alternativen möglich ist, eine konsistente quantentheoretische Beschreibung der Gravitation aufzustellen. In jedem Falle scheint die Quantentheorie der Ur-Alternativen die einzige Theorie zu sein, die aufgrund ihrer rein quantentheoretischen Natur in ihrer Begriffsbildung grundsätzlich genug ist, um eine Aussicht zu bieten, diejenige Realitätsebene zu erfassen, in welcher die Dualität zwischen der Quantentheorie und der Allgemeinen Relativitätstheorie zu einer Einheit gelangt.
Fullerene, Nanoröhren und auch anderen hohlen Strukturen können Atome oder Moleküle in ihrem Inneren einschliessen. In solchen Systemen beeinflussen sich die einschliessenden und eingeschlossenen Strukturen gegenseitig, und es existiert eine Vielzahl unterschiedlicher Effekte: Änderungen der Energieeigenwerte, Änderungen der Elektronenstruktur sowie Ladungsaustausch zwischen den beiden Teilen des Systems. All diese Effekte beeinflussen die Absorbtionsspektren beider Systembestandteile. In dieser Arbeit liegt der Schwerpunkt auf einem dieser Effekte: Dem dynamischen Abschirmungseffekt. Den dynamischen Abschrimungseffekt findet man insbesondere bei solchen Systemen, bei denen die einschliessende Struktur viele delokalisierte Elektronen besitzt. Zu solchen Systemen gehören zum Beispiel endohedrale Komplexe sowie "Nano Peapods" (Nanoröhren mit eingeschlossenen Atomen oder Molekülen). Ursächlich für den dynamischen Abschirmungseffekt ist die Tatsache, dass die Elek- tronen des umschliessenden Käfigs die eingeschlossene Struktur gegen elektromagentische Wellen abschirmen. Mit anderen Worten: Dass das elektrische Feld sowohl innerhalb als auch ausserhalb der einschliessenden Struktur wird vom polarisierenden Feld der einschliessenden Struktur beein°usst. Klassisch betrachtet ist die Photoabsorbtionsrate eines Objektes proportional zu der Intensität eines elektrischen Feldes. Somit unterscheidet sich die Photoabsorbtionsrate (und auch der Wirkungsquerschnitt) der gleichen elektromagnetischen Welle einer Struktur innerhalb eines Einschlusses von der Photoabsorbtionsrate eines freien Atoms oder Moleküls. Der dynamische Abschirmungsfaktor dient als Beschreibung des Verhältnisses dieser beiden Wirkungsfaktoren. Darüber hinnaus können, da die Käfigstruktur viele delokalisierte Elektronen besitzt, Elektronen gemeinsam angeregt werden und somit Plasmons hervorrufen. Wenn sich die Frequenz der anregenden elektromagentischen Strahlung der Resonanzfrequenz dieser Plasmonen annähert, wird das polarisierende Feld besonders gross. Im Endeffekt beobachtet man nahe der Plasmon-Frequenz einen starken Anstieg des Wirkungsquerschnittes der eingeschlossenen Struktur. Der Schwerpunkt in dieser Arbeit liegt auf einer spezifischen Art von System: Endo- hedrale Komplexe. Diese Strukturen wurden mit einem klassichen Ansatz untersucht. Die Fullerene wurden, da sie viele delokalisierte Elektronen besitzen als dielektrische Schalen modelliert, mit der dielektrischen Funktion eines freien Elektronengases. Dabei ist der dynamische Abschrimfaktor durch Auswertung des gesamten elektrischen Feldes am Ort des Atoms im Vergleich zur Stärke des externen elektrischen Feldes definiert. Der dynamische Abschrimungsfaktor wurde für eine Vielzahl unterschiedlicher Situationen untersucht. Im einfachsten Fall, bei dem die Polarisierbarkeit des eingeschlossenen Atoms vernachlässigbar klein ist, ist der dynamische Abschirmfaktor unabhängig von der Position des Atoms innerhalb des Fullerens. Die Veranderung des elektrischen Feldes wird vollständig von der dynamischen Reaktion des Fullerens auf das externe Feld bestimmt. Da das Fulleren von endlicher Dicke ist (definiert duch die räumliche Ausdehnung der Elektronenwolke), besitzt es zwei Oberflächen. Die Wirkung der elektromagnetischen Welle induziert oszillierende Oberflächen-Ladungs-Dichten. Die Oberflächen-Ladungs-Dichten wechselwirken und erzeugen somit zwei Plasmon Eigenmoden: eine symmetrische Mode bei der beide Ladungsdichten in Phase oszillieren und eine antisymmetrische bei denen sie gegen-phasig oszillieren. Der dynamische Abschirmfaktor eines solchen eingeschlossenen Atoms zeigt zwei ausgeprägte Peaks, welche eine Manifestation dieser beiden Oberflächen-Plasmone sind. Die Wechselwirkung zwischen diesen Plasmon-Moden wurde untersucht. Darüber hinnaus wurde der Einfluss der Grösse des Käfigs untersucht; mit Fallbeispielen für C20, C60, C240 und C960 [2, 3]. Im Grenzfall eines unendlich dünnen Fulleren-Käfigs ist nur ein einelnes Oberflächen-Plasmon zu beachten. Als nächstes wurde der Einfluss des eingeschlossenen Atoms untersucht [3{5]. Wenn dessen Polarisierbarkeit gross ist, wird ein reziproker Einfluss des Dipol-Moments des Atoms auf das Fulleren messbar. Dies wurde zunächst unter der Annahme eines zentral angeodneten Atoms für die folgenden drei Fälle untersucht: Ar@C60, Xe@C60 and Mg@C60. Der dynamische Abschirmfaktor verÄanderte sich dabei nur wenig. Der stärkste Einfluss auf das Verhalten des Abschirmfaktors ensteht durch Unstetigkeiten in der Polarisierbarkeit des Atoms nahe dessen Ionisierungs-Schwelle. Die Wahl dieser drei Fallstudien ist durch die quantenmechanischen Berechnungen von [7-9] motiviert. Der Vergleich mit diesen Berechnungen zeigt hohe Übereintismmungen für Ar@C60 und Xe@C60. Allerdings fanden sich auch grosse Unterschiede für Mg@C60, vor allem bei niedriger Photonen-Energie. Das Fulleren besitzt zwei Arten von Valenzelektronen: Die ¼-Elektronen und die stärker gebundenen ¾-Elektronen. Dies führt zum Auftreten zweier Oberflächen-Plasmons in Fullerenen. Dabei ist allgemein bekannt, dass das Buckminster-Fulleren ein Plasmon nahe 8 eV, sowie ein deutlich größeres nahe 20 eV besitzt. Diese sind mit den ¼-Elektronen, respektive den ¾-Elektronen verknüpft (auch wenn ¼-Elektronen zusÄatzlich zu dem ¾-Plasmon beitragen). Aufgrund dieser Tatsache wäre es angemessener, die Valenzelektronen nicht als Ein-, sondern als Zwei-Komponenten-Elektronen-Gas zu behandeln. Um dies miteinzubeziehen, passten wir unser Modell dahingehend an, dass wir das Fulleren als zwei unabhängige kozentrische dielektrische Schalen simulieren. Die Valenzelektronen wurden so auf die zwei Schalen aufgeteilt, dass eine Schlale alle Elektronen enthielt, die Teil des ¼{Plasmons sind, und die andere alle Beteiligten am ¾{Plasmon [4, 5]. Der Vergleich dieses modifizierten Modelles mit den quanten{mechanischen Berechnungen zeigte eine deutlich verbesserte Übereintismmung der Ergebnisse. Alle Merkmale der Berechnungen, vor allem das deutliche Maximum nahe 10 eV bei Mg@C60, konnten reproduziert und damit erklärt werden. Bedingt durch die endliche Dicke der Fulleren-Schale spalten jeder der beiden Plasmonen in jeweils zwei Plasmon Eigenmoden auf. Daher zeigt der dynamische Abschirm-Faktor nun vier Haupt{Eigenschaften welche die vier Plasmon-Moden abbilden. Nichtsdestotrotz zeigen sich immer noch quantitative Unterschiede im Falle von Mg@C60. Fürr Ar@C60 und Xe@C60, bei welchen das ursprÄungliche Modell bereits gute Fits zeigte, werden diese Fits durch die Anpassungen im Modell sogar noch verbessert. Interessanterweise zeigen sich die größten Veränderungen des dynamischen Abschirm-Faktors bei niedrigen Photonen{Energien, also im Bereich des ¼-Plasmons. Betrachtet man den Querschnitt dieses Fulleren Modells, so zeigt der Querschnitt Eigenschaften die den vier Ober°Äachen{Plasmon{Moden des Fullerens zugeordnet werden. Vergleicht man dies mit anderen theoretischen Arbeiten [12] und einer Sammlung verschiedener experimenteller Messungen [10], so zeigt sich, dass alle SchlÄussel{Eigenschaften des Querschnittes in unserem Modell vorhanden sind. Abschlie¼end wurde die Abhängigkeit des dynamische Abschirm-Faktors von der Position des endohedralen Atoms innerhalb des Fullerens anhand zweier Fallstudien, Ar@C60 und Ar@C240 [3, 4], untersucht. Die Ergebnisse zeigen, dass der dynamische Abschirmfaktor relativ unempfindlich gegenüber Veränderung des Positions-Winkels des Atoms ist. Die radiale Position hingegen stellte sich als sehr wichtig heraus. Je mehr sich das Atom der Fulleren-Hülle nähert, desto grösser wird der dynamische Abschirmfaktor. Diese Studien zeigen, dass es notwendig ist, eine Art räumlichen Mittelwertes für den dynamische Abschirmfaktor zu bestimmen, um sichtbare Resultate zu erhalten. Im Rahmen dieser Arbeit wurde daher eine Methode für solch einen Mittelwert entwickelt [3, 4]. Neben der Untersuchung des dynamische Abschirm-Faktors wurde auch ein Vergleich mit experimentellen Messungen erarbeitet. Im Falle von Ce@C82 war die Photon{Energiespanne sehr hoch, weit über der Plasmon-Energie des Fullerens. Das Fulleren sollte daher für eine solche Bestrahlung durchlässig sein, und daher würde man keinen dynamischen Abschirmungs-Effekt finden können. Der Vergleich für Sc3N@C80 ist komplizierter. Da es sich dabei um ein rein klassisches Modell handelt, muss man achtgeben, es nicht mit dem vollständig freien Komplex zu vergleichen, sondern zusätzlich quanten{mechanische Effekte aus Confinements, wie zum Beispiel Elektronen{Transfers, miteinzubeziehen. Zudem ist das aktuelle Modell zu dynamischer Abschirmung nicht für Moleküle, sondern nur für einzelen Atomeentwickelt worden. Ein erster naiver Vergleich, in welchem der Endohedrale Komplex als Pseudo{Atom modelliert wurde, konnte die breite Struktur der experimentellen Ergebnisse nicht wiedergeben. Berechnungen des dynamischen Abschirmfaktors und des daraus resultierenden Querschnittes für ein einzelnes Scandium{Ion zeigte, dass auch räumliches Mitteln nicht ausreicht um die experi-mentellen Beobachtungen erklären zu können. Die Anwesenheit des Fullerens führt zur Öffnung eines neuen Kanals innerhalbdes Auger Prozesses [6, 11] und damit zur Verbreiterung der atomaren Spektrallinienweite. Berücksichtigt man diesen Effekt, so kann die ÄAhnlichkeit zu den experimentellen Ergebnissen deutlich erhöht werden. Allerdings ist es wichtig dabei auch die räumlichen Abhängigkeiten des Effekts, wie auch die der dynamischen Abschirmung, zu beachten. Erste vorläufige Ergebnisse deuten an, dass die beiden genannten Effekte, zumindest teilweise, dabei helfen können, die experimentell gefunden Ergebnisse zu erklären. Unser Modell zur Berechnung des dynamischen Abschirmfaktors liefert eine detaillierte Beschreibung und mögliche Erklärungen der diskutierten Phänomene, welche über die bisherige Arbeiten in der theoretischen Literatur hinausgehen. Die wichtigen Eigenschaften der experimentellen Arbeiten konnten mit dem Modell reproduziert werden, und mit der Verbreiterung der atomaren Spektrallinienweite und der dynamischen Abschirmung konnten wir zwei Effekte als mögliche bisher nicht berücksichtigete Erklärungen für einige dieser Eigenschaften herausarbeiten.
Das Ziel der vorliegenden Arbeit war der Einbau, die Inbetriebnahme, die Abstimmung und der Test eines Strahlmatchingsystems in eine Zweistrahl-RFQ-Beschleunigerstruktur. Dieses Strahlmatchingsystem wurde entwickelt, um die Beschleunigereinheit des Frankfurter Funneling-Experimentes besser an die nachfolgende HF-Deflektoreinheit anzupassen und um zu zeigen, dass ein Strahlmatching innerhalb der RFQ-Beschleunigerstruktur möglich ist. Des Weiteren wurden die zum Versuch gehörigen Ionenquellen modifiziert, um eine bessere Anpassung der Strahlherstellung an die Beschleunigerstruktur zu erreichen. Die Spannungsverteilung in der Beschleunigerstruktur selbst wurde durch weitergehende Tuningmaßnahmen verbessert, um die Teilchenverluste weiter zu minimieren Mit dem Funnelingexperiment soll experimentell geprüft werden, ob eine Strahlstromerhöhung durch das Zusammenführen mehrerer Ionenstrahlen verschiedener Ionenquellen möglich ist. Solch ein System ist für einige Zukunftsprojekte (HIDIF, SNS-Ausbau, ESS, u.ä.), die große Strahlströme benötigen, die nicht aus nur einer Ionenquelle extrahiert werden können, erforderlich. Das in dieser Arbeit behandelte Strahlmatching ist für das Experiment notwendig, da zu große Teilchenverluste in der Funnelsektion entstanden und somit eine bessere Anpassung des Strahls an den HF-Deflektor erforderlich wurde. Es konnte gezeigt werden, dass die hier verwendete Art der Strahlfokussierung auch in eine komplizierte RFQ-Beschleunigerstruktur integrierbar ist, in der zwei Strahlkanäle auf der gleichen Stützen-Bodenplatten-Konstruktion aufgebaut sind. Die Verlängerung der Endelektroden und die Integration einer Strahlanpassung haben einen positiven Einfluss auf die Transsmission innerhalb des Beschleunigers und verbessern die Transmission durch den Deflektor. Es konnten Energiemessungen und zeitaufgelöste Faradaytassenmessungen der Teilchenbunche sowie zeitaufgelöst Makropulse mit der Faradaytasse gemessen werden. Floureszensschirmmessungen zeigten, dass die beiden Teilchenstrahlen auf eine neue gemeinsame Strahlachse gebogen wurden. Die Energiemessung zeigte, dass die Simulationen mit RFQSIM sehr genau die Endenergie der Teilchen berechnen konnte. Im Strahlkreuzungspunkt hinter dem Zweistrahl-RFQ-Beschleuniger konnten nahezu identische Teilchenbunche erzeugt werden. Diese Teilchenbunche wiesen zudem die in vorherigen Simulationen errechneten Charakteristika auf, in denen eine transversale und eine longitudinale Fokussierung gegenüber dem ungematchten Strahl simuliert wurden. Es konnte auch eine weitere Strahlradiusreduzierung gemessen werden, die auf eine exaktere Justierung der Elektroden zurückzuführen ist. Die Phasenfokussierung konnte verbessert werden, indem die Elektrodenspannung besser an die Strahlmatchingsektion angepasst wurde. Hierzu mussten auch die Einschussparameter der Strahlen in die Beschleuniger angepasst werden, damit die Transmission der Beschleuniger sich nicht verschlechterte. Insgesamt konnte mit den durchgeführten Experimenten erstmals demonstriert werden, dass zwei Strahlen in einem RFQ-Beschleuniger auf einen Punkt hinter dem Beschleuniger angepasst werden können und die Spannungsverteilung in solch einer Struktur durch Tuningmaßnahmen abstimmbar ist. Es konnte erstmals demonstriert werden das über 90% der Teilchen beider Strahlen, bei guten Strahleigenschaften, auf eine neue gemeinsame Strahlachse abgelenkt (gefunnelt) wurden.
Im Zentrum dieser Arbeit stehen die Überstrukturphasen des Yb-Cu-Systems. Als Ausgangspunkt für die Kristallzüchtung wird die kongruent schmelzende Verbindung YbCu4:5 gewählt. Um einen genauen Einblick in das Erstarrungsverhalten dieser Phase zu erhalten, werden zunächst im Bereich zwischen 17.3 und 22.4 at-% Yb eine Reihe von DSC-Messungen durchgeführt. Die Ergebnisse lassen sich nur bedingt mit den in der Literatur veröffentlichten Phasendiagrammen (Moffat [Mo92] bzw. Massalski [Ma90] und Giovannini et al. [Gi08]) vereinbaren. Zwar kann eine kongruent schmelzende Phase der Zusammensetzung YbCu4:5 nachgewiesen werden, die Messungen deuten aber die Existenz zusätzlicher Verbindungen an, die allerdings mit Hilfe der EDX-Analyse nicht weiter spezifiziert werden können. Um diese Phasen genauer zu analysieren, werden Einkristallzüchtungsversuche nach der Bridgman-Methode im Bereich zwischen 19 und 19.2 at-% Yb durchgeführt und mittels Einkristallbeugungsmethoden (SC-XRD und SAED) charakterisiert. Auf diese Weise können neben YbCu4:5 die bisher noch unbekannten berstrukturphasen YbCu4:4 und YbCu4:25 nachgewiesen werden, deren Schmelztemperaturen mittels DSC-Untersuchungen zu 934(2)°C und 931(3)°C bestimmt werden. Die Entdeckung der beiden Verbindungen bestätigt die von Cerný et al. [Ce03] bisher nur theoretisch vorhergesagte Existenz der Überstrukturphasen SECux (x=4.4 und 4.25) für das Yb-Cu-System. Mit Hilfe von Polarisations- und Rasterelektronenmikroskopie und unter Anwendung der Laue-Methode wird das Wachstumsverhalten dieser Überstrukturphasen analysiert. Man beobachtet ein Schichtwachstum, wobei sich die Schichten parallel zur a- und b-Richtung ausbilden und in c-Richtung gestapelt vorliegen. Da eine zuverlässige Unterscheidung der YbCux-Verbindungen nur mit Hilfe von Einkristallbeugungsmethoden gelingt, wird im Rahmen dieser Arbeit untersucht, inwiefern eine Charakterisierung mittels Pulverdiffraktometrie möglich ist. Die Messungen mit Synchrotronstrahlung am ESRF in Grenoble erlauben eine eindeutige Unterscheidung der Überstrukturphasen allerdings nicht. Die Analyse des an das Überstrukturgebiet angrenzenden Zusammensetzungsbereichs von 12.5 bis 17.24 at-% Yb bestätigt die Existenz der Verbindung YbCu6:5, eine kupferärmere Phase der Zusammensetzung YbCu5 kann in den DSC-Experimenten nicht nachgewiesen werden. Die Messungen belegen die Existenz einer Phasenbreite von YbCu6:0+x mit 0 <= x <= 0:5 ist, was im Gegensatz zu dem von Giovannini et al. [Gi08] publizierten Phasendiagramm steht. SC-XRD-Aufnahmen an nach der Bridgman-Methode gezüchteten Einkristallen der Zusammensetzung YbCu6:31(9) untermauern das von Hornstra und Buschow [Ho72] gefundene Strukturmodell. Die Verschiebungen der Atompositionen bedingt durch den im Gegensatz zur YbCu5-Verbindung erhöhten Kupferanteil werden mit Hilfe der gemessenen und berechneten Paarverteilungsfunktion nachvollzogen. Phasendiagrammuntersuchungen und Einkristallzüchtungsergebnisse für weitere SE-Cu-Systeme (SE =Ho, Gd) bestätigen die Existenz der Verbindung HoCu4:5 und erhärten den Verdacht sowohl in diesem als auch in den anderen Systemen noch weitere Überstrukturphasen finden zu können.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
Nach Abschluss meiner Untersuchungen, kann man sagen, dass die galvanische Einkopplung die eleganteste und wohl sinnvollste für den Kicker im FRANZ-Projekt ist, da man mit ihr perfekt kritische Einkopplung erreicht und sie relativ einfach zu realisieren ist, indem man die Zuleitung direkt an die Stützen lötet. Da die Zuleitung nur relativ kurz ist und Außerhalb der Spule verläuft verändert sie die Eigenschaften des Kickers nicht wesentlich. Die induktive Einkopplung eignet sich zwar auch sehr gut um die kritische Ankopplung zu erreichen, allerdings stellt die Indutktionsschleife eine zusätzliche Induktivität dar. Ebenso verhält es sich mit der kapazitiven Einkopplung. Der Einkoppelstift stellt eine zusätzliche Kapazität dar, welche die Eigenschaften des Kickers verändert.
Zu den Störkörpermessungen ist zu sagen, dass das Elektromagnetische Feld, dass ich vermessen habe, gut mit der Simulation aus [2] übereinstimmt. Die verschiedenen Einkopplungsverfahren haben keinen Einfluss auf die Feldverteilung, d.h. für die Feldverteilung ist es egal ob man kapazitiv, induktiv oder galvanisch einkoppelt. Der Peak, der am Anfang des Kondensators immer wieder auftritt lässt sich dadurch begründen, dass der Störkörper nicht auf einer geraden Linie durch das Modell gezogen wurde (siehe Abbildung 15. Aufgrund der Geometrie der Endplatten wurde der Störkörper leicht schräg durch das Modell und den Kondensator gezogen. Dadurch kommt der Störkörper am Anfang des Kondensators sehr nahe an ihn heran. Wenn der Störkörper nun zu nahe an der Metalloberfläche vorbeiläuft gilt die normale Störkörpertheorie nicht mehr und es treten Oberflächenladungseffekte auf, die die Phasenverschiebung beeinflussen. Somit erhält man am Anfang des Kondensators mehr Phasenverschiebung als in der Mitte des Kondensators.
Im Rahmen der vorliegenden Diplomarbeit wurden die bei den Kalttests der supraleitenden 360 MHz CH-Prototypkavität gewonnenen Messergebnisse sowie das Prinzip der Hochfrequenzmessung an supraleitenden Resonatoren vorgestellt. Zudem wurde bei dem Aufbau eines eigens für diese Messungen optimierten horizontalen Kryostaten mitgearbeitet. Die wesentlichen Elemente des Kryostaten wurden dargestellt und das Kaltfahren des gesamten Kryosystems erläutert. Das am IAP erarbeitete Tuningkonzept, bei dem ein langsamer, kettenbetriebener Tuner für den Ausgleich statischer Frequenzänderungen und zusätzlich drei Piezotuner zur Kompensation schneller Frequenzschwankungen eingesetzt werden, konnte aufgrund der zu groÿen Schwankungen der Resonanzfrequenz, die durch die stetige Befüllung des Kryostaten mit Helium hervorgerufen wurde, nur bedingt getestet werden. Dennoch konnte gezeigt werden, dass der Piezotuner die Frequenz der Kavität für kurze Zeit konstant hält und der langsame, mechanische Tuner einen Frequenzhub von 400 kHz erreichen kann. Für weitere Kalttests der CH-Struktur im horizontalen Kryostaten werden zur Zeit sowohl das Regelsystem für die schnellen Piezotuner als auch die Motorsteuerung des mechanischen Tuners optimiert.
In einem weiteren Arbeitsschritt wurden mit Hilfe der Simulationssoftware ANSYS Rechnungen zur Geometrieoptimierung des neuen dynamischen Balguners für zukünftige supraleitende CH-Strukturen durchgeführt. Das Hauptaugenmerk der Optimierung lag hierbei auf der Reduktion der auftretenden Materialspannungen bei einem vorgesehenen Hub von ca. ± mm, der durch eine äuÿere Belastung hervorgerufen wird. Dabei wurden verschiedene geometrische Gröÿen variiert und die optimalen Parameter gefunden. Zudem wurde eine Modalanalyse durchgeführt, um zu verhindern, dass die mechanischen Eigenfrequenzen des Balgtuners in den Betriebsbereich des Piezotuners, der letztlich für den Antrieb der dynamischen Balgtuner vorgesehen ist, fallen. Die nach sämtlichen Simulationsschritten berechnete und final vorgesehene Tunergeometrie und deren Parameter, die bezüglich des auftretenden von-Mises-Stresses optimiert wurden, sind in Abbildung bzw. Tabelle 9.1 dargestellt.
Desweiteren wurden mit Hilfe des Simulationsprogramms CST MicroWave Studio Untersuchungen zu Multipacting durchgeführt. Aufgrund der problematischen Spannungswerte im oberen Gap des Tuners müssen in weiteren Arbeitsschritten zusätzliche Simulationsrechnungen durchgeführt werden, um die Gefahr von Multipacting zu verhindern. Um die strukturmechanischen Simulationsergebnisse und deren Genauigkeit zu validieren, wurde zu Testzwecken ein Balgtunerprototyp bestehend aus eineinhalb Zellen von der Firma RI in Bergisch Gladbach gefertigt. Messungen der maximalen Auslenkung zeigten zwischen simulierten und gemessenen Werten eine Diskrepanz von einem Faktor von ungefähr 3.
Für weitere Testzwecke soll ein weiterer Balgtunerprototyp bestehend aus 6 Zellen nach den simulierten Parametern angefertigt und später sowohl bei Raumtemperatur als auch unter kryogenen Bedingungen auf dessen Auslenkung getestet werden.
Wir haben uns in dieser Arbeit der Frage nach der Dissipation in niederenergetischen Schwerionenkollisionen gewidmet. Dissipation im Allgemeinen hat ihre Ursache in direkten Teilchenkollisionen, die in der Methode von TDHF bezüglich der Nukleonen fehlen. Im VUU-Modell sind sie dagegen ein zentraler Bestandteil der Zeitentwicklung und spielen bei mittleren und hohen Energien eine wichtige Rolle.
Mithilfe des VUU-Modells wurde deshalb versucht einen Einfluss der Nukleon-Nukleon-Kollsionen auf den Impulsstrom festzustellen, der an der Verbindungsstelle in der Reaktion 16O + 132Sn mit b = 7 fm und Ecm = 100 vorliegt. Dabei variierten wir den NN-Wirkungsquerschnitt im Kollisionsterm der VUU-Gleichung mit der Erwartung, dass eine daraus resultierende Verminderung bzw. Erhöhung der Stoßrate Auswirkungen auf die Geschwindigkeitsverteilungen der Materie zeigt. Ein positives Ergebnis hätte den Schluss nahegelegt, dass die mittlere freie Weglände und damit die Viskosität von Kernmaterie in Schwerionenkollisionen zu berücksichtigen ist.
Im Verlauf unserer Analyse haben wir festgestellt, dass die von uns verwendeten Methoden nicht zu den gewünschten Ergebnissen führten, z.T. auch weil die Kerne in den VUU-Rechnungen Instabilität aufwiesen und so die relevante Reaktionszeit einschgeschränkt wurde. Wir konnten einen Einfluss von direkten Teilchenkollisionen auf den Impulsstrom zwischen den Kernen des obigen Systems nicht verifizieren. Zusätzliche Simulationen an 12C + 12C mit b = 0 fm haben dann gezeigt, dass offenbar der allergrößte Teil der Nukleon-Nukleon-Kollisionen aufgrund des Pauli-Prinzips blockiert wird. Aus diesem Grund ziehen wir die Möglichkeit in Betracht, dass die starke Präsenz des Pauli-Prinzips im niederenergetischen Bereich die Stoßrate nicht nur maßgeblich reduziert, sondern damit direkte Stöße insgesamt kaum Einfluss auf den Impulsstrom und die Dissipation haben könnten. Die Dissipation ist demnach hauptsächlich auf einen Austausch üuber die Verbindungsstelle zweier Kerne zurückzuführen, was in weiterführender Literatur unter dem Stichwort window formula bekannt ist.
Weitere Untersuchungen in diese Richtung sind wünschenwert. Insbesondere ist es erforderlich das angesprochene Zeitproblem zu lösen, um eventuell die Stoßrate zu erhöhen. Dann könnte ein möglicher Einfluss auf den Impulsstrom wesentlich länger und detaillierter studiert werden. Es bietet sich zudem an, das benutzte Auswerteprogramme vuudens so abzuändern, dass z.B. ein feineres Gitter benutzt werden kann, auf dem die Dichten berechnet werden. Das so gesteigerte Auflösungsvermögen würde sicherlich die
Unzulänglichkeiten der in dieser Arbeit verwendeten Methoden reduzieren. Bei weiterem und tieferem Studium der besprochenen Prozesse könnte es natürlich sein, dass bessere Ansätze zur Analyse gefunden werden. Dies wäre in jedem Fall zu begrüßen.
Quasi-zweidimensionale organischen Ladungstransfersalze weisen gewisse Analogien zu den Hochtemperatur-Kupratsupraleitern (HTSL) auf. Zu nennen ist einerseits der ähnliche schichtartige Aufbau, wobei sich leitfähige und isolierende Ebenen abwechseln. Zum anderen liegt der antiferromagnetische Grundzustand in direkter Nachbarschaft zur Supraleitung und bei höheren Temperaturen wird ebenfalls die Entstehung einer Pseudo-Energielücke diskutiert. Im Gegensatz zu den HTSL können die elektronischen Eigenschaften der organischen Ladungstransfersalze jedoch leicht durch äußere Parameter wie hydrostatischen bzw. chemischen Druck - die Verwendung verschiedener Anionen X läßt sich in einem verallgemeinerten Phasendiagramm ebenfalls auf die Achse W/U abbilden, siehe Abschn. 4.2 - oder moderate Temperaturen beeinflußt werden. In den quasi-zweidimensionalen K-(BEDT-TTF)2X-Salzen ist bspw. ein moderater Druck p ~ 250 bar ausreichend, um das antiferromagnetisch-isolierende System (X=Cu[N(CN)2]Cl) auf die metallische Seite des Phasendiagramms zu verschieben, wobei dann im Grundzustand Supraleitung auftritt (Tc ~ 12,8 K). Eine Dotierung wie bei den HTSL und die damit einhergehende unerwünschte Unordnung ist nicht notwendig um einen Isolator-Metall-übergang zu induzieren. Demnach sind die experimentellen Anforderungen im Vergleich zu anderen stark korrelierten Elektronensystemen auf relativ einfache Weise zu realisieren. Auch das macht die organischen Ladungstransfersalze zu idealen Modellsystemen, um fundamentale Konzepte der theoretischen Festkörperphysik zu studieren, wovon einige bislang lediglich von akademischem Interesse waren. Erstmalig wird in dieser Arbeit die Fluktuationsspektroskopie als experimentelle Methode angewendet, um die Dynamik des TT-Elektronensystems in den quasi-zweidimensionalen organischen Ladungstransfersalzen K-(BEDT-TTF)2X bei niedrigen Frequenzen zu studieren. Ziel ist es, Informationen über die Temperatur-, Druck- und Magnetfeld-Abhängigkeit der spektralen Leistungsdichte des Widerstandsrauschens und damit über die Dynamik der Ladungsfluktuationen zu gewinnen. Insbesondere in der Nähe korrelationsgetriebener Ordnungsphänomene spielt die Dynamik der Ladungsträger eine entscheidende Rolle. Auch die Kopplung des elektronischen Systems an bestimmte strukturelle Anregungen hat Einfluß auf das Widerstandsrauschen. Zu Beginn wird eine kurze Einführung in die Signalanalyse gegeben und daran anschließend werden verschiedene Arten des Rauschens in Festkörpern dargestellt (Kap. 1). Einige der für diese Arbeit relevanten Ordnungsphänomene werden in Kap. 2 in knapper Form eingeführt, wobei auf die dynamischen Eigenschaften in der Nähe eines Glasübergangs etwas ausführlicher eingegangen wird. Nach der Vorstellung der eingesetzten Meßmethoden, des Versuchsaufbaus und der Probenkontaktierung (Kap. 3) werden die experimentellen Ergebnisse an den K-(BEDT-TTF)2X-Salzen in Kap. 4 ausführlich diskutiert.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und dem Aufbau eines IHBeschleunigers zur Beschleunigung schwerer Ionen am Brookhaven National Laboratory.
Es wurde eine Einführung in die Arbeit und die Experimente des BNL gegeben, um zu verstehen, welche Aufgabe die IH in Zukunft haben wird und wie diese das BNL in den experimentellen Möglichkeiten erweitert.
Eingebettet in den historischen Kontext wurde zu Beginn die Familie der H-Moden Beschleuniger und ganz besonders die IH erläutert. Wichtige Begriffe und charakteristische Größen, die zum Verständnis der vorliegenden Arbeit nötig sind, wurden eingeführt und deren anschauliche Bedeutung bei der Entwicklung von Beschleunigern klar gemacht.
Eine Neuerung bei der Entwicklung von Driftröhrenbeschleunigern stellt der aufgebaute Messstand und die Computergestützte Datenanalyse dar. Es konnte gezeigt werden, dass die vorgestellte Methodik zur Verarbeitung der Messdaten enorme Verbesserungen mit sich bringt. Daten von unterschiedlichsten Beschleunigern könnern schneller als zuvor analysiert und direkt mit den Sollwerten der Strahldynamik verglichen werden. So kann bereits vor Ort eine mit nur geringen Fehlern behaftete Auswertung erstellt werden und direkt in die weitere Arbeit an einem Beschleuniger mit einfließen.
Die neue Technik wurde im weiteren Verlauf der Arbeit genutzt, um die im Detail eingeführte BNL IH Struktur aufzubauen und für den Einsatz in den USA fertig zu stellen. Neben den exakt auszuführenden Aufbau- und Justierarbeiten wurde viel Zeit in die Erstellung eines ausgereiften Tuningkonzepts investiert. Während dieser Arbeiten wurden die zwar theoretisch bekannten, am Institut aber noch nie nachgewiesenen, parasitären Tunerresonanzen beobachtet. Der zerstörerische Effekt einer solchen Resonanz konnte erstmals gemessen und analysiert werden.
Trotz der üblichen kleineren Schwierigkeiten, die komplexe Projekte mit sich bringen wurde die IH Struktur noch vor Beendigung dieser Arbeit in den USA am BNL aufgestellt und getestet. Es wurde noch nicht die volle Leistung erreicht, aber der Konditionierungsprozess ist in vollem Gange und die vorläufigen Ergebnisse zeigen keine Probleme auf, so dass davon auszugehen ist, dass die IH noch dieses Jahr voll eingesetzt werden kann.
Abschließend kann man sagen, dass das Projekt erfolgreich realisiert wurde und das die Neuerungen aus dieser Arbeit Einzug in weitere Projekte finden werden.
Gegenstand dieser Arbeit ist die Entwicklung eines CH-Rebunchers mit Energievariation für die sich in der Entstehungsphase befindliche Beschleunigeranlage des FRANZ Projektes am Institut für Angewandte Physik der Goethe Universität Frankfurt am Main.
Die FRANZ Experimente sollen Fragen der nuklearen Astrophysik und der Materialforschung beantworten. Experimente zu Neutroneneinfangsquerschnitten werden im Vordergrund stehen. Diese sollen hauptsächlich zum Verständnis der Vorgänge bei der Nukleosynthese in Roten Riesen beitragen...
In dieser Arbeit wurde gezeigt, ob Simulation und Messung der realen Struktur übereinstimmen. Dazu wurde mit Hilfe der Störkörpermessmethode über die Phasenverschiebung die elektrische Feldverteilung einer IH-Struktur bestimmt (unter Variation der Tunerhöhe). Die Feldverteilung von Simulation und Messung sind im Kurvenverlauf gleich, allerdings ist die Stärke der Simulationsfelder um einen Faktor 1,1 – 1,2 größer...
Kernpunkt dieser Arbeit ist die Untersuchung der Eigenschaften des Vakuums und des Grundzustandes von Kernmaterie anhand eines effektiven Modells. Das Lineare Sigma-Modell mit globaler chiraler U(2)R ×U(2)L-Symmetrie wurde mit (Axial-)Vektormesonen sowie dem chiralen Partner des Nukleons, der mit der Resonanz N(1535) identifiziert wird, erweitert. Die Einführung des chiralen Partners in der Spiegel-Zuordnung ermöglicht die Untersuchung zweier verschiedener Erzeugungsprozesse der Baryonenmasse: durch spontane Symmetriebrechung sowie durch einen chiral invarianten Massenterm, parametrisiert durch m0. Die Parameter des Modells werden durch experimentelle Werte der Zerfallsbreiten von N∗ → Nπ und a1 → πγ und der axialen Kopplungskonstante des Nukleons gN A , sowie durch Lattice-Berechnungen von gN∗ A fixiert. Im Rahmen dieses Modells ergibt sich für den Massenparameter m0 ∼ 500 MeV, was darauf hin deutet, dass ein beträchtlicher Anteil der Baryonenmasse nicht durch das chirale Kondensat erzeugt wird. Das Modell wird anhand des Zerfalls N∗ → Nη sowie s-Wellen-πN-Streulängen a(±) 0 validiert und zeigt gute Übereinstimmung mit dem Experiment. In Kernmaterie wird m0 durch Kondensate anderer skalarer Felder ausgedrückt, z. B. dem Tetraquark-Kondensat. Der Einfluß dieses Kondensates auf dichte Materie wird untersucht. Die Nukleonenmassen hängen stark von den Kondensaten ab und verschwinden, so wie auch die Kondensate selbst, wenn die chirale Symmetrie wieder hergestellt ist.
In vorliegender Arbeit wurde ein lineares Sigma-Modell mit verktoriellen sowie axial-vektoriellen Freiheitsgraden durch Einkopplung des Dilatons verallgemeinert, wodurch Kontakt mit der Skalen-Anomalie erzielt wurde. Anschließend war die Intention, die Zerfallsbreiten des entmischten Sigmafeldes sowie des entmischten skalaren Glueballs, die mit den skalaren-isoskalaren Resonanzen f0(1370) und f0(1500) identi
ziert wurden, auf Baumdiagrammniveau zu berechnen und mit experimentellen Befunden zu vergleichen, um Aussagen über die Natur dieser Resonanzen im Rahmen der durchgeführten Studie machen zu können.
Diese Arbeit befasst sich mit der Analyse der ersten Proton-Proton-Kollisionen, die mit dem ALICE-Experiment am LHC gemessen wurden. Der Schwerpunkt der Arbeit liegt dabei auf der Analyse des mittleren Transversalimpulses, einer Messgröße, mit der sich die Transversalimpulsspektren geladener, nichtidentifizierter Teilchen charakterisieren lassen. ALICE misst bei sqrt(s) = 900 GeV einen mittleren Transversalimpuls von
<pT> iINEL = 0;483 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.1)
<pT >NSD = 0;489 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.2)
Im Vergleich mit den Messungen anderer Experimente bei gleichem p s misst ALICE einen etwas höheren mittleren Transversalimpuls.
Neben der Analyse des mittleren Transversalimpulses des inklusiven Spektrums wird auch die Analyse als Funktion der Multiplizität erläutert. Mit der skalierten Multiplizität z = nacc= hnacci können die mit ALICE gemessenen Werte mit den Messungen von UA1 verglichen werden. Für z > 1 stimmen die Daten innerhalb der Fehler überein, für z < 1 divergieren die Daten von ALICE und UA1. Im weiteren Verlauf werden zwei Methoden vorgestellt, mit denen ein Übergang von der gemessenen Multiplizität zu einer korrigierten Multiplizität vorgenommen werden kann. Beide Methoden basieren auf einer mit PYTHIA generierten Korrelationsmatrix, die den Zusammenhang zwischen der generierten Multiplizitätsverteilung und der rekonstruierten Multiplizitätsverteilung enthält. Bei der einen Methode (A) werden die gemessenen Daten mit der Korrelationsmatrix gewichtet auf die generierte Multiplizität übertragen. Für die andere Methode (B) wird die Matrix zunächst entfaltet, um dann mit der entfalteten Multiplizitätsverteilung eine neue Matrix zu generieren. Mit dieser neuen Matrix wird dann jeder gemessen Multiplizitätsklasse eine wahrscheinlichste wahre Multiplizität zugewiesen. Die Ergebnisse beider Methoden sind vergleichbar. Für die weitere Analyse wird jedoch Methode A verwendet, da die Zuordnung in Methode B nicht eindeutig ist. Die mit dieser Methode analysierten Daten werden dann mit verschiedenen Simulationspaketen verglichen. Dabei stellt sich heraus, dass der PYTHIA-Tune Perugia0 die Daten am besten, jedoch nicht exakt, beschreibt. Mit den gemessenen Daten lassen sich die Modelle weiter optimieren, um eine Vorhersage bei höheren Strahlenergien machen zu können...
Im Jahr 1960 gelang es Theodore Mainman einen funktionierenden Laser zu bauen. Die Entwicklung dieser Technik war seitdem rasant. Im Alltag ist der LASER heute genausowenig wegzudenken wie in weiten Teilen der Forschung und Medizin. Er findet Anwendung in der Datentechnik (z.B. bei CDs und DVDs), hilft, Augenschäden zu heilen und hat natürlich auch weitreichende Bedeutung in der Physik. Besonders ultrakurze Pulse und hohe Energiedichten werden hierbei benötigt. Um hohe Energiedichten zu erreichen, müssen oft Verstärker (englisch: amplifier) benutzt werden. Häufig verwendet wird hierbei ein Aufbau, bestehend aus einem Stretcher, der schon bestehende Pulse zeitlich streckt, um Beschädigungen an optischen Geräten zu vermeiden, einem verstärkenden Medium, in dem der Puls durch stimulierte Emission verstärkt wird, und einem anschließenden Kompressor, der den Puls zeitlich wieder komprimiert. Hierbei kann man aber nur einen bestehenden Puls verstärken und nicht die zentrale Wellenlänge ändern. Gerade diese Art Verstärker wird jedoch in vielen Bereichen benötigt, in denen man infrarotes Licht mit durchstimmbarer Wellenlänge haben möchte. Eine Möglichkeit, dies zu erreichen, stellt der optisch-parametrische Verstärker dar. Eben dieser wird in der folgenden Arbeit behandelt und näher beschrieben.
Entwicklung von normal- und supraleitenden CH-Strukturen für den 17 MeV EUROTRANS-Injektor-Linac
(2010)
In den letzten Jahrzehnten vergrößerten sich die Anwendungsgebiete von Hochfrequenzlinearbeschleunigern für Protonen und schwere Ionen, insbesondere im Nieder- und Mittelenergiebereich, permanent. Der überwiegende Teil dieser mittlerweile bewährten Aktivitäten lag im Bereich der Synchrotroninjektion oder der Nachbeschleunigung von radioaktiven Ionenstrahlen. Daneben existiert seit einiger Zeit eine starke Tendenz zur Entwicklung von Hochleistungslinearbeschleunigern, welche vor allem bei der Forschung an Spallationsneutronenquellen, in der Isotopenproduktion oder bei der Transmutation langlebiger Abfälle aus Spaltreaktoren Anwendung finden sollen. Die neu entwickelte CH-Struktur (Crossbar H-Mode) ist optimal für den Einsatz in derartigen Hochleistungsapplikationen geeignet. Sie ist die erste Vielzellenstruktur für den Nieder- und Mittelenergiebereich und kann sowohl normal- als auch supraleitend verwendet werden. Das europäische Programm zur Transmutation radioaktiver Abfälle, EUROTRANS, basiert auf einem Hochleistungslinearbeschleuniger, der einen intensiven Protonenstrahl bereitstellt. Dieser Strahl wird auf ein Flüssigmetalltarget geleitet, wodurch Spallationsneutronen entstehen, welche die Reaktion im Reaktorkern antreiben. Hierbei spricht man von einem sogenannten beschleunigergetriebenen System (ADS). Das zugehörige Refernzdesign des Instituts für Angewandte Physik propagiert einen aus normal- und supraleitenden CH-Strukturen bestehenden Injektor für den Bereich von 5–17 MeV. Im Rahmen der vorliegenden Arbeit wurden diesbezüglich zur Entwicklung von zwei normal- und vier supraleitenden CH-Kavitäten elektrodynamische Simulationsrechnungen in Bezug auf die folgenden Designkriterien durchgeführt:...
Bei der GSI – Helmholtzzentrum für Schwerionenforschung in Darmstadt wird im Rahmen des HITRAP-Projekts ein linearer Abbremser für schwere, hochgeladene Ionen für atomphysikalische Präzisionsexperimente in Betrieb genommen. Während der Inbetriebnahme wurden transversale Emittanzmessungen mit der Pepperpot- und der Multi-Gradienten-Methode durchgeführt, um die Emittanz des aus dem Experimentierspeicherring (ESR) extrahierten Strahls zu messen. Weiterhin wurde auch die Phasenraumverteilung des auf eine Zwischenenergie von 500keV/u abgebremsten Strahls hinter der IH-Struktur gemessen. Dazu wurden neue Auswertealgorithmen in die Analyse der digitalen Bilder integriert. Die longitudinalen Bunchstrukturmessungen des Strahls am Eintrittspunkt in den Abbremser und die Funktionsweise des Doppel-Drift Bunchers wird gezeigt. Die Konzeption und der Aufbau sowie die erste Inbetriebnahme einer neuartigen Einzelschuss-Pepperpot-Emittanzmessanlage für kleinste Strahlströme und -energien wird beschrieben, die es ermöglichen, den Strahl hinter den Abbremskavitäten zu vermessen. Zusätzlich wurden transversale Strahldynamikrechnungen durchgeführt, welche theoretische Grundlagen zur Inbetriebnahme von HITRAP lieferten. Es wird beschrieben, wie die gesamte Strahllinie vom ESR bis zum Radio-Frequenz Quadrupol nach der erfolgreichen Integration einer Abbremsroutine innerhalb des Softwarepakets COSY Infinity optimiert werden kann.
Im Rahmen dieser Arbeit ist es gelungen, eine weltweit einmalige Messapparatur zu entwickeln, mit der Wasserstoffmolekülionen mittels kurzer Laserpulse ionisiert und die Reaktionsprodukte kinematisch vollständig vermessen werden können. Es wird dazu eine an die Coltrims-Technik angelehnte Detektionsmethode genutzt, bei der sowohl Protonen als auch Elektronen über den vollen Raumwinkel nachgewiesen werden können. Die H2+ -Ionen stammen aus einer Hochfrequenz-Ionenquelle und werden auf 400keV beschleunigt. Die Besetzungshäufigkeit der Vibrationsniveaus entspricht daher der Franck-Condon-Verteilung für den Übergang aus dem Grundzustand des neutralen Wasserstoffmoleküls in den elektronischen Grundzustand des Molekülions: H2 (xPg, ν = 0) → H2+ (1sσg, ν′) Dieser Ionenstrahl wird mit einem 780 nm Laserpuls der Pulslänge 40 fs überlappt. Nach der Reaktion fragmentiert das Molekülion entweder über den Dissoziationskanal H2+ + nhν ⇒ H + H+ oder über eine Ionisation gefolgt von einer Coulomb-Explosion: H2+ + nhν ⇒ H+ + H+ + e−. Die Projektile werden nach einer Driftstrecke von etwa 3 m auf einem Ionendetektor nachgewiesen. Für den Nachweis der Elektronen wurde ein spezielles Spektrometer konzipiert, das eine Unterdrückung ungewollter Elektronen erlaubt und so die Messung der Elektronen ermöglicht. Um Elektronen auszublenden, die vom Laser aus dem Restgas ionisiert werden, ist der Elektronendetektor in Flugrichtung der Ionen versetzt angebracht. Durch die unkonventionelle Ausrichtung des Lasers in einem Winkel von 20◦ relativ zur Flugrichtung der Ionen können vom Laser erzeugte Elektronen nur dann den Elektronendetektor erreichen, wenn sie aus dem bewegten Bezugsystem der Projektile stammen. Diese Unterdrückung macht die Messung der Elektronen erst möglich, hat aber auch eine nachteilige Geometrie der Verteilungen gegenüber den Detektorebenen zur Folge. Durch die Ausnutzung der Projektilgeschwindigkeit ist überdies die Benutzung eines B-Feldes zur Verbesserung der Flugzeitauflösung der Elektronen nicht möglich. Um eine Überlappung des Ionenstrahls mit dem Laserfokus zu erreichen, wurde im Bereich der Reaktionszone ein System zur Visualisierung der Strahlpositionen integriert. Dieses kann überdies für eine Intensitätseichung bei linear polarisiertem Licht verwendet werden. Bei der Reaktion kommt es durch die vergleichsweise lange Pulsdauer schon bei relativ niedrigen Intensitäten zu Dissoziationsprozessen. Das dissoziierende Molekül erreicht noch während der ansteigenden Flanke des Laserpulses auf diese Weise Abstände, bei denen der Prozess der Charge-Resonance-Enhanced-Ionization (CREI) stattfinden kann. Auch die in einem sehr engen Winkelbereich um die Polarisationsrichtung des Lasers liegende Winkelverteilung der gemessenen Protonen deutet darauf hin, dass CREI der dominante Ionisationsprozess ist. Durch die vorausgehende Dissoziation nimmt das Molekül schon vor der Ionisation eine kinetische Energie auf, so dass die gemessene KER-Verteilung einer Summe aus KERDissoziation und KERIonisation darstellt. Ein Vergleich mit den KER-Spektren des Dissoziationsprozesses zeigt, dass die aufgenommene Energie durch Dissoziation zu einem überwiegenden Anteil in einem Bereich von 0, 6 ± 0, 35 eV besitzt, während die Gesamt-KER-Verteilung deutlich höhere Werte bis zu 6 eV aufweist. Dies ermöglicht, aus der gemessenen KER-Verteilung den internuklearen Abstand zum Ionisationszeitpunkt näherungsweise zu bestimmen. Die gemessenen Elektronen weisen, ebenso wie die Protonen, eine scharfe Ausrichtung entlang der Laserpolarisation auf, was durch den Einfluss des Lasers auf dieser Achse nicht verwunderlich ist. Bei zirkularer Polarisation dagegen findet eine Netto-Beschleunigung der Elektronen senkrecht zur Richtung des elektrischen Feldes zum Ionisationszeitpunkt statt, sodass die Messung der Elektronenimpulse eine geeignete Messgröße zur Untersuchung des Ionisationsprozesses darstellt. Auf diese Art konnten Winkelverteilungen der Elektronen bezüglich der internuklearen Achse innerhalb der Polarisationsebene gemessen werden. Abhängig von KER und Elektronenergie konnte dabei eine Verdrehung der Verteilung gegenüber den klassisch erwarteten 90◦ relativ zur internuklearen Achse festgestellt werden. Die Winkelverteilung rotiert dabei mit steigendem KER entgegen des Drehsinns. Dies widerspricht der gängigen Vorstellung einer Tunnelionisation, bei der nur die Beschleunigung des Elektrons im Laserfeld eine Rolle spielt und der Einfluss des Coulomb-Potentials vernachlässigt wird. Für höhere Elektronenergien zeigt sich eine zweite konkurrierende Struktur, die für die höchsten Energien die sonst vorherrschende erste Struktur sogar dominiert. Da sich in den Protonenspektren für linear polarisiertes Licht kein Einfluss einer Ionisationsenkrecht zur Polarisationsrichtung findet, erscheint dies als Grund für die zweite Struktur in den Elektron-Winkelverteilungen als unwahrscheinlich. Eine stichhaltige und gestützte Erklärung gibt es bisher weder für die Rotation der ersten Struktur noch für die Herkunft der zweiten. Dies zeigt deutlich, dass es auch für dieses einfachste Molekülsystem noch einen erheblich Handlungsbedarf sowohl auf theoretischer als auch von experimenteller Seite gibt. Da dieses Experiment den ersten experimentellen Zugang für die direkte Untersuchung der Elektronimpulse bei der Ionisation von H2+ -Ionen in kurzen Laserpulsen darstellt, bietet sich hier die bisher einzige Möglichkeit, dieses Verhalten experimentell zu untersuchen.
Die P-Typ-ATPasen finden sich in allen Domänen des Lebens und stellen die größte Gruppe aktiver Ionentransporter in Zellen dar. Es handelt sich bei den P-Typ-ATPasen um integrale Membranproteine, die eine große Anzahl verschiedenster Ionen aktiv über eine biologische Membran transportieren. Die für diesen Ionentransport notwendige Energie wird durch Bindung und Hydrolyse von Adenosintriphosphat (ATP) und durch Phosphorylierung des Enzyms gewonnen. Diese, im cytoplasmatischen Teil gewonnene Energie, muss für den Ionentransport von der Phosphorylierungsstelle zur räumlich entfernten transmembranen Ionenbindungsstelle übertragen werden, bei dem das Protein einem Reaktionszyklus mit zwei Hauptkonformationszuständen E1 und E2 unterliegt. Zwischen diesen beiden Zuständen finden große strukturelle Änderungen statt, durch die die Ionenaffintät und die Zugänglichkeit der Ionenbindungsstelle reguliert wird. Da dieser Mechanismus der Energiegewinnung für alle Ionenpumpen dieser Art ähnlich ist, wurde die Ca2+-ATPase und die Na+/K+-ATPase als Modellproteine für die Untersuchung molekularer Mechanismen in P-Typ-ATPasen ausgewählt. Im Rahmen der vorliegenden Arbeit soll die Energietransduktion in P-Typ-ATPasen im Allgemeinen und der Protonengegentransport bzw. ein potentieller Protonentransportweg in der Ca2+-ATPase im Speziellen untersucht werden. Die beiden oben genannten Mechanismen sollen mittels computergestützter Methoden analysiert werden. Vor allem die Ca2+-ATPase ist prädestiniert für computergestützte Untersuchungen, da für diese sehr viele hochaufgelöste Röntgenstrukturdaten vorliegen, wenn auch bisher aufgrund der Größe und Komplexität des Systems nur sehr wenige theoretische Arbeiten durchgeführt wurden. Um den Energietransduktionsmechanismus in P-Typ-ATPasen zu untersuchen, wurde mittels Elektrostatik-Rechnungen der Einfluss eines elektrischen Feldes auf die verschiedenen Transmembranhelices untersucht. Dazu wurde ein Simulationssystem entwickelt, welches aus einem molekularen Kondensator besteht, der im Modell das Anlegen eines homogenen elektrischen Feldes über den Transmembranbereich simuliert. Da es sich bei dem Energietransduktionsmechanismus um einen dynamischen Prozess handelt, wurden die Elektrostatik-Rechnungen um Molekulardynamik-Simulationen erweitert. Mit diesen kann die konformelle Dynamik der P-Typ-ATPasen während der Energietransduktion in die Elektrostatik-Rechnungen einbezogen werden. Aus Spannungsklemmen-Fluorometrie-Experimenten, bei denen eine Spannung über eine Membran angelegt wird, kann geschlossen werden, dass die Helix M5 für die Energietransduktion verantwortlich ist. Mit den in dieser Arbeit durchgeführten Elektrostatik-Rechnungen konnte für verschiedene Enzymzustände der Ca2+-ATPase und für die Na+/K+-ATPase gezeigt werden, dass die Helix M5 die größten Konformeränderungen aufgrund des elektrischen Feldes aufweist. Durch die Erweiterung der Elektrostatik-Rechnungen um die Methode der Molekulardynamik-Simulation konnte zusätzlich die elektrische Feldstärke reduziert werden. Auch dabei zeigte sich, dass auf der Helix M5 die meisten Rotameränderungen durch das elektrische Feld induziert werden. Die aus Experimenten vermutete Rolle der Helix M5 als wichtiges Energietransduktionselement ließ sich mit diesen Simulationsrechnungen bestätigen. Um einen möglichen Protonenweg durch den Transmembranbereich der Ca2+-ATPase aufzuklären, wurden explizite Wassermoleküle in sechs verschiedene Enzymzustände der Ca2+-ATPase eingefügt. Aus Experimenten ist bekannt, dass in der Ca2+-ATPase ein Protonengegentransport stattfindet. Deshalb wurden für verschiedene Enzymzustände der Ca2+-ATPase mittels Elektrostatik-Rechnungen die Protonierungen der eingefügten Wassermoleküle sowie der titrierbaren Aminosäuren bestimmt. Aus den Ergebnissen dieser Rechnungen kann geschlossen werden, dass es sich bei dem Protonentransfer nicht um einen linearen Transport der Protonen handelt. Die Untersuchungen zeigen einen mehrstufigen Prozess, an dem Protonen in verschiedenen Transmembranbereichen der Ca2+-ATPase beteiligt sind. Anhand der berechneten Protonierungszustände der eingefügten Wassermoleküle und der pK-Werte der Aminosäuren im Transmembranbereich konnte weiterhin ein möglicher Protonenweg identifiziert werden.
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
In der vorliegenden Arbeit wurde die 1s Photoionisation von Neondimeren mit einer Photonenenergie von 10 eV über der 1s Schwelle von Neon durchgeführt. Das Ziel dieser Messung war die Beantwortung der seit vielen Jahren diskutierten Frage nach der Lokalisierung oder Delokalisierung von Vakanzen in homonuklearen diatomaren Systemen am Beispiel des Neondimers. Können die Vakanzen also einem Atom des Dimers zugeordnet werden oder sind sie über beide Atome verteilt? Bezüglich dieser Frage wurden sowohl die in der Photoionisation direkt entstandenen 1s Vakanzen als auch die aus der Relaxation durch einen interatomic Coulombic decay (ICD) resultierenden Vakanzen in der Valenzschale des Neondimers untersucht. Als Observable dienten dabei die Elektronen-Winkelverteilungen im dimerfesten Koordinatensystem, wobei eine bezüglich der ‘rechten’ und der ‘linken’ Seite des homonuklearen diatomaren Moleküls auftretende Asymmetrie in der Winkelverteilung eindeutig eine Lokalisierung der Vakanz indiziert. Dies lässt sich damit begründen, dass die Elektronenwellen im Fall einer delokalisierten Vakanz durch die symmetrisierten Wellenfunktionen beschrieben werden, welche sich aus der kohärenten Überlagerung der lokalisierten Wellenfunktionen ergeben. Die resultierende Winkelverteilung der Elektronen um die Dimerachse ist somit symmetrisch. Im Fall einer lokalisierten Vakanz wird die Elektronenwelle dagegen durch die ‘rechts’ oder ‘links’ lokalisierten Wellenfunktionen, welche aus der kohärenten Überlagerung der symmetrisierten Wellenfunktionen gebildet werden, beschrieben, so dass abhängig von der Elektronenwellenlänge Asymmetrien in der Elektronen-Winkelverteilung auftreten können. Die Möglichkeit, eine eventuelle Asymmetrie in der Winkelverteilung um die Dimerachse zu beobachten ist allerdings nur dann gegeben, wenn die beiden Seiten des Dimers im Anschluss an die Reaktion unterscheidbar sind, d.h. der Ursprung des emittierten Elektrons feststellbar ist, da sich sonst der Fall einer ‘links’ lokalisierten Vakanz mit dem Fall einer ‘rechts’ lokalisierten Vakanz kohärent überlagert. Die Unterscheidung konnte in der vorliegenden Messung anhand der aus einigen Relaxationen hervorgehenden unterschiedlichen Ladungen der ionischen Fragmente des Neondimers durchgeführt werden. Insgesamt wurden im Anschluss an die 1s Photoionisation von Ne2 mit einer Rate von 3:1 der symmetrische Ladungsaufbruch Ne1+ + Ne1+ und der für die Untersuchung der Winkelverteilungen relevante asymmetrische Ladungsaufbruch Ne2+ + Ne1+ des Neondimers beobachtet. Alle in diesen beiden Ladungsaufbrüchen resultierenden intra- und interatomaren Relaxationsprozesse sowie ihre Raten wurden im Rahmen dieser Arbeit identifiziert und analysiert. Der dominante Zerfallskanal des symmetrischen Ladungsaufbruchs resultierte dabei aus dem im Anschluss an einen KL2,3L2,3 stattfindenden Radiative Charge Transfer, bei welchem unter Aussendung eines Photons ein Ladungsaustausch zwischen den Neonionen des Dimers stattfindet. Der dominante Zerfallskanal des asymmetrischen Ladungsaufbruchs wurde durch den im Anschluss an einen KL1L2,3 stattfindenden ICD bestimmt. Bei diesem in Clustern auftretenden Relaxationsprozess wird die Innerschalenvakanz aus Atom 1 durch ein Valenzelektron aus Atom 1 aufgefüllt. Sobald die Relaxationsenergie dabei nicht ausreicht, um, wie beim Augerzerfall, ein weiteres Valenzelektron aus Atom 1 zu ionisieren, wird die Energie mittels eines virtuellen Photons zum neutralen Nachbaratom des Dimers transferiert, und aus diesem wird ein Elektron, das ICD-Elektron, emittiert. Zur experimentellen Untersuchung der verschiedenen Zerfälle wurde die COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Technik verwendet. Bei dieser Impulsspektroskopie werden die Fragmente mit einer Raumwinkelakzeptanz von 4pi mit Hilfe eines elektrischen und eines magnetischen Feldes auf die ortsauflösenden Detektoren geführt, und ihre Flugzeiten und Auftrefforte werden gemessen. Die COLTRIMS-Technik zeichnet sich dabei dadurch aus, dass eine koinzidente Messung der Elektronen und Ionen möglich ist, wodurch die Fragmente eines Reaktionsereignisses einander zugeordnet werden können. Innerhalb der Reaktionsereignisse fragmentierte das Neondimer im Anschluss an die Relaxation in beiden Ladungsaufbrüchen Ne1+ + Ne1+ und Ne2+ + Ne1+ unter 180° in einer Coulombexplosion. Somit spiegelten die Richtungen der Relativimpulse der Ionen im Rahmen der ‘Axial-Recoil-Approximation’ die Position der Dimerachse zum Zeitpunkt der Reaktion wider, und aus den Impulsen der Elektronen konnten die Emissionsrichtungen der Elektronen bezüglich der Dimerachse abgeleitet werden. In dieser Arbeit wurde mit der beschriebenen Messtechnik eine deutliche Asymmetrie in der Winkelverteilung der 1s Photoelektronen sowie der 2p ICD-Elektronen um die Dimerachse beobachtet. Die gemessene Winkelverteilung der 1s Photoelektronen wies dabei eine qualitativ sehr gute Übereinstimmung mit einer innerhalb einer Hartree-Fock-Rechnung erhaltenen Winkelverteilung für eine vollständig lokalisierte 1s Vakanz im Neondimer auf. Für die Winkelverteilungen der ICD-Elektronen existieren bis heute noch keine theoretischen Vorhersagen. Mit den Ergebnissen der vorliegenden Arbeit konnte somit gezeigt werden, dass entgegen den heute gängigen Theorien zur Beschreibung des Neondimers sowohl die Vakanzen der innersten Schale als auch die Vakanzen der Valenzschale des Neondimers als lokalisiert beschrieben werden müssen.
Den Geheimnissen der Materie auf der Spur : neue Denkfabrik für physikalische Grundlagenforschung
(2009)
Bei Darmstadt entsteht FAIR, eines der größten internationalen Forschungszentren für Physik. Durch das von der Landesregierung geförderte Exzellenzzentrum »HIC for FAIR« erhält die Forschung in Hessen die einmalige Chance, sich direkt an globaler Spitzenforschung zu beteiligen: auf der Suche nach den letzten Geheimnissen der Materie.
Zahlreiche physikalische Prozesse, wie Bremsstrahlung, Synchrotronstrahlung oder Radiative Rekombination verursachen die Emission linear hochpolarisierter Röntgenstrahlung. Dennoch wird technisch nutzbare hochpolarisierte Röntgenstrahlung derzeit fast ausschließlich von einigen wenigen hochspezialisierten Synchrotronlichtquellen oder Freie Elektronen Lasern zur Verfügung gestellt. In der vorliegenden Arbeit wurde der Radiative Einfang in die K-Schale von nacktem Xenon verwendet, um erstmals eine Quelle einstellbarer, monoenergetischer sowie hochpolarisierter Röntgenstrahlung (97%) in einer Speicherringumgebung zu realisieren. Zum Nachweis der Polarisation der Strahlung wurde erstmals auch ein neuartiger orts-, zeit- und energieauflösender Si(Li) Streifendetektor als Röntgenpolarimeter eingesetzt, mit dem die Beschränkungen traditioneller Compton - Polarimeter umgangen werden können. Der gemessene Grad hoher linearer Polarisation, der mit den Vorhersagen durch die Theorie übereinstimmt, ist durchaus bemerkenswert, da die hochpolarisierte Röntgensstrahlung in einem Stoßprozess zwischen einem unpolarisierten Ionenstrahl und einem unpolarisierten Gasjet zustande kam. Dies bedeutet, dass der Radiative Elektroneneinfang ein ideales Werkzeug darstellt, um hochpolarisierte, energetisch frei wählbare Röntgenstrahlung in einer Speicherringumgebung zu erzeugen. Die Entwicklung der neuen 2D Detektortechnologie eröffnet auch Möglichkeiten zur experimentellen Untersuchung der Details atomphysikalischer Vorgänge. So konnte im Rahmen dieser Arbeit durch die Kombination des verwendeten Detektors und der Beschleunigereinrichtung der GSI erstmals experimentell die lineare Polarisation der Strahlung des Radiativen Elektroneneinfangs in die energetisch partiell aufgelösten L-Unterschalen von nacktem Uran bestimmt werden. Zudem wurden neue und präzisere Werte für die Polarisation der Einfangstrahlung in die K-Schalen von nacktem und wasserstoffähnlichem Uran gemessen. Die theoretischen Vorhersagen zeigten eine starke Sensitivität von Messungen linearer Polarisation der bei dem Radiativen Elektroneneinfang emittierten Strahlung auf den Einfluss der insbesondere bei Schwerionen - Atom - Stößen zu berücksichtigenden höheren Ordnungen der Multipolentwicklung. Während die Effekte bei der Messung von Winkelverteilungen des Radiativen Elektroneneinfangs gerade bei den kleineren Winkeln im Bezug auf die Ionenstrahlachse im Laborsystem vergleichsweise gering ausfallen, ist hier ein sehr ausgeprägter Effekt der Depolarisation zu beobachten. Hier liegt der wesentliche Unterschied zwischen den in dieser Arbeit vorgestellten Messungen der linearen Polarisation der Strahlung des Radiativen Einfangs in Xenon sowie in Uran. Das Auftreten der starken Depolarisation veranschaulicht die starke Abhängigkeit der Polarisationscharakteristik des REC-Prozesses von der Kernladungszahl des Projektils. Abschließend sei der Schritt zu der erstmals für diese Arbeit verwendeten Messtechnik mit einem hochaufgelösten Streifendetektor hervorgehoben. Im Gegensatz zu früheren Polarisationsmessungen mit grob dimensionierten Pixeldetektoren waren zu der Gewinnung der hier vorgestellten Messungen praktisch keinerlei zusätzliche Annahmen oder Simulationen zu der Interpretation der gewonnenen Winkelverteilungen notwendig. So konnte mit dem System bereits während des Experimentes eine erste Abschätzung der linearen Polarisation der beobachteten Strahlung durchgeführt werden. Diese Tatsache wird es in naher Zukunft ermöglichen, das für die niederenergetische Röntgenstrahlung weitgehend neue ”Fenster” polarimetrischer Messungen für weitere atomphysikalische Prozesse zu öffnen.
Im Rahmen dieser Diplomarbeit wurde eine Detektor-Sonde entwickelt, um Strahlprofile eines Ionenstrahls entlang der gekrümmten, geometrischen Achse eines Toroidsektormagneten zu messen. Bei der Konstruktion der Sonde musste die zuverlässige Messwerterfassung im Vakuum und innerhalb magnetischer Felder von bis zu 0,6 T berücksichtigt werden. Im theoretischen Teil werden die Theorie zum Strahltransport in den verwendeten Bauteilen, sowie die Funktionsweise eines Phosphor-Schirms (P20) dargelegt. Im experimentellen Teil wird die bewegliche Sonde, der verwendete Versuchsaufbau, sowie die Messungen und deren Auswertung näher beschrieben. Im abschließenden Fazit wird auch auf Alternativen zu der verwendeten Messmethode und deren Vor- und Nachteile eingegangen.
In den Neurowissenschaften führt die Erforschung des vegetativen Nervensystem (VNS) immer noch ein Schattendasein. Einer der wichtigsten Teile des VNS, der Hirnstamm, ist dabei besonders schlecht erforscht, obwohl er die Steuerzentren für Herzschlag, Blutdruckregulation, Atmung, Verdauung, und viele weitere lebenswichtige Funktionen beherbergt. Ein wichtiger Grund für diesen Umstand ist, dass die funktionelle Kernspintomographie (fMRT) sich in ihrer bisherigen Form nur bedingt für Messungen im Hirnstamm eignet. Ziel dieser Arbeit war es daher, neue Ansätze zur fMRT-Messung vegetativer Zentren im menschlichen Hirnstamm zu entwickeln. Nach einer Einführung in die Neuroanatomie sowie die physikalischen und physiologischen Grundlagen der strukturellen und funktionellen MRT werden im mittleren Teil der Arbeit die Entwicklung sowie der Test neuer Ansätze zur Hirnstamm-fMRT beschrieben. Dabei untersucht der Autor zunächst, welche grundlegenden Probleme einer konventionellen fMRT-Messung im Hirnstamm entgegenstehen. Es stellt sich heraus, dass alle hirnstamm-spezifischen Störquellen direkt oder indirekt auf den Herzschlag zurückzuführen sind. Aus den vorhandenen Ansätzen zur Korrektur solcher Störungen wird die Herzschlag-Taktung ausgewählt. Bei diesem Verfahren erfolgt die Aufnahme der fMRT-Bilder zeitlich gekoppelt an dem Herzschlag des Probanden, um sämtliche kardiogenen Rauschquellen zu unterdrücken. Anstelle des häufig verwendeten, aber statistisch problematischen Guimaraes-Verfahrens zur Korrektur der durch die Herzfrequenzvariabilität bedingten Schwankungen des MR-Signals wird in der vorliegenden Arbeit der die sog. Dual-Echo-Bildgebung verwendet. Dabei wird die konventionelle EPI-Sequenz (echo-planar imaging) dahingehend erweitert, dass pro Bild anstelle eines Echos zwei aufgenommen werden. Durch Quotientenbildung der beiden Bilder kann so der fluktuierende Teil des Signals entfernt werden. Beim Vergleich verschiedener Varianten der Quotientenbildung stellt sich ein neu entwickelter, exponentieller Ansatz als überlegen heraus. Danach werden die Auswirkungen verschiedener Methoden der Bewegungskorrektur und Schichtorientierung verglichen, um das Optimum für Messungen im Hirnstamm zu ermitteln. Nach Tests des neuen Verfahrens an verschiedenen fMRT-Datensätzen werden Empfehlungen für die Kombination der verschiedenen Parameter gegeben. Es zeigt sich, dass die Standardabweichung der fMRT-Bilder mit der neuen Methode im unteren Hirnstamm um 13% - 33% reduziert werden kann. Ein Sensitivitätstest an motorischen Hirnstammkernen, welche durch ein motorisches Paradigma aktiviert werden, zeigt, dass die jeweiligen Kerne in 85% - 95% der Fälle eindeutig identifiziert werden können. Im dritten Teil der Arbeit erfolgt die Anwendung der neuen Methode auf die Messung von Aktivierungen vegetativer Zentren. Hier wird als unkonventionellen Stimulus des vegetativen Nervensystems die Akupunktur verwendet. Dies geschieht u.a. mit der Zielsetzung, zur Aufdeckung des noch immer unbekannten Wirkmechanismus dieser Therapieform beizutragen. Als Akupunkturpunkt wird Pc6 am Handgelenk gewählt, da die Studienlage eindeutig dessen Effektivität bei der Behandlung von Übelkeit und Erbrechen sowie eine Beeinflussung der Magen-Peristaltik zeigt und die neuralen Zentren hierfür größtenteils im Hirnstamm lokalisiert sind. Der Autor stellt daher die Hypothese auf, dass die Akupunkturwirkung in diesem Fall über den Vagusnerv und dessen Hirnstammkern, den Nucleus dorsalis nervi vagi, vermittelt wird. Vor der Überprüfung dieser Hypothese erfolgt zunächst eine Methodenkritik der bisherigen Akupunktur-fMRT-Forschung. Anhand einer Gruppe von Studien, welche über Aktivierungen der Sehrinde bei Akupunktur visuell relevanter Punkte berichten, weist der Autor eine Reihe methodischer Probleme nach. Anhand einer eigenen Studie kann er mittels Independent Component Analysis (ICA) zeigen, dass die von den bisherigen Studien berichteten, visuellen Aktivierungen höchstwahrscheinlich nicht auf die Wirkung der Akupunktur zurückzuführen sind. Um einige der Probleme dieser Studien zu umgehen, entwickelt der Autor ein neues psychophysikalisches Verfahren, bei dem die Probanden während der Akupunktur kontinuierlich die Stärke der Nadelempfindung („DeQi“) auf einer visuellen Analogskala bewerten. Mit Hilfe dieses Verfahrens gelingt schließlich der Nachweis einer Hirnstamm-Aktivierung unter Akupunktur-Stimulation, deren Lokalisation mit der des Nucleus dorsalis nervi vagi vereinbar ist. Dies bestätigt die ursprüngliche Hypothese und zeigt gleichzeitig die Eignung des neuen Verfahrens für die Bildgebung vegetativer Hirnstammzentren.
In dieser Arbeit wurden im Rahmen des HADES-Experimentes von 2007 Proton-Proton-Stöße bei einer kinetischen Energie von Tkin = 3.5GeV der Reaktion pp → ppw simuliert. Insbesondere wurde mittels einer Pluto-Simulation untersucht, welche Auswirkungen die Berücksichtigung möglicher Verteilungsfunktionen für cos(θω) und cos(θ pp), die neben 2 weiteren Parametern als voneinander unabhängige Observablen zur Beschreibung der Reaktion gewählt wurden, auf die Anzahl der simulierten Ereignisse Nsim innerhalb der Detektorakzeptanz des HADES haben könnte. Hierbei stammt die gewählte Winkelverteilung für die w-Produktion aus Messungen des nicht mehr existierenden DISTO-Spektrometers, das Proton-Proton-Stöße bei einer leicht geringeren Energie von Tkin = 2.85GeV durchgeführt hatte, während die Verteilung für die Proton-Proton-Paar-Ausrichtung auf einer Annahme basiert und vorläufig gewählt wurde. Unter Verwendung eines weiteren Modells, das den 3-Teilchen-Zerfall ω → π+π−π0 beschreibt, wurde ein theoretisches Modell von Lutz et al. [1] in die Simulation implementiert, dessen Auswirkung auf Nsim es ebenfalls zu untersuchen galt. Dieses erlaubt eine Reduzierung der Anzahl der Freiheitsgrade des Systems von 12 auf 4, was eine Akzeptanzkorrektur der Reaktion pp→ ppω ermöglicht.
Die Ergebnisse zeigten eine starke Abhängigkeit der Anzahl der simulierten Teilchen von der Proton-Proton-Ausrichtung, die zu einer Reduzierung der Ereignisanzahl von etwa 15% führt. Dies hat zur Folge, dass eine Bestimmung der Verteilungsfunktion für diese Observable absolut notwendig ist. Die Auswirkungen der w-Winkelverteilung beträgt etwa 4−9%. Ein Vergleich der Simulationsergebnisse mit und ohne Modell führte zu dem Ergebnis, dass eine geringe Änderung der Nsim von 1−2% zu Gunsten des Zerfallsmodells vorliegt. Eine Berücksichtigung in Simulationen, die der Untersuchung des betrachteten Zerfalls dienen, ist also keine Notwendigkeit.
In dieser Arbeit wurde die Zentralitätsabhängigkeit der K0S -Produktion in Pb+Pb Stößen für 40A und 158A GeV untersucht. Sie wurden über den Zerfallskanal K0S → π+π− der schwachen Wechselwirkung nachgewiesen und bilden zusammen mit den geladenen Kaonen den Großteil der entstehenden Strangeness einer Kollision. Die Bestimmung der Zentralität erfolgte anhand der im Veto-Kalorimeter detektierten Spektatoren. Die Messergebnisse unterliegen aufgrund der limitierten geometrischen Akzeptanz des Detektors, Effizienzverlusten in der V 0-Rekonstruktion und gewählter Qualitätskriterien einigen Verlusten. Auf diese Verluste konnte mit Hilfe eines Simulationsverfahren, dem so genannten Embedding, korrigiert werden. Dabei wurden Korrekturfaktoren für differentielle Phasenraumbereiche ermittelt und auf die gemessenen Signalinhalte der invarianten Massenspektren angewendet. Des Weiteren wurde eine Vielzahl von Studien durchgeführt um die Stabilität der Ergebnisse im Rahmen eines systematischen Fehler zu bestimmen.
Die korrigierten Transversalimpuls-Spektren und Spektren der invarianten Massen verschiedener Phasenraumbereiche und Zentralitäten wurden präsentiert. Darüber hinaus wurden der inverse Steigungsparameter, die Rapiditätsspektren, sowie die berechneten Gesamtmultiplizitäten der K0S in Abhängigkeit der Zentralität und anhand der "wounded" Nukleonen diskutiert. Die Ergebnisse konnten mit vorangegangenen Analysen von NA49, NA57 und CERES verglichen werden. Dabei wurden insbesondere geringe Unstimmigkeiten mit den NA49-Ergebnissen der geladenen Kaonen bei 158A GeV festgestellt. Des Weiteren wurde die Diskrepanz zu den NA57-Ergebnissen, welche aus Analysen anderer Teilchensorten bekannt ist, für mittlere Rapiditäten bestätigt. Die Zentralitäatsabhängigkeit der Ergebnisse wurde zusätzlich mit UrQMD-Modellrechnungen geladener Kaonen verglichen und kann durch diese näherungsweise beschrieben werden.
In dieser Arbeit wurden zwei unterschiedliche Konzepte für einen Rebuncher mit mehreren Aperturen auf der Symmetrieachse des geplanten Bunchkompressors für das FRANZ-Projekt untersucht. Die besonderen Anforderungen sind die Zeitstruktur des Strahls und der geringe seitliche Abstand der unterschiedlichen Strahlwege...
Im Rahmen dieser Arbeit wurde ein Kabelpulsgenerator entwickelt und untersucht, der zur Erzeugung dielektrischer Barriereentladungen, genutzt wird. Diese Barriereentladung soll zur Wassersterilisation angewendet werden. Als schnelles Schaltelement des Kabelpulsers wurde ein Lorentz-Drift-Schalter (LDS), der ebenfalls in der Arbeitsgruppe Plasmaphyik entwickelt wird, verwendet. Dieser wurde grundlegend auf dessen elektrische Eigenschaften in Bezug auf den Einsatz in einem Pulsgenerator untersucht. Zudem sollen diese Messungen zur Weiterentwicklung des LDS von Nutzen sein und werden in diesem Kapitel zusammengefasst und interpretiert.
Zur Bestimmung des Arbeitsgasdrucks wurde der Verlauf der Durchbruchspannung verschiedener Gase in Abhängigkeit des Drucks aufgenommen. Durch diese Messungen konnte die maximale Haltespannung zum jeweiligen Druck, sowie der optimale Arbeitsdruckbereich des Schalters, der möglichst nahe des Selbstdurchbruchs liegt, ermittelt werden. Es wurde ein Verlauf entsprechend der Abhängigkeit der Paschenkurve bestimmt. Dabei wurde festgestellt, dass sich die Druckbereiche der Gase Argon, Stickstoff und Luft stark von dem des Wasserstoffs unterscheiden.
Um möglichst steile Pulsflanken des Kabelpulsgenerators zu gewährleisten, wurden Messungen der Spannungabfallraten am LDS durchgeführt. Da das Plasma im Schalter als ohmsche Last angesehen werden kann, korreliert der Spannungsabfall mit dem Stromanstieg. Hierbei konnte generell ein Anstieg der Spannungsabfallzeit mit zunehmender Ladespannung festgestellt werden. Teilweise konnte ein sprunghaftes Verhalten nachgewiesen werden, was wie folgt zu interpretieren ist: Der LDS ist ein schneller Gasentladungsschalter für hohe Ströme und hohe Spannungen. Um eine laufende Entladung durch die Lorentzkraft im Elektrodenzwischenraum zu erreichen, wird eine gewisse Stromdichte benötigt, die das ”saubere” Durchzünden des Schalters gewährleistet, das Plasma an den Elektroden nach oben laufen lässt und später die Selbstlöschung einleitet. Die in der Kapazität des Koaxialkabels gespeicherte Energie reichte bei kleinen Ladespannungen nur zu einer kurzen Uberbrückung der Elektroden. Zudem konnte eine Steigerung der Spannungsabfallzeit mit zunehmendem Druck festgestellt werden, was dafur spricht den Schalter bei einem Druckbereich möglichst nahe des Selbstdurchbruchs zu betreiben, um ein optimales Entladeverhalten zu gewährleisten. Weitere wichtige Parameter eines Gasentladungsschalters sind die Delay- und Jitterwerte. Neben dem Delay wurden im Rahmen dieser Arbeit erstmals Jittermessungen am LDS durchgefuürt. Diese wurden mit den oben genannten Gasen mit unterschiedlichen Triggerpulsen gemessen. Im Wesentlichen wurde ein kürzerer und ein längerer Triggerpuls mit Pulslängen von 1 µs und 31 µs verwendet.
Weiterhin fand erstmals der Betrieb des LDS mit Wasserstoff als Arbeitsgas statt. Neben diversen Vorteilen im Entladeverhalten, erlaubt ein Betrieb des Schalters mit Wasserstoff die Verwendung von reversiblen Gasspeichern auf Titan- oder Zirkoniumbasis. Durch beheizen dieser Speicher, geben sie Gas ab und nehmen es beim Abkühlen wieder auf. Dadurch sind abgeschlossene Schaltsysteme, sogenannte ”Sealed-Off”-Systeme, fur weitere Prototypen realisierbar [Pet07].
Es wurde festgestellt, dass der Delay stark von der Triggermethode bzw. der Pulslänge des Triggers abhängt. Auch hier wird ein schneller Spannungsanstieg benötigt. Je schneller die Startelektronen durch das Triggerelement bereitgestellt werden, desto schneller zundet das Plasma im Elektrodenzwischenraum. Für einzelne Schaltvorgänge spielt der Delay eine untergeordnete Rolle, betrachtet man jedoch Repetitionsraten gewinnt jeder einzelne zeitliche Ablauf eines Schaltprozesses an Bedeutung. Bei den oben erwähnten ersten Jittermessungen konnten bei allen Gasen sehr niedrige Jitterwerte von deutlich unter 100 ns erreicht werden. Auch hier wurde eine starke Triggerpuls- und Arbeitsgasabhängigkeit festgestellt. Auffällig wurde dies bei Untersuchungen mit Luft. Hier konnte der Jitter mit dem steilen Anstieg des kurzen Triggerpulses halbiert werden. Bei Messungen mit Wasserstoff wurde ein Jitter von 13 ns erreicht. Wiederum ergab sich eine Verbesserung des Jitters mit zunehmender Ladespannung.
Des Weiteren wurde die Pulsform und deren Impedanzabh¨angigkeit am Spannungsausgang des Kabelpulsers untersucht. Unterschiedliche Impedanzwiderstände wurden angefertigt und in den Pulseraufbau integriert. Es zeigte sich eine eher geringe Änderung der Pulsform bei unterschiedlichen Impedanzwiderständen. Untersuchungen zeigten, dass die Spannungsamplitude mit dem Widerstandswert variiert, da er wie ein Spannungsteiler wirkt. Die radialsymmetrischen Impedanzwiderstände erzeugen eine weniger stufig abfallende Flanke. Die besten Resultate, was die Pulsform betrifft, wurde jedoch durch eine niederinduktivere Erdung erzielt. Es wurde ein Kabelpulsgenerator mit einem relativ ebenen Pulsplateau entwickelt, dessen Parameter, wie z.B. die Pulsbreite und die Spannungsamplitude, weitgehend unabhängig voneinander variierbar sind.
In dieser Diplomarbeit wurden zwei vom Funktionsprinzip und Aufbau her vollständig unterschiedliche Plasmabeschleuniger aufgebaut und bezüglich ihrer Eigenschaften untersucht. Der erste Aufbau ist ein Lorentzdriftbeschleuniger (LDB) mit kapazitiv erzeugten Plasmen, bei dem das Funktionsprinzip auf der Wirkung der Lorentzkraft auf bewegte Ladungsträger im Magnetfeld beruht. Der zweite Teil des Experiments stellt einen induktiven Beschleuniger (IB) dar, dessen Erzeugung und Beschleunigung von Plasmen auf Grund von Induktionskräften geschieht.
Die optischen und elektrischen Messungen von beiden Beschleunigern wurden in einem speziell konstruierten Experimentieraufbau durchgeführt. Beim Lorentzdriftbeschleuniger wurde der Einfluss der Elektrodenlänge auf den Bewegungsablauf der Plasmaentladung untersucht. Später, bei der Durchführung der Messungen mit dem induktiven Beschleuniger wurde der LDB als Schalter eingesetzt. Dabei stellte sich heraus, dass die Erosion der Elektroden aus Messing, die die Lebensdauer des Lorentzdriftbeschleunigers begrenzt, von der Stromstärke abhängt.
Als Ergebnis stellte sich heraus, dass der LDB einen einfacheren Aufbau als der IB hatte, die Ausstoßgeschwindigkeit des Plasmas war im Vergleich zum IB höher und betrug im Durchschnitt etwa 50-60 [km/s] gegenüber ≈ 21,5±6,5 [km/s] beim IB. Dagegen wurde beim IB eine größere Plasmamasse von 27 [μg] erzeugt gegenüber 2,8 [μg] beim LDB. Somit erreichte der IB eine höhere Schubkraft von ≈ 66 [N] bei einem Impuls von 0,58±0,17 [mNs] pro Puls mit Pulslängen um 0,88 ×10 -5 [s] . Im Gegensatz dazu lag die Schubkraft des LDB`s bei etwa 27-32 [N] mit einem Impuls von 0,135-0,162 [mNs] pro Puls mit Pulslängen von 5-5,75 ×10 -6 [s].
Orts- und zeitaufgelöste Elektronendichte eines gepulsten induktiv gekoppelten Entladungsplasmas
(2009)
In der vorliegenden Bachelorarbeit wurde ein Modell für die räumlich und zeitlich aufgelöste Elektronendichteverteilung in einem gepulsten induktiv gekoppelten Plasma erstellt. Experimentell war es, bedingt durch den gepulsten Betrieb und die Wahl der Diagnostikmethode im Experiment „Prometheus“, nur möglich über die Zeit und den Ort gemittelte Elektronendichten zu messen.
Um nun den räumlichen Verlauf der Elektronendichte zu bestimmen, wurde die räumliche Elektronendichteverteilung durch eine ambipolare homogene Diffusion beschrieben. Die daraus resultierende Differentialgleichung wurde mithilfe von sphärischen Koordinaten unter Annahme von Azimutal- und Polarwinkelsymmetrie gelöst.
Der zeitliche Elektronendichteverlauf wurde durch die, für diesen Elektronendichtebereich gültige, Proportionalität zwischen elektrischer Leistung im Plasma und Elektronendichte berechnet. Die elektrische Leistung und deren zeitlicher Verlauf im Plasma ließ sich über ein Photodiodensignal im experimentellen Aufbau ermitteln.
Das so ermittelte Modell wurde auf die gemessenen integrierten Elektronendichten des Experiments „Prometheus“ angewendet. Durch das Modell ließ sich eine Aussage über die tatsächliche maximale Elektronendichte innerhalb des Entladungspulses treffen.