Refine
Year of publication
Document Type
- Doctoral Thesis (214) (remove)
Language
- German (214) (remove)
Has Fulltext
- yes (214)
Is part of the Bibliography
- no (214)
Keywords
- Ionenstrahl (4)
- Schwerionenphysik (4)
- Spektroskopie (4)
- Teilchenbeschleuniger (4)
- Emittanz (3)
- Heliumatom (3)
- Kernmaterie (3)
- Kristallzüchtung (3)
- Photoionisation (3)
- RFQ (3)
Institute
- Physik (214) (remove)
In der vorliegenden Dissertation wird die Frage der Vereinheitlichung der Quantentheorie mit der Allgemeinen Relativitätstheorie behandelt, wobei entsprechend dem Titel der Arbeit der Beziehung der Grundbegriffe der beiden Theorien die entscheidende Bedeutung zukommt. Da das Nachdenken über Grundbegriffe in der Physik sehr eng mit philosophischen Fragen verbunden ist, werden zur Behandlung dieser Thematik zunächst in einem Kapitel, das die vier jeweils drei Kapitel umfassenden Teile vorbereitet, die Entwicklung der Theoretischen Physik betreffende wissenschaftstheoretische Betrachtungen sowie einige wesentliche Gedanken aus der Klassischen Philosophie vorgestellt, welche für die weitere Argumentation wichtig sind. Bei letzteren geht es neben einer kurzen Schilderung der Platonischen Ideenlehre in Bezug auf ihre Relevanz für die Physik insbesondere um die Kantische Auffassung von Raum und Zeit als a priori gegebenen Grundformen der Anschauung, deren Bezug zur Evolutionären Erkenntnistheorie ebenfalls thematisiert wird. In den beiden ersten Teilen werden die wesentlichen Inhalte der Allgemeinen Relativitätstheorie und der Quantentheorie vorgestellt, wobei der Deutung der beiden Theorien jeweils ein Kapitel gewidmet wird. In Bezug auf die Allgemeine Relativitätstheorie wird diesbezüglich die Bedeutung der Diffeomorphismeninvarianz herausgestellt und in Bezug auf die Quantentheorie wird zunächst die Grundposition der Kopenhagener Deutung verdeutlicht, die im Mindesten als eine notwendige Bedingung zum Verständnis der Quantentheorie angesehen wird, um anschließend eine Analyse und Interpretation des Messproblems und vor allem entscheidende Argumente für die grundlegende Nichtlokalität der Quantentheorie zu geben. Im dritten Teil der Arbeit wird die seitens Carl Friedrich von Weizsäcker in der zweiten Hälfte des letzten Jahrhunderts entwickelte Quantentheorie der Ur-Alternativen beschrieben, in welcher die universelle Gültigkeit der allgemeinen Quantentheorie begründet und aus ihr die Existenz der in der Natur vorkommenden Entitäten hergeleitet werden soll, auf deren Beschreibung die konkrete Theoretische Physik basiert. Es werden sehr starke Argumente dafür geliefert, dass diese Theorie von den bislang entwickelten Ansätzen zu einer einheitlichen Theorie der Natur, welche die heute bekannte Physik in sich enthält, die vielleicht aussichtsreichste Theorie darstellt und damit die Aussicht bietet, auch für das Problem der Suche nach einer Quantentheorie der Gravitation den richtigen begrifflichen Rahmen zu bilden. Ihre große Glaubwürdigkeit erhält sie durch eine die Klassische Philosophie miteinbeziehende philosophische Analyse der Quantentheorie. Dieses Urteil behält seine Gültigkeit auch dann, wenn die Quantentheorie der Ur-Alternativen aufgrund der ungeheuren Abstraktheit der Begriffsbildung innerhalb der Theorie und der sich hieraus ergebenden mathematischen Schwierigkeiten bisher noch nicht zu einer vollen physikalischen Theorie entwickelt werden konnte. Die alles entscheidende Kernaussage dieser Dissertation besteht darin, dass aus einer begrifflichen Analyse der Quantentheorie und der Allgemeinen Relativitätstheorie mit nahezu zwingender Notwendigkeit zu folgen scheint, dass die physikalische Realität auf fundamentaler Ebene nicht-räumlich ist. Dies bedeutet, dass die These vertreten wird, dass es sich bei dem physikalische Raum, wie er gewöhnlich schlicht vorausgesetzt wird, wenn auch in unterschiedlicher Struktur, in Wahrheit nur um eine Darstellung dahinterstehender dynamischer Verhältnisse nicht-räumlicher Objekte handelt. Diese These stützt sich auf die Diffeomorphismeninvarianz in der Allgemeinen Relativitätstheorie und in noch höherem Maße auf die Nichtlokalität in der Quantentheorie, welche sich wiederum nicht nur in konkreten für die Quantentheorie konstitutiven Phänomenen, sondern dazu parallel ebenso im mathematischen Formalismus der Quantentheorie manifestiert. In Kombination mit der Kantischen Behandlung von Raum und Zeit ergibt sich damit ein kohärentes Bild in Bezug auf die eigentliche Natur des Raumes. Die Quantentheorie der Ur-Alternativen ist diesbezüglich als einzige derzeit existierende Theorie konsequent, indem sie auf der basalen Ebene den Raumbegriff nicht voraussetzt und rein quantentheoretische Objekte als fundamental annimmt, aus deren Zustandsräumen sie die Struktur der Raum-Zeit allerdings zu begründen in der Lage ist. Damit befinden sich diese fundamentalen durch Ur-Alternativen beschriebenen Objekte nicht in einem vorgegebenen Raum, sondern sie konstituieren umgekehrt den Raum. Dies ist eine Tatsache von sehr großer Bedeutung. Im vierten Teil wird schließlich die vorläufige Konsequenz aus diesen Einsichten gezogen. Nach einer kurzen Behandlung der wichtigsten bisherigen Ansätze zu einer quantentheoretischen Beschreibung der Gravitation, wird die Bedeutung der Tatsache, dass die Allgemeine Relativitätstheorie und die Quantentheorie eine relationalistische Raumanschauung nahelegen, nun konkret in Bezug auf die Frage der Vereinheitlichung der beiden Theorien betrachtet. Das bedeutet, dass das Ziel also letztlich darin besteht, einen Ansatz zu einer quantentheoretischen Beschreibung der Gravitation zu finden, bei der so wenig räumliche Struktur wie möglich vorausgesetzt wird. In Kapitel 12 wird diesbezüglich ein von mir entwickelter Ansatz vorgestellt, um zumindest eine Theorie zu formulieren, bei der die metrische Struktur der Raum-Zeit nicht vorausgesetzt sondern in Anlehnung an die Eigenschaften eines fundamentalen Spinorfeldes konstruiert wird, das im Sinne der Heisenbergschen einheitlichen Quantenfeldtheorie die Elementarteilchen einheitlich beschreiben soll. Dieser Ansatz geht bezüglich der Sparsamkeit der Verwendung von a priori vorhandener räumlicher Struktur über die bisherigen Ansätze zu einer Quantentheorie der Gravitation hinaus. Er ist aber dennoch nur als ein erster Schritt zu verstehen. Die konsequente Weiterführung dieses Ansatzes würde in dem Versuch bestehen, eine Verbindung zur von Weizsäckerschen Quantentheorie der Ur-Alternativen herzustellen, die überhaupt keine räumliche Struktur mehr voraussetzt. Hierzu konnten bisher nur aussichtsreiche Grundgedanken formuliert werden. Es wird allerdings basierend auf den in dieser Dissertation dargelegten Argumentationen die Vermutung aufgestellt, dass es im Rahmen der von Weizsäckerschen Quantentheorie der Ur-Alternativen möglich ist, eine konsistente quantentheoretische Beschreibung der Gravitation aufzustellen. In jedem Falle scheint die Quantentheorie der Ur-Alternativen die einzige Theorie zu sein, die aufgrund ihrer rein quantentheoretischen Natur in ihrer Begriffsbildung grundsätzlich genug ist, um eine Aussicht zu bieten, diejenige Realitätsebene zu erfassen, in welcher die Dualität zwischen der Quantentheorie und der Allgemeinen Relativitätstheorie zu einer Einheit gelangt.
Zyklotronresonanzen von Ionen im hochfrequenz-modulierten magnetisch fokussierten Elektronenstrahl
(2000)
Ein Prototyp einer Kombination aus Penningfalle und EBIS/T wurde im Rahmen dieser Arbeit entwickelt. Dazu wurde ein Standard NMRMagnet erfolgreich so umgebaut, daß er in Bezug auf Vakuum, Temperatur und Temperaturbeständigkeit den Erfordernissen einer EBIS/T als Ionenfalle entspricht. Diese Apparatur ermöglicht nun die Untersuchung der in der EBIS/T erzeugten Ionen mit den Methoden der 'Fallenphysik'. Die Anregung der Ionen in der Falle wurde hier erstmals durch Hochfrequenzmodulation des Elektronenstroms über die Wehneltelektrode der Elektronenkanone durchgeführt. Messungen haben gezeigt, daß man in der EBIS/T erzeugte Ionen selektiv nach ihrem Verhältnis von Masse zu Ladung mit der Modulation in Resonanz bringen kann, bis sie den Elektronenstrahl verlassen. Die Ionen besitzen auch im dichten Elektronenstrahl eine charakteristische Eigenfrequenz, die zwar von der Raumladung in der Falle abhängt, mit der jedoch trotzdem eine Resonanzanregung durchgeführt werden kann. Im Experiment bestätigte sich die Vorhersage für die Mindestdauer der Anregung in der Größenordnung von Mikrosekunden und für Relaxionszeiten der kohärenten Ionenbewegungen im Bereich von Millisekunden, was eine grundsätzliche Voraussetzung für eine resonante Separation verschiedener Ionensorten darstellt. Die auftretenden Eigenfrequenzen der unterschiedlichen Ionen lassen sich theoretisch und im Einklang mit numerischen Simulationen beschreiben. Die Anregung der Eigenfrequenzen von Ionen über den Elektronenstrahl funktioniert bis zu so hohen Ionendichten, wie sie in einer EBIS vorkommen. Ionenmanipulationen, wie man sie von den Penningfallen her kennt, lassen sich auf ein Ionenensemble mit bis zu 10 10 Ionen pro cm 3 übertragen. Die gemessenen Verschiebungen der Eigenfrequenzen gegenüber der Zyklotronfrequenz geben darüber hinaus Aufschluß über den Kompensationsgrad des Elektronenstrahls in der EBIS/T und können damit als wichtiges Diagnosehilfsmittel für die Optimierung von ElektronenstrahlIonenquellen verwendet werden. Läßt man die Resonanzanregung kontinuierlich einwirken, so tritt überraschenderweise eine Erhöhung des Anteils an hochgeladenen Ionen in der EBIS/T auf. Darüberhinaus konnte experimentell gezeigt werden, daß die hochgeladenen Ionen auf der Achse des Elektronenstrahls konzentriert werden, während niedrig geladene Ionenen dort verschwinden und bevorzugt den äußeren Strahlbereich bevölkern. Die Erklärung dafür ist, daß durch kontinuierliches Entfernen dieser niedrig geladenen Ionen aus dem Elektronenstrahl eine vollständige Kompensation der Raumladung des Elektronenstrahls verhindert wird. Dadurch lassen sich Ionen in der Ionenquelle über einen längeren Zeitraum züchten. Vorteilhafterweise drängt die Anregung über eine Modulation des Elektronenstrahls im Gegensatz zu der normalen Dipolanregung bevorzugt niedrig geladenen Ionen, mit größerer Aufenthaltswahrscheinlichkeit am Rand, aus dem Elektronenstrahl. Dies führt zu einer verstärkten CoulombKühlung der hochgeladenen Ionen und konzentriert diese in der Mitte des Strahls, wo die Anregung fast unwirksam ist. Diese Kühlkraft wirkt als Zusammenspiel der attraktiven radialen Kraft des nicht vollständig raumladungskompensierten Elektronenstrahls und der Coulombstöße der Ionen untereinander. Durch diese Methode der Kühlung der Ionen untereinander können verstärkt Ionen hoher Ladungszustände in der Ionenquelle konzentriert werden. Der Vorgang der Kühlung durch Coulombstöße konnte mit einem Modell beschrieben werden, bei dem die thermische Verteilung aller Ionen im Elektronenstrahl einer Boltzmann Verteilung folgt. Das Modell benutzt vier Kräfte: die magnetische Kraft, die elektrische Haltekraft des Elektronenstrahls, die periodische elektrische Anregungskraft und die Reibung der Ionen proportional zu ihrer Geschwindigkeit und ihres Ladungszustandes bzw. die Stöße der Ionen untereinander. Die Resonanzanregung im Raumladungspotential sowie die Aufenthaltsverteilung der Ionen im Elektronenstrahl konnten damit dargestellt werden. Für Präzisionsexperimente an hochgeladenen Ionen bietet sich die Kombination aus einer EBIS/T mit integrierter Penningfalle an. Die Experimente haben gezeigt, daß es möglich ist, Ionenspektren mit einem eingekoppelten Wechselfeld in dem Ionisationsraum der EBIS/T zu separieren und zu reinigen. Für die Zukunft wünscht man sich aber eine größere Effektivität für das vollständige Entfernen bestimmter Ionensorten. Dies kann man erreichen, indem man den Elektronenstrahl noch dichter mit der Ionisationsröhre umschließt. Durch die kontinuierliche Resonanzanregung profitiert man von einer längeren Einschlußzeit für die stufenweise Ionisierung zu höheren Ladungszuständen und/oder eröffnet ElektronenstrahlIonenquellen neue Einsatzmöglichkeiten unter schlechteren Vakuumbedingungen. Die verstärkte Kühlung und Zentrierung der Ionen auf der Achse während dieses Betriebsmodus verbessert die Emmitanz von ElektronenstrahlIonenquellen. Für die Zukunft kann man sich eine EBIS mit moduliertem Elektronenstrahl auch im Strahlweg niederenergetischer hochgeladener Ionen zum Verbessern deren Emittanz vorstellen. Die im Elektronenstrahl erzeugten und sich selbst kühlenden Ionen wirken durch Coulombstöße als Kühlmedium ohne die Gefahr der Umladung wie bei gasgefüllten hfQuadrupolen.
Mit der Bereitstellung des 208Pb-Strahls durch das CERN-SPS können seit Herbst 1994 Kollisionen schwerster Kerne bei den höchsten zur Zeit in Schwerionenbeschleunigern erreichten Einschußenergien untersucht werden.
Ziel dieser Arbeit ist die Untersuchung der raumzeitlichen Entwicklung von zentralen Pb-Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des Experimentes NA49 durchgefüuhrt und stützt sich auf die Analyse von Bose-Einstein-Korrelationen identischer Pionen. Die Auswertung von rund 40000 zentralen Ereignissen, die in zwei verschiedenen Magnetfeldkonfigurationen mit der zweiten Vertex-Spurendriftkammer des NA49-Experimentes aufgezeichnet wurden, erlaubt hierbei eine annähernd vollständige Untersuchung des pionischen Phasenraumes zwischen zentraler Rapidität und der Projektilhemisphäre.
Auf der experimentellen Seite stellt der Nachweis von mehreren hundert geladenen Teilchen pro Ereignis eine große Herausforderung dar. Daher werden in dieser Arbeit die Optimierung von Spurendriftkammern sowie die verwendeten Analyseverfahren und die erreichte experimentelle Auflösung ausführlich diskutiert. Dabei zeigt sich, daß der systematische Einfluß der erreichten Impuls- und Zweispurauflösung auf die Bestimmung der Bose-Einstein-Observablen vernachlässigbar ist.
Die Messung von Korrelationen ungleich geladener Teilchen bestätigt die Beobachtungen früherer Untersuchungen, wonach die Gamowfunktion als Coulombkorrektur der Bose-Einstein-Korrelationsfunktionen in Schwerionenexperimenten nicht geeignet ist. Ein Vergleich mit einem Modell zeigt, daß diese Messungen konsistent sind mit der Annahme einer endlichen Ausdehnung der Pionenquelle von rund 6 fm. In dieser Arbeitwird zur Korrektur daher eine Parametrisierung der gemessenen Korrelationsstärke ungleich geladener Teilchen benutzt, wodurch die systematischen Unsicherheiten bei der Auswertung der Bose-Einstein-Korrelationsfunktionen erheblich reduziert werden konnten.
Die Auswertung der Bose-Einstein-Korrelationen im Rahmen des Yano-Koonin-Podgoretskii-Formalismus erlaubt eine differentielle Bestimmung der longitudinalen Expansionsgeschwindigkeit. Dabei ergibt sich das Bild eines vornehmlich in longitudinaler Richtung expandierenden Systems, wie es bereits in Schwefel-Kern-Reaktionen bei vergleichbaren Einschußenergien beobachtet wurde. Die Transversalimpulsabhängigkeit der transversalen Radiusparameter ist moderat und verträglich mit einer mäßigen radialen Expansion, deren quantitative Bestätigung allerdings im Rahmen von Modellrechnungen erfolgen muß.
Im Rahmen eines einfachen hydrodynamischen Modells kann die Lebensdauer des Systems zu 7-9 fm/c bei schwacher Abhängigkeit von der Rapidität bestimmt werden. Die Zeitdauer der Pionenemission beträgt etwa 3-4 fm/c und wird damit erstmals in ultrarelativistischen Schwerionenreaktionen als signifikant von Null verschieden beobachtet.
Die Auswertung der Korrelationsfunktion unter Verwendung der Bertsch-Pratt-Parametrisierung liefert Ergebnisse, die mit denen der Yano-Koonin-Podgoretskii-Parametrisierung konsistent sind. Dasselbe gilt für den Vergleich der Analyse positiv und negativ geladener Teilchenpaare sowie unter Verwendung verschiedener Bezugssysteme.
Ein Vergleich mit den Ergebnissen von Schwefel-Kern-Reaktionen deutet an, daß die in Pb-Pb ermittelten Ausfriervolumina nicht mit dem einfachen Bild eines Ausfrierens bei konstanter Teilchendichte vereinbar sind. Vielmehr scheint das Pb-Pb-System bei niedrigerer Dichte auszufrieren. Dies läßt darauf schließen, daß die Ausfrierdichte über die mittlere freie Weglänge mit der Größe des Systems zum Zeitpunkt der letzten Wechselwirkung verknüpft ist.
Zwei- und Viel-Teilchen-Korrelationen in zentralen Schwerionenkollisionen bei 200 GeV pro Nukleon
(1995)
Die intensiven gekühlten Schwerionenstrahlen des ESR-Speicherrings in Kombination mit dem dort installierten Überschallgastarget bieten einzigartige Möglichkeiten, Elektroneneinfangprozesse bei unterschiedlichen Projektilenergien zu untersuchen. In der vorliegenden Arbeit wurde die Emission der charakteristischen Balmerstrahlung detailliert nach (n, j)-Zuständen untersucht; die Lyman-alpha-Strahlung konnte aufgrund der großen Feinstrukturaufspaltung des 2p3/2-Niveaus darüber hinaus auch nach der Besetzung der magnetischen Unterzustände untersucht werden. Hierbei wurde gezeigt, dass der Einfangmechanismus einen starken Einfluss auf die Besetzung der magnetischen Unterzustände und damit auf die Winkelabhängigkeit der Emission der charakteristischen Photonen hat. Erstmals konnte an einem schweren Stoßsystem die Multipolmischung beim Ly-alpha1-Übergang mit großer Genauigkeit nachgewiesen werden; es ergab sich eine sehr gute Übereinstimmung mit der theoretischen Vorhersage. Aus dem Vergleich der Messung der Anisotropie bei höheren Energien mit der Vorhersage einer relativistisch exakten Theorie wurde geschlossen, dass die Messwerte nur dann erklärt werden können, wenn die Mischung von E1- und M2-Übergängen berücksichtigt wird. Durch den Vergleich der als zuverlässig anzusehenden Vorhersage für den REC-Prozeß mit den Messwerten konnte, erstmals für atomare Übergänge in Schwerionen, die Beeinflussung der messbaren Anisotropie durch Mischung der Strahlung unterschiedlicher Multipolaritäten aufgedeckt werden. Hiermit war es möglich, das Übergangsratenverhältnis Gamma M2 / Gamma E1 und daraus das Übergangsamplitudenverhältnis <M2>/<E1> zu extrahieren. Dieser kleine Beitrag(<1%) ist mit anderen Methoden nicht zu vermessen. Die beiden nichtrelativistischen Theorien, den nichtradiativen Einfang in das Projektil beschreiben, liefern bei den totalen Einfangswirkungsquerschnitten nahezu gleiche Ergebnisse in Übereinstimmung mit dem Experiment. Auch die (n, j)-differentiellen Querschnitte zeigen bei dem Vergleich mit den gemessenen Balmerspektren eine sehr gute Übereinstimmung. Erst wenn die magnetischen Unterzustände in die Untersuchung miteinbezogen werden, weichen die beiden Theorien voneinander ab. Unter Einbeziehung der Multipolmischung stimmt die Vorhersage der CDW-Theorie mit den Messwerten überein; die andere Theorie unterschätzt das Alignment des 2p3/2-Zustands und die daraus folgende Anisotropie der Lyman-alpha1-Strahlung. Es muss hervorgehoben werden, dass es durch die Anwendung der Abbremstechnik für nacktes Uran gelungen ist, diese Prozesse in einem Bereich extrem starker Störung (Q/v) zu untersuchen. Dieser Bereich ist im Allgemeinen experimentell nicht zugänglich und ist eine Herausforderung für die theoretische Beschreibung. Wie sich aus den Ausführungen zu den Zerfallskaskaden ergibt, ist die Messung des Alignments bei niedrigen Stoßenergien stark von Kaskadeneffekten beeinflusst. Das bedeutet, dass das Alignment der Lyman-alpha1-Strahlung sowohl durch den direkten Einfang als auch durch die Zerfallskaskade bestimmt ist. Dieses resultiert in einer von der jeweiligen Theorie abhängigen Vorhersage, wodurch sich eine integrale Aussage über die Güte einer bestimmten Beschreibung ableiten lässt.
In der vorliegenden Arbeit wird ein Curriculum zur Beugung vorgestellt, welches sich in ein Kerncurriculum und Erweiterungsmodule gliedert. Das Kerncurriculum geht von einer systematischen Erarbeitung von Erscheinungsreihen aus, zunächst in Form von Freihandversuchen. Dabei werden periodische Strukturen vor das Auge gehalten und durchblickt. Erst in einem zweiten Schritt treten entsprechende komplexere Versuchsaufbauten hinzu. Der Zusammenhang zwischen den durchblickten oder durchleuchteten periodischen Strukturen und den Konfigurationen der Beugungsbilder wird im Konzept optischer Wege beschrieben. Optische Wege werden dazu operational definiert und als geometrische Ordnungselemente eingeführt, die dem Zusammenhang zwischen den jeweils wirksamen räumlichen Bedingungen und den auftretenden Erscheinungen immanent sind. Den methodischen Rahmen des Kerncurriculum bildet damit eine phänomenologische Vorgehensweise - insbesondere, weil die optischen Wege nicht als ein Vorstellungskomplex gefasst werden, den man zur ursächlichen Erklärung eines Phänomens heranziehen kann. In einem Erweiterungsmodul des Curriculums wird im Einzelnen ausgeführt, wie es durch dieses methodische Vorgehen schon bei der Thematisierung der Beugung möglich ist, die holistischen Eigenschaften der Quantentheorie anzulegen und vorzubereiten. Dadurch kann der Übergang von der Beugung zur Quantentheorie in einem einheitlichen methodischen Rahmen erfolgen und eine vertikale Vernetzung der Unterrichtsinhalte unterstützen. Entsprechend dem von ERB und SCHÖN ausgearbeiteten Lichtwegkonzept bekommt auch beim Konzept optischer Wege das FERMAT-Prinzip eine zentrale Stellung. Es wird in der vorliegenden Arbeit räumlich formuliert. Im zentralen Thema des Kerncurriculums, der Beugung am Gitter, reichen in Erweiterung des FERMAT-Prinzips dann zwei Bedingungen aus, die man an die optischen Wege stellen muss, um diese Beugungserscheinungen umfassend zu beschreiben. Auch komplexe Zusammenhänge, wie beispielsweise die Invarianz des Beugungsbildes unter Translationen des Gitters, sind so anschaulich zu erklären. Das Beugungsbild eines Gitters tritt in der Brennebene einer Linse auf. Da es invariant unter Translationen des Gitters ist, darf auch ein Abstand zwischen Gitter und Linse gewählt werden, welcher größer als deren Brennweite ist. Je nach Stellung eines Schirms hinter der Linse erhält man so entweder das Beugungsbild oder das Abbild des Gitters. Eine Darstellung beider Situationen im Konzept optischer Wege lässt den Zusammenhang zwischen Beugungs- und Abbild sehr deutlich hervortreten und macht Experimente zur optischen Filterung unmittelbar verständlich. Die in diesem Rahmen eingeführte kontextuale Abbildung rundet das Kerncurriculum ab und arbeitet die Gesamtheit der wirksamen Bedingungen besonders heraus. Gleichzeitig gelingt es, Eigenschaften der FOURIER-Transformation auf einer elementaren Ebene zu behandeln. In einem der Erweiterungsmodule werden die Beugungsbilder bei Rotationen eines Gitters untersucht. Dabei treten Beugungsbilder in Form von Kegelschnitten auf. Es wird gezeigt, wie die schon im Kerncurriculum in Erweiterung des FERMAT-Prinzips formulierten beiden Bedingungen an die optischen Wege sich weiterhin als tragfähiger Beschreibungsansatz erweisen. Dabei können Elemente der Festkörperphysik anschaulich eingeführt werden – hier sind es die LAUE-Kegel. In einem anderen Erweiterungsmodul schließen sich eine anschauliche Herleitung des reziproken Gitters und der EWALD-Kugel an. Das Erweiterungsmodul, welches den Übergang zur Quantentheorie thematisiert, geht von der Beugung am Doppelspalt aus und sieht dort die Einführung des Zeigerformalismus vor. Der Kontrast zur phänomenologischen Vorgehensweise des Kerncurriculums ermöglicht eine saubere Unterscheidung zwischen den optischen Wegen als immanenten Ordnungselementen und den Zeigern als abstrakten Symbolen, die Wellenfunktionen repräsentieren. Methodendiskussionen werden so unterstützt. Im Zentrum des Moduls steht die Besprechung von Welcher- Weg-Experimenten. Die kontextuale Abbildung im Konzept optischer Wege führt dabei, wie oben bereits erwähnt, ohne methodischen Bruch auf das Superpositionsprinzip der Quantentheorie. Die schulische Erprobung des Kerncurriculums und einiger Erweiterungsmodule ergab schließlich, dass die operationale Definition der optischen Wege und die Formulierung von Kriterien an diese optischen Wege zur Beschreibung der Beugung es ermöglicht, durch tragfähige Begriffe bei den Schülern ein Bewusstsein für Zusammenhänge zwischen Teilinhalten des Unterrichtes zu wecken und die Beugung in eine Fülle optischer Erscheinungen zu integrieren. Der Übergang vom Experiment zu abstrakten Lerninhalten wird dann durch den Unterricht deutlich und generiert ein hohes Methodenbewusstsein.
Zellulare Nichtlineare Netzwerke bzw. Zellulare Neuronale Netzwerke, sogenannte CNN, wurden 1988 von L.O. Chua und L.Yang eingeführt und seither intensiv untersucht. Diese sind als Simulations-Software und als schaltungstechnische Realisierungen, in Hardware, verfügbar.
Als analog arbeitende Hardware Schaltungen können diese Netzwerke erhebliche Rechenleistungen erzielen.
Durch ihren Aufbau ermöglichen sie eine parallele Daten- und Signalverarbeitung.
Eine Einführung in CNN wird gegeben und das EyeRIS 1.1 Systems des Unternehmens ANAFOCUS Ltd. vorgestellt.
Das EyeRIS 1.1 System ist mit einem analog arbeitenden Focal Plane Prozessor (FPP) und einem digitalen Prozessor ausgestattet, wobei der Focal Plane Prozessor auch als Kamera zur Aufnahme von Bildern und Bildsequenzen benutzt werden kann.
Dies ermöglicht es, analoge CNN-Algorithmen zusammen mit digitalen Algorithmen auf einem System zu implementieren und so die Vorteile beider Ansätze zu nutzen. Der Datenaustausch zwischen dem analogen und digitalem Teil des EyeRIS 1.1 Systems geschieht mittels digital/analog und analog/digital Wandlung. Es werden Algorithmen auf dem EyeRIS 1.1 System untersucht und mit Ergebnissen die mittels Simulationen erzeugt wurden verglichen.
In Voruntersuchungen werden die Darstellungsgenauigkeit von Werten im analogen Teil des EyeRIS 1.1 Systems und die Verarbeitungsgeschwindigkeiten des EyeRIS 1.1 Systems untersucht.
Im Weiteren wird besonderes Augenmerk auf medizinische und technische Anwendungsgebiete gelegt werden.
Im medizinischen Anwendungsbereich wird die Implementierung von Algorithmen zur Vorhersage epileptischer Anfälle untersucht.
Hierfür wird ein evolutionär motiviertes Optimierungsverfahren entwicklet und auf dem EyeRIS 1.1-System implementiert.
Hierbei werden Simulationen durchgeführt und mit Ergebnissen, die mittels Verwendung des EyeRIS 1.1 Systems erlangt wurden, verglichen.
Ein zweites Verfahren geht die Signalanalyse für die Vorhersage auf dem EyeRIS 1.1-System mittels Mustererkennung an.
Das Mustererkennungsverfahren wird eingehend beschrieben sowie die hierbei zu beachtenden Randbedingungen erläutert.
Die Ergebnisse zeigen, daß Algorithmen zur Vorhersage von epileptischen Anfällen auf schaltungstechnichen Realisierungen von CNN implementiert werden können.
Im technischen Bereich wird die Anwendbarkeit auf die Problemstellung der Bildverarbeitung gelegt und die Möglichkeit von CNN basierten Algorithmen zur Erkennung von Prozessparametern bei Laserschweißverfahren untersucht. Ein solcher Prozessparameter ist das sogenannte Key-Hole, welches in Bildsequenzen von Laserschweißprozessen als ein Maß für die zu erwartende Qualität einer Schweißnaht herangezogen werden kann. Ein CNN basierter Algorithmus für die Erkennung solcher Key-Holes wird in dieser Arbeit vorgestellt und untersucht.
Für die Überwachung eines Laserschweißverfahrens wird der entwickelte Algorithmius und seine Funktionsweise beschrieben.
Dieser wird in Teilalgorithmen auf die analog bzw. digital arbeitenden Komponenten des EyeRIS 1.1 Systems verteilt.
Die Teilalgorithmen und die möglichen Aufteilungen und deren Laufzeitverhalten werden beschrieben und untersucht.
Die Ergebnisse der Untersuchung zeigen, daß eine Prozessüberwachung mittels CNN möglich ist und heben die Vorteile hervor, welche die Bildaufnahme und -verarbeitung mittels analoger CNN-Hardware bietet.
Eine Untersuchung des Laufzeitverhaltens auf Grafikkarten Prozessoren (GPU's) wird im Anhang vorgestellt.
In der vorliegenden Arbeit wird die Kopplung von Bloch- und Zyklotron-Oszillationen in Halbleiterübergittern unter dem Einfluss eines elektrischen und magnetischen Feldes zeitaufgelöst-elektro-optisch untersucht. Hierbei hängen sowohl die Stärke der Bloch-Zyklotron-Kopplung als auch die Charakteristika der kohärenten Ladungsträgerbewegung sensitiv von der relativen Anordnung der äußeren Felder ab. Bei gekreuzter Feldanordnung wird der Kohärente Hall-Effekt beobachtet. Semiklassisch lässt sich die Ladungsträgerdynamik in diesem Fall mit der Bewegungsgleichung eines nicht getriebenen, ungedämpften Pendels beschreiben. Abhängig vom Verhältnis E/B der äußeren Feldstärken lassen sich zwei Bewegungsregime mit gegensätzlicher Feldabhängigkeit der Frequenz der Ladungsträgeroszillationen unterscheiden. Bei schiefer Feldanordnung kommt es durch die nichtlineare Kopplung der Bloch-Oszillation mit der Zyklotron-Oszillation in der Übergitterebene zu einer phasenempfindlichen Gleichrichtung der transienten Oszillationen entlang der Wachstumsrichtung, wobei man in Resonanz eine Überhöhung dieses selbstinduzierten Gleichstroms beobachtet. In Anlehnung an ein analoges Phänomen, das an Josephson-Kontakten beobachtet wird, sprechen wir hierbei vom Fiske-Effekt. Für die räumliche Auslenkung X("unendlich") entlang der Wachstumsrichtung nach Abklingen der Kohärenz kann im Rahmen einer analytischen semiklassischen Näherung ein geschlossener Ausdruck angegeben werden. Die zeitaufgelösten Experimente zur Bloch-Zyklotron-Kopplung werden an zwei GaAs/Al0,3Ga0,7As-Übergitterstrukturen mit unterschiedlicher Quantentopfbreite durchgeführt. Im Spezialfall der gekreuzten Feldanordnung wird der Kohärente Hall-Effekt anhand der Existenz zweier Bewegungsregime mit ihrem charakteristischen Frequenz- und Dephasierungsverhalten in Abhängigkeit der äußeren Felder nachgewiesen und die lineare Abhängigkeit des Magnetfeldes am Übergang zwischen den Bewegungsregimen vom elektrischen Feld gezeigt. Die gleichermaßen prognostizierte Zunahme der Intensität höherer harmonischer Moden der Ladungsträgeroszillationen in der Nähe des Übergangs wird jedoch in der elektro-optischen Respons nicht beobachtet, wenngleich die verwendeten elektro-optischen Messtechniken im Vergleich zur Terahertz-Emissionsspektroskopie zur Untersuchung des Übergangsbereichs und höher frequenter Oszillationen prinzipiell besser geeignet sein sollten. Hierbei bestehende Einschränkungen werden diskutiert. Der für den Fall der schiefen Feldanordnung vorhergesagte selbstinduzierte Gleichstrom manifestiert sich experimentell in einem resonanzartigen Verlauf des elektro-optischen Signals nach Abklingen der Oszillationen in Abhängigkeit des Magnetfeldes. Durch Vergleich mit dem analytisch hergeleiteten Ausdruck für die räumliche Auslenkung lassen sich hieraus die relevanten Dämpfungskonstanten abschätzen und durch iterative Anpassung bestimmen. Die bei schiefer Feldanordnung mittels elektro-optischer Spektroskopie gemessenen Signale weisen nach Abklingen der kohärenten Ladungsträgeroszillationen nur einen sehr schwachen Driftanteil auf. Eine schlüssige Erklärung für diese Beobachtung ergibt sich, wenn bei der Behandlung der Ladungsträgerdynamik die Impuls- und Energierelaxation des Bloch-Oszillators unterschieden werden und eine sehr kleine Energiedämpfung angenommen wird.
Die Funktion biologischer Peptide und Proteine hängt wesentlich von deren intakten molekularen Struktur ab. Krankheiten, wie z.B. Alzheimer oder Diabetes, entstehen durch fehlgefaltete, aggregierte Peptidstrukturen. Die Ausbildung einer nativ gefalteten Konformation wird durch die Formierung von Sekundärstrukturelementen - in charakteristischer Weise angeordnete lokale Strukturen - initiiert und bildet einen geschwindigkeitslimitierenden Schritt in der Proteinfaltung. Die Erforschung und Analyse dieser ersten Faltungsprozesse ist deshalb von grundlegender Relevanz in der biophysikalischen Forschung, auch in Hinblick auf pharmazeutisch-medizinische Anwendungen. Bei der Untersuchung des Faltungsmechanismus kommen vor allem kleine Peptide mit eindeutig ausgebildeten Sekundärstrukturmotiven zum Einsatz. Ihre geringe Größe und strukturelle Eindeutigkeit machen diese kleinen Peptide zu idealen Modellsystemen, um diejenigen Faktoren zu untersuchen, die die Proteinfaltung steuern und beeinflussen. Die zur Untersuchung der Faltungsprozesse verwendeten Techniken müssen dabei sowohl eine Spezifität für die unterschiedlichen Strukturelemente, als auch eine der Faltungsdynamik angemessen Zeitauflösung besitzen. Im Rahmen dieser Arbeit wurden CD- und FTIR-Messungen zur Untersuchung der Strukturstabilität von Polypeptiden unter Gleichgewichtsbedingungen durchgeführt. Durch Variation von pH-Wert und Temperatur wurden damit Stabilitätseigenschaften ausgewählter Peptidsysteme analysiert. Um zeitaufgelöste Faltungsdynamiken von Peptiden detektieren zu können, wurde ein Spektrometer mit Laser-induziertem Temperatursprung (DeltaT ca. 10 °C in 10 ns) und IR-Einzelwellendetektion so modifiziert und optimiert, dass Peptiddynamiken im nanosec bis microsec Zeitbereich gemessen werden konnten. Neben der Modifikation der Temperatursprung-Apparatur, bei der optische Komponenten ersetzt und Störsignale reduziert wurden, konnte auch die Auswertung der kinetischen Daten durch die Entwicklung eines geeigneten Algorithmus verbessert werden. Als notwendige Vorarbeit der Faltungsstudien an Peptiden in wässriger Lösung wurden statische FTIR-Absorptionsmessungen am Lösungsmittel D2O durchgeführt. Dadurch wurden die durch Temperaturvariation erzeugten Absorptionsänderungen des Lösungsmittels ermittelt. Diese wurden zudem zur Kalibrierung des Laser-induzierten Temperatursprunges verwendet. Um Lösungsmittelabsorptionen von strukturellen Änderungen des Peptids zu trennen, wurde ein Auswerteverfahren entwickelt, das die temperaturabhängigen Absorptionsänderungen des Lösungsmittels berücksichtigt. Temperatur- und pH-abhängige Konformationsdynamik wurde am alpha-helikalen Peptid Polyglutaminsäure untersucht. Zunächst wurden CD- und FTIR-Messungen zur Thermostabilität und der Reversibilität der Ent- und Rückfaltung unter Gleichgewichtsbedingungen und bei unterschiedlichen pH-Werten durchgeführt. Der thermisch induzierte Strukturübergang von alpha-Helix nach ungeordneter Knäuel-Struktur wurde mit Hilfe der Laser-induzierten Temperatursprung-Technik zeitaufgelöst untersucht und Relaxationsraten bei verschiedenen pH-Werten bestimmt. Weitere Messungen zur Konformationsstabilität und –dynamik wurden an beta- Hairpin-Peptiden durchgeführt, die kleine Modellsysteme für beta-Faltblattstrukturen darstellen. Die in dieser Arbeit untersuchten Trpzip2C Peptide, die aufgrund hydrophober Wechselwirkungen der Tryptophane eine stabile beta-Hairpin-Struktur in wässriger Lösung ausbilden, waren an verschiedenen Positionen innerhalb der Aminosäure-sequenz selektiv isotopenmarkiert. Durch diese Markierungen im Peptidrückgrat werden spezifisch spektrale Änderungen im Infrarotspektrum erzeugt, die Untersuchungen zur Amidbandenkopplung und lokalisierten Strukturdynamik ermöglichen. Diese Ergebnisse stellen die erste Anwendung der Kombination von selektiv isotopenmarkierten alpha-Hairpin-Peptiden und der Temperatursprung-Technik dar, um Konformationsdynamiken ortsaufgelöst zu untersuchen. Für alle untersuchten Trpzip2C-Peptidvarianten konnte gezeigt werden, dass der Faltungsprozess in einem Temperaturbereich unterhalb von ~ 300 K nicht durch ein Zwei-Zustandsmodell beschrieben werden kann, sondern Intermediate gebildet werden. In diesem Temperaturbereich konnten wellenlängenabhängig Unterschiede in Relaxationsraten gemessen werden, die die Hypothese des „hydrophoben Kollaps“ für den Faltungsmechanismus dieser beta-Hairpin-Peptide unterstützen.
Im Zentrum dieser Arbeit steht die Diagnostik eines Wasserstoff-Theta-Pinch-Plasmas hinsichtlich der integrierten Elektronen- und Neutralgasdichte mittels Zweifarben Interferometrie. Die integrierte Elektronen- und Neutralgasdichte sind essenzielle Größen, aus welchen sich die Ratenkoeffizienten der Ionisation und Rekombination bei einer Plasma-Ionenstrahl-Wechselwirkung bestimmen lassen.
Ein Theta-Pinch-Plasma ist ein induktiv gezündetes Plasma, wobei das zur Zündung notwendige elektrische Feld durch ein magnetisches Wechselfeld generiert wird. Das induzierte, azimutale elektrische Feld beschleunigt freie Elektronen im Arbeitsgas, welches durch Stoßionisation in den Plasmazustand gebracht wird. Der azimutale Plasmastrom erzeugt einen radialen magnetischen Druckgradienten, der das Plasma komprimiert. Da in axialer Richtung keine Kompressionskraft wirkt, weicht das Plasma einer weiteren Kompression aus, wodurch es zu einer axialen Expansion des Plasmas kommt. Die Expansion erzeugt eine Ionisationswelle im kalten Restgas und es wird eine lange, hoch ionisierte Plasmasäule gebildet.
Dieser hochdynamische Prozess ist mit einem Mach-Zehnder-Interferometer bei der Verwendung von zwei verschiedenen Versionen des Theta-Pinchs zeitaufgelöst untersucht worden. Der Unterschied dieser Versionen liegt in der Geometrie und Induktivität der Spulen, wobei zum einen eine zylindrische und zum anderen eine sphärische Spule eingesetzt worden ist. Das grundlegende Messprinzip beruht darauf, dass das Plasma einen Brechungsindex besitzt, welcher von den Dichten der im Plasma enthaltenen Teilchenspezies abhängt. In einem Wasserstoffplasmas sind dies der Beitrag der freien Elektronen und der des Neutralgases, wodurch ein Zweifarben-Interferometer eingesetzt wird. Um eine von den Laserintensitäten unabhängige Messung zu ermöglichen, wird das heterodyne Verfahren benutzt, bei dem die Referenzstrahlen beider Wellenlängen jeweils mit einem akusto-optischen Modulator frequenzverschoben werden. Durch einen Vergleich mit einem stationären Referenzsignal mittels eines I/Q-Demodulators wird die interferometrische Phasenverschiebung aus dem Messsignal extrahiert.
Mit diesem diagnostischen Verfahren ist die integrierte Elektronen- und Neutralgasdichte des Theta-Pinch-Plasmas bei Variation des Arbeitsdrucks und der Ladespannung der Kondensatorbank untersucht worden. Mit der zylindrischen Experimentversion ist eine optimale Kombination aus integrierter Elektronendichte und effektivem Ionisationsgrad η von (1,45 ± 0,04) · 1018 cm−2 bei η = (0,826 ± 0,022) bei einem Arbeitsdruck von 20 Pa und einer Ladespannung von 16 kV ermittelt worden. Dagegen beträgt die optimale Kombination bei einem Arbeitsdruck von 20 Pa und einer Ladespannung von 18 kV bei Verwendung der sphärischen Experimentversion lediglich (1,23 ± 0,03) · 1018 cm−2 bei η = (0,699 ± 0,019).
Des Weiteren ist bei beiden Experimentversionen nachgewiesen worden, dass die integrierte Elektronendichte dem oszillierenden Strom folgend periodische lokale Maxima zeigt, welche zeitlich mit signifikanten Einbrüchen in der integrierten Neutralgasdichte zusammenfallen. Diese Einbrüche werden durch die axiale Expansion des Plasmas und der damit verbundenen Ionisationswelle im Restgas erzeugt. Neben diesem zentralen Teil dieser Arbeit ist eine lasergestützte polarimetrische Diagnostik durchgeführt worden, mit der die longitudinale Komponente der magnetischen Flussdichte der Theta-Pinch-Spulen zeit- und ortsaufgelöst bestimmt worden ist. Als Messprinzip ist der Faraday-Effekt eines magneto-optischen TGGKristalls verwendet worden.
Vor der polarimetrischen Diagnostik ist der TGG-Kristall bezüglich seiner Verdet- Konstante kalibriert worden, wobei ein Wert von V = (−149,7 ± 6,4) rad/Tm gemessen worden ist. Die ortsaufgelöste polarimetrische Diagnostik ist durch einen Seilzug ermöglicht worden, mit dem der TGG-Kristall auf einem Schlitten an unterschiedliche Positionen entlang der Spulenachse gefahren werden konnte. An den jeweiligen Messpunkten ist für beide Experimentversionen die magnetische Flussdichte für verschiedene Ladespannungen zeitaufgelöst bestimmt worden. Als Messverfahren ist dabei das Δ/Σ-Verfahren eingesetzt worden, mit dem sich eine intensitätsunabhängige Messung erzielen ließ.
Die ortsaufgelösten Messergebnisse fallen gegenüber Simulationen allerdings zu niedrig aus. Bei der zylindrischen Spule betragen die Abweichungen im Spulenzentrum circa 14 - 16% und bei der sphärischen Spule in etwa 16 - 18%. Bei einer Normierung der Messwerte und der simulierten Werte auf den jeweiligen Wert im Zentrum ist dagegen innerhalb der Fehler eine völlige Übereinstimmung zwischen den Messwerten und der Simulation für die zylindrische Spule erzielt worden. Als Ursache der negativen Abweichungen wird die Hysterese des TGG-Kristalls diskutiert. Es zeigt sich insbesondere zu Beginn der Entladung eine zeitliche Verzögerung der gemessenen magnetischen Flussdichte gegenüber dem Strom, die in der Umgebung des Stromnulldurchgangs besonders stark ausgeprägt ist.
Im Zentrum dieser Arbeit stehen die Überstrukturphasen des Yb-Cu-Systems. Als Ausgangspunkt für die Kristallzüchtung wird die kongruent schmelzende Verbindung YbCu4:5 gewählt. Um einen genauen Einblick in das Erstarrungsverhalten dieser Phase zu erhalten, werden zunächst im Bereich zwischen 17.3 und 22.4 at-% Yb eine Reihe von DSC-Messungen durchgeführt. Die Ergebnisse lassen sich nur bedingt mit den in der Literatur veröffentlichten Phasendiagrammen (Moffat [Mo92] bzw. Massalski [Ma90] und Giovannini et al. [Gi08]) vereinbaren. Zwar kann eine kongruent schmelzende Phase der Zusammensetzung YbCu4:5 nachgewiesen werden, die Messungen deuten aber die Existenz zusätzlicher Verbindungen an, die allerdings mit Hilfe der EDX-Analyse nicht weiter spezifiziert werden können. Um diese Phasen genauer zu analysieren, werden Einkristallzüchtungsversuche nach der Bridgman-Methode im Bereich zwischen 19 und 19.2 at-% Yb durchgeführt und mittels Einkristallbeugungsmethoden (SC-XRD und SAED) charakterisiert. Auf diese Weise können neben YbCu4:5 die bisher noch unbekannten berstrukturphasen YbCu4:4 und YbCu4:25 nachgewiesen werden, deren Schmelztemperaturen mittels DSC-Untersuchungen zu 934(2)°C und 931(3)°C bestimmt werden. Die Entdeckung der beiden Verbindungen bestätigt die von Cerný et al. [Ce03] bisher nur theoretisch vorhergesagte Existenz der Überstrukturphasen SECux (x=4.4 und 4.25) für das Yb-Cu-System. Mit Hilfe von Polarisations- und Rasterelektronenmikroskopie und unter Anwendung der Laue-Methode wird das Wachstumsverhalten dieser Überstrukturphasen analysiert. Man beobachtet ein Schichtwachstum, wobei sich die Schichten parallel zur a- und b-Richtung ausbilden und in c-Richtung gestapelt vorliegen. Da eine zuverlässige Unterscheidung der YbCux-Verbindungen nur mit Hilfe von Einkristallbeugungsmethoden gelingt, wird im Rahmen dieser Arbeit untersucht, inwiefern eine Charakterisierung mittels Pulverdiffraktometrie möglich ist. Die Messungen mit Synchrotronstrahlung am ESRF in Grenoble erlauben eine eindeutige Unterscheidung der Überstrukturphasen allerdings nicht. Die Analyse des an das Überstrukturgebiet angrenzenden Zusammensetzungsbereichs von 12.5 bis 17.24 at-% Yb bestätigt die Existenz der Verbindung YbCu6:5, eine kupferärmere Phase der Zusammensetzung YbCu5 kann in den DSC-Experimenten nicht nachgewiesen werden. Die Messungen belegen die Existenz einer Phasenbreite von YbCu6:0+x mit 0 <= x <= 0:5 ist, was im Gegensatz zu dem von Giovannini et al. [Gi08] publizierten Phasendiagramm steht. SC-XRD-Aufnahmen an nach der Bridgman-Methode gezüchteten Einkristallen der Zusammensetzung YbCu6:31(9) untermauern das von Hornstra und Buschow [Ho72] gefundene Strukturmodell. Die Verschiebungen der Atompositionen bedingt durch den im Gegensatz zur YbCu5-Verbindung erhöhten Kupferanteil werden mit Hilfe der gemessenen und berechneten Paarverteilungsfunktion nachvollzogen. Phasendiagrammuntersuchungen und Einkristallzüchtungsergebnisse für weitere SE-Cu-Systeme (SE =Ho, Gd) bestätigen die Existenz der Verbindung HoCu4:5 und erhärten den Verdacht sowohl in diesem als auch in den anderen Systemen noch weitere Überstrukturphasen finden zu können.
Die vorliegende Dissertation behandelt das Thema der Wechselstromleitfähigkeit nano-granularer Metalle, welche mit Hilfe der fokussierten elektronenstrahlinduzierten Direktabscheidung (FEBID) hergestellt wurden, sowie der dielektrischen Relaxation in metall-organischen Gerüstverbindungen (MOFs). Sie war eingebettet in das interdisziplinäre Projekt „Dielectric and Ferroelectric Surface-Mounted Metal-Organic Frameworks (SURMOFs) as Sensor Devices“ im Rahmen des DPG-Schwerpunktsprogramms „Coordination Networks: Building Blocks for Functional Systems“ (SPP 1928, COORNETs). Dabei verfolgt sie ein Sensorkonzept zur selektiven Detektion von Analytgasen. Der zentrale Erfolg der Arbeit besteht dabei in neuen Erkenntnissen über die Wechselstromleitfähigkeit nano-granularer Pt(C)-FEBID-Deponate. Die hierbei gewonnen Erkenntnisse können in Zukunft einen weiteren Baustein in der theoretischen Beschreibung dieses grundlegend interessanten und für sensorische Anwendungen wichtigen Teilgebiets der Festkörperphysik darstellen.
Im Kapitel 1 "Einleitung" wird aufgezeigt, wie die rasante technologische Entwicklung der Mikroelektronik nicht nur die Mikroskopie vorantreibt, sondern auch anderen, neuen Verfahren, wie z. B. dem Laser Scanning Mikroskop, zum Durchbruch verhilft. Damit verbunden ist ein Bedarf an neuen, geeigneten Messverfahren. Dazu stellt diese Arbeit ein neues, im Rahmen einer linearen Näherung arbeitendes, dreidimensionales Messverfahren vor, und demonstriert es am Beispiel des Lichtmikroskops im Hellfelddurchlichtbetrieb, wobei hier die 3. Dimension durch die Aufnahme einer Fokusserie entsteht. Im Kapitel 2 "Modellbildung" wird zuerst ein detailliertes, physikalisches Modell des experimentellen Aufbaus gebildet, um darauf aufbauend ein dreidimensionales, system-theoretisches Modell anzufertigen, anhand dessen das neue Messverfahren erarbeitet werden kann. Dabei wird auch die Berechnung der dreidimensionalen Übertragungsfunktionen des Lichtmikroskops für die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter beschrieben. Innerhalb des Kapitels 3 "Messverfahren" werden im Kapitel 3.1 zunächst die bekannten Verfahren skizziert. Anschließend, dies ist der Kern der Arbeit, wird im Kapitel 3.2 das neue Messverfahren beschrieben. Es verwendet als Anregung zweidimensionales Rauschen, hier ein Rauschen um eine Ebene senkrecht zur optischen Achse. Das Verfahren wird zunächst für absorbierende Objekte, anschließend auch für Phasenobjekte ausgearbeitet, und dabei experimentell demonstriert. Von zentraler Beutung ist, dass das neue Messverfahren in der Lage ist, auch die Phase der dreidimensionalen Übertragungsfunktion aus den Bildern der Rauschanregung zu berechnen, falls die Übertragung durch die Aufnahmeeinheit gewisse, häufig bei einem vernachlässigbaren Fehler vorliegende, Symmetrieeigenschaften besitzt. Es werden verschiedene Fälle von Symmetrieeigenschaften berücksichtigt, um unterschiedliche experimentelle Gegebenheiten und die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter abzudecken. Das Kapitel 4 "Messungen" vergleicht die mit dem neuen Messverfahren, mit einem bekannten Messverfahren und durch Berechnung ermittelten Übertragungseigenschaften auch bei Modifikationen des Strahlengangs durch Einfügen von Zentralblenden in die Pupille des Objektivs und in die Pupille des Kondensors. Die auf unterschiedlichen Wegen ermittelten Übertragungseigenschaften werden miteinander verglichen. Der Vergleich veranschaulicht die Leistungsfähigkeit des neuen Messverfahrens. Das Kapitel 5 "Die Bildgewinnung" stellt verschiedene, mehr oder weniger bekannte Ansätze zur Nutzung des vorgestellten Messverfahrens zusammen, darunter vor allem auch die Wiener-Inversfilterung.
Nach einer kurzen Einführung in die Theorie der Volterra-Systeme wurden in dieser Arbeit zunächst Verfahren zur Bestimmung von Volterra-Kernen als Kenngrößen für Volterra-Systeme zur Modellierung nichtlinearer Systeme analysiert. Im Vordergrund stand zunächst ein Verfahren basierend auf der Messung der Kreuzkumulanten-Spektren höherer Ordnung von Ein- und Ausgangssignal eines nichtlinearen Systems, wobei als Systemanregung ein stationärer, mittelwertfreier Gaußscher Zufallsprozeß angenommen wurde. Die Analyse der untersuchten Differenzengleichung zeigt, daß zur präzisen Bestimmung der Kernfunktionen bis zur dritten Systemordnung mehr als eine Million Ein- und Ausgangswerte notwendig sind. Vergleichend dazu wurde der Volterra-RLSAlgorithmus betrachtet, der eine rechenzeiteffiziente Bestimmung der Volterra-Kerne zuläßt und kein bestimmtes Eingangssignal erfordert. Beim Volterra-RLS-Algorithmus wurde zunächst die zur Bestimmung derartiger Systemkenngrößen erforderliche Anzahl der Ein- und Ausgangswerte festgestellt. Hierbei wurde u.a. auch ein gedämpftes Pendel als Modellsystem betrachtet. Die Ergebnisse zeigen, daß eine genaue Bestimmung der Volterra-Kerne mit dem Volterra-RLS-Algorithmus schon anhand von etwa 1500 Ein- und Ausgangswerten möglich ist. Anschließend wurde eine spezielle Klasse von Volterra-Systemen, die in lineare Teilsysteme zerlegbar sind, untersucht. Der Volterra-Kern eines solchen Systems, das ausschließlich aus linearen, zeitinvarianten Systemen aufgebaut ist, kann bei Kenntnis von deren Impulsantworten direkt bestimmt werden. Ihre Struktur führt zu einer deutlich verminderten Rechenkomplexität bei der Berechnung der Systemantwort des dargestellten Volterra-Systems. Wie in der Arbeit gezeigt, reichen für eine präzise Messung der Volterra-Kerne, die mit einem Gradientenverfahren bestimmt wurden, bei diesen Systemen bereits ungefähr 1000 Ausgangswerte aus. Außerdem ist die Realisierung eines Systems höherer Ordnung aus Systemen niedrigerer Ordnung relativ einfach möglich. Bei umfangreichen Untersuchungen wurde eine Identifikation nichtlinearer Systeme mit unterschiedlich ausgeprägten Nichtlinearitäten vorgenommen. Als Beispiel ist in dieser Arbeit der Fall diskutiert, bei dem Lösungen der Duffing-Gleichung herangezogen wurden. Dabei wurden Volterra-Systeme bis zur fünften Ordnung zugrundegelegt; eine präzise Approximation gelang in allen Fällen. Schließlich wurde noch festgestellt, inwieweit die Möglichkeit besteht, nach einer Bestimmung, d.h. anhand eines numerisch vorliegenden Kerns, daraus Systemparameter zu extrahieren. Dazu wurde eine spezielle OTA-C Integratorschaltung betrachtet; als Eingangssignale wurden Ein- und Zweitonsignale verwendet und anschließend die Bestimmung der Kerne homogener Systeme vorgenommen. Anhand dieser Resultate konnten der Widerstand R0 und die Kapazität C des OTA-C Integrators mit hoher Genauigkeit ermittelt werden. Die Untersuchungen haben gezeigt, daß eine Identifikation mit den aus linearen Systemen implementierten Volterra-Systemen zu geringeren relativen, mittleren quadratischen Fehlern führt als bei Verwendung der aus der allgemeinen Definition hervorgehenden Systeme. Neben der Verringerung der Rechenkomplexität konnte somit auch eine erhöhte Approximationsgüte festgestellt werden. Aufgrund dieses Befundes wurden derartige Volterra-Systeme für die besondere Fragestellung zur Epilepsieforschung eingesetzt, zu denen diese Arbeit beitragen sollte. Die Prädiktion von EEG-Signalen bei Epilepsie stand dabei im Vordergrund der Betrachtungen. Als erstes wurde der Prädiktionsgewinn sowohl in Abhängigkeit von der Systemordnung als auch in Abhängigkeit von der System- und Filterlänge ermittelt. Im Hinblick auf eine Realisierung in der Praxis wurde die Filterlänge nur zwischen L = 2 bis L = 10 variiert. Diese Untersuchungen haben gezeigt, daß Messungen dabei mit größerer Filterlänge als L = 4 zu keinen weiteren nennenswerten Verbesserungen der Resultate führten. Nach erfolgter Prädiktion wurde der zeitliche Verlauf des Prädiktionsgewinns auf Veränderungen vor oder zu Beginn eines epileptischen Anfalls untersucht. Die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme zweiter und dritter Ordnung zeigen keine signifikanten Veränderungen vor einem Anfall. Demgegenüber lassen die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme erster Ordnung und der inhomogenen Systeme dritter Ordnung zu Beginn eines Anfalls einen deutlichen Anstieg erkennen. Weiterhin deuten diese Ergebnisse daraufhin, daß eine genauere Lokalisierung des fokalen Bereichs basierend auf dem Prädiktionsgewinn möglich erscheint. Zu weiteren Untersuchungen wurden die Kerne der Systeme herangezogen und der zeitliche Verlauf des sogenannten nichtlinearen Anteils dm(i) näher betrachtet. Diese Ergebnisse lassen keine signifikanten Änderungen erkennen. Dementgegen stehen die Resultate für Langzeitregistrierungen von EEG-Signalen. Bei einer Analyse der zu einer längerenMeßreihe gehörigen Daten eines 19-jährigen männlichen Patienten wurde festgestellt, daß der Prädiktionsgewinnmeistens kurz vor den epileptischen Anfällen unter denMittelwert des anfallsfreien Zustands abfällt. Änderungen der Kurvenverläufe des Prädiktionsgewinns kurz vor epileptischen Anfällen weisen erkennbar spezifische Merkmale auf, die möglicherweise als Vorboten eines epileptischen Anfalls angesehen werden könnten
Im Rahmen des FAIR Projekts sollen in den Ringbeschleunigern SIS18 und SIS100 Ionenstrahlen mit höchster Intensität beschleunigt werden. Um die Raumladungsgrenze zu erhöhen, werden dazu Ionen mit mittleren Ladungszuständen verwendet. Diese haben aber größere Wirkungsquerschnitte für Umladung in Wechselwirkungen mit im Strahlvakuum vorhandenen Restgasteilchen als hochgeladene Ionen. Kommt es zu Strahlverlusten, lösen die verlorenen Ionen am Auftreffort weitere Restgasteilchen von den Wänden des Strahlrohrs und erhöhen so lokal die Restgasdichte. Die Qualität des Vakuums ist deshalb für einen stabilen Strahlbetrieb essentiell.
Im SIS100 kommen kryogene Vakuumkammern zum Einsatz, deren Wände als Kryosorptionspumpen für Wasserstoff und Helium dienen und alle schwereren Restgaskomponenten durch Kryokondensation binden können. Um die Vorhersagegenauigkeit des abteilungsinternen Programms „StrahlSim“ zur Simulation des dynamischen Vakuums zu verbessern, wurden im Rahmen dieser Arbeit das Saugvermögen und die Pumpkapazität für Wasserstoff auf einer Edelstahloberfläche untersucht.
Dazu wurde ein UHV Teststand entwickelt und aufgebaut. Dieser besteht aus einem warmen Diagnoseteil, mit dem der Gasfluss in und aus dem kalten Teil überwacht werden kann. Im kalten Teil befindet sich eine kleine Kammer mit Edelstahlwänden, für die verschiedene Temperaturen zwischen 7 und 31 K eingestellt werden können. Diese Kammer repräsentiert ein kleines Stück kryogenes Strahlrohr. Bei verschiedenen Temperaturen und Oberflächenbelegungen wurden dort jeweils das Saugvermögen und der sich einstellende Gleichgewichtsdruck im Bereich von 4E-11 bis 2E-7 mbar gemessen. Die Gleichgewichtsdrücke bei einer bestimmten Temperatur bei wachsender Oberflächenbelegung werden als Adsorptionsisotherme bezeichnet. Sie ergeben sich aus dem Gleichgewicht von thermisch desorbierenden Teilchen und deren Readsorption. Die kalte Kammer wird umgeben von einem Kryostaten, bestehend aus thermischem Schild und Außentank. Für diesen wurde die thermische Auslegung durchgeführt, die Konstruktion erfolgte extern.
Aus dem gemessenen Saugvermögen konnte die Haftwahrscheinlichkeit berechnet werden. Sie stellte sich als im Rahmen der Messgenauigkeit als unabhängig von Belegung und Temperatur heraus. Ihr Wert liegt nahe 1 mit einer Unsicherheit bis 0,1. Da sämtliche Oberflächen in den kryogenen Bereichen als Pumpen wirken, ist dieser Wert mehr als ausreichend um die für den stabilen Strahlbetrieb nötigen Vakuumbedingungen zu erreichen und stabil zu halten.
Die Isothermen hingegen sind stark von der Temperatur abhängig. Über 18 K liegen die Gleichgewichtsdrücke bereits bei minimalen Oberflächenbelegungen in für den Strahlbetrieb nicht tolerierbaren Bereichen. Mit sinkender Temperatur können die Oberflächen immer mehr Gas aufnehmen. Doch auch bei den tiefsten vermessenen Temperaturen zwischen 7 und 8 K ist ein stabiler Strahlbetrieb nur bei Belegungen von deutlich unter einer halben Monolage, etwa 5E14 Wasserstoffmoleküle pro cm², möglich.
Diese Ergebnisse wurden in StrahlSim implementiert. Zunächst wurde der Code für die Simulation von teilweise kryogenen Beschleunigern angepasst. Die wichtigste Änderung war die Einführung von thermischer Transpiration. Sie bewirkt, dass die Restgasteilchendichte an Kalt-Warm-Übergängen auf der kalten Seite erhöht ist. Mit dieser Änderung und den implementierten Ergebnissen aus den Messungen wurden Simulationen für das SIS100 durchgeführt. Mit den Isothermen konnten die bei verschiedenen Temperaturen und Bedeckungen zu erwartenden Durchschnittsdichten berechnet werden, die wiederum bestimmend für die Strahlverluste sind. Des Weiteren wurde ein mehrwöchiger Dauerbetrieb simuliert. Es zeigt sich zunächst eine Verschlechterung der Vakuumbedingungen auf Grund der langsamen Sättigung der Oberflächen. Diese verlangsamt sich aber immer mehr und stabilisiert sich bevor zu hohe Restgasdichten auftreten. Im schlechtesten Fall sind die kryogenen Oberflächen so weit gesättigt, dass sie genauso viele Gasteilchen thermisch desorbieren wie sie adsorbieren, sie also praktisch passiv sind. Auch dann wäre die Gleichgewichtsdichte im Beschleuniger noch tief genug, um Verluste durch Umladung hinreichend niedrig zu halten.
Als problematisch könnten sich hingegen dynamische Temperaturerhöhungen der Kammerwände erweisen. In diesem Fall stellt sich praktisch verzögerungsfrei der durch die neue Isotherme definierte Gleichgewichtsdruck ein, der auch bei wenigen Kelvin Temperaturunterschied bereits um mehrere Größenordnungen höher liegen kann. Sind Temperaturerhöhungen während des Betriebs zu erwarten, sollten die Oberflächen so frei wie möglich von Wasserstoff gehalten werden. Dazu kann man sich eben diesen Effekt zunutze machen: Durch temporäres Anwärmen der Oberflächen unmittelbar vor dem Strahlbetrieb können die Oberflächen schnell von Wasserstoff befreit werden, der dann von lokalisierten Pumpen aus dem System entfernt werden kann.
Untersuchungen zur zerstörungsfreien Emittanzmessung an einem negativen Wasserstoffionenstrahl
(2007)
Die Arbeit beschäftigte sich sowohl theoretisch wie auch praktisch mit einem neuartigen Konzept zur Strahldiagnose — der zerstörungsfreien Emittanzmessung für negative Ionenstrahlen. Bei H¯ Strahlen kann auf mechanische Bauteile verzichtet werden, wenn bei einem kleinen Teil der H¯ Ionen das zusätzliche, nur mit 0,754 eV schwach gebundene Elektron durch Photodetachment abgelöst wird. Die neutralisierten H¯ Ionen können magnetisch oder elektrostatisch von den Elektronen und den verbliebenen H¯ Ionen separiert werden. Insbesonders die Neutralteilchen bieten sich zur Bestimmung der Phasenraumverteilung des Ionenstrahls an, da der Impulsübertrag bei der Photoneutralisation für die vorliegende Anwendung vernachlässigbar ist. Die Detektion des Divergenzwinkels kann durch einen Szintillator mit einer CCD–Kamera erfasst werden. Ein Modell zur Berechnung der Anzahl der neutralisierten Teilchen ist unter der Annahme homogener Dichteverteilungen entwickelt worden, um Aussagen zu den Anforderungen an Lasersystem und Detektor zu machen. Dabei zeigt sich die besondere Eignung des Meßverfahrens für Strahlstöme und Strahlparameter, wie sie typischerweise nach einem RFQ vorliegen. Da im Gegensatz zur Schlitz–Schlitz Emittanzmessung wird hier die Winkeldetektion mit einem ortsauflösenden Szintillator durchgeführt. Daraus ergibt sich als neues Verfahren eine Schlitz–Punkt Abbildung. Im Vergleich zum Schlitz–Schlitz Messprinzip können damit mehr Informationen über die Phasenraumverteilung gewonnen werden. Um diese neue Abbildungsfunktion zu untersuchen, ist eine Methode zur Simulation der Winkeldetektion entwickelt worden. In den Simulationen ist angenommen worden, daß der Schlitz bzw. Laser analog zur Messung einer yy´ Emittanz entlang der y–Achse durch den Ionenstrahl gefahren wird, die ausgeschnittene Teilchenverteilung ist bis zum Ort des Szintillators transportiert worden. Dabei sind etliche Zusammenhänge der Abbildungsfunktion zwischen den 2dim Phasenraumprojektionen yy´ , xx´ und der Verteilung der neutralisierten Ionen auf dem Teilchendetektor aufgezeigt worden. Dabei läßt sich nachweisen, daß die Aberrationen aus der anderen transversalen Ebene (x–Ebene) die Verteilungsfunktion mit beeinflusst. Für die experimentellen Untersuchung der Photodetachment Strahldiagnose wurde eine Beamline aus Ionenquelle mit Dumpingsystem, differentiellem Pumptank und Linsensystem aufgebaut. Dabei wurde bei einer vorhandenen H¯ Quelle der Strom von anfänglich 70 mycroA auf 2,5 mA gesteigert. Das Dumpingsystem erwies sich als sehr effektiv und lenkte bis zur Nachweisgrenze alle zusätzlich extrahierten Elektronen aus dem Strahl aus. Die Komponenten und der gesamte Aufbau zur Photodetachment Strahldiagnose schließen den Dipol bzw. die Konstruktion der Vakuumkammer zur Ladungsseparation, die Auswahl eines geeigneten Szintillators und die Bestimmung der Laserstrahlparameter und dessen Strahlwegs mit ein. Bei den Experimenten zur Photoneutralisation konnte eindeutig das Meßsignal dem Photodetachment zugeordnet werden. Auch die Linearität des Szintillators konnte eindeutig gezeigt werden. Ebenfalls konnte die Beeinflussung der Einzellinsen auf den Ionenstrahl an Hand neutralisierter Teilchen gezeigt werden: Bei Vergrößerung der Brechkraft wurde der zunächst große Strahldruchmesser mit einem Intensitätsmaximum im Strahlkern zu einer hohlstrahlähnlichen Verteilung mit einem Peak in der Strahlmitte und am Strahlrand fokussiert. Bei weiterer Steigerung der Linsenspannung ließ sich die Intensität im Strahlrand wieder reduzieren. Durch die Veränderung der y–Position wurden Winkelprofile mit den zuvor gemessenen Schlitz–Schlitz Emittanzfiguren verglichen. Dabei konnte der Divergenzwinkel und auch die Lage des Strahlkerns im Rahmen der Meßgenauigkeit sehr gut wiedergegeben werden. Andererseits zeigten sich deutliche Unterschiede bei der Auswertung der Intensitäten. Dies ist zum Teil auf die schlechte Wiedergabe eines Holhlstrahls durch eine zweidimensionale Phasenraumprojektion yy´ zu erklären. Außerdem ist der Ionenstrahl durch die kleine Bauhöhe der Magnetkammer kollimiert worden, was den Strahl im Vergleich zu den vorherigen Schlitz–Schlitz Emittanzmessungen nachhaltig beeinflusst hat. Dagegen wiesen im direkten Vergleich, nämlich der zweidimensionalen, „wahren“ Ortsverteilung des Ionenstrahls am Szintillator mit den aufaddierten Neutralteilchen–Verteilungen, beide Verteilungen sehr ähnliche Muster auf. Die Messungen sind fast ausnahmslos an stark aberrationsbehafteten Ionenstrahlen durchgeführt worden. Dabei konnte die in den Simulationen der Abbildungseigenschaften gefundenen geschlossenen, achtförmigen Verteilungen unter Berücksichtigung der begrenzten Nachweisempfindlichkeit des Detektors sehr gut nachvollzogen werden.
Es wurde für Protonen- und Deuteronenbeschleuniger unter Extrembedingungen (hoher Ionenstrom, Dauerstrichbetrieb, Niedrigenergieabschnitt) ein Vergleich zwischen der konventionellen RFQ-Alvarez-DTL-Kombination und einer erstmals am IAP für diese Zwecke entwickelten RFQ-H-DTL-kombination durchgeführt. Insbesondere die Auslegung der Teilchendynamik von HF-Driftröhrenlinearbeschleunigern und RFQ's für leichte Ionen unter Miteinbeziehung der Raumladung und der Forderung nach Dauerstrichbetrieb sind Thema der vorliegenden Arbeit. Die vorgestellten Beschleuniger müssen extrem hohen Anforderungen an Transmission (Stromverlustrate << 3 µ A/m nach dem RFQ), Stabilität (stetige Strahldynamik bei Strahlfehlanpassung und Berücksichtigung von mechanischen und optischen Toleranzen), Anlagensicherheit ("Hands-on-Kriterium") und -zuverlässigkeit (Anlagenverfügbarkeit > 80 %) bei hoher HF-Effizienz (optimierte Shuntimpedanzen, Laufzeitfaktoren und Oberflächenstromdichten) genügen. Es wurden exemplarisch im Rahmen von zwei aktuellen Hochstromprojekten mit Dauerstrichbetrieb teilchendynamische DTL-Entwürfe für den mittleren Energiebereich (0.1 = ß = 0.34) durchgeführt: einmal für das ADS/XADS Projekt (Hier: 40 mA, 350/700 MHz 24 MW, Protonen, CW) und als extremes Beispiel das IFMIF Projekt (125 mA, 175 MHz, 5 MW, Deuteronen, CW). Da IFMIF hinsichtlich Transmissionseffizienz und Strahlstrom in Verbindung mit einem 100 %-Tastverhältnis wohl einzigartig ist, mussten besonders intensive Anstrengungen für den Test der Robustheit des teilchendynamische Entwurfs der DTL-Strukturen unternommen werden. Hierzu wurde der gesamte Injektorpart vom Eingang des Referenz Four-Vane-RFQ bei 0.1 MeV bis zum Ausgang des DTL bei 40 MeV als ganzes simuliert, unter Einbeziehung von optischen, HF- und mechanischen Toleranzen. Diese Rechnungen machten deutlich, dass die Einbringung einer kompakten Strahltransportstrecke (MEBT) zwischen RFQ und DTL notwendig ist, um den Strahl transversal und longitudinal ohne Teilchenverluste an den nachfolgenden DTL anzupassen. Man gewinnt dadurch auch zusätzliche Möglichkeiten für Strahljustierung und -diagnose. Infolgedessen gehört ein MEBT mittlerweile zum Referenz-Design, welches einen 175 MHz Four-Vane-RFQ als Vorbeschleuniger vorsieht und nach dem MEBT einen 175 MHz Alvarez-DTL mit FoDo-Fokussierschema. Die Designkriterien für IFMIF gelten uneingeschränkt auch für das ADS/XADS Projekt und infolgedessen wurde ebenfalls erstmals eine Auslegung des Mittelenergieabschnitts des ADS/XADS-Beschleunigers, der unmittelbar nach dem 350 MHz RFQ bei 5 MeV anfängt und bis ~ 100 MeV reicht, mit der neuen supraleitende CH-Struktur unternommen. Der Hochenergiebereich von 100 MeV bis 600 MeV wird im Referenzentwurf mit den bereits bewährten supraleitenden elliptischen Kavitäten mit einer Resonanzfrequenz von 700 MHz abgedeckt [ADS]. Die umfangreichen Untersuchungen inklusive Toleranzabschätzungen ergaben, dass eine Kette von zehn supraleitenden CH-Resonatoren mit Zwischentankfokussierung (Ausnahme das Modul 1) für diese Anwendung bestens geeignet ist. Des weiteren ergab sich, dass ein Frequenzsprung auf 700 MHz nach dem 6-ten CH-Modul bei einer Energie von ~ 56 MeV die Beschleunigungs- und HF-Effizienz erhöht. Außerdem wird dadurch der Strahl ideal an den Hochenergieabschnitt angepasst. Im Rahmen dieser Arbeit wurden neue Driftröhrenlinearbeschleunigerstrukturen vorgestellt (normal leitender IH-DTL, supraleitender CH-DTL), die für bis zu 10 MW Strahlleistung, 125 mA Strahlstrom und höchsten Tastverhältnissen geeignet sind. Ferner konnte durch geschickte Wahl der Strukturparameter und Arbeitspunkte eine gute Teilchendynamik mit einem moderaten Emittanzwachstum erzielt werden: Strahltransport und -beschleunigung ohne Teilchenverluste, starke transversale und longitudinale Fokussierung, große Aperturfaktoren und höchste HF-Effizienz sind gleichzeitig erreichbar. Somit stellen die neuen H-Moden Driftföhrenbeschleuniger vor allen Dingen in der supraleitenden Ausführung (CH-DTL) eine tragfähige Basis für alle weiteren geplanten Hochintensitätsbeschleunigeranlagen dar.
Die Dissertation betrachtet zunächst die Anatomie der Lautentstehung und die Historie von Untersuchungen zu Sprechtraktakustik (u.a. Ibn Sina, Hook, Mical, Kratzenstein, Kempelen, Faber, Wheatstone, Helmholz, Riesz, Dunn, Chiba, Kajiyama, Kelly, Lochbaum, Saito, Itakura, Burg ) und geht insbesondere auf das Rohrmodell zu Beschreibung der Vokaltraktakustik ein.
Mittels Finiter-Differenzen wird die Aksutik der Sprechens dann dreidimensional beschrieben, und die zuätzlich auftretenden Effekte betrachtet. Fur die sich beim Sprechen schnell bewegende Mundhöhle wird ein Verfahren entwickelt und untersucht, mittels Sprachsignalen durch inverse Filterung und MRT-Aufnahmen die räumliche Konfiguration zu bestimmen. Für den Nasaltrakt wurden dreidimensional abbildende Verfahren aus der medizinischen Diagnostik verglichen (MRT und CT), und anhand eines Computer-Tomographischen Datensatzes die akustischen Vorgänge dreidimensional bestimmt.
Im Rahmen dieser Arbeit sind Experimente zur Bestimmung der 1s Lamb-Verschiebung in wasserstoffartigen Schwerionen und zur Bestimmung des Innerschalenübergangs 2 3P2 --> 2 3S1 in heliumartigen Schwerionen durchgeführt worden. Diese Untersuchungen sind interessant, da es sich hierbei um die Überprüfung der Quantenelektrodynamik im Bereich sehr starker Coulombfelder handelt. Neben den reinen QED-Effekten spielen in diesen schweren Systemen auch relativistische Effekte eine immer bedeutendere Rolle. Es ist erstmals gelungen, eine direkte Messung des Innerschalenübergangs 2 3P2 --> 2 3S1 in einem schweren Z-System durchzuführen. Während in bisherigen Experimenten lediglich leichtere Ionen bis zu einer Kernladungszahl Z = 54 untersucht wurden, sind wir mit unserem Experiment an U90+-Ionen in den Bereich schwerer Systeme vorgedrungen. Zur Energiebestimmung sind am Gastarget des Experimentier-speicherrings (ESR) ein Kristallspektrometer unter einem Beobachtungswinkel von 90° und ein einfacher planarer Germaniumdetektor unter einem Winkel von 35° aufgebaut worden. Das Kristallspektrometer ermöglicht eine hohe Energieauflösung, während der Germaniumdetektor einen breiten Energiebereich abdeckt und somit eine eindeutige Identifizierung der Übergänge ermöglicht. Ein Fit des aufgenommenen Energiespektrums mit einer Simulation zeigt, wie gut die theoretischen Vorhersagen die Übergangsdynamik in diesem Zwei-Elektronen-System beschreiben. Der Innerschalenübergang kann eindeutig von benachbarten Übergängen unterschieden werden. Mit dem Kristallspektro-meter ergibt sich eine Übergangsenergie von 4510,31 ± 0,51 eV, mit dem Germanium-detektor 4509,6 ± 1,5 eV. Beide stimmen gut mit den theoretischen Vorhersagen überein. Durch den geringen Fehler von 0,51 eV stellt diese Messung auch im Vergleich mit den vorhergehenden Experimenten in leichten Systemen eine der genauesten Messungen des Innerschalenübergangs in He-artigen Ionen dar. Zusätzlich dazu kann die Differenz der Innerschalenübergangsenergie von Li-artigem und He-artigem Uran ermittelt werden: 50,94 ± 0,45 eV. Mit dieser Genauigkeit ist unser Experiment empfindlich auf die Zwei-Elektronen-QED und ermöglicht erstmal eine experimentelle Überprüfung dieses Beitrags, der von Kozhedub et al. mit 1,18 eV angegeben wird. Zur Untersuchung der 1s Lamb-Verschiebung von wasserstoffartigen Schwerionen sind bereits eine Vielzahl an Experimenten durchgeführt worden, mit einer maximalen Genauigkeit von 4,6 eV. Die theoretische Auswertung von Korrekturtermen höherer Ordnung erfordert jedoch neue experimentelle Methoden, mit denen sich Genauigkeiten auf dem Niveau von 1 eV und besser erzielen lassen. Dazu hat es ein Nachfolge-experiment zur bisher genauesten Messung der 1s Lamb-Verschiebung in U91+ und des Zwei-Elektronen-Beitrags zum Grundzustand in U90+ am Elektronenkühler gegeben. Hierzu ist das Experiment bei einer niedrigeren Strahlenergie durchgeführt worden. Dabei hat sich allerdings gezeigt, Ionenstrahlen mit einer Energie unterhalb von 20MeV/u besitzen zu kurze Lebensdauern, da bei den niedrigeren Energien die Rekombinationsverluste mit dem Restgas sehr hoch werden und der Ionenstrahl aus technischen Gründen noch einmal umgebuncht werden muss, wobei zusätzlich Zeit und Intensität verloren gehen. Als weiterer Schritt auf dem Weg zu höherer Präzision ist eine Kombination aus einem hochauflösenden Kristallspektrometer (FOCAL) und einem neuartigen orts- und energieauflösenden 2dimensionalen Germaniumdetektor getestet worden. Mit diesem Detektor ist es möglich, mehrere Reflexe gleichzeitig zu messen und somit die Effizienz des Experimentes deutlich zu steigern. Allerdings ist die maximale Energieauflösung bisher über die 250 µm Streifenbreite des Detektors definiert, das entspricht etwas weniger als 200 eV. Tests mit Kalibrationsquellen und das Verfahren des Detektors entlang der Dispersionsachse haben jedoch gezeigt, dass eine Auflösung kleiner als ein Streifen erreichbar ist. Dadurch soll eine Genauigkeit von 1 eV erreicht werden. Die Bewegung der Detektoren, die bei der letzten Strahlzeit einen erheblichen systematischen Fehler verursacht hat, kann mit neuen Detektorplattformen und kontinuierlicher Stickstofffüllung deutlich reduziert werden. Bei den alternativen Methoden Mikrokalorimeter und Absorptionskantenspektroskopie scheinen Mikrokalorimeter eine vielversprechend Entwicklung zu sein, da sie sowohl eine hohe Energieauflösung bieten als auch einen breiten Energiebereich abdecken. Dagegen beinhaltet die Absorptionskantenspektroskopie im Vergleich zu den anderen Methoden zu große systematische Fehler. Aus den Ergebnissen des Experimentes zum Innerschalenübergang und des FOCAL-Commissioning-Experimentes zeigt sich, wie erfolgsversprechend der Einsatz von Kristallspektrometern auf dem Weg zu neuen hochpräzisen Experimenten ist.
Die vorliegende Arbeit hat das Ziel, Plasmen koaxialer Beschleuniger in Hinblick auf die Erzeugung hoher Elektronendichten sowie als intensive UV/VUV-Backlighterquelle zu untersuchen. Hierzu wurde zunächst die Geometrie eines einzelnen Beschleunigers charakterisiert und optimiert, um die bestmöglichen Voraussetzungen für die anschließend durchgeführten Untersuchungen zur Kollision und Kompression der erzeugten Plasmen zu schaffen.
Das Funktionsprinzip des verwendeten Plasmabeschleunigers basiert auf einer Lorentzkraft, die aus dem Stromfluss zwischen zwei koaxial angeordneten Elektroden und dem damit verbundenen Magnetfeld resultiert. Da weder Stromdichte noch Magnetfeld homogen sind, wirkt auch die Lorentzkraft inhomogen auf die Plasmaschicht. Unter Einbeziehung von Simulationen wurde der Abstand zwischen den Elektroden auf 2,5 mm gesetzt, sodass die Ausprägung dieser Inhomogenität möglichst gering gehalten wird. Um ein Pinchen des Plasmas am Ende der Elektroden zu vermeiden haben die Elektroden im Gegensatz zu Plasma Focus Devices die gleiche Länge. Der mit 130 nH niederinduktive elektrische Aufbau ermöglicht die zur Ausbildung einer Plasmaschicht erforderlichen Stromanstiegsraten in der Größenordnung von 10^11 A/s.
Die Messung der Geschwindigkeit der Plasmaschicht erfolgte mit einem Array aus sechs Dioden, die gleichzeitig die Geschwindigkeitsabnahme im Rezipienten dokumentieren. Zusätzlich wurden die Messungen mit Kameraaufnahmen verglichen. Bei einer Elektrodenlänge von 100 mm konnten mit dem verwendeten Heliumgas Schichtgeschwindigkeiten von bis zu (79,49 ± 7,98) km/s erreicht werden. Die Untersuchung von Elektroden mit 200 mm Länge verfolgte das Ziel, durch die größere Beschleunigungszeit höhere Geschwindigkeiten und kinetische Energien der austretenden Plasmaschicht zu erreichen. Es zeigte sich jedoch, dass es hierbei zur Ausbildung einer zweiten Entladung und einer damit verbundenen Abbremsung des Initialplasmas kommt. Die Untersuchungen ergaben, dass die optimale Elektrodenlänge dadurch gegeben ist, dass der Austritt des Plasmas aus dem Beschleuniger zum Zeitpunkt des ersten Stromnulldurchgangs erfolgt. Für die Berechnung der optimalen Elektrodenlänge wurde ein Skalierungsgesetz gefunden, die auf experimentellen Ergebnissen und Simulationen basiert.
Mit spektroskopische Messungen der Stark-Verbreiterung der Hβ-Linie konnte die Elektronendichte des Plasmas zeit- und ortsintegriert bestimmt werden. Die hierbei erzielte Maximaldichte von (6,83 ± 0,83) · 10^15 cm^-3 wurde bei 9 kV und 70 mbar gemessen. Die nach der Boltzmann-Methode zeit- und ortsintegriert bestimmten Elektronentemperaturen bewegt sich bei etwa 1 eV.
Nach ausreichender Charakterisierung des Einzelbeschleunigers wurde das Experiment um einen zweiten, baugleichen Plasmabeschleuniger erweitert, um die planare Kollision zweier Plasmen zu untersuchen. Die maximal gemessene Elektronendichte von n max e = (1,36 ± 0,21) · 10^16 cm^-3 bei 9 kV und 70 mbar stellt im Vergleich zum Einzelplasma eine Steigerung um einen Faktor von 2,48 dar und ist mit einer Temperaturerhöhung einhergehend. Diese Elektronendichteerhöhung lässt sich nicht durch einfaches Durchdringen der Schichten erklären. Vielmehr muss es in der Kollisionszone zu Wechselwirkungsprozesse in Form von Kompression, zur Erzeugung neuer Ladungsträger oder der Kombination aus beidem kommen.
Das Spektrum im UV/VUV-Bereich weist Linien von ab 85 nm auf. Dies stellt eine Verbesserung gegenüber dem Einzelbeschleuniger dar, bei dem die hochenergetischste Spektrallinie erst bei 97 nm gemessen wurde. In der Kollisionskonfiguration mit einem Beschleunigerabstand von 30 mm steigt die integrierte Gesamtintensität des Spektrums bis 300 nm zudem um einen Faktor von etwa 5,2.
Als Alternative zur Plasmakollision wurde die Kompression des Plasmas des Einzelbeschleunigers durch unterschiedliche Trichtergeometrien untersucht. Die untersuchten Trichter der ersten und zweiten Generation unterscheiden sich im Wesentlichen im Durchmesser der kleineren Öffnung. Dieser wurde basierend auf Simulationen von 5 mm auf 0,5 mm reduziert. Die Dichtediagnostik der ersten Trichtergeneration erfolgte hierbei über Hα-Linie, da die Verbreiterung der Hβ-Linie zu stark und daher nicht mehr anwendbar war. Die Auswertung der Halbwertsbreiten der Hα-Linie führt zu Elektronendichten in der Größenordnung von bis zu 1018 cm−3 bei Spannungen von 9 kV. Diese Steigerung um 1,5 bis 2,5 Größenordnungen im Vergleich zum Einzelbeschleuniger ist deutlich höher als das Verhältnis der Flächen des initialen Plasmas bzw. dem Ende des Trichters von etwa acht.
Der Trichter mit verringerter Öffnung wurde bei 5 kV und 5 mbar vermessen, um die mechanische Belastung durch den hohen Druck gering zu halten. Die Bestimmung der Elektronendichte erfolgte durch die Verbreiterung der Kupferlinie bei 479,4 nm nach den quadratischen Stark-Effekt. Trotz der im Vergleich zur ersten Trichtergeneration reduzierten Entladungsenergie und verringertem Druck sind die gemessenen Elektronendichten ebenfalls bei bis zu 10^18 cm^-3.
Durch die Kompression des Plasmas weist das Spektrum im UV/VUV-Bereich bereits Linien ab Wellenlängen etwa 53 nm auf, wobei es unter Berücksichtigung der Transmissionsgrenze von Helium bei 50 nm denkbar ist, dass das Plasma noch niedrigere Wellenlängen emittiert.
Aufgrund der gesammelten Ergebnisse lässt sich festhalten, dass sich die Elektronendichte sowohl durch die Kollision zweier Plasmen als auch durch die Kompression in Trichtergeometrien steigern lässt. Der Verdichtungseffekt der Trichterkompression ist hierbei um ein vielfaches höher, als bei der Plasmakollision. Dies spiegelt sich auch im UV/VUV-Spektrum wider. Beide Versuchsanordnungen eignen sich als Linienstrahler, allerdings weist das Spektrum der Trichterkompression Linien deutlich höherer Anregungszustände auf.
Die im Rahmen dieser Arbeit gewonnen Meßergebnisse zeigen, daß bei geringem Restgasdruck der Einsatz einer GPL zur Fokussierung eines hochperveanten Ionenstrahles niedriger Strahlenergie Vorteile gegenüber konventionellen Linsensystemen bietet. Neben einer kostengünstigen Realisation ist wesentlich die bei unterschiedlichen Linsenparametern hohe Linearität der Linsenfelder (und die damit verbunden geringen Aberrationen) bei gleichzeitig starker Fokussierung zu nennen. Auch die geringe Baulänge, vor allem im Vergleich zu den wegen der FODO-Struktur bei Quadrupolen i. a. notwendigen Tripletts, kann gerade bei de- bzw. teilkompensiertem Transport einen Vorteil darstellen. Die im zweiten Kapitel vorgestellten Arbeiten zur theoretischen Beschreibung des nichtneutralen Plasmas der GPL haben gezeigt, daß bei Berücksichtigung der Verlustmechanismen (longitudinal und radial) die Beschreibung der Elektronenverteilung in der Linse die Meßergebnisse wesentlich besser widerspiegelt als in der klassischen Theorie Gabors, die nur einen idealisierten Zustand maximaler Elektronendichte beschreibt. Die Integration der Verluste in die Simulation ist für den longitudinalen Verlustkanal gelungen. Die radialen Verluste entziehen sich bisher aufgrund der Komplexität der Vorgänge bei der Diffusion einer hinreichend genauen Beschreibung. Dies liegt vor allem an einer sehr schwierigen Abschätzung der hierbei dominierenden Heiz- bzw. Kühlprozesse im Linsenplasma. ...
Untersuchungen zum technischen und teilchenoptischen Design kompakter Speicherringe für Ionen
(2002)
Die vorliegende Arbeit befasst sich mit der Berechnung und dem Bau von elektrostatischen Speicherringen. Eine solche Maschine kann als eine Kreuzung zwischen elektrostatischen Fallen und "klassischen" magnetischen Ringen angesehen werden. Kompakte Bauform, gute Zugänglichkeit der Elemente und vergleichsweise niedrigen Kosten werden mit hoher Flexibilität in Bezug auf mögliche Experimente kombiniert. Im 1. Kapitel werden zunächst die Unterschiede der Bewegung von Ionen in elektrostatischen und magnetischen Speicherringen untersucht. Die Massenunabhängigkeit der Teilchenbewegung bei gegebener Energie und Ladung in rein elektrostatischen Feldern erlaubt es, unterschiedlichste Ionen im Prinzip in direkter Folge in einen elektrostatischen Ring einzuschießen, ohne dass die Felder der optischen Elemente verändern werden müssen. Die Felder in den für einen Speicherring notwendigen Strahlführungskomponenten werden berechnet, die zugehörigen Bewegungsgleichungen aufgestellt und in linearer Näherung gelöst. Dabei werden zunächst die Bahnen einzelner Teilchen untersucht und dann das Strahlverhalten insgesamt durch Übergang auf einen Matrizenformalismus beschrieben. Die aus dieser Darstellung resultierenden Trajektorien stellen eine starke Vereinfachung dar. Die Untersuchung der realen Teilchenbewegung mit Einfluss von Randfeldern, Positionierungsfehlern und die Berechnung der dreidimensionalen Feldverteilung ist Gegenstand des 2. Kapitels. Ein kritischer Punkt bei der Bewegung von Teilchen in Ringbeschleunigern sind durch Feldfehler induzierten Resonanzerscheinungen. Zur Diskussion der verschiedenen möglichen Resonanzen werden im 3. Kapitel die Effekte durch zusätzliche Dipol- und Quadrupolfelder analysiert, dargestellt und schließlich anhand eines Resonanzdiagramms erläutert. In den geplanten Speicherring werden Ionen in einem einzigen Bunch, mit einer Ausdehnung von rund dem halben Ringumfang, injiziert. Ihre Lebensdauer hängt wesentlich von dem erzielbaren Vakuumenddruck ab. Die vorgesehenen Getterpumpen weisen eine sehr hohe Pumpleistung für die meisten Gase auf. Ihre Wirkungsweise wird im 4. Kapitel beschrieben und praktische Aspekte ihrer Handhabung diskutiert. Für den Betrieb eines Speicherrings ist es notwendig, die Parameter des umlaufenden Strahls zu jeder Zeit zu kennen und gegebenenfalls modifizieren zu können. Zentrales Element des Kontroll- und Diagnosesystems sind Strahlpositionsmonitore. In elektrostatischen Pickup-Elektroden induziert der Strahl beim Durchgang Spannungen über die eine Positionsbestimmung möglich ist. Die Wirkungsweise dieser Sonden wird in der zweiten Hälfte des 4. Kapitels diskutiert und Methoden zur Signalaufbereitung und -analyse beschrieben. Die allgemeinen Ergebnisse der Überlegungen zu elektrostatischen Speicherringen aus den ersten Kapiteln werden schließlich auf spezielle Fälle übertragen. Im Rahmen dieser Arbeit wurden verschiedene Entwürfe für einen elektrostatischen Speicherring angefertigt und ein Viertelringsegment zu Testzwecken entworfen und aufgebaut. Die Ergebnisse sind Inhalt des abschließenden 5. Kapitels. Mit den in dieser Arbeit vorgestellten Methoden ist es möglich, elektrostatische Speicherringe detailliert zu berechnen und an die experimentellen Rahmenbedingungen anzupassen. Sämtliche Rechnungen wurden im Hinblick auf den geplanten Bau eines Rings für Teilchen mit Energien bis 50 keV durchgeführt.
Das Ziel der vorliegenden Arbeit war der Einbau, die Inbetriebnahme, die Abstimmung und der Test eines Strahlmatchingsystems in eine Zweistrahl-RFQ-Beschleunigerstruktur. Dieses Strahlmatchingsystem wurde entwickelt, um die Beschleunigereinheit des Frankfurter Funneling-Experimentes besser an die nachfolgende HF-Deflektoreinheit anzupassen und um zu zeigen, dass ein Strahlmatching innerhalb der RFQ-Beschleunigerstruktur möglich ist. Des Weiteren wurden die zum Versuch gehörigen Ionenquellen modifiziert, um eine bessere Anpassung der Strahlherstellung an die Beschleunigerstruktur zu erreichen. Die Spannungsverteilung in der Beschleunigerstruktur selbst wurde durch weitergehende Tuningmaßnahmen verbessert, um die Teilchenverluste weiter zu minimieren Mit dem Funnelingexperiment soll experimentell geprüft werden, ob eine Strahlstromerhöhung durch das Zusammenführen mehrerer Ionenstrahlen verschiedener Ionenquellen möglich ist. Solch ein System ist für einige Zukunftsprojekte (HIDIF, SNS-Ausbau, ESS, u.ä.), die große Strahlströme benötigen, die nicht aus nur einer Ionenquelle extrahiert werden können, erforderlich. Das in dieser Arbeit behandelte Strahlmatching ist für das Experiment notwendig, da zu große Teilchenverluste in der Funnelsektion entstanden und somit eine bessere Anpassung des Strahls an den HF-Deflektor erforderlich wurde. Es konnte gezeigt werden, dass die hier verwendete Art der Strahlfokussierung auch in eine komplizierte RFQ-Beschleunigerstruktur integrierbar ist, in der zwei Strahlkanäle auf der gleichen Stützen-Bodenplatten-Konstruktion aufgebaut sind. Die Verlängerung der Endelektroden und die Integration einer Strahlanpassung haben einen positiven Einfluss auf die Transsmission innerhalb des Beschleunigers und verbessern die Transmission durch den Deflektor. Es konnten Energiemessungen und zeitaufgelöste Faradaytassenmessungen der Teilchenbunche sowie zeitaufgelöst Makropulse mit der Faradaytasse gemessen werden. Floureszensschirmmessungen zeigten, dass die beiden Teilchenstrahlen auf eine neue gemeinsame Strahlachse gebogen wurden. Die Energiemessung zeigte, dass die Simulationen mit RFQSIM sehr genau die Endenergie der Teilchen berechnen konnte. Im Strahlkreuzungspunkt hinter dem Zweistrahl-RFQ-Beschleuniger konnten nahezu identische Teilchenbunche erzeugt werden. Diese Teilchenbunche wiesen zudem die in vorherigen Simulationen errechneten Charakteristika auf, in denen eine transversale und eine longitudinale Fokussierung gegenüber dem ungematchten Strahl simuliert wurden. Es konnte auch eine weitere Strahlradiusreduzierung gemessen werden, die auf eine exaktere Justierung der Elektroden zurückzuführen ist. Die Phasenfokussierung konnte verbessert werden, indem die Elektrodenspannung besser an die Strahlmatchingsektion angepasst wurde. Hierzu mussten auch die Einschussparameter der Strahlen in die Beschleuniger angepasst werden, damit die Transmission der Beschleuniger sich nicht verschlechterte. Insgesamt konnte mit den durchgeführten Experimenten erstmals demonstriert werden, dass zwei Strahlen in einem RFQ-Beschleuniger auf einen Punkt hinter dem Beschleuniger angepasst werden können und die Spannungsverteilung in solch einer Struktur durch Tuningmaßnahmen abstimmbar ist. Es konnte erstmals demonstriert werden das über 90% der Teilchen beider Strahlen, bei guten Strahleigenschaften, auf eine neue gemeinsame Strahlachse abgelenkt (gefunnelt) wurden.
Die Dokumente enthalten jeweils die gleiche Arbeit, allerdings in drei unterschiedlichen Varianten, die sich in der Qualität der Bilder und damit in der Filegröße unterscheiden: * Bilder in voller Druckqualität (8,2 MB): DissWFOM1.pdf (Dokument1) * Photos in reduzierter Auflösung (3,1 MB): DissWFOM2.pdf (Dokument2) * Photos und Zeichnungen in red. Auflösung (1,4 MB): DissWFOM3.pdf (Dokument3)
Untersuchungen zu mikrowellenfokussierenden Beschleunigerstrukturen für zukünftige lineare Collider
(1993)
Zur Erforschung immer kleinerer Strukturen der Materie benötigt die Elementarteilchenphysik Teilchenstrahlen höchster Energie. Gegenwärtig sind das Higgs-Boson und das Top-Quarks‘ die Objekte des größten physikalischen Interesses. Das sog. “Top” ist das sechste und bisher noch nicht nachgewiesene Mitglied der Quark-Familie. Seine Masse wird unterhalb von etwa 180GeV vermutet. Das Higgs-Boson spielt im sog. Standardmodell der Elementarteilchen eine wichtige Rolle. Seine Masse wird ebenfalls im Bereich zwischen 100 und 200GeV vermutet. Es gibt eine gute Chance, das Top am Protonen- Antiprotonen-Beschleuniger TEVATRON des Fermilab in Chicago nachzuweisen. Seine physikalischen Eigenschaften lassen sich aber erst an zukünfligen Beschleunigem mit höherer Energie bestimmen. Gegenwärtig werden daher mehrere verschiedene Beschleunigerkonzepte erwogen oder sind bereits in Planung bzw. im Bau. Das Spektrum reicht dabei von Protonen-Antiprotonen- bis zu Elektronen-Positronen-Maschinen. Ein vielversprechender Ansatz zur Erzeugung der benötigten Teilchenenergien ist der lineare Elektronen-Positronen-Collider, im folgenden immer als linearer Collider bezeichnet. Das Verhältnis von Meßsignal zu Hintergrund ist bei e+-e-Kollisionen besser als bei Protonen-Kollisionen. Es entstehen keine Partonen, wodurch die zur Verfugung stehende Energie effektiver genutzt werden kann [ 11. Weiterhin ist der lineare Collider im Vergleich zu einer zirkularen Maschine gleicher Endenergie und Luminosität auf lange Sicht kostengünstiger, da keine zusätzliche Hf-Leistung zur Kompensation von Synchrotronstrahlungsverlusten nötig ist. Die für die Experimente erforderliche hohe Luminosität bedingt Teilchenstrahlen von niedrigster Emittanz und geringster Energieverschmierung sowohl innerhalb eines einzelnen Teilchenpaketes als auch zwischen den Bunchen selbst [2]. Zur Erhaltung der Strahlqualität über die volle Lange des Beschleunigers ist es deshalb notwendig, ein akkurates Strahlführungssystem zu entwickeln, das es gestattet, auftretenden Strahlinstabilitäten wirksam zu begegnen. Grund der Instabilitäten sind elektromagnetische Felder, sogenannte Wake- oder Kielwellenfelder, die die Teilchen bei der Durchquerung des Beschleunigers selbst anfachen. Die Teilchenpakete werden dadurch radial von der Achse abgelenkt, sie werden verformt und erfahren eine Impulsverschmierung. Transversale Einzelbunch-Instabilitäten (SBBU, Single Bunch Beam Breakup) kann man durch die Einführung einer Energieverschmierung innerhalb eines Teilchenpakets bekämpfen; in Verbindung mit einer äußeren Strahlführung erreicht man eine Bedämpfung der Instabilität [3]. Als Alternative oder Ergänzung zu äußeren Fokussierungsmaßnahmen erscheint es deshalb interessant, inwieweit man durch geeignete Modifikationen an den Beschleunigerstrukturen die Hochfrequenzfelder selbst zur Erzeugung der benötigten Fokussierung heranziehen kann. Da es sehr schwierig ist, die für das Experiment geforderte Luminosität mit einem einzelnen Bunch zu erzeugen, muß man mehrere Teilchenpakete in kurzem Abstand durch den Beschleuniger schicken. Jetzt erfährt aber jeder Bunch die aufsummierten Wakefelder der ihm vorausfliegenden Teilchenpakete. Um zu verhindern, daß die transversale Strahlablage inakzeptabel groß wird, müssen Maßnahmen zur Kontrolle dieser Vielteilchen-Instabilitäten (MBBU, Multibunch Beam Breakup) getroffen werden. Das bedeutet, die Güten dieser als Long-Range-Wakes bezeichneten Störmoden müssen, je nach Collider, durch konstruktive Maßnahmen auf Werte in der Größenordnung von zehn abgesenkt werden. Die vorliegende Arbeit befaßt sich mit theoretischen Anwendungsmöglichkeiten von hochfrequenzfokussierenden Beschleunigerstrukturen in linearen Collidem bei Einzel- und Multibunch-Betrieb. In Kap. 2 wird eine kurze Einführung in die Problematik von Höchstenergiebeschleunigem gegeben. Anschließend werden in Kap. 3 Irisstrukturen und ihre Kenngrößen behandelt. Kap. 4 gibt eine Einführung in das Wakefeld-Konzept. Es wird untersucht, welche Resonatormoden für den Strahl gefährlich sind; die Wakepotentiale werden mit Resonatorkenngrößen in Verbindung gebracht. In Kap. 5 schließt sich eine Betrachtung zum SBBU an. Es wird untersucht, inwieweit Irisstrukturen und Rechteckblendenstrukturen (MWQ-Strukturen) zur direkten Hochfrequenzfokussierung eingesetzt werden können. Die Eigenschaften einer MWQ-Struktur werden vermessen und mit theoretischen Vorhersagen verglichen. Beispiele fiir hypothetische Collider in verschiedenen Frequenzbereichen werden diskutiert. Im anschließenden Kap. 6 wird der Mechanismus des MBBU erläutert und Möglichkeiten zur Bedämpfung insbesondere von MWQ-Strukturen im Multibunch-Betrieb untersucht. Meßergebnisse an Modellstrukturen werden vorgestellt und am Beispiel von einem S- und X-Band- Collider diskutiert.
Im Rahmen dieser Arbeit wurden neue Ansätze zur Optimierung eines Alvarez Beschleunigers für Schwerionen untersucht. Dabei dient die Alvarez-Sektion des GSI UNILAC als Untersuchungsfeld, da für den Injektionsbetrieb für FAIR eine Erneuerung dieser Sektion erforderlich ist. Dies wird durch einen neuen und optimierten Alvarez-Beschleuniger gewährleistet, wobei Effizienz und Feldstabilität sowie hohe Verfügbarkeit eine wichtige Rolle spielen. Dazu wurden im Rahmen dieser Arbeit wichtige Simulationsrechnungen durchgeführt, ein Messaufbau zum experimentellen Test eines neuartigen Konzepts zur Feld-Stabilisierung ausgelegt, in Betrieb genommen und anhand von Messungen an einem speziell dafür entwickelten Resonatormodell verifiziert.
Ziel dieser Arbeit war es die experimentelle Demonstration des neuen Konzepts zur Feldstabilisierung eines Resonators. Es sollte geprüft werden, ob die zuvor durchgeführten Simulationen die realen Felder hinreichend zuverlässig vorhersagen. Diese experimentelle Prüfung ist angesichts der sehr hohen Baukosten eines realen Resonators von mehreren Millionen Euro unerlässlich. Vor Beginn dieser Arbeit war ein geeigneter Messaufbau, d.h. im Wesentlichen ein dediziertes Resonator-Modell, nicht verfügbar. Es galt ein Modell zu entwickeln, dessen Geometrie seht gut durch Simulationen modelliert werden kann, dessen Aufbau es aber trotzdem gestattet, eben diese Geometrie lokal zu variieren, um den angestrebten Effekt der Feld-Stabilisierung zu erreichen.
Aufgrund von Fertigungs- sowie Justage-Toleranzen gibt es Störungen der Feldhomogenität auf der Strahl- bzw. Resonatorachse. Die Feldhomogenität quantifiziert die Fluktuationen der tatsächlichen Feldstärke bezüglich des Idealwertes. Ein perfekt homogenes Feld weist keine Abweichungen auf. Bei einer lokalen Störung ist die Feldveränderung am Ort der Störung maximal und verringert sich mit dem Abstand von dieser. Es entsteht eine Verkippung des Feldes. Die Feldverkippung ist definiert als die durch die Störung verursachte Feldabweichung normiert auf die ungestörte Feldverteilung sowie auf die damit verbundene Änderung der Modenfrequenz. Letztere wird mit Tauchkolben kompensiert; die Feldhomogenität allerdings kann nicht wieder hergestellt werden. Die Feldhomogenität muss durch eine andere Maßnahme sichergestellt werden. Bei Alvarez-Kavitäten mit einem Tankradius R < 0,4m werden „post-coupler“ eingesetzt. Post-coupler sind dünne zylinderförmige Kupferstangen die seitlich an die Driftröhren herangefahren werden und an die Resonanzmode des Beschleunigers koppeln. Gleichzeitig wird die Sensibilität auf Störungen im Tank verringert, sodass die homogene Feldverteilung auch bei Störungen gut erhalten bleibt. Bei Beschleunigerstrukturen mit größeren Tankradien werden die post-coupler zu lang und erfordern einen zu großen Aufwand in der Konstruktion. In dieser Arbeit wurde eine alternative Methode für die Stabilisierung der Feldverteilung untersucht, welche die Winkelposition der Driftröhrenstützen nutzt.
Der in dieser Arbeit realisierte Resonator erlaubt die freie Einstellung der Winkel der Stützen sowie die exakte Justage der Driftröhren auf der Strahlachse. Es wurde ein Aluminium-Modell im Maßstab 1:3 zum realen Alvarez-Resonator gebaut. Dieser hatte zunächst eine Länge von ∼ 525mm und neun Driftröhren. Das Modell ist mit einem Profil der Geschwindigkeit der zu beschleunigenden Ionen ausgestattet, sodass die Driftröhren sowie die Spaltabstände entlang des Resonators länger werden. Mittels Simulationen wurden diverse Stützenkonfigurationen ausgewählt, die in den Messungen getestet wurden.
Mit dem Modell konnte gezeigt werden, dass bei bestimmten Stützenanordnungen die nächst höheren Moden weiter von der Betriebsmode entfernt werden können. Die besten Ergebnisse lieferte die Stützenkonfiguration mit fünf nach unten und vier nach oben orientierten Stützenpaaren (V-Stützen-Konfiguration 5+4). Hier liegt die nächst höhere Mode in den Messungen um mehr als 160MHz von der Grundfrequenz (326,7MHz) entfernt (Vergleich originale V-Stützen-Konfiguration: nächste Mode liegt 88MHz von der Grundmode entfernt). Wichtig ist die Eigenschaft der Modenseparation vor allem für den realen Einsatz der Kavität, da hier die Moden nur um wenige MHz voneinander entfernt liegen und dies zu Störungen im Betrieb des Resonators bei hoher HF-Leistung führen kann. Bei ungenügender Modenseparation wird die eingekoppelte HF-Leistung vom Resonator reflektiert. Mitunter können die erforderlichen Felder der Betriebsmode nicht erzeugt werden.
Im Falle einer Feldverkippung stimmt die reale Ionengeschwindigkeit entlang des Tanks nicht mehr mit der bei der Auslegung angenommenen überein. Das führt zu einer Verringerung der longitudinalen Strahlqualität bezüglich der erreichbaren Energieschärfe.
Zur systematischen Prüfung der Methode zur Feldstabilisierung wurden definierte Störungen in den Tank eingebaut. Die erste Driftröhre wurde jeweils um 1, 2 und 3mm verlängert. Da die Zahl der Zellen zu gering war für die statistisch signifikante Feldverkippungs-Messung, musste das Modell auf 21 Spalte erweitert werden. Die besten Ergebnisse bzgl. Feld-Stabilisierung lieferte die V-Stützen-Konfiguration 7+7+6. Hier bleibt das Feld trotz Störstelle homogen. Die Feldverkippung kann auf weniger als die Hälfte derjenigen der originalen V-Stützen-Konfiguration reduziert werden. Für den Fall der originalen Stützenkonfiguration erzeugt die oben beschriebene Störung eine Abweichung der Feldhomogenität von ±28%. Mit der in dieser Arbeit optimierten Stützenkonfiguration verändert sich die Feldhomogenität nur um ±9%.
Die Methode zur Feldstabilisierung mit einer optimierten Stützenanordnung ohne den Einsatz von post-couplern konnte am Modell gezeigt werden. Weiterhin wurde eine bessere Effizienz mit Zunahme der Tanklänge verifiziert. Im realen Alvarez-Tank wird die Anzahl der Spalte um einen Faktor 3 größer sein. Damit ergeben sich durch die erhöhte Anzahl zur Verfügung stehenden Stützen zusätzliche Konfigurationen, um eine Feldhomogenität von besser als ±1% zu gewährleisten.
Auf der Basis dieser Untersuchungen ist bei GSI der Bau einer zunächst ca. 2m langen Sektion des neuen Alvarez-DTL mit 11 Driftröhren vorgesehen. Dabei werden Flansche für verschiedene Stützenkonfigurationen integriert. Ziel ist es hierbei die Konstruktion, die Produktion, die Feldabstimmung sowie den Betrieb bei nominalen FAIR-Parametern zu testen. Sind die Tests erfolgreich, kommt diese Sektion bei der ersten Serie für den neuen Beschleuniger zum Einsatz.
Zur vollständigen Charakterisierung der Hochstrom-Protonenquelle im Rahmen des FRANZ-Projektes war es notwendig, die Emittanz dieser zu bestimmen. Die vorliegende Arbeit befasst sich mit der Entwicklung zweier unterschiedlicher Emittanz-Messsysteme, welche in der Lage sind, im kritischen Einsatzbereich hinter der Ionenquelle die Emittanz zu bestimmen.
Die grundsätzliche Problematik der Emittanzmessung an Hochstrom-Ionenquellen liegt in den besonderen Anforderungen, die an diese Messsysteme gestellt werden. Zum einen müssen diese extrem hohe Strahlleistungsdichten und Strahlströme verarbeiten können, ohne Schaden zu nehmen. Zum anderen, was die besondere Herausforderung darstellt, ist es notwendig, dass sie unempfindlich gegenüber Hochspannungsüberschläge sind, da es naturgemäß an einer Ionenquelle zu Hochspannungsüberschlägen kommen kann, welche die sensible und teure Messelektronik schädigen können.
Aus diesem Grund wurde eine Pepperpot-Emittanz-Messanlage weiterentwickelt, welche komplett ohne hochspannungsempfindliche Elektronik auskommt. Diese besteht aus einem effizient wassergekühlten Messkopf mit einer Lochblende aus einer Wolframlegierung. Die Lochgeometrie wurde an die zu vermessende Ionenquelle angepasst. Anstelle einer Multichannelplate und / oder eines Leuchtschirms kommt eine mit Öl vorbehandelte Aluminiumplatte als Schirm zum Einsatz. Aufgrund der Wechselwirkung der, durch die Lochblende hindurch driftenden, Teilstrahlen mit der Oberfläche des Schirms, bilden sich auf diesem, mit bloÿem Auge sichtbare, Kohlenstoffabdrücke aus. Aus der Lage im Ortsraum und der Intensitätsverteilung der einzelnen Abdrücke kann die Phasenraum-Verteilung berechnet werden. Der Nachweis, dass die Intensitätsverteilung der Kohlenstoffabdrücke proportional zur Strahlstromdichtenverteilung eines jeden Abdrucks ist, wurde im Rahmen der Grundlagenuntersuchungen erbracht. Parallel wurde eine zweite, konventionelle Schlitz-Gitter-Emittanz-Messanlage entwickelt und aufgebaut.
Für die Auswertung der Rohdaten wurde eine Analysesoftware entwickelt, welche kompatibel zu beiden Messsystemen ist. Mittels dieser kann aus den Rohdaten die Phasenraum-Verteilung, die Emittanzen (Lage und Fläche) berechnet und in verschiedenen Schnittebenen graphisch dargestellt werden. Ein Hauptaspekt lag in der notwendigen Untergrundreduktion. Insbesondere bei der Analyse der Pepperpot-Schirme tritt bei der Digitalisierung derselben eine nicht physikalische Veränderung der Intensitätsverteilung der Kohlenstoffabdrücke auf. Die erfolgreiche Separation der Abdrücke vom Hintergrund war von entscheidender Bedeutung.
Mit beiden Emittanzmesssystemen konnte im Rahmen dieser Arbeit die Emittanz der FRANZ-Hochstrom-Protonenquelle bestimmt und Abhängigkeiten diverser Strahlparameter untersucht werden. Dabei zeigen die Ergebnisse beider Messsysteme eine sehr gute Übereinstimmung, was die Leistungsfähigkeit des Pepperpot-Messsystems in diesem Einsatzbereich bestätigt.
Für die Erzeugung der, im Rahmen verschiedener Emittanzmessungen, benötigten Plasmadichten wurde die eingespeiste Bogenleistung um 265% von 2.85kW auf 7.56kW erhöht. Die geringe Varianz der gemessenen Emittanzen lässt den Schluss zu, dass sich die Ionentemperatur im Rahmen der Messgenauigkeit in dem untersuchten Bereich nicht merklich ändert. Dies ist insofern bemerkenswert, da dies bedeutet, dass sich die Ionentemperatur nicht signifikant verändert hat, obwohl die Leistung im Plasma stark erhöht wurde.
Im Laufe der Grundlagenuntersuchungen des Pepperpot-Systems wurde festgestellt, dass es unter bestimmten Voraussetzungen zur Bildung von zwei Kohlenstoffabdrücken pro Blendenloch kommen kann. Mit Hilfe von Strahlsimulationen mittels dem Code IGUN sowie vergleichenden Emittanzmessungen konnte nachgewiesen werden, dass bei der Extraktion im sogenannten angepassten Fall zwei Teilstrahlen extrahiert werden. Durch eine geringfügige Erhöhung der Perveanz können diese beiden Teilstrahlen in einen laminaren Ionenstrahl überführt werden.
Im Hinblick auf die Konditionierung der FRANZ-LEBT wurde erstmals im Institut der Transport eines Hochstrom-Ionenstrahls durch einen Solenoiden sowie die Auswirkungen dessen auf die Strahlemittanz untersucht. Aufgrund des projektierten Protonenstroms von Ip = 50mA wurden diese Untersuchungen mit einem vergleichbaren Protonenstrom und einer Strahlenergie von E = 55keV durchgeführt.
Darüber hinaus wurde die zeitliche Entwicklung der Emittanz innerhalb eines Strahlpulses (80Hz,1ms,Ip = 56mA,It = 70mA) hinter dem Solenoiden untersucht. Eine Analyse zeigt, dass die Strahlemittanz innerhalb der Messgenauigkeit entlang des Pulsplateus nahezu konstant bleibt. Jedoch ändert sich die Divergenz des Strahlkerns innerhalb des Zeitraumes des Pulsanstiegs, aufgrund der Raumladungskompensation sowie des ansteigenden Stroms.
Die minoren Aktinoiden dominieren auf lange Sicht die Radioaktivität des gesamten abgebrannten Brennstoffes und können somit, obwohl sie nur etwa 0,2 % davon ausmachen, als die Hauptverursacher der Endlagerproblematik betrachtet werden.
Neben einer möglichen Endlagerung und den damit verbundenen Problemen, bietet die Transmutation eine Alternative im Umgang mit dieser Art der radioaktiven Abfälle. Hierbei werden die minoren Aktinoide durch Neutroneneinfang zur Spaltung angeregt, wodurch sowohl deren Halbwertszeit, als auch deren Radiotoxizität deutlich reduziert werden soll.
Innerhalb des in der vorliegenden Arbeit vorgestellten MYRRHA-Projektes, das im belgischen Mol realisiert werden soll, soll gezeigt werden, dass die Transmutation in einem industriellen Maßstab möglich ist. Bei MYRRHA handelt es sich um ein sog. ADS (Accelerator Driven System), bei dem ein 4 mA Protonenstrahl mit 600 MeV in einem Target aus LBE (Lead-Bismuth Eutectic) per Spallation Neutronen erzeugen soll, die für die Transmutation in einem ansonsten unterkritischen Reaktor notwendig sind. Da eine solche Anlage enorme Ansprüche an die Zuverlässigkeit des Teilchenstrahls stellt, um den thermischen Stress innerhalb des Reaktors so gering wie möglich zu halten, werden auch hohe Ansprüche an die verwendeten Kavitäten innerhalb des Beschleunigers gestellt.
Besonderes Augenmerk muss hierbei auf den Injektor gelegt werden. In diesem wird der Protonenstrahl auf 16,6 MeV beschleunigt, wobei in seinem aktuellen Design nur noch normalleitende Kavitäten verwendet werden.
Als erstes beschleunigendes Bauteil nach der Ionenquelle fungiert hier ein im Rahmen der vorliegenden Arbeit gebauter 4-Rod-RFQ, dessen HF-Design auf dem bereits am IAP getesteten MAX-Prototypen basiert.
Für den MYRRHA-RFQ konnte eine neue Art der Dipolkompensation für 4-Rod-RFQs entwickelt werden, die bereits in anderen Beschleunigern, wie etwa dem neuen HLI-RFQ-Prototypen eingesetzt werden konnte. Hierbei werden die Stützen, auf denen die Elektroden befestigt werden alternierend verbreitert, um so den Strompfad zum niedrigeren Elektrodenpaar zu verlängern, wodurch sich die dortige Spannung erhöht. Im Zuge dieser Entwicklung wurden Simulations- und Messmethoden erarbeitet, um den Dipolanteil sowohl an bereits gebauten, wie auch an zukünftigen 4-Rod-RFQs untersuchen zu können. Der Erfolg dieser neuartigen Dipolkompensation konnte in den Low-Level-Messungen, die sich an den Zusammenbau des MYRRHA-RFQs anschlossen, validiert werden.
Die CH-Sektion, die im MYRRHA-Injektor auf den RFQ und die MEBT folgt, besteht aus insgesamt 16 normalleitenden Kavitäten. Sie gliedert sich in sieben beschleunigende CHs, auf die ein CH-Rebuncher und weitere acht beschleunigende CHs folgen.
Im Rahmen der vorliegenden Arbeit wurde - aufbauend auf bereits vorhandenen Entwürfen - das Design der ersten sieben CH-Strukturen des MYRRHA-Injektors erstellt und hinsichtlich seiner HF-Eigenschaften optimiert.
Die dabei während den Simulationen zu CH1 auftretende Problematik einer parasitären Tunermode konnte durch zahlreiche Simulationen umgangen werden.
Weiter wurde das aus der FRANZ-CH bekannte Kühlkonzept überarbeitet, um eine hohe thermische Stabilität gewährleisten zu können, wobei mehrere verschiedene Konzepte entwickelt, simuliert und bewertet wurden.
Das so entwickelte HF- und Kühldesign der ersten sieben MYRRHA-CHs dient als Vorlage für die weiteren MYRRHA-CHs sowie für zukünftige Beschleunigerprojekte, wie etwa HBS am Forschungszentrum Jülich.
Im Anschluss an die Designphase wurden die ersten beiden CH-Strukturen des Injektors und ein zusätzlicher dickschichtverkupferter Deckel für CH1 von den Fimen NTG und PINK gefertigt und anschließend Low-Level-Messungen unterzogen, in denen die Simulationsergebnisse bestätigt werden konnten, während diese Messungen zusätzlich als Vorbereitung für die Konditionierung dienten.
Sowohl der MYRRHA-RFQ, als auch die CH-Strukturen wurden nach ihren jeweiligen Low-Level-Messungen duch eine Konditionierung auf den späteren Strahlbetrieb vorbereitet.\\
Die Konditionierung des MYRRHA-RFQ erfolgte in zwei Phasen. Zunächst wurde er in der Experimentierhalle des IAP im cw-Betrieb vorkonditioniert, bevor er nach Louvain-la-Neuve transportiert wurde. In der dort fortgesetzten Konditionierung, die sowohl gepulst, als auch im cw-Betrieb erfolgte, konnten im Rahmen dieser Arbeit 120 kW cw stabil eingkoppelt werden, wobei diese transmittierte Leistung später noch vom SCK auf bis zu 145 kW cw gesteigert wurde. Nach Abschluss der Konditionierung konnten sowohl vom IAP, als auch vom SCK Röntgenspektren aufgenommen werden, um so die Shuntimpedanz bestimmen zu können. Die Ergebnisse dieser Messungen zusammen mit der alternativen Bestimmung der Shuntimpedanz über den R/Q-Wert wurden ebenfalls in dieser Arbeit besprochen.
Die CH-Kavitäten wurden im Bunker der Experimentierhalle des IAP konditioniert, wobei zusätzlich neue Konditionierungsmethoden erarbeitet und erprobt werden konnten. In den abschließenden Untersuchungen, die sich an jede der drei Konditionierungen anschlossen, konnten Erkenntnisse über das thermische Verhalten der CHs, sowie über den Einfluss verschiedener Verschaltungen des Kühlsystems darauf gewonnen werden, die bei der Installation auch zukünftiger CHs von Nutzen sein werden.
Ziel der vorliegenden Arbeit ist die Entwicklung, Aufbau und Inbetriebnahme eines Funnelsystems zur Zusammenführung zweier Teilchenstrahlen, bestehend aus zwei Injektionssystemen, zwei RFQ-Beschleunigern, Hochfrequenz-Deflektoren und Diagnoseeinheiten. Die Aufgabe des Experiments ist die praktische Umsetzung eines neuartigen Verfahrens zur Strahlstromerhöhung bei im Idealfall gleichbleibender Emittanz und steigender Brillanz. Notwendig wird dies durch die benötigten hohen Strahlströme im niederenergetischen Bereich einiger zukünftiger geplanter Beschleunigeranlagen. Hier kann der Strahlstrom nicht mehr konventionell von einer einzigen Ionenquelle erzeugt werden. Nur durch die Parallelerzeugung mehrerer Teilchenstrahlen sowie mehrfachem Zusammenführen (Funneling) der Teilchenstrahlen ist es möglich, die notwendigen Strahlströme bei der geforderten kleinen Emittanz zur Verfügung zu stellen. Das Frankfurter Funneling-Experiment ist die skalierte erste HIDIF-Funneling-Stufe als Teil eines Fusionstreibers. Hier werden zwei möglichst identische Helium-Teilchenstrahlen von zwei Ionenquellen erzeugt und in zwei RFQ-Beschleunigern beschleunigt. Der Deflektor biegt die Teilchenstrahlen reißverschlussartig auf eine gemeinsame Strahlachse. Am Anfang der Arbeit stand die Optimierung des Betriebs der Beschleunigerkomponeten und die Entwicklung und der Aufbau eines Einzellendeflektors. Erste erfolgreiche Strahlexperimente zur Strahlvereinigung werden im Kapitel 7.5 vorgestellt. Die Phasenraumellipse des zusammengeführten Strahls zeigt starke bananenförmige Deformierungen, die auf eine schlechte Anpassung des RFQ an den Funnel-Deflektor zurückzuführen sind. Das Elektrodendesign des RFQ ist in zwei unabhängige Bereiche unterteilt. Die erste Zone dient der Beschleunigung der Teilchen. In der zweiten Zone soll erstmals ein sogenannter 3D-Fokus der Strahlradien der x- und y-Ebene und einer longitudinaler Fokussierung erreicht werden. Der zweite Abschnitt bestand für erste Strahltests aus zunächst unmodulierten Elektroden. Zur besseren Anpassung des RFQ an den Funneldeflektor wurde dann das letzte Elektrodenteil erneuert. Der Umbau erfolgte zunächst nur bei einem der beiden RFQ-Beschleuniger. Somit war der direkte Vergleich zwischen altem und neuen Elektrodendesign im Strahlbetrieb möglich. Mit diesem neuen Elektrodenendteil wurde eine Reduktion der Strahlradien der x- sowie y-Ebene, eine bessere longitudinalen Fokussierung sowie eine höhere Transmission erreicht (Kapitel 8). Damit ist es erstmals gelungen mit einer speziellen Auslegung der RFQ-Elektroden eine direkte Anpassung an nachfolgende Elemente zu realisieren. Untersuchungen zur Strahlzusammenführungen werden seit einigen Jahren am Institut durchgeführt. Mit der Entwicklung des 3D-matchers wurde ein weiteres der kritischen Probleme gelöst. Der Umbau des zweiten Beschleunigers findet zur Zeit statt. Nach der Inbetriebnahme werden Funneling-Experimente mit dem Einspalt- und einem neuem Vielspaltdeflektor folgen.
Das HADES-Experiment (High Acceptance DiElectron Spectrometer) am SIS der GSI wurde zur Messung der e+e- - Paare dileptonischer Zerfälle der leichten Vektormesonen im Energiebereich von 1 - 2 AGeV entwickelt. Im Rahmen dieser Arbeit wurden die Eigenschaften des Spurverfolgungssystems de HADES-Spektrometers untersucht. Das Spurverfolgungssystem besteht aus vier Ebenen mit Vieldrahtdriftkammern (Mini Drift Chambers (MDCs)) niedriger Massenbelegung (low-mass), die aus je 6 Auslesedrahtebenen bestehen. Eine der Hauptanforderungen an das Spurverfolgungssystem ist eine Ortsauflösung von 100 µm (hauptsächlich in y-Richtung), die benötigt wird, um die geforderte Massenauflösung von 1 % im Bereich der w-Masse zu erzielen. Gleichzeitig muss die Nachweiseffizienz für schwach ionisierende Elektronen/Positronen hoch sein. Die primäre Messgröße von Driftkammern ist die Driftzeit der entlang einer Teilchenspur generierten Elektronen der Primärionisation zum Auslesedraht. Um die gemessene Driftzeit in eine Ortskoordinate umrechnen zu können, ist eine genaue Kenntnis der Ort-Zeit-Korrelation der Driftzellen nötig. Es wurden detaillierte Simulationen der He/i - Butan Zählgasmischung mit GARFIELD, MAGBOLTZ und HEED vorgenommen. Dabei wurden Gastemperatur, Gasdruck, sowie die Kontamination des Zählgases mit O2 und H20 und die Konzentration des Löschgases variiert und die Auswirkung auf die Driftgeschwindigkeit der Elektronen und damit auf Ort-Zeit-Korrelation der Driftzellen studiert Des Weiteren wurden die Auswirkung der Höhe der Diskriminatorschwelle der Ausleseelektronik und der Einfluss des magnetischen Feldes auf die Driftzeitmessung untersucht. Ein zweidimensionales Modell der Driftzellen, das die Abhängigkeit der Ort-Zeit-Korrelation vom Einfallswinkel des Teilchens in die Driftzelle berücksichtigt, wurde in die Spurrekonstruktionssoftware integriert. Das realistische Ansprechverhalten der Driftkammern wurde in die GEANT-Simulation des HADES-Experimentes implementiert. In der vorliegenden Arbeit wird das Ansprechverhalten der inneren Driftkammern anhand von C + C Daten analysiert, die bei einer Einschussenergie von 2 AGeV im November 2001 gemessen wurden. Es wurde eine neue Methode entwickelt, die aus der Breite des am Auslesedraht influenzierten Signals (time above threshold) eine dem Energieverlust eines Teilchens korrelierte Größe bestimmt, die sich zur Identifikation von Teilchen eignet. Die vorgestellte Methode der Energieverlustmessung besitzt eine Auflösung von etwa 10 % für minimal ionisierende Teilchen und etwa 7, 2 % für stark ionisierenden Teilchen. Die Ortsauflösung der Driftzellen betrug 128 - 154 µm für minimal ionisierende Teilchen und 84 - 116µm für stark ionisierende Teilchen. Für minimal ionisierende Teilchen wurde die Ortsauflösung der Driftkammern in x- und y-Richtung zu x = 181 - 195µm und y = 87 - 104 µm bestimmt. Für stark ionisierende Teilchen wird eine Ortsauflösung von x = 119 - 148 µm und y = 57 - 79 µm erreicht. Eine Teilchenspur wird redundant in den 6 Drahtebenen einer Driftkammer nachgewiesen. Die Nachweiseffizienz der Drahtebenen einer Driftkammer lag für minimal ionisierende Teilchen bei 90 - 96 % und für stark ionisierende Teilchen bei 94 - 98 %. Es konnte somit gezeigt werden, dass die Driftkammern des HADES-Experiment über die geforderte Ortsauflösung und Nachweiseffizienz für e+|e- verfügen und aufgrund der Messung des Energieverlustes in den Driftkammern zur Teilchenidentifikation und Reduktion des Untergrundes beitragen können.
In den letzten Jahren haben die Forschungsaktivitäten im Bereich Thermoelektrik stetig zugenommen. Das neu erweckte Interesse an der Thermoelektrik ist zurückzuführen auf neue nanostrukturierte Materialien, Quantenschicht-Strukturen und Nanodrähte, welche
eine wesentliche Steigerung der thermoelektrischen Effektivität Z im Vergleich zum Massivmaterial versprechen. Für Nanodrähte ist die größte Steigerung der thermoelektrischen Effektivität zu erwarten. Zur Bestätigung der Theorie bedarf es neuer Messmethoden zur Bestimmung des Seebeck-Koeffizienten S, der elektrischen Leitfähigkeit σ und der Wärmeleitfähigkeit λ, um hieraus eine Steigerung der thermoelektrischen Effektivität Z = (Sexp2)σ/λ experimentell zu bestätigen.
Der Schwerpunkt der Doktorarbeit lag in der Untersuchung thermoelektrischer Eigenschaften von Nanodrähten. Hierzu wurden neueMessmethoden zur Bestimmung der elektrischen und thermischen Leitfähigkeit von Nanodrähten entwickelt.
Die elektrische und thermische Leitfähigkeit von Pt-Nanodrähten wurden mit dem in dieser Arbeit entwickelten λ-Chip gemessen. Die elektrische Leitfähigkeit der Pt-Nanodrähte ist im Vergleich zum Massivmaterial entsprechend der klassischen Size-Effekt-Theorie reduziert. Ebenso wurde eine Abnahme der Wärmeleitfähigkeit beobachtet. Die Ergebnisse stimmen mit den im Rahmen der klassischen Size-Effekt-Theorie zu erwartenden Resultaten gut überein, jedoch bedarf die Reduzierung der Lorenz-Zahl noch einer theoretischen Erklärung.
Im Weiteren wurde die elektrische Leitfähigkeit von BixTe1-x und BixSb1-x-Nanodrähten mit dem λ-Chip bestimmt. Hierzu wurden zunächst unterschiedliche Kontaktmaterialien getestet, um die Diffusion des Kontaktmaterials in den Nanodraht auszuschließen. Als bewährtes Kontaktmaterial stellte sich ein Schichtsystem aus Titan und Gold heraus. Die Ti-Schicht wirkt hierbei als Diffusionsbarriere und Haftvermittler-Schicht. Die Wärmeleitfähigkeit der Bi-haltigen Nanodrähte konnte mit dem λ-Chip nicht gemessen werden, da die Unterätzung der Nanodrähte mittels reaktivem Ionenätzen die Nanodrähte angriff. Als Alternative können die Nanodrähte auf dem λ-Chip mit einem fokusierten Ionenstrahl unterätzt werden. Der Aufwand hierzu ist jedoch relativ hoch und diese Alternative wurde deshalb nicht weiter verfolgt. Als weitere Alternative wurde der Z-Chip entwickelt. Hierbei werden die Nanodrähte auf den fertigen Chip aufgebracht und mittels Elektronenstrahl-induzierter Deposition an den elektrischen Kontakten fixiert. Der Chip ermöglicht die Messung der elektrische Leitfähigkeit in 4-Punkt-Anordnung, der Wärmeleitfähigkeit und des Seebeck-Koeffizienten an
einem einzelnen Nanodraht. Somit ist die Bestimmung der thermoelektrischen Effektivität an einem Nanodraht möglich. DesWeiteren wurden die theoretischen Grundlagen zur Bestimmung der Wärmekapazität an einzelnen Nanodrähten mit dem Z-Chip präsentiert. Zum Zeitpunkt der Durchführung dieser Arbeit fehlte jedoch das notwendige Equipment zur Ausführung der Wärmekapazitätsmessung an einzelnen Nanodrähten.
Des Weiteren wurde die Cross-Plane Methode zur Bestimmung der Wärmeleitfähigkeit an eingebetteten Nanodrähten entwickelt. Analog der Messmethode, welche für die Einzeldrahtmessungen verwendet wird, handelt es sich hierbei um eine stationäre „Joule-Heating“ Methode. Die Temperaturdifferenz wird aus der Widerstandsänderung einer auf die eingebetteten Nanodrähte aufgebrachten Heizschicht bestimmt.Mit derMethode wurde die Wärmeleitfähigkeit von BixTe1-x-Nanodrähten ermittelt.
Die elektrische Leitfähigkeit wurde von BixTe1-x-Nanodrähten unterschiedlicher Zusammensetzung und Herstellungsparameter mit dem λ- und dem Z-Chip bestimmt. Die gemessenen Nanodrähte zeigen sowohl intrinsisches wie extrinsisches Leitungsverhalten verbunden mit einer, im Vergleich zum Volumenmaterial, reduzierten Temperaturabhängigkeit der elektrischen Leitfähigkeit infolge von Oberflächen- und Korngrenzenstreuung der Ladungsträger. Die elektrischen Leitfähigkeitsmessungen stimmen mit Beobachtungen anderer Gruppen gut überein.
Die Wärmeleitfähigkeit konnte an einem einzelnen BixTe1-x-Nanodraht und an eingebetteten BixTe1-x-Nanodrähten gemessen werden. Die Wärmeleitfähigkeit ist gegenüber dem Massivmaterial reduziert. Die Ergebnisse sind in guter Übereinstimmung mit bisher publizierten Ergebnissen von Bismuttellurid-Nanodrähten.
Ionenstrahlen werden in der Grundlagenforschung, in der Industrie und der Medizin verwendet. Um die Teilchen für die jeweiligen Anforderungen nutzbar zu machen, werden sie mit Ionenbeschleunigern je nach Anwendung auf eine bestimmte Energie beschleunigt. Eine Beschleunigeranlage besteht dabei aus einer Reihe von unterschiedlichen Elementen: Ionenquellen, Linearbeschleuniger, Kreisbeschleuniger, Fokussierelemente, Diagnosesysteme usw. In jeder dieser Kategorien gibt es wiederum verschiedene Realisierungsmöglichkeiten, je nach Anforderung des jeweiligen Abschnitts und der gesamten Anlage. Im Bereich der Linearbeschleuniger ist als Bindeglied zwischen Ionenquelle/Niederenergiebereich und Nachfolgebeschleuniger der Radiofrequenzquadrupol (RFQ) weit verbreitet. Dieser kann den aus der Quelle kommenden Gleichstromstrahl in Teilchenpakete (Bunche) formen und diese gleichzeitig auf die nächste Beschleunigerstufe angepasst vorbeschleunigen. Desweiteren wird der Teilchenstrahl innerhalb des RFQ kontinuierlich fokussiert, wodurch insbesondere bei diesen niedrigen Energien Strahlverluste minimiert werden. Bei hohem Masse-zu-Ladungs-Verhältnis wird für schwere Ionen eine niedrige Resonanzfrequenz von deutlich unter 100 MHz benötigt. Dies führt zu längeren Beschleunigungszellen entlang der Elektroden, womit durch eine bessere Fokussierung auch höhere Strahlströme beschleunigt werden können. Im Allgemeinen bedeutet eine niedrigere Resonanzfrequenz aber auch einen größeren Querschnitt der Resonanzstruktur sowie einen längeren Beschleuniger. Gegenstand dieser Arbeit ist die Untersuchung unterschiedlicher RFQ-Strukturen für niedrige Frequenzen, wie sie beispielsweise im Linearbeschleunigerbereich der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt Anwendung finden. Zunächst wird die Beschleunigeranlage des GSI Helmholtzzentrums für Schwerionenforschung in Darmstadt und dessen zur Zeit im Bau befindliche Erweiterung FAIR (Facility for Antiproton and Ion Research) kurz vorgestellt. Teil dieser Anlage ist der Hochstrominjektor genannte Anfangsbeschleuniger, der wiederum aus einem RFQ und zwei nachfolgenden Driftröhrenbeschleunigern besteht. Dieser Hochstrominjektor dient als Referenz für die vorliegende Arbeit. In Kapitel 3 wird kurz auf Linearbeschleuniger im Allgemeinen und auf das Grundprinzip und die Eigenschaften eines RFQ näher eingegangen. Anschließend werden verschiedene RFQ-Strukturkonzepte vorgestellt und die Strahldynamik in einem RFQ sowie charakteristische Resonatorgrößen beschrieben. Ausgangspunkt ist der aktuelle RFQ des Hochstrominjektors (Kapitel 4). Dieser IH-RFQ mit einer Betriebsfrequenz von 36 MHz ist seit vielen Jahren in Betrieb und soll für eine verbesserte Effizienz und Betriebssicherheit ein Upgrade erfahren. Dazu wurden Simulationen sowohl der bestehenden Struktur als auch mit Modifikationen durchgeführt und diese miteinander verglichen. Zur Entwicklung eines kompakten Resonators werden in Kapitel 5 verschiedene Splitring-RFQ-Modelle als Alternative zur IH-Struktur mittels Simulationen untersucht. Diese wurden für eine niedrigere Frequenz von 27 MHz entworfen, was der Frequenz des ursprünglichen Wideröe-Beschleunigers (Vorgänger des Hochstrominjektors HSI) entspricht und ebenso wie die 36 MHz des IH-RFQ eine Subharmonische der 108 MHz des Folgebeschleunigers ist. Abschließend wurde noch eine neue RFQ-Struktur, der Splitframe-RFQ, entworfen und untersucht. Auch dieser wurde für eine Frequenz von 27 MHz ausgelegt. Die Ergebnisse dieser Entwicklung, die eine Mischung aus einem Splitring- und einem klassischen 4-Rod-RFQ darstellt, befinden sich in Kapitel 6. Alle Feldsimulationen wurden mit dem Programm Microwave Studio von CST durchgeführt. Zusammenfassend werden die verschiedenen Konzepte anhand der charakteristischen Resonatorgrößen verglichen und ein Ausblick auf weiterführende Arbeiten gegeben.
Die vorliegende Arbeit befaßt sich mit der Untersuchung von Photonenemissionsmustern im einzelnen Ereignis, wie sie bei einer Schwerionenkollision von Schwefel auf Gold bei einer Energie von 200 GeV pro Nukleon produziert werden. Diese Ereignisse wurden mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment am CERN aufgenommen. Die globalen Observablen einer ultrarelativistischen Schwerionenkollision, wie z.B. Multiplizitäts- und Energieverteilungen der Teilchen, lassen sich durch Rechnungen mit dem String-Modell VENUS3.11 gut beschreiben. In diesem Modell werden alle bekannten, in einer Kern-Kern-Kollision ablaufenden physikalischen Prozesse eingebaut. Ein Vergleich von Verteilungen globaler Meßgrößen aus dem Experiment mit solchen aus Modellrechnungen zeigt, welche Resultate durch schon bekannte, in dem Modell berücksichtigte, physikalische Vorgänge verursacht sind und welche auf noch unbekannten Vorgängen oder auf Detektoreffekten beruhen. Um aus solchen Vergleichen den Einfluß noch unbekannter physikalischer Prozesse auf Verteilungen zu erkennen, muß die Veränderung der physikalischen Observablen bei der Messung durch den Detektor selbst berücksichtigt werden. Die Wechselwirkung der aus der Reaktionszone emittierten Teilchen mit der im Experiment befindlichen Materie der Detektoren wird mit dem Detektorsimulationsprogramm GEANT dargestellt. Der Einfluß der Detektoren kann für globale Observablen sehr zufriedenstellend beschrieben werden, was sich in der guten Übereinstimmung der Multiplizitäts- und Rapiditätsverteilung der im WA93-Experiment nachgewiesenen Photonen mit den Verteilungen aus Modellrechnungen zeigt. Auch die Dynamik der Kollision, sichtbar in der Verteilung der transversalen Energie, wird durch das Modell wiedergegeben. Auf dem Niveau von Einzelereignissen und der Verteilung von Photonen innerhalb eines Ereignisses ist es äusserst wichtig, den Einfluß der Detektoreffekte auf die Verteilungen zu bestimmen. Bei der Untersuchung von Fluktuationen und Korrelationen auf der Basis von Einzelereignissen wurde deshalb ein Vergleich zu Mixed Events angestellt, bei denen die Detektoreffekte beibehalten, aber alle vorhandenen Korrelationen aufgelöst werden. In dieser Arbeit wurden die Photonenemissionsmuster der Einzelereignisse (eventby- event-Analyse) mit der Minimal-Spanning-Tree (MST)-Methode auf Dichtefluktuationen hin untersucht. Die emittierten Photonen geben einen Hinweis auf die Emissionsstruktur von Mesonen, insbesondere der leichten pi0-Mesonen, weil Photonen überwiegend durch den Zerfall produzierte Teilchen sind und die räumliche Verteilung ihrer Ursprungsteilchen weitgehend widerspiegeln. Die Untersuchung von Teilchendichtefluktuationen, insbesondere der durch die Kollision produzierten Mesonen, kann zum besseren Verständnis des Verhaltens der Kernmaterie bei hohen Dichten und hohen Temperaturen beitragen. Waren Dichte und Temperatur in der Reaktionszone ausreichend hoch, könnte sich ein Quark-Gluon-Plasma gebildet haben. Die bei der anschließenden Expansion und Abkühlung stattfindende Kondensation zu Hadronen könnte ein Phasenübergang erster Ordnung sein. Die Größe der Fragmente, in diesem Fall die Hadronen und alle Gruppierungen daraus, sollte eine Verteilung ergeben, die mit einer Funktion Sa angenähert werden kann, wie es von verschiedenen Autoren im Zusammenhang mit Phasenübergängen erster Ordnung beobachtet wurde. Dabei ist S die Fragmentgröße und a eine negative Konstante. Die MST-Methode ist geeignet, das Emissionsmuster einzelner Photonenereignisse aus Schwerionenreaktionen in Cluster zu unterteilen. Die mit der MST-Methode definierten Cluster ergeben sich direkt aus der unterschiedlichen Dichteverteilung der Photonen auf der Detektorfläche in einem Einzelereignis. Die Cluster werden mit den obengenannten Fragmenten in Zusammenhang gebracht, wobei die Zahl der Photonen in einem Cluster die Fragmentgröße S darstellt. Ein wesentlicher Vorteil der MST-Methode besteht darin, daß sie zunächst keinerlei Einschränkung in der Art der zu suchenden Strukturen erfordert. Es müssen keine räumlichen Strukturen vorgegeben werden, nach denen dann in der Punkteverteilung gesucht wird, wie das in anderen Analysemethoden der Fall ist. Aus der durchgeführten Analyse hat sich ergeben, daß die MST-Methode sehr sensitiv auf Fluktuationen in der räumliche Dichteverteilung der Treffer im Einzelereignis ist. Die zweidimensionalen Räume, in denen die Dichteverteilung untersucht wird, können beliebig festgelegt werden und sind durch die Metrik, in der die Abstände des Minimal-Spanning-Trees berechnet werden, definiert. In dieser Arbeit wurden der x-y- Raum (Metrik 1) und der h-j-Raum (Metrik 2) benutzt. Dabei gibt Metrik 1 im wesentlichen Effekte in der Detektorgeometrie wieder und Metrik 2 ist eher dem Phasenraum und damit der Physik angepaßt. Zum Vergleich mit den Ergebnissen aus WA93-Datenereignissen wurden Cluster auf die gleiche Weise in Mixed Events, in Ereignissen aus Modellrechnungen und in Ereignissen mit Zufallsverteilungen von Punkten bestimmt. Die räumliche Verteilung der in den WA93-Datenereignissen gefundenen Cluster auf der Ebene des Detektors weist auf starke Inhomogenitäten in der Photonenverteilung hin. Der Vergleich mit entsprechenden Verteilungen der Cluster in Mixed Events und berechneten Ereignissen zeigt, daß ein Großteil dieser Inhomogenitäten durch Detektoreffekte verursacht wird. Zu diesen Detektoreffekten zählt auch die hohe Ansprechwahrscheinlichkeit für geladene Hadronen, so daß durch den Einsatz des Dipolmagneten eine inhomogene Verteilung der Treffer auf dem PMD verursacht wird. Diese durch Detektoreffekte verursachten Inhomogenitäten in den Photonenemissionsmustern können mögliche, durch physikalische Ursachen während der Kollision hervorgerufene, Dichtefluktuationen überlagern. Die Größenverteilung der Cluster in den WA93-Daten konnte mit einer Funktion Sa angenähert werden. Die Konstante a ergab sich dabei zu -3.0 für die in Metrik 1 gefundenen Cluster und -2.7 für die in Metrik 2 gefundenen Cluster. Die Größenverteilung der in den WA93-Datenereignissen mit Metrik 1 bestimmten Cluster zeigt keine großen Abweichungen zu den aus Mixed Events und aus simulierten Ereignissen gewonnenen Größenverteilungen. Die Größenverteilung, die mit Metrik 1 aus einer reinen Zufallsverteilung von Punkten erhalten wurde, liegt unterhalb der anderen drei Verteilungen. In den Verteilungen der Größe der in Metrik 2 definierten Cluster bestehen jedoch deutliche Unterschiede von WA93-Datenereignissen zu den Verteilungen aus anderen Ereignissen mit vergleichbaren Pseudorapiditätsverteilungen. Es wird eine Erhöhung der Wahrscheinlichkeit für große Cluster mit mehr als 20 Photonen in realen Datenereignissen beobachtet. Zunächst wurde angenommen, daß diese Erhöhung der Wahrscheinlichkeit für große Cluster die Folge der starken Inhomogenitäten in der zugrundeliegenden Trefferverteilung sein könnte. Wie die detaillierte Untersuchung der räumlichen Verteilung der Cluster jedoch gezeigt hat, ist diese inhomogene Verteilung der Photonen auch in den Mixed Events zu finden; die Erhöhung der Wahrscheinlichkeit für große Cluster tritt allerdings nicht auf. Daß diese Beobachtung in den Mixed Events nicht gemacht wird, könnte ein Hinweis darauf sein, daß die Erhöhung in der Größenverteilung der Cluster durch physikalische Ursachen hervorgerufen wird. Ein weiterer Hinweis darauf, daß die Ineffizienzen des Detektors allein nicht zu großen Clustern führen, zeigt der Vergleich von Mixed Events zu den Datenereignissen mit zufälligem Azimut. Trotz der Unterschiede in der räumlichen Verteilung der Cluster ergibt sich eine annähernd gleiche Wahrscheinlichkeitsverteilung. Die in dieser Arbeit mit der MST-Methode durchgeführten Analyse hat gezeigt, daß „saubere“, d.h. untergrund- und detektoreffektfreiere Photonendaten notwendig sind, bevor Rückschlüsse auf zugrundeliegende physikalische Ursachen gemacht werden können. Dazu ist eine wesentliche Verbesserung der Datenauslese erforderlich, um die großen Unterschiede zwischen den einzelnen Auslesemodulen zu vermeiden. Eine Weiterentwicklung in der Datenaufbereitungsmethode könnte zu einer besseren Separation von Hadronen und Photonen und damit zu einer untergrundfreieren Photonenmessung führen. Erforderlich ist auch eine sehr genaue Simulation der Detektoreffekte durch Angabe aller Details des Experiments im GEANT-Programm. Nach den Schwerionenexperimenten mit Sauerstoff- und Schwefelstrahlen wurde das Schwerionenprogramm am CERN 1994 durch den Bleistrahl 208Pb mit der Energie von 158 GeV pro Nukleon weitergeführt. Mit der Vergrößerung des Reaktionssystems erwartete man nicht unbedingt eine Erhöhung der Energiedichte, aber einen größeren Thermalisierungsgrad des Systems. Ziel blieb immer noch der Nachweis des Quark- Gluon-Plasmas und die Erforschung von Materie unter extremsten Bedingungen. Um eine möglichst universelle Aussage über den Ablauf einer ultrarelativistischen Schwerionenreaktion machen zu können, wurde ein Experiment, das WA98-Experiment, mit einer großen Akzeptanz für die Messung von Photonen und Hadronen entworfen. Die Kombination von Signalen verschiedener Detektoren sollte es ermöglichen unterschiedliche Charakteristika der Stoßprozesse parallel zu untersuchen. Basierend auf den Erfahrungen mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment, auch die im Zusammenhang mit dieser Arbeit gewonnenen Erkenntnisse, wurde ein größerer und verbesserter Detektor für den Einsatz im WA98- Experiment gebaut. Der Detektor wurde erstmals 1994 zur Messung von Photonenverteilungen in Pb-Pb Kollisionen bei Energien von 158 GeV pro Nukleon am CERN SPS eingesetzt.
Untersuchung von Korrelationseffekten in der Doppelphotoemission von normal- und supraleitendem Blei
(2012)
Im Rahmen dieser Arbeit wurde für die erstmalige Untersuchung der Doppelphotoemission von supraleitenden Materialien eine neue Messapparatur aufgebaut. Mit ihr lassen sich auf eine neue Weise Korrelationseffekte zwischen zwei Elektronen untersuchen, denn beide werden für jedes Reaktionsereignis mit ihrem vollständigen Impulsvektor aufgezeichnet. Die Apparatur kann daher für einen direkten Nachweis der Cooperpaarung in Supraleitern verwendet werden. Dazu wurden ein speziell für diesen Zweck angepasstes Spektrometer, Vakuumsystem und Probenhalter konstruiert. Ein mehrfach verbessertes Vakuumsystem sorgte dafür, dass eine Bleioberfläche über einen Zeitraum von mindestens 15 Stunden nach einer Reinigung gemessen werden konnte. Das Spektrometer erlaubte die koinzidente Messung von Elektronen über einen großen Raumwinkelbereich mit ausschließlich elektrischen Feldern. Dadurch war es auch im supraleitenden Zustand möglich, die Trajektorien der Elektronen zu berechnen. Die Energieauflösung für jedes Elektron lag zwischen 1/30 und 1/50, je nach untersuchtem Emissionswinkel. Ein eigens entwickelter Probenhalter erlaubte es, eine nur von einer Seite thermisch abgeschirmte Probe auf eine Temperatur von 4,5 K zu kühlen. Die Experimente wurden an einer Beamline des Berliner Synchrotrons BESSY durchgeführt.
Von entscheidender Bedeutung für die Auswertung der Daten ist die Qualität der Pulserkennungsroutine. Sie bestimmt die Totzeit der Messapparatur, das heisst wie nahe zwei Elektronen zeitlich und räumlich beieinander liegen dürfen, um noch detektiert zu werden. Sie beeinflusst somit die Beobachtung erheblich. In den als digitalisierte Pulse aufgenommen Rohdaten besteht die Schwierigkeit darin, zwei übereinander liegende Signale als solche zu erkennen und die richtige Zeit beider Signale zu bestimmten. Dies wurde erheblich verbessert, indem ein in Vorabeiten simulierter Doppelpulsalgorithmus modifiziert und erstmalig verwendet wurde. In der Folge konnte die Totzeit deutlich verringert und daher bis zu 20% mehr Doppelereignisse gefunden werden. Darüber hinaus ließen sich Fehler bei der Zeiterkennung nahe aufeinander folgender Pulse korrigieren. Ein in diesem Zusammenhang entwickeltes Programm erzeugte durch die Addition von gemessenen Einzelpulsen künstliche Doppelereignisse mit beliebiger Abstandsverteilung und erlaubte so erstmals eine exakte Simulation der Detektortotzeit mit verschiedenen Pulserkennungsalgorithmen.
Neben den Koinzidenzereignissen wurden auch die Ergebnisse der gewöhnlichen Photoemission untersucht und mit Bandstrukturrechnungen verglichen. Aufgrund der Messmethode wurde keine Vorauswahl bezüglich des Emissionswinkels oder der kinetischen Energie getroffen. Die Ergebnisse der Fermiflächen stimmen innerhalb der erreichten Auflösung mit den theoretischen Vorhersagen überein. Ebenso konnten die Strukturen in den Parallelimpulsspektren der Elektronen, die aus lokalisierten Energieniveaus emittiert wurden, mit der Interferenz der ausgehenden Wellenfunktionen erklärt werden. Eine Simulation dieses Effekts lieferte trotz der vergleichsweise sehr niedrigen Elektronenenergien eine gute Übereinstimmung der wesentlichen Merkmale.
Es wurden Doppelphotoemissionspektren von Blei bei verschiedenen Photonenenergien im Bereich von 21,22 eV bis 40 aufgenommen. Dabei konnten verschiedene Emissionskanäle identifiziert werden. Das Korrelationsloch ist ein sehr grundlegender Effekt, der aufgrund der Coulombabstoßung und des Pauli-Prinzips auftritt und daher bei allen Metallen vorkommt. Betrachtet man das Korrelationsloch im Impulsraum, so führt es dazu, dass zwei gleichzeitig emittierte Elektronen keine ähnlichen Impulsvektoren besitzen dürfen. Durch die verbesserten Pulserkennungsalgorithmen war es möglich, das Korrelationsloch zu untersuchen und über einen weiten Energiebereich zu vermessen. Es zeigte sich wie erwartet als Verarmungszone in der Impulsverteilung eines Elektrons um den Impuls eines zweiten. Ein solcher Effekt ist mit einem einzelnen Detektor sehr schwer zu messen, da die Totzeit die gleiche Auswirkung auf die Spektren hat. Durch eine Simulation konnte ihr Einfluss in jedem Spektrum herausgefunden und so beide Effekte voneinander getrennt werden. Sie stehen damit für einen Vergleich mit einer noch zu entwickelnden theoretischen Vorhersage zur Verfügung.
Aufgrund der bei Blei sehr nahe an der Fermikante liegenden, lokalisierten Energieniveaus konnte der Augerzerfall aus dem Valenzband identifiziert und untersucht werden. Korrelationseffekte zwischen den beiden Elektronen spielten aufgrund des sehr breiten Valenzbandes wie erwartet eine untergeordnete Rolle. Dies ließ sich nachweisen, indem die Energieverteilung durch eine Selbstfaltung der Valenzbandzustandsdichte beschrieben wurde und die Winkelverteilung der Augerelektronen keine Beeinflussung durch die Emissionsrichtung der Photoelektronen zeigte. Beide Beobachtungen deuten auf einen vollständig unabhängigen Emissionsprozess der beiden Elektronen hin. Überraschenderweise zeigte sich aber eine Energieverschiebung des Photoelektrons, abhängig von der kinetischen Energie des Augerelektrons. Dieser in der Gasphase als Post-Collision-Interaction bekannte Effekt sollte aufgrund der schnellen Abschirmung der im Festkörper zurückbleibenden Löcher nicht auftauchen. Die Ursache für die Energieverschiebung ist noch unbekannt.
Für die Identifizierung der Emission von Cooperpaaren wurden Messungen oberhalb und unterhalb der Sprungtemperatur bei verschiedenen Photonenenergien zwischen 20 eV und 40 eV durchgeführt. Verschiedene Spektren wurde nach der Signatur des Prozesses untersucht. Aufgrund der geringen Statistik konnte er nicht identifiziert werden. Demnach konnte auch die theoretische Vorhersage nicht widerlegt werden. Da dieses Experiment aus technischer Sicht äußerst herausfordernd ist, war die Untersuchung von Blei, als einfach zu präparierendes Material mit hoher Sprungtemperatur, naheliegend. Es stellte sich jedoch durch die Auswertung heraus, dass es im Hinblick auf die untersuchte Fragestellung einen wesentlichen Nachteil besitzt. Die Hauptintensität befindet sich im Gegensatz zu Kupfer für alle hier verwendeten Photonenenergien bei niedrigen Elektronenenergien, so dass nur wenige Ereignisse in dem für die Cooperpaaremission interessanten Energiefenster liegen.
Epileptische Anfälle, unabhängig von ihrer Art und Auftrittshäufigkeit, bilden eine Symptomatik, welche bei ca. 1% der Weltbevölkerung auftritt. Hierbei kann es beispielsweise zu unkontrollierten Muskelkrämpfen kommen, ebenso aber zu einer Vielzahl anderer Symptome, die in ihrer Gesamtheit das Krankheitsbild der sogenannten Epileptogenesis bilden. Bei etwa zwei Drittel der an Epilepsie leidenden Patienten kann in vielen Fällen Anfallsfreiheit im Rahmen einer medikamentösen Therapie erreicht werden. Dies umso besser, wenn die Medikation präventiv zum geeigneten Zeitpunkt erfolgen könnte. Demzufolge würden in einer großen Anzahl von Fällen Patienten von einem System profitieren, das eine automatisierte zuverlässige Anfallsvorhersage ermöglicht. Bei nur 20% der anderen Patienten kann eine chirurgische Behandlung erfolgreich sein.
In dieser Arbeit soll eine weitergehende Untersuchung des im Institut für Angewandte Physik der Johann Wolfgang Goethe- Universität entwickelten Prädiktionsverfahrens an verschiedenen EEG-Registrierungen unterschiedlicher Patienten erfolgen. Dabei soll im speziellen untersucht werden, ob basierend auf den Resultaten einer Signalprädiktion eine Unterscheidung zwischen Voranfallszeitraum, Anfall und anfallsfreier Phase getroffen werden kann, und ob basierend auf den Kenngrößen eines Prädiktors und des Prädiktionsfehlers eine Merkmalsdefinition gefunden werden kann, welche in einem späteren, implantierbaren Frühwarnsystem eine automatisierte Anfallsvorhersage ermöglicht. Als Datenbasis sollen vier Langzeit-EEG-Registrierungen mit einer Länge von jeweils 5 – 10 Tagen zugrunde gelegt werden. Zur Prädiktion sollen zeitdiskrete, gedächtnisbehaftete, mehrschichtige Zellulare Nichtlineare Netzwerke herangezogen werden. Dabei soll insbesondere anhand von unterschiedlichen Netzwerken festgestellt werden, inwieweit mittels einer Signalprädiktion Synchronisationseffekte zwischen EEG-Signalen verschiedener Hirnareale festgestellt werden können.
In dieser Arbeit wurde ein relativistisches Punktkopplungsmodell und seine Anwendbarkeit auf Probleme in der Kernstrukturphysik untersucht. Der Ansatz ist in der Kernstrukturphysik recht neu. Aus diesem Grund war es ein wichtiges Ziel festzustellen, wie gut sich das Modell zur Beschreibung von Grundzuständen von Kernen eignet. Während sich Modelle wie das Relativistic-Mean-Field-Modell mit Mesonenaustausch und Hartree-Fock-Rechnungen mit Skyrme-Kräften in vielen detaillierten Untersuchungen bewährt haben, musste dies für das relativistische Punktkopplungsmodell erst gezeigt werden. Als erster Schritt war eine sorgfältige Anpassung der Kopplungskonstanten des Modells erforderlich. Um möglichst einen optimalen Satz an Parametern zu erhalten, wurden verschiedene Optimierungsverfahren getestet und angewandt. Die Parameter der effektiven Mean-Field-Modelle sind untereinander stark korreliert. Zusammen mit der Nichtlinearität der Modelle führt diese Tatsache auf die Existenz vieler lokaler Minima der zu minimierenden x2-Funktion, was eine flexible Anpassungsmethode erfordert. Als besonders fruchtbar erwies sich eine Kombination aus der Methode Bevington-Curved-Step mit dem Monte-Carlo-Algorithmus simulated annea/ing. Durch die Anpassung der Kraft PC-F1 an experimentelle Daten in einem x2-Fit ist es gelungen, mit dem Punktkopplungsmodell eine Vorhersagekraft zu erreichen, die der etablierter RMF-FR- und SHF-Modelle gleicht. Dies ist nicht selbstverständlich, da die Modelle eine deutlich unterschiedliche Dichteabhängigkeit der Potenziale besitzen. Weiterhin haben wir gesehen, dass die Anpassungsprozedur der Parameter eine komplizierte Aufgabe darstellt und noch in mancher Hinsicht ausgearbeitet und verbessert werden kann. Das Punktkopplungsmodell mit der Kraft PC-F1 verhält sich für viele Observablen sehr ähnlich wie das RMF-FR-Modell. Dies betrifft die Beschreibung der bulk properties von symmetrischer Kernmaterie, Neutronenmaterie, Bindungsenergien, Spin-Bahn-Aufspaltungen, Observablen des nuklearen Formfaktors, Deformationseigenschaften von Magnesium-Isotopen, die Spaltbarriere von 240Pu sowie die Vorhersage der Schalenstruktur von überschweren Elementen. Dabei werden aber insbesondere Radien besser beschrieben als mit den RMF-FR-Kräften. Oberflächendicken werden, im Einklang mit dem RMF-FR-Modell, als zu klein vorhergesagt. Deutliche Unterschiede treten bei Deformationsenergien einiger Kerne auf (sie sind größer als beim RMF-FR-Modell und oft kleiner als die von dem SHF-Modell vorhergesagten) sowie bei Dichtefluktuationen in Kernen. Die vektoriellen Dichten der Nukleonen oszillieren nicht so stark wie die des RMF-Modells mit Mesonenaustausch, was auf die fehlende Faltung der nukleonischen Dichten zurückgeführt werden kann. Im Vergleich zum Skyrme-Hartree-Fock-Modell ergeben sich deutliche Unterschiede in der Beschreibung von symmetrischer Kernmaterie und Neutronenmaterie. Relativistische Modelle sagen eine höhere Sättigungsdichte und Bindungsenergie vorher. Die vorhergesagte Asymmetrieenergie ist deutlich größer als die Werte des SHF- bzw. Liquid-Drop-Modells. Die Beschreibung von Neutronenmaterie weicht stark von modernen Rechnungen [Fri8 1] und den Vorhersagen von Hartree-Fock-Rechnungen mit der Skyrme-Kraft SLy6 ab. Die Vorhersagen zu überschweren Kernen stimmen in Bezug auf magische Zahlen mit anderen relativistischen Modellen überein: Der doppelt-magische, überschwere Kern besitzt Z = 120 Protonen und N = 172 Neutronen. Im Einklang mit anderen selbstkonsistenten Vorhersagen zeigt seine Baryonendichte eine Semi-Blasenstruktur. Die Spaltbarrieren der Kerne 292 120 und 298 114 sind von ähnlicher Größenordnung wie die von anderen untersuchten RMF-Kräften. Die Lage des isomeren Zustandes im symmetrischen Spaltpfad liegt beim RMF-PC-Modell sehr tief, was auf eine geringe Oberflächenenergie schließen lässt. Die deutlichen Unterschiede zu den Vorhersagen von Hartree-Fock-Rechnungen mit Skyrme-Kräften zeigen, dass sich gewisse Eigenschaften der Modelle besonders stark bei überschweren Elementen auswirken. Überschwere Elemente sind ein sensitives Testfeld für die Modelle. Hier bedarf es dringender Untersuchungen, um längerfristig zuverlässige Vorhersagen machen zu können. Besonders in den Rechnungen von Bindungsenergien in Isotopen- und Isotonenketten sowie für Neutronenmaterie zeigt das Punktkopplungsmodell Schwächen im isovektoriellen Kanal der effektiven Wechselwirkung, die denen des RMF-FR-Modells ähneln. Dies bestätigt den Verdacht, dass dieser Kanal modifiziert werden muss. Deshalb wurden mehrere Varianten des RMF-PC-Modells mit Erweiterungen im isovektoriellen Kanal getestet. Ein interessantes Ergebnis der Untersuchungen zu den erweiterten Parametersätzen des Punktkopplungsmodells ist, dass sich eine Anpassung zusätzlicher Terme im isovektoriellen Kanal der Wechselwirkung mit den in dieser Arbeit verwendeten Fitstrategien nicht bewerkstelligen lässt. Andererseits zeigen die Modelle gerade in dieser Hinsicht noch unverstandene Schwächen. Dies zeigt, dass in der Zukunft eine Erweiterung der Fitstrategie wichtig wird. Kerne mit großem Isospin und z.B. Neutronenmaterie könnten hier Verwendung finden. Neue experimentelle Daten zu exotischen Kernen werden hierbei von großem Nutzen sein. Untersuchungen zur Natürlichkeit der angepassten Kopplungskonstanten mit Hilfe der naiven dimensionalen Analyse haben gezeigt, dass die Kraft PC-F1 dieses Kriterium erfüllt. Dies ist besonders interessant, da bei dieser Kraft alle Kopplungskonstanten frei im Fit variierbar waren. Die Kopplungskonstanten des Modells bzw. die korrespondierenden Terme absorbieren auch Vielkörpereffekte, weshalb es interessant ist, dass dieses Kriterium anwendbar ist. Parametersätze für erweiterte Punktkopplungsmodelle erfüllen bisher nicht das Kriterium der Natürlichkeit, was noch einmal ihre ungenügende Fixierungsmöglichkeit in den verwendeten Fitstrategien unterstreicht. Die Struktur des relativistischen Punktkopplungsmodells ermöglicht es, die Austauschterme der 4-, 6- und 8-Fermionen-Terme als direkte Terme umzuschreiben. Diese Möglichkeit ebnet den Weg für relativistische Hartree-Fock-Rechnungen für endliche Kerne, die numerisch kaum aufwendiger sind als die Rechnungen mit der Hartree-Version des Modells. Dabei bedürfen die Ableitungsterme gesonderter Behandlung. Allerdings muss dazu auch der Modellansatz erneut überdacht werden: das Pion bzw. die dazu korrespondierenden Terme sollten Bestandteil dieser Formulierung sein und durch die Austauschterme Beiträge zu den mittleren Potenzialen liefern. Relativistische Hartree-Fock-Rechnungen mit dem Punktkopplungsmodell werden es ermöglichen, den Zusammenhang zwischen relativistischen und nichtrelativistischen Hartree-Fock-Modellen systematisch und im Detail zu studieren. Längerfristig können diese Studien zu einer quantitativen Verbesserung der Modelle und damit einhergehend zu ihrem klaren Verständnis führen. Die mikroskopische und selbstkonsistente Beschreibung von Atomkernen ist eine faszinierende und spannende Herausforderung, sie anzunehmen war Ziel und Aufgabe dieser Arbeit.
Die Arbeit entstand im Rahmen des Förderprogramms ”Profil NT” und war Bestandteil des BMBF–Projektes ”NANOTHERM” (FKZ17PNT005). Dabei sollte die Möglichkeit der Integration und Verwendung von Nanodrähten als funktionsbestimmende Komponente im thermoelektrischen Sensorelement untersucht werden. Eine wichtige Aufgabe bestand darin die thermoelektrischen Eigenschaften der einzelnen Nanodrähte, insbesondere den Seebeck–Koeffizienten, zu untersuchen. Im Hinblick auf die weitere Entwicklung der Nanotechnologie ist es sehr wichtig, geeignete Messplattformen zu generieren und der Wissenschaftlichen Gemeinschaft zur Verfügung zu stellen für die Charakterisierung von Nanostrukturen. Für die Forschung bedeutet dies, dass man immer präziser die ”Physik im kleinen” studieren kann. Im Bezug auf die Anwendungen stellen die ausgeführten Untersuchungen eine wesentliche Basis für die Bauelemente–Optimierung und ihren späteren industriellen Einsatz dar.
In dieser Arbeit werden zwei Chipdesigns vorgestellt für die Bestimmung des Seebeck–Koeffizienten, die eine ausreichend hohe Temperaturdifferenz in Nanostrukturen erzeugen. Für beide Chips wird die mikromechanische Fertigung im einzelnen erläutert. Zusätzlich wurden die Chips in FEM–Simulationen analysiert. Eine messtechnische Charakterisierung der Chips bestätigt die Simulationen und die Funktionsweise der Chips für Untersuchungen des Seebeck–Koeffizienten an Nanostrukturen. Erstmals wurden Wolfram bzw. Platin FEBID–Deponate hinsichtlich des Seebeck–Koeffizienten untersucht. Für die Wolfram–Deponate ergab sich ein negativer Seebeck–Koeffizient. Der gemessenen Seebeck–Koeffizient war über mehrere Tage stabil. Als Ergebnis temperaturabhängiger Messungen des Seebeck–Koeffizienten konnte eine Wurzel-T Abhängigkeit beobachtet werden, die in der Theorie beschrieben wird.
Eine Untersuchung des Seebeck–Koeffizienten an Pt–FEBID–Deponaten zeigt einen Vorzeichenwechsel für Proben mit geringer elektrischer Leitfähigkeit (isolierender Charakter, schwache Kopplung). In der Literatur wird dieser Vorzeichenwechsel allerdings für Proben mit metallischer elektrischer Leitfähigkeit beschrieben. Aufgrund der Messergebnisse ist zu prüfen inwiefern die Theorie des Seebeck–Koeffizienten auf Proben mit schwacher Kopplung zu übertragen ist. Da die gemessenen Seebeck–Koeffizienten bei einigen nanoskaligen Proben sehr klein waren, wurde der Seebeck–Koeffizient des Kontaktmaterials in separaten Versuchen untersucht. Für das hier verwendete Schichtsystem Ti(40nm)/Au(120nm) kann ein Seebeck–Koeffizient von -0,22µV/K angegeben werden. Bei der Charakterisierung der Pt–FEBID–Deponaten wurde dieser Beitrag des Kontaktschichtsystems zur Thermospannung berücksichtigt.
Untersuchungen an BiTe–Nanodrähten mit dem Seebeck–Chip ergaben einen negativen Seebeck–Koeffizienten. Die ersten Untersuchungen wurden mit Kupfer als Kontaktmaterial durchgeführt, weil dieses sehr gute Lift–Off Eigenschaften besaß. Trotz der Kupferdiffusion in den Nanodraht hinein, wird der negative Seebeck–Koeffizient einem Tellur–Überschuss zugeschrieben, denn an Proben mit einer geeigneten Diffusionsbarriere war in nachfolgenden Untersuchungen ebenso ein negativer Seebeck–Koeffizient zu messen. Die ermittelten Beweglichkeiten sind niedriger als die von Bulkmaterial und können durch klassische Size–Effekte erklärt werden. Die gemessenen Ladungsträgerkonzentrationen liegen in typischen Bereichen für Halbmetalle. Die Charakterisierung des Seebeck–Koeffizienten mit Hilfe des hier vorgestellten Z–Chip ergab einen negativen Seebeck–Koeffizienten für die BiTe–Nanodrähte, die wie oben erläutert auf einen Tellur–Überschuss zurückzuführen sind. Eine Abschätzung eines mit Nanodrähten aufgebauten Sensors zeigt, dass im Vergleich zu konventionellen Dünnschicht–Thermopiles deutlich höhere Empfindlichkeiten zu erzielen sind. Erste technologische Konzepte für den Aufbau von Nanodraht–Arrays wurden erarbeitet und durch entsprechende Untersuchungen verifiziert.
Grundsätzlich ist der Z–Chip für die Charakterisierung aller drei Transportkoeffizienten geeignet und bietet die Option, anderen Arbeitsgruppen eine universelle thermoelektrische Messplattform zur Verfügung zu stellen.
In der vorliegenden Arbeit wurde die 1s Photoionisation von Neondimeren mit einer Photonenenergie von 10 eV über der 1s Schwelle von Neon durchgeführt. Das Ziel dieser Messung war die Beantwortung der seit vielen Jahren diskutierten Frage nach der Lokalisierung oder Delokalisierung von Vakanzen in homonuklearen diatomaren Systemen am Beispiel des Neondimers. Können die Vakanzen also einem Atom des Dimers zugeordnet werden oder sind sie über beide Atome verteilt? Bezüglich dieser Frage wurden sowohl die in der Photoionisation direkt entstandenen 1s Vakanzen als auch die aus der Relaxation durch einen interatomic Coulombic decay (ICD) resultierenden Vakanzen in der Valenzschale des Neondimers untersucht. Als Observable dienten dabei die Elektronen-Winkelverteilungen im dimerfesten Koordinatensystem, wobei eine bezüglich der ‘rechten’ und der ‘linken’ Seite des homonuklearen diatomaren Moleküls auftretende Asymmetrie in der Winkelverteilung eindeutig eine Lokalisierung der Vakanz indiziert. Dies lässt sich damit begründen, dass die Elektronenwellen im Fall einer delokalisierten Vakanz durch die symmetrisierten Wellenfunktionen beschrieben werden, welche sich aus der kohärenten Überlagerung der lokalisierten Wellenfunktionen ergeben. Die resultierende Winkelverteilung der Elektronen um die Dimerachse ist somit symmetrisch. Im Fall einer lokalisierten Vakanz wird die Elektronenwelle dagegen durch die ‘rechts’ oder ‘links’ lokalisierten Wellenfunktionen, welche aus der kohärenten Überlagerung der symmetrisierten Wellenfunktionen gebildet werden, beschrieben, so dass abhängig von der Elektronenwellenlänge Asymmetrien in der Elektronen-Winkelverteilung auftreten können. Die Möglichkeit, eine eventuelle Asymmetrie in der Winkelverteilung um die Dimerachse zu beobachten ist allerdings nur dann gegeben, wenn die beiden Seiten des Dimers im Anschluss an die Reaktion unterscheidbar sind, d.h. der Ursprung des emittierten Elektrons feststellbar ist, da sich sonst der Fall einer ‘links’ lokalisierten Vakanz mit dem Fall einer ‘rechts’ lokalisierten Vakanz kohärent überlagert. Die Unterscheidung konnte in der vorliegenden Messung anhand der aus einigen Relaxationen hervorgehenden unterschiedlichen Ladungen der ionischen Fragmente des Neondimers durchgeführt werden. Insgesamt wurden im Anschluss an die 1s Photoionisation von Ne2 mit einer Rate von 3:1 der symmetrische Ladungsaufbruch Ne1+ + Ne1+ und der für die Untersuchung der Winkelverteilungen relevante asymmetrische Ladungsaufbruch Ne2+ + Ne1+ des Neondimers beobachtet. Alle in diesen beiden Ladungsaufbrüchen resultierenden intra- und interatomaren Relaxationsprozesse sowie ihre Raten wurden im Rahmen dieser Arbeit identifiziert und analysiert. Der dominante Zerfallskanal des symmetrischen Ladungsaufbruchs resultierte dabei aus dem im Anschluss an einen KL2,3L2,3 stattfindenden Radiative Charge Transfer, bei welchem unter Aussendung eines Photons ein Ladungsaustausch zwischen den Neonionen des Dimers stattfindet. Der dominante Zerfallskanal des asymmetrischen Ladungsaufbruchs wurde durch den im Anschluss an einen KL1L2,3 stattfindenden ICD bestimmt. Bei diesem in Clustern auftretenden Relaxationsprozess wird die Innerschalenvakanz aus Atom 1 durch ein Valenzelektron aus Atom 1 aufgefüllt. Sobald die Relaxationsenergie dabei nicht ausreicht, um, wie beim Augerzerfall, ein weiteres Valenzelektron aus Atom 1 zu ionisieren, wird die Energie mittels eines virtuellen Photons zum neutralen Nachbaratom des Dimers transferiert, und aus diesem wird ein Elektron, das ICD-Elektron, emittiert. Zur experimentellen Untersuchung der verschiedenen Zerfälle wurde die COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Technik verwendet. Bei dieser Impulsspektroskopie werden die Fragmente mit einer Raumwinkelakzeptanz von 4pi mit Hilfe eines elektrischen und eines magnetischen Feldes auf die ortsauflösenden Detektoren geführt, und ihre Flugzeiten und Auftrefforte werden gemessen. Die COLTRIMS-Technik zeichnet sich dabei dadurch aus, dass eine koinzidente Messung der Elektronen und Ionen möglich ist, wodurch die Fragmente eines Reaktionsereignisses einander zugeordnet werden können. Innerhalb der Reaktionsereignisse fragmentierte das Neondimer im Anschluss an die Relaxation in beiden Ladungsaufbrüchen Ne1+ + Ne1+ und Ne2+ + Ne1+ unter 180° in einer Coulombexplosion. Somit spiegelten die Richtungen der Relativimpulse der Ionen im Rahmen der ‘Axial-Recoil-Approximation’ die Position der Dimerachse zum Zeitpunkt der Reaktion wider, und aus den Impulsen der Elektronen konnten die Emissionsrichtungen der Elektronen bezüglich der Dimerachse abgeleitet werden. In dieser Arbeit wurde mit der beschriebenen Messtechnik eine deutliche Asymmetrie in der Winkelverteilung der 1s Photoelektronen sowie der 2p ICD-Elektronen um die Dimerachse beobachtet. Die gemessene Winkelverteilung der 1s Photoelektronen wies dabei eine qualitativ sehr gute Übereinstimmung mit einer innerhalb einer Hartree-Fock-Rechnung erhaltenen Winkelverteilung für eine vollständig lokalisierte 1s Vakanz im Neondimer auf. Für die Winkelverteilungen der ICD-Elektronen existieren bis heute noch keine theoretischen Vorhersagen. Mit den Ergebnissen der vorliegenden Arbeit konnte somit gezeigt werden, dass entgegen den heute gängigen Theorien zur Beschreibung des Neondimers sowohl die Vakanzen der innersten Schale als auch die Vakanzen der Valenzschale des Neondimers als lokalisiert beschrieben werden müssen.
Die Doppelionisation von Wasserstoffmolekülen H2 durch einzelne Photonen stellt ein fundamentales und herausforderndes Problem sowohl für die experimentelle als auch für die theoretische Physik dar. In den meisten Fällen kann dabei die elektronische Bewegung von der nuklearen Dynamik entkoppelt werden (Born-Oppenheimer Näherung). Aus diesem Grund kann man auch den molekularen Fragmentationsprozess als eine Emission eines Dielektrons aus einem nuklearen Zweizentren-Coulomb-Potential beschreiben. Die vorliegende Arbeit befasst sich mit der Photodoppelionisation (PDI) von molekularem Wasserstoff durch einzelne, linear polarisierte Photonen mit einer Energie von 75 eV. Dieses Szenario wird verglichen mit der Photodoppelionisation von Heliumatomen (siehe [Bri00] für einen umfassenden Überblick). In diesem Versuch wurde die Rückstoßionenimpulsspektroskopie-Methode (COLd Target Recoil Ion Momentum Spectroscopy COLTRIMS) benutzt, um alle Fragmente der Reaktion auf ortsauflösende Vielkanalglasplatten(Multi-Channel-Plate MCP)-Detektoren mit Verzögerungsdrahtauslese (delay-line anode) abzubilden. Dabei wurden die Mikropartikel durch elektrische und magnetische Felder geführt. In einer Messung wurde das Rückstoßionenspektrometer mit gepulster Extraktionsspannung betrieben, um das Dielektron und die Stellung der molekularen Achse mit guter Impulsauflösung gleichzeitig vermessen zu können. In einer weiteren Messung kam ein neuartiges Detektorsystem mit hexagonaler Verzögerunsdrahtanode zum Einsatz, die in der Lage war, beide Elektronen, die in sehr kurzen Zeitabständen auf dem Detektor eintrafen, ohne Totzeitverluste in Koinzidenz mit den nuklearen Fragmenten ortsauflösend zu registrieren. Aus den Flugzeiten und Auftrefforten der Teilchen der beiden Datensätze konnten die Impulse des Vierteilchenendzustandes generiert werden. Dies stellt die Messung des Betragsquadrats der quantenmechanischen Wellenfunktion im Impulsraum dar. Aus diesen Größen konnten auch die azimutalen und polaren Winkelverteilungen in Referenz zum Polarisationsvektor des einfallenden Lichts bestimmt werden. Basierend auf der axialen Rückstoßnäherung konnten so zum ersten Mal hochdifferentielle Wirkungsquerschnitte (QDCS und höher) des Vierkörper-Problems für eine raumfeste Molekülachse gemessen werden. Unter Ausnutzung der Reflexions-Näherung war sogar der internukleare Abstand des Moleküls zum Zeitpunkt der Photoabsorption zugänglich. Man findet markante Übereinstimmungen mit der PDI von Heliumatomen. Das Dielektron wird vorwiegend entlang des Polarisationsvektors emittiert und koppelt an das Schwerpunktssystem (Center-of-Mass CM) der nuklearen Partikel, die in einer Coulomb-Explosion fragmentiern. Etwa 72.5 % der Anregungsenergie der beiden Elektronen geht in deren Relativbewegung. Wie bei der Ionisation von Heliumatomen bestimmt die Elektron-Elektron Wechselwirkung zusammen mit diversen Auswahlregeln (siehe [Wal00c]) die Form der polaren Winkelverteilung. In der azimutalen Ebene (die Ebene, die senkrecht zum Polarisationsvektor des Lichts angeordnet ist) erkennt man den attraktiven Einfluss des nuklearen Zweizentren-Potentials, was zu einer Abweichung von der Zylindersymmetrie um die Achse des elektrischen Feldvektors des Lichts führt, wie sie bei niedrigeren Photonenenergien vorzufinden ist (siehe [Dör98b]). In dieser Ansicht tendieren langsame Elektronen dazu, entlang der Molekülachse emittiert zu werden. Es können der sogenannte Auffülleffekt der Knotenstruktur und die vergrößerten Zwischenwinkel in der Polarwinkelverteilung der Elektronen in Form einer Zweikeulenstruktur verifiziert werden (siehe [Red97, Wig 98]). Die Ergebnisse bestätigen den Modellansatz von J. Feagin (siehe [Fea98]), der den Zusammenbruch einer atomaren Auswahlregel, die auf einem Konus wirkt, für den molekularen Fall vorhersagt. Diese Auswahlregel reduziert sich auf eine Knotenlinie, die aufgrund der endlichen Öffnungswinkel des Experiments aufgefüllt wird. Es gibt Hinweise, dass die Verringerung des elektronischen Zwischenwinkels eine Funktion der Stellung der Molekülachse ist, d.h. der kohärenten Überlagerung der beiden möglichen Endzustände mit S- und ?-Symmetrie. Die Ergebnisse der Wannier-Theorie vierter Ordnung nach T. Reddish und J. Feagin (siehe [Red99]) zeigen eine gute Übereinstimmung mit den experimentell gewonnen Daten, zumindest solange die beiden Elektronen den gleichen kinetischen Energiebetrag erhalten. Im Gegensatz dazu bewertet die hochkorrelierte 5C-Theorie nach M. Walter et al. (siehe [Wal99]) den Einfluss des attraktiven nuklearen Zweizentren-Potentials zu hoch. Vorläufige Ergebnisse einer CCC-Rechnung von A. Kheifets et al. (siehe [Khe02]) zeigen eine sehr akkurate Übereinstimmung mit den gemessenen Winkelverteilungen. Minimiert man die Elektron-Elektron Wechselwirkung, indem man eine rechtwinklige Emission der beiden Elektronen fordert (dies kommt einer Ionisation eines H2 +-Ions gleich), so findet man keine starken Fokussierungseffekte vor, wie man sie von Ionisationsprozessen von N2 und CO her kennt (siehe [Lan01, Web01b, Jah02a und Web02]). Stattdessen beobachtet man die Emission eines langsamen Elektrons auf dem nuklearen Sattelpunktspotential, wie man es nach einer halbklassischen Beschreibung erwarten kann. Zusätzlich ist eine hochstrukturierte Winkelverteilung zu beobachten, die auf höhere Drehimpulsbeiträge schliessen lässt (vergleichbar der Parametrisierung bei der PDI von Heliumatomen nach L. Malegat et al., siehe [Mal97d]). Die Verteilung ist sehr sensitiv auf die Energie der Elektronen und die Orientierung der Molekülachse, was weder angemessen durch auslaufende, ebene Wellen noch durch die 5C-Theorie beschrieben werden kann. Für diese Ereignisse erzwingen große internukleare Abstände eine Emission der Elektronen entlang des Polarisationsvektors, während für kleine Abstände die Elektronen vorwiegend rechtwinklig zur Molekülachse ausgesendet werden. Anhand dieser Tatsachen kann man auf einen merklichen Einfluss des Anfangszustands auf die Winkelverteilung der Elektronen zurückschließen. Das ganze Szenario ändert sich sobald man die Elektron-Elektron Wechselwirkung wieder "einschaltet", indem man fordert, dass die Fragmentation in einer Ebene stattfindet. Hier bestimmt die Relativbewegung der beiden Elektronen die Form der Wirkungsquerschnitte. Es zeigen sich nur geringfügige Änderungen in Abhängigkeit zum internuklearen Abstand. Es kann aber teilweise eine dreifache Keulenstruktur ausgemacht werden. Diese Substruktur ändert ihre Amplitude und Richtung als Funktion des Molekülabstandes. Eine direkte Emission entlang des Polarisationsvektors scheint dabei verboten zu sein. In dieser Darstellung zeigt das elektronische Emissionsmuster einen sehr heliumähnlichen Charakter für kleine Bindungslängen. Für größere Abstände der Kerne werden langsame Elektronen deutlich unter einem Zwischenwinkel von 180° (back-to-back-emission) gegen das schnelle Referenzelektron emittiert. Referenzen: [Bri00] J.S. Briggs et al., J. Phys. B: At. Mol. Opt. Phys., 33, (2000), S. R1 [Dör98b] R. Dörner et. al., Phys. Rev. Lett., 81, (1998), S. 5776 [Fea98] J. Feagin, J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. L729 [Jah02a] T. Jahnke et. al., Phys. Rev. Lett., 88, (2002), S. 073002 [Khe02] A. Kheifets, private Mitteilung, (2002) [Lan01] A. Landers et al., Phys. Rev. Lett., 86, (2001), S. 013002 [Mal97d] L. Malegat et al., J. Phys. B: At. Mol. Opt. Phys., 30, (1997), S. 251 [Red97] T. Reddish et al., Phys. Rev. Lett., 79, (1997), S. 2438 [Red99] T. Reddish et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2473 [Wal00c] M. Walter et al., Phys. Rev. Lett., 85, (2000), S. 1630 [Wal99] M. Walter et al., J. Phys. B: At. Mol. Opt. Phys., 32, (1999), S. 2487 [Web01b] Th. Weber et al., J. Phys. B: At. Mol. Opt. Phys., 34, (2001), S. 3669 [Web02] Th. Weber et al., Phys. Rev. Lett., (2002), eingereicht zur Veröffentlichung [Wig98] J.P. Wightman et al., J. Phys. B: At. Mol. Opt. Phys., 31, (1998), S. 1753
Gegenstand der vorliegenden Arbeit ist die Untersuchung einer Transferionisation am Beispiel des Stoßsystems (H + ; He), bei der ein Elektron des Targets eingefangen und ein Elektron ins Kontinuum emittiert wird. Ausgangspunkt für die theoretische Untersuchung der Transferionisation sind Experimente für das (H + ; He) Stoßsystem (1) . Unter anderem wurden beobachtet, dass die Elektronen bevorzugt in entgegengesetzter Richtung zum auslaufenden Projektil emittiert werden, dass hohe Emissionsenergien auftreten und alle Ejektile, (He 2+ , H 0 , e ), in die durch Einschuss- und Streurichtung des Projektils definierte Ebene emittiert werden. Unter der Annahme, dass zur Transferionisation hauptsächlich unabhängige Ein-Teilchen-Prozesse beitragen, wurde mit der vorliegenden Arbeit das Ziel verfolgt, das beobachtete markante Emissionsverhalten einer Transferionisation am Proton-Helium-Stoßsystem im Rahmen einer theoretischen Untersuchung zu verstehen. Dazu wurde ein Modellkonzept entwickelt, bei dem das Stoßgeschehen in einem semiklassischen nichtrelativistischen perturbativen Rahmen im Bild unabhängiger Ereignisse beschrieben wird. Das zentrale Anliegen der Modellierung war es, die Bedeutung der Targetstruktur für die Emissionseigenschaften zu klären. Hierbei interessierte der Einfluss der Struktur der Wellenfunktion auf dem Niveau des Modells unabhängiger Teilchen als auch die Rolle der interelektronischen Korrelation im Grundzustand des Targets. Der Einfluss der Targetstruktur auf das Emissionsverhalten wurde durch Einbau dreier verschiedener Wellenfunktionen für den Helium-Grundzustand untersucht: Um die Sensitivität der Rechnungen auf die strukturellen Eigenschaften der Targetbeschreibung zu untersuchen, wurden eine wasserstoffähnliche und eine Hartree-Fock-Beschreibung in das Modell implementiert. Beide bilden die Targetstruktur auf der Basis des Modells unabhängiger Teilchen (IPM) ab und enthalten per Definiton keine interelektronische Korrelation. Um den Einfluss zu klären, den die interelektronische Korrelation auf die Emissionseigenschaften hat, wurde der Eckart-Ansatz in das Modell eingebaut. Dieser Ansatz schließt radiale Anteile von Korrelation mit ein. Anhand eines systematischen Vergleichs der Ergebnisse konnte gezeigt werden, dass die strukturellen Eigenschaften der Wellenfunktion zwar eine Rolle spielen, aber die Qualität der Beschreibung ohne Berücksichtigung der interelektronischen Korrelation unbefriedigend bleibt, während die Berücksichtigung der radialen Anteile elektronischer Korrelation mit dem Eckart-Ansatz verglichen mit den IPM-Ansätzen sich im Hinblick auf das Emissionsverhalten als effizient erwiesen hat. Dieser Befund legt den Schluss nahe, dass die interelektronische Korrelation im Grundzustand des Heliumatoms zum Verständnis der Emissionseigenschaften äußerst wichtig ist. Trotzem werden auch mit dem Eckart-Ansatz nicht alle Züge des Emissionsverhaltens richtig wiedergegeben. Da die Bewegungen der Komponenten eines Vielteilchenproblems voneinander abhängen, besteht Grund zu der Annahme, dass ein radialsymmetrischer Ansatz zur Beschreibung des Systems Helium nicht in der Lage ist, die experimentell beobachtete Emission von Elektronen in einer Vorzugsrichtung zutreffend zu beschreiben: Neben der Radialkorrelation ist auch die Winkelkorrelation zu berücksichtigen. Die logische Erweiterung des Modells in dieser Richtung ist die Implementation eines Konfigurationsmischungs-Ansatzes. Eine zukünftige Rechnung unter Verwendung eines Konfigurationsmischungs-Ansatzes erscheint daher im Hinblick auf eine Erklärung des Emissionsverhaltens im Bild unabhängiger Ereignisse interessant. (1) V.Mergel, Dissertation, Frankfurt am Main 1996
Für Elektronenstrahlionenquellen sind die Stromdichte und die Energie die ausschlag gebenden Größen zum Erreichen hoher Ladungszustände. Herkömmliche EBIS/T verwenden ein externes magnetisches Feld zur Kompression des Elektronenstrahls. Im Rahmen dieser Dissertation wurde eine ''magnetfeldfreie" EBIS/T realisiert, mit der die Selbstkompression eines teilrelativistischen Elektronenstrahls nachgewiesen werden konnte, womit ein vielversprechender Meilenstein auf dem Weg zu einer SuperEBIS/T mit Energien im Bereich von 300 - 500 keV erreicht wurde. Es wurde eine Apparatur aufgebaut, die es ermöglichte, einen Elektronenstrahl unter verschiedenen Winkeln in die Ionenfalle einzuschießen. Durch numerische Simulationen wurde die Elektronenkanone mit dem Ziel einer möglichst kleinen rückwärtig projizierten Kathode optimiert, um die fokussierbare Stromdichte zu erhöhen. Um sphärische Aberrationen des abbildenden Linsensystems zu korrigieren, wurde die Driftstrecke zwischen Elektronenkanone und Ionenfalle mit ''clearing" Elektroden versehen, die es ermöglichten, einen definierten Kompensationsgrad im Elektronenstrahl einzustellen. Im Anschluß an den Kollektor wurden die Ionen mit einem Sektormagneten analysiert. Zunächst wurde experimentell bestätigt, daß sich sphärische Aberrationen korrigieren lassen, wenn der Elektronenstrahl im Bereich des Linsensystems gezielt partiell kompensiert wird. Mit dem nichtlinearen Kompensationsgrad konnte die defokussierende Kraft der Raumladung gerade so angepaßt werden, daß sie die radial zunehmende Fokussierung der Linse (sphärische Aberration) korrigiert. ''clearing" Elektroden sorgten dafür, daß im Außenbereich des Elektronenstrahls gebildete Ionen den Strahl verließen. Nur der innere Bereich konnte nach Maßgabe der Potentialdifferenz kompensieren. Messungen der Verlustströme an den Elektroden der Ionenfalle zeigten, daß nur mit dieser Kompensation der Elektronenstrahl bei hohen Strahlströmen durch die Ionenfalle transportiert werden konnte. Bei kontinuierlicher Ionenextraktion konnte bei Erhöhung des Gasdrucks in der Ionenquelle ein überproportionales Ansteigen des Ionenstroms gemessen werden. Mit der Annahme konstanter Stromdichte sollte der Ionenstrom lediglich linear steigen. Zusammen mit der gleichzeitigen Reduktion der Verlustströme auf die Fallenelektroden war dies ein erster Hinweis für die Erhöhung der Stromdichte durch zunehmende Kompensation der elektronischen Raumladung im Fallenbereich. Eine genaueres Bild über die Entwicklung der Stromdichte wurde aus Spektren abgeleitet, die bei gepulster Extraktion aufgenommen wurden. In einer Elektronenstrahlionenquelle werden Ionen durch sukzessive Ionisation gebildet. Die Ladungszustandsverteilung der gebildeten Ionen ist proportional zur Dichte der ionisierenden Elektronen und zur Einschlußzeit, der die Ionen dem Elektronenbeschuß ausgesetzt sind. Bei konstanter Stromdichte erreichen aufeinanderfolgende Ladungszustände maximale relative Häufigkeit ungefähr bei einer Verdopplung der Einschlußzeit. Die aufgenommenen Spektren wichen deutlich von diesem Schema ab. Anstelle einer regulären Ladungszustandsentwicklung wiesen die Spektren nach 20ms Einschlußzeit zwei Verteilungen auf. Die erste Verteilung hatte ein Maximum bei Ar 2 , während die zweite ihr Maximum bei Ar 8 hatte. Die höher geladene Verteilung war mit dem Auftreten hoher Ladungszustände bis Ar 12 verbunden. Bei einer weiteren Erhöhung der Einschlußzeit ging die niedrig geladene Verteilung in die hoch geladene über, bis bei 160ms nur noch ein hoch geladenes Spektrum vorhanden war. Ein Vergleich mit Modellrechnungen ergab für niedrig geladene Ionen (3Acm 2 für Ar 2 bei 20ms Einschluß) eine geringe Stromdichte und einen kontinuierlichen Übergang zu hohen Stromdichten (300Acm 2 für Ar 12 bei 20ms Einschluß) bei hoch geladenen Ionen. Aufgrund des ''evaporative cooling" sammeln sich hoch geladene Ionen in der Mitte des Elektronenstrahls. Da der Elektronenstrahl von innen nach außen kompensiert, setzt die Selbstkompression innen ein und führt dort zu hohen Stromdichten. Man erhält eine während der Einschlußzeit variierende Stromdichteverteilung im Elektronenstrahl. Eine Aussage über die Häufigkeitsverteilung der Stromdichtewerte gelang über die Wichtung der berechneten Stromdichte mit der Menge an ionischer Ladung, die in den Ladungszuständen vorhanden war. Mit diesen Werten konnten mittlere Stromdichtewerte für den Elektronenstrahl berechnet werden. Es wurde die mittlere Stromdichte für den gesamten Elektronenstrahl und für die beiden Ladungszustandsverteilungen berechnet. Dabei begann die mittlere Stromdichte des Elektronenstrahls mit der Stromdichte der niedrig geladenen Verteilung (13Acm 2 ; 5ms) und ging bei Erhöhung der Einschlußzeit in die mittlere Stromdichte der hoch geladenen Verteilung über (110Acm 2 ; 80ms). Das Maximum der mittleren Stromdichte für die hoch geladene Verteilung lag bei 170Acm 2 für 40ms Einschlußzeit. Nachdem der Elektronenstrahl bei 40ms kompensiert wurde, sanken die mittleren Stromdichten. Dies lag an der nun dominierenden Heizung durch Coulombstöße der Strahlelektronen an den eingeschlossenen Ionen, wodurch deren Ausbeute verringert wurde. Diese Ergebnisse stehen im Einklang mit numerischen Integrationen der Randstrahlgleichung. Dazu wurden Berechnungen für verschiedene Kompensationsgrade und Elektronenstrahlemittanzen durchgeführt. Für Emittanzwerte um 2×10 3 cm mrad ergab sich eine gute Übereinstimmung mit den gemessenen Stromdichten. Die Rechnungen bestätigten, daß die Emittanz und der Einschuß des Elektronenstrahls in die Ionenfalle die kritischen Größen sind, um eine Selbstkompression des Elektronenstrahls bei einer Energie von 22keV und 30mA Strahlstrom beobachten zu können. Die in dieser Arbeit untersuchte Selbstkompression des Elektronenstrahls kann genutzt werden, um bei einer XEBIS/T mit Elektronenstrahlenergien größer als 200keV deutlich höhere Stromdichten zu erzielen, als bei heute üblichen EBIS/T. Sie eignet sich deshalb besonders für die Erzeugung höchst geladener schwerer Ionen, weil die angewandte Technik bei kommerziellen ElektronenstrahlSchweißanlagen industriell ausgereift ist, wohingegen die herkömmlichen EBIS/T weltweit (Livermore, Dubna, Tokio, Freiburg) die gesetzten Erwartungen hinsichtlich der erreichbaren Elektronenenergien bisher verfehlen. Auch für den stets problematischen Einschuß niedrig geladener Ionen, die außerhalb der EBIS/T erzeugt werden, kann die Selbstkompression genutzt werden. Der Elektronenstrahl weist zu Beginn der Ionisierung einen großen Durchmesser auf, wodurch der Einschuß in den Strahl erleichtert wird. Während der Höherionisierung der eingefangenen Ionen komprimiert sich der Elektronenstrahl zu der zum Erreichen höchster Ladungszustände notwendigen Stromdichte dann von selbst.
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
Die ionenstrahlinduzierte Desorption ist eine Beeinträchtigung der Leistungsfähigkeit moderner Hochstrom-Schwerionensynchrotrons. Umgeladene Projektilionen folgen in den Ablenkmagneten nicht der Sollbahn des Strahls und kollidieren mit der Strahlrohrwand. Dies führt zu einer stimulierten Gasabgabe an das Beschleunigervakuum. Der resultierende erhöhte Druck hat eine deutliche Einschränkung der Strahllebensdauer zur Folge. Um die Menge des abgegebenen Gases zu minimieren wurden zahlreiche Experimente durchgeführt, die der Bestimmung der Desorptionsausbeute (desorbierte Gasmoleküle pro auftretendem Ion) unterschiedlicher Materialien unter Bestrahlung mit verschiedenen Ionen dienten. Die vorliegende Arbeit ist ein Beitrag zum Verständnis der physikalischen Prozesse der ionenstrahlinduzierten Desorption. Die Messung der Desorptionsausbeuten mittels der Druckanstiegsmethode wurde erstmals mit Materialanalytiken wie ERDA und RBS kombiniert. Mit diesem einzigartigen experimentellen Aufbau kann das Desorptionsverhalten mit den Oberflächen- und Festkörpereigenschaften der Proben korreliert werden. Anhand der durchgeführten Experimente mit 1,4 MeV/u Xenon-Ionen konnte gezeigt werden, dass die ionenstrahlinduzierte Desorption im Wesentlichen ein Oberflächeneffekt ist. Zerstäubte Verunreinigungen oder abgetragene Oxidschichten von Metallen liefern keinen nennenswerten Beitrag zum desorbierten Gas. Dennoch ist die Desorptionsausbeute stark von den Festkörpereigenschaften der Probe abhängig. Rein metallische Proben desorbieren unter Bestrahlung mit schnellen Schwerionen weniger stark als Isolatoren. Durch die experimentellen Ergebnisse wurde es möglich, Desorptionsausbeuten unter Ionenbestrahlung anhand eines modiffizierten inelastischen Thermal-Spike-Modells vorauszusagen. Die Erweiterung des Modells ist die Kombination des Temperaturprofils mit der thermischen Desorption. Damit kann die ionenstrahlinduzierte Desorption als die Abgabe von Oberflächenadsorbaten, ausgelöst durch eine kurzzeitige Erhöhung der Oberflächentemperatur um den Ioneneinschlag herum, betrachtet werden.
Untersuchung der Konformation und Dynamik von RNA mit Hilfe fluoreszierender Farbstoffmoleküle
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung der konformationellen und elektronischen Eigenschaften sowie der Dynamik verschiedener RNA-Systeme. Zur Durchführung dieser Experimente wurde zusätzlich zu bereits vorhandenen statischen und zeitaufgelösten Absorptionsspektrometern im Rahmen dieser Arbeit eine Apparatur zur Messung von Fluoreszenzlebensdauern entwickelt, die durch die integrative Verwendung zweier verschiedener, etablierter Technologien (TCSPC und Aufkonvertierung) über einen weiten Zeitbereich von 9 Größenordnungen (100 fs - 0,1 ms) operiert. Mit diesem Aufbau konnten neben den RNA-Studien wichtige Beiträge zum Verständnis der Isomerisierung eines Retinalproteins, des Transportprozess des Membrantransportproteins TbSMR und der im Infraroten liegenden Fluoreszenz des Radikalkations von Astaxanthin gewonnen werden. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Untersuchung verschiedener RNA-Systeme: So werden die optischen Eigenschaften einer 1-Ethinylpyren-modifzierten RNA-Adeninbase allein und in RNA-Strängen eingebunden untersucht. Statische Fluoreszenzmessungen zeigen einen ausgeprägten Ladungstransfercharakter des Chromophors und eine generell große Wechselwirkung zwischen Ethinylpyren und Adenin, die in einer substanziellen Änderung der optischen Eigenschaften des Pyrens resultiert. Die Untersuchung der schnellen Photodynamik von Pyrenadenin zeigt zudem eine Verringerung der Lebensdauer von Pyren um etwa 2 Größenordnungen. Pyrenadenin zeigt sowohl Fluoreszenz eines neutralen (100-200 ps), als auch eines energetisch tiefer liegenden Ladungstransferzustands (1-2 ns). Die Formationszeit des Ladungstransferzustandes fällt mit steigender Polarität des Lösemittels. Eingebunden in Modell-RNA-Stränge ist Fluoreszenzquantenausbeute des Chromophors ein deutlicher Indikator für seine Interkalation. Nur in der stabileren Umgebung von GC-Basenpaaren ist das Pyren in der Lage, sich dauerhaft innerhalb des Duplex aufzuhalten, während in einer flexibleren AU-Umgebung eine Position außerhalb des RNA-Duplex präferiert wird. Transiente Absorptionsmessungen zeigen, dass die Photophysik des in RNA eingebundenen Pyrenadenins nur kleine Variationen im Vergleich zur Photophysik des Labels allein aufweist. Die deutliche Abnahme der Quantenausbeute des interkalierten Chromophors geht hauptsächlich auf Kosten der langlebigeren Ladungstransferfluoreszenz, so dass interkaliertes Pyren insgesamt schneller in den Grundzustand zurückkehrt als nicht interkaliertes. Mit Hilfe eines doppelt modifizierten Duplex, bei dem sich jeweils ein Farbstoff an einem der beiden Stränge befindet, kann nachgewiesen werden, dass aufgrund von Exzimerwechselwirkungen eine Verschiebung des Fluoreszenzmaximums von 35 nm auftritt. Kurzzeitspektroskopische Messungen zeigen Signale, die als Superposition von Monomeren und Exzimeren interpretiert werden können, wobei die Lebensdauer des letzteren mit 18,5 ns die der Monomerkomponente um ein Vielfaches übertrifft. Ein weiterer Teil dieser Arbeit beschäftigt sich mit einer Studie zur Bindung des fluoreszenten Liganden Tetrazyklin an das Tetrazyklin bindende Aptamer. Hier wird auf Basis verschiedener Mutanten mit Hilfe des TCSPC eine Analyse der Stabilität der Bindetasche sowie mit der Stopped-Flow-Methode eine Beobachtung des Bindungsprozesses durchgeführt. Insgesamt folgt die Bindung des Tetrazyklins an das Aptamer einer zweistufigen Kinetik, deren zweiter Schritt irreversibel ist. Die Bindung läuft, verglichen mit anderen Aptameren, sehr schnell ab. Während die Mutationen von A13 und A50,die direkte Kontakte zum Substrat bilden, nur einen leichten Einfluss auf beide Bindungsschritte ausüben, führt eine Mutation der für die Präformation verantwortlichen Base A9 zu einer Verlangsamung des Bindungsprozesses um mehr als einen Faktor 20 durch eine immens gesteigerten Rückreaktionsrate des ersten Bindungsschritts. Hieraus lässt sich schließen, dass bei fehlender Präformation des Aptamers nur wenige Tetrazyklinmoleküle ein für vollständige Bindung geeignetes Aptamer vorfinden. Die Bindung an A13 und A50 geschieht bereits im ersten Schritt des Bindungsprozesses. Ferner konnte anhand von Lebensdauermessungen gezeigt werden, dass nach dem Wildtyp die Mutante A9G die stabilste Bindetasche aufwies. Das Fehlen eines direkten Kontaktes wirkt sich deutlich stärker aus. Insbesondere führt die Abwesenheit der Fixierung des Gegenions durch A50 zu der instabilsten Bindetasche. Wie in dieser Arbeit gezeigt wird, ist die zeitaufgelöste optische Spektroskopie insbesondere in Verbindung mit fluoreszierenden Molekülen ein ausgezeichnetes Mittel zur Beobachtung von Struktur und Dynamik von RNA. Die Empfindlichkeit von Fluoreszenz auf die Veränderung der Umgebung des Chromophors erlaubt es, Konformationsdynamik und elektronische Konfigurationen in Echtzeit zu beobachten.
Im Rahmen dieser Arbeit wurde der Aufbruchsmechanismus des Projektilspektators im relativistischen Energiebereich untersucht. Es zeigte sich dabei, daß die in vorherigen Experimenten beobachtete Targetunabhängigkeit der Fragmentproduktion bei 600 AMeV sich als universelle Eigenschaft des Zerfalls von angeregter und expandierter Kernmaterie erweist. Die Untersuchung von Ladungskorrelationen zeigte ebenfalls weder eine Energie- noch Projektilabhängigkeit im Rahmen der experimentellen Auflösung. Diese Ergebnisse sind im wesentlichen auch zu höheren und niedrigeren Energien von anderen Experimenten bestätigt worden. Mit diesem experimentellen Befund kann eindeutig der Beweis für die Existenz einer Multi-Fragmentproduktion bei relativistischen Energien gegeben werden. Im Rahmen von Modellen können die beobachteten Ladungsobservablen mit einem statistisch dominierten Zerfall erklärt werden. Die sich daran anschließende Frage nach dem Aufbruchsmechanismus und dessen Eigenschaften wurde weiterführend mit Ausrichtung auf kinematische und thermodynamische Eigenschaften des Systems untersucht. Dabei ergab sich, daß die kinematischen Observablen der Projektilquelle einen thermisch äquilibrierten Zustand widerspiegeln, unabhängig vom Stoßparameter und der Einschußenergie. Die hierbei beobachtete Emission von leichten Teilchen, die nicht eindeutig einer intermediären oder Projektilquelle zugeordnet werden konnten, ist hierbei Hinweis auf Nicht-Gleichgewichtsanteile, die in der frühen Phase der Reaktion gebildet werden. Mit der Untersuchung von kollektiven Eigenschaften des zerfallenden Systems wurde versucht, einen quantitativen Einblick in die Reaktionskinematik und den damit zusammenhängenden Energietransfer in den Projektilspektator zu erhalten. Diese Analysen ergaben, daß es bei gleichem Stoßparameter eine starke Abhängigkeit des "Bounce Off" von der Targetmasse gibt, während zu höheren Energien, beim gleichen System, nur ein kleiner Effekt zu höheren Impulsüberträgen (5-10 MeV/c) beobachtet wird. Die Energiebilanz des Systems und die hieraus extrahierten Anregungsenergien zeigten zum ersten Mal in experimentellen Daten ohne Zuhilfenahme von theoretischen Modellen, daß für die stark asymmetrischen Systeme nicht der gleiche Zusammenhang zwischen Anregungsenergie und Z bounce; erhalten wird wie bei den symmetrischen Systemen. Dies zeigt sich bei den asymmetrischen Systemen durch eine Saturation der Anregungsenergie mit kleiner werdendem Z bounce, im Gegensatz zu den symmetrischen Systemen, die einen weiteren Anstieg zeigen. Die absoluten Werte der maximalen Anregungsenergie von <E0/A0> ~ 21-23 MeV bei halbzentralen Reaktionen von 197 Au + 197 Au bei 800 AMeV und <E0/A0> ~27 MeV bei 238 U + 238 U 1000 AMeV sind verschieden bei gleichem Z bound. Es stellt sich jedoch heraus, daß mit Ausnahme der stark asymmetrischen Systeme die Anregungsenergie pro herausgeschlagenem Nukleon (<E Knock/A>) in Abhängigkeit von der prozentualen Größe des Prefragments zu peripheren Reaktionen monoton und energieunabhängig steigt.Werden die experimentell bestimmten Anregungsenergien verglichen mit denen aus theoretischen Modellen, so sind diese immer deutlich geringer. Im statistischen Modell von Botvina und Mitarbeitern, das von D´esesquelles mit unseren Daten verglichen wurde [D´ese 96] [D´ese 95], ergaben sich maximale Anregungsenergien von <E0/A0> ~ 7-8 MeV in zentralen Reaktionen. Ein Vergleich mit QMD + SMM ergibt, daß für die asymmetrischen Systeme (197AU + 12C)mit einer Anregungsenergien von maximal <E0/A0> ~ 8-9 MeV eine Beschreibung der Daten möglich ist. Für die symmetrischen Systeme zeigt sich eine zunehmende Diskrepanz mit zunehmender Targetmasse zwischen den experimentellen und theoretischen Anregungsenergien. Die Ladungsobservablen der Daten werden von der verwendeten QMD + SMM-Rechnung und der QMD (SACA)-Rechnung gut wiedergegeben. Durch Anpassung von Rechnungen mit dem Quantenstatischen Modell [Hahn 88b] (QSM) an die experimentellen Daten ergaben sich Aufbruchsdichten bei zentralen Reaktionen von rho/rho 0 ~ 0.3 bis 0.4, diese sind konsistent mit dem Aufbruch eines äquilibrierten und expandierten Systems. Die aus QSM erhaltenen Temperaturen des Quellsystems in Abhängigkeit von der Anregungsenergie geben im wesentlichen den von Pochodzalla und Mitarbeitern beobachteten Verlauf der kalorischen Kurve wieder. Die Frage, ob dieser Verlauf einen Phasenübergang von flüssig zu gasförmig darstellt, ist anhand dieser Methode nicht zu entscheiden. Die Ergebnisse der Ladungsobservablen in Verbindung mit den kollektiven Eigenschaften zeigen, daß die Anregungsenergie, die zum Erreichen des Maximums der M Fragmentproduktion ( <M IMF> ~ 4.4) nötig ist <E0/A0> ~ 11 MeV, einen geringeren absoluten Wert hat als der Bereich des möglichen Phasenübergangs <E0/A0> ~17 MeV. Im Gegensatz dazu stellt sich das Maximum der mittleren IMF -Produktion energie-, target- und projektilunabhängig bei <E0/A0> ~11 MeV ein. Mit diesemVergleich wird deutlich, daß zur näheren Untersuchung des Phasenübergangs von Kernmaterie nicht die in der Anregungsenergie saturierenden asymmetrischen Projektil-Target Kombinationen benutzt werden können. Die physikalische Fragestellung einer neuen Generation von Experimenten mit dem ALADIN-Detektor müßte in der Quantifizierung des Phasenübergangs und seiner dynamischen Observablen liegen. Dabei ist Beantwortung der Frage nach der zeitlichen Entwicklung der Fragmentproduktion über Korrelationen der Fragmente im Bereich des Phasenübergangs im Vergleich zum Maximum der universellen Kurve sowie die ereignisweise Bestimmung von dynamischen Observablen anzustreben.
Im Rahmen dieser Arbeit ist es gelungen, eine weltweit einmalige Messapparatur zu entwickeln, mit der Wasserstoffmolekülionen mittels kurzer Laserpulse ionisiert und die Reaktionsprodukte kinematisch vollständig vermessen werden können. Es wird dazu eine an die Coltrims-Technik angelehnte Detektionsmethode genutzt, bei der sowohl Protonen als auch Elektronen über den vollen Raumwinkel nachgewiesen werden können. Die H2+ -Ionen stammen aus einer Hochfrequenz-Ionenquelle und werden auf 400keV beschleunigt. Die Besetzungshäufigkeit der Vibrationsniveaus entspricht daher der Franck-Condon-Verteilung für den Übergang aus dem Grundzustand des neutralen Wasserstoffmoleküls in den elektronischen Grundzustand des Molekülions: H2 (xPg, ν = 0) → H2+ (1sσg, ν′) Dieser Ionenstrahl wird mit einem 780 nm Laserpuls der Pulslänge 40 fs überlappt. Nach der Reaktion fragmentiert das Molekülion entweder über den Dissoziationskanal H2+ + nhν ⇒ H + H+ oder über eine Ionisation gefolgt von einer Coulomb-Explosion: H2+ + nhν ⇒ H+ + H+ + e−. Die Projektile werden nach einer Driftstrecke von etwa 3 m auf einem Ionendetektor nachgewiesen. Für den Nachweis der Elektronen wurde ein spezielles Spektrometer konzipiert, das eine Unterdrückung ungewollter Elektronen erlaubt und so die Messung der Elektronen ermöglicht. Um Elektronen auszublenden, die vom Laser aus dem Restgas ionisiert werden, ist der Elektronendetektor in Flugrichtung der Ionen versetzt angebracht. Durch die unkonventionelle Ausrichtung des Lasers in einem Winkel von 20◦ relativ zur Flugrichtung der Ionen können vom Laser erzeugte Elektronen nur dann den Elektronendetektor erreichen, wenn sie aus dem bewegten Bezugsystem der Projektile stammen. Diese Unterdrückung macht die Messung der Elektronen erst möglich, hat aber auch eine nachteilige Geometrie der Verteilungen gegenüber den Detektorebenen zur Folge. Durch die Ausnutzung der Projektilgeschwindigkeit ist überdies die Benutzung eines B-Feldes zur Verbesserung der Flugzeitauflösung der Elektronen nicht möglich. Um eine Überlappung des Ionenstrahls mit dem Laserfokus zu erreichen, wurde im Bereich der Reaktionszone ein System zur Visualisierung der Strahlpositionen integriert. Dieses kann überdies für eine Intensitätseichung bei linear polarisiertem Licht verwendet werden. Bei der Reaktion kommt es durch die vergleichsweise lange Pulsdauer schon bei relativ niedrigen Intensitäten zu Dissoziationsprozessen. Das dissoziierende Molekül erreicht noch während der ansteigenden Flanke des Laserpulses auf diese Weise Abstände, bei denen der Prozess der Charge-Resonance-Enhanced-Ionization (CREI) stattfinden kann. Auch die in einem sehr engen Winkelbereich um die Polarisationsrichtung des Lasers liegende Winkelverteilung der gemessenen Protonen deutet darauf hin, dass CREI der dominante Ionisationsprozess ist. Durch die vorausgehende Dissoziation nimmt das Molekül schon vor der Ionisation eine kinetische Energie auf, so dass die gemessene KER-Verteilung einer Summe aus KERDissoziation und KERIonisation darstellt. Ein Vergleich mit den KER-Spektren des Dissoziationsprozesses zeigt, dass die aufgenommene Energie durch Dissoziation zu einem überwiegenden Anteil in einem Bereich von 0, 6 ± 0, 35 eV besitzt, während die Gesamt-KER-Verteilung deutlich höhere Werte bis zu 6 eV aufweist. Dies ermöglicht, aus der gemessenen KER-Verteilung den internuklearen Abstand zum Ionisationszeitpunkt näherungsweise zu bestimmen. Die gemessenen Elektronen weisen, ebenso wie die Protonen, eine scharfe Ausrichtung entlang der Laserpolarisation auf, was durch den Einfluss des Lasers auf dieser Achse nicht verwunderlich ist. Bei zirkularer Polarisation dagegen findet eine Netto-Beschleunigung der Elektronen senkrecht zur Richtung des elektrischen Feldes zum Ionisationszeitpunkt statt, sodass die Messung der Elektronenimpulse eine geeignete Messgröße zur Untersuchung des Ionisationsprozesses darstellt. Auf diese Art konnten Winkelverteilungen der Elektronen bezüglich der internuklearen Achse innerhalb der Polarisationsebene gemessen werden. Abhängig von KER und Elektronenergie konnte dabei eine Verdrehung der Verteilung gegenüber den klassisch erwarteten 90◦ relativ zur internuklearen Achse festgestellt werden. Die Winkelverteilung rotiert dabei mit steigendem KER entgegen des Drehsinns. Dies widerspricht der gängigen Vorstellung einer Tunnelionisation, bei der nur die Beschleunigung des Elektrons im Laserfeld eine Rolle spielt und der Einfluss des Coulomb-Potentials vernachlässigt wird. Für höhere Elektronenergien zeigt sich eine zweite konkurrierende Struktur, die für die höchsten Energien die sonst vorherrschende erste Struktur sogar dominiert. Da sich in den Protonenspektren für linear polarisiertes Licht kein Einfluss einer Ionisationsenkrecht zur Polarisationsrichtung findet, erscheint dies als Grund für die zweite Struktur in den Elektron-Winkelverteilungen als unwahrscheinlich. Eine stichhaltige und gestützte Erklärung gibt es bisher weder für die Rotation der ersten Struktur noch für die Herkunft der zweiten. Dies zeigt deutlich, dass es auch für dieses einfachste Molekülsystem noch einen erheblich Handlungsbedarf sowohl auf theoretischer als auch von experimenteller Seite gibt. Da dieses Experiment den ersten experimentellen Zugang für die direkte Untersuchung der Elektronimpulse bei der Ionisation von H2+ -Ionen in kurzen Laserpulsen darstellt, bietet sich hier die bisher einzige Möglichkeit, dieses Verhalten experimentell zu untersuchen.
In der vorliegenden Arbeit wurden die Eigenschaften heißer dichter Kernmaterie in relativistischen Schwerionenkollisionen mit Hilfe transporttheoretischer Methoden untersucht. Dabei wurden über einen weiten Energiebereich von 1 A GeV am GSI/SIS18 über BNL/AGS und GSI/SIS200 bis hin zu 160A GeV Einschußenergie am CERN/SPS verschiedene Observablen diskutiert und mit eigenen Modellrechnungen verglichen. Zunächst wurden in Kapitel 1 in die theoretischen Grundlagen der mikroskopischen Transporttheorie eingeführt und die wichtigsten semiklassischen mikroskopischen Transportmodelle vorgestellt. Das unter eigener Mitwirkung am Institut für Theoretische Physik entstandene Transportmodell, das UrQMD-Modell, wurde im Rahmen dieser Arbeit bis zur Versionsnummer 1.3 verbessert und erweitert. Das Modell und ein Überblick verschiedener Observablen im Modell wurden bereits früher gemeinsam publiziert. Die ausführliche Diskussion dieses Modells in der jetzigen Fassung findet sich in Kapitel 2. Besonders der komplexe Kollisionsterm wird detailliert und systematisch beschrieben. Wo vorhanden, werden die implementierten Kanäle und Wirkungsquerschnitte den experimentellen Daten gegenübergestellt. In Kapitel 3 wurde eine Methode zur relativistisch korrekten Berechnung von Baryon und Mesonendichten sowie von Energiedichten entwickelt. Mit dieser Methode konnten Zeitentwicklungen und Ortsraumverteilungen von Dichten im Bereich von 1 bis 160 A GeV erstellt werden. Im Vordergrund der Analysen stand die Fragestellung, welches Raum-Zei-tVolumen die Hochdichtephase in Abhängigkeit von der Einschuß energie einnehmen kann. Bemerkenswertes Ergebnis dieser Untersuchungen war, daß die maximal erreichbare Dichte zwar mit der Einschußenergie monoton ansteigt, je doch eine besonders ausgedehnte und langlebige Phase hoher Baryonendichte bei Einschußenergien zwischen 5 und 10 GeV/Nukleon erreicht wird. Auch wurde am Beispiel des Systems Uran-Uran bei 23 A GeV untersucht, inwieweit durch den Einsatz deformierter Kerne die Hochdichtephase intensiviert werden kann. Die Rechnungen haben gezeigt, daß die vorhergesagte Steigerung der Baryondichte um 30% bei Verlängerung der Hochdichtephase um 50% nicht realistisch ist. In weiteren Analysen wurden die in Schwerionenkollisionen erreichbaren Energiedichten diskutiert, sowie eine Interpretation der nichtformierten Hadronen als ein "partonischer" Freiheitsgrad vorgestellt. Es hat sich gezeigt, daß der partonische Beitrag zur Energiedichte vor allem in der Frühphase der Kollision bei weitem überwiegt. Im Kapitel 4 wurde ein Modell zur Produktion von Kaonen in der Nähe der Produktionsschwelle vorgestellt. Die elementaren Produktionskanäle wurden hier über hoch massige Resonanzen modelliert, im Gegensatz zu anderen vorgeschlagenen Modellen, die direkte Parametrisierungen vornehmen. Desweiteren wurden alle implementierten Produktions und Streukaäale von seltsamen Hadronen im Vergleich mit experimentellen Daten diskutiert. Das Kapitel 5 widmete sich ausschließlich der Produktion von Mesonen bei SIS18 Energien. Zunächst wurde ausführlich auf den Produktions und Absorptionsprozeß von Pionen im System Pi-N-Delta eingegangen. Sowohl Spektren als auch Multiplizitäten in Abhängigkeit von der Anzahl an Partizipanten im UrQMD wurden mit experimentellen Daten von TAPS und FOPI verglichen. Die Ergebnisse legen nahe, daß die Pionproduktion bis 2 A GeV im Rahmen der mikroskopischen Transporttheorie vollständig verstanden werden kann, wenn neben dem Delta1232 auch alle höheren Resonanzzustände sowie multiste-pAnregungen in die Rechnung einbezogen werden. Auch die Produktion von Kaonen in Abhängigkeit von der Anzahl an Partizipanten und der Systemgröße wurde diskutiert. Auch hier können die gemessenen Zusammenhänge qualitativ im Rahmen des mikroskopischen Modells verstanden werden. Zum Abschluß des Kapitels wurden Ausfrierzeiten, radien und dichten für einzelne Baryonen und Mesonenspezies analysiert. Zentrales Ergebnis dieser Untersuchungen ist, daß es bei einer Schwerionenreaktion keineswegs zu einem simultanen Ausfrieren aller Hadronspezies bei gleicher Dichte und gleichem Radius kommt, sondern daß die Ausfrierverteilungen eine komplexe Zeit und Ortsraumstruktur aufweisen, die u.a. von den Wirkungsquerschnitten und Produktionsmechanismen für die einzelnen Spezies abhängt. In Kapitel 6 wurden die erst kürzlich publizierten Daten der NA49Kollaboration bei 40, 80 und 160 A GeV einer detaillierten Analyse mit dem UrQMD-Modell unterzogen, sowie Vorhersagen für die geplanten Messungen bei 20 A GeV gemacht. Es konnte gezeigt werden, daß es für den Vergleich von Modellrechnung mit dem Experiment notwendig ist, genau die gleiche Zentralitätsbestimmung wie im Experiment zu benutzen. Eine einfache Beschränkung auf ein festes Stoßparameterintervall führt zur Selektion einer falschen Gruppe von Ereignissen. Ein Vergleich des Abstoppverhaltens von Protonen, Hyperonen, Antiprotonen und Antihyperonen hat gezeigt, daß zwar die Dynamik der Baryonen im Rahmen des UrQMD-Modells gut verstanden werden kann, jedoch die Produktion der Antibaryonen um ein mehrfaches unterschätzt wird. Verschiedene Erklärungsmodelle, wie screening oder die Verletzung des detaillierten Gleichgewichts bei Stringzerfällen wurden diskutiert. Auch der starke Einfluß der Implementierung von Annihilationskanälen konnte aufgezeigt werden. Zum Schluß des Kapitels wurde die Produktion von Kaonen und Antikaonen im Modell und im Experiment einer genauen Analyse unterzogen. Die Modellrechnungen legen nahe, daß bei SPS-Energien weder Kaonen noch Antikaonen als direkte Signael der frühen Phase der Kollision betrachtet werden können. Zwar wird die Gesamtseltsamkeit des Systems im wesentlichen in den ersten, harten Kollisionen erzeugt, jedoch finden hinterher noch zahllose Kollisionen mit Seltsamkeitsaustausch statt, bevor Kaonen und Antikaonen endlich ausfrieren. Im letzten Kapitel schließlich wurden die Analysen auf die Daten vom BNL/AGS ausgedehnt und ein vergleichender Überblick über den gesamten Energiebereich von SIS18 bis SPS vorgenommen. Um die Robustheit sowohl der Observablen als auch der mikroskopischen Transporttheorie zu testen, wurden bei acht Energien die Form der Spektren von Protonen, Pionen, Kaonen, Lambdas und Sigmas in Rechnungen mit zwei unabhängigen Transportmodellen und den experimentellen Daten verglichen. Desweiteren wurden für alle Spektren sowohl die 4-Pi -Daten als die Werte bei Mittrapidität ermittelt und als Funktion der Einschußenergie mit den experimentellen Daten verglichen. Schließlich wurden aus den Multiplizitäten Hadron-Hadron-Verhältnise gebildet und diese wiederum mit den Daten verglichen. Neben vielen interessanten Detailerkenntnissen konnte das folgende grobe Bild entwickelt werden: Die korrekte Produktion von Seltsamkeit, sowohl in Hyperonen als auch in Kaonen, gelingt beiden hadronischen Modellen, ohne daß besondere nichthadronische Effekte angenommen werden müßten, über den gesamten Energiebereich. Die Pionproduktion wird bei den verschiedenen Energien mal von dem einen, mal von dem anderen Modell besser beschrieben, nie jedoch sind die Abweichungen größer als etwa 20%. Die Teilchenverhältnisse, deren qualitativer Verlauf ein mögliches Signal für einen Phasenübergang sein soll, werden trotz guter Beschreibung der Pionen und sehr guter Beschreibung der Kaonen von beiden Modellen qualitativ völlig unterschiedlich vorhergesagt. Die im Rahmen dieser Arbeit durchgeführten Rechnungen legen also nahe, daß zum einen die Rolle der Seltsamkeitsproduktion als Indikator für nichthadronische Physik überdacht werden sollte, und zum anderen der qualitative Verlauf des K +/Pi -Verhältnisses aufgrund der geringen Fehlertolleranz nicht als belastbarer Beweis eines Phasenübergangs gesehen werden sollte.
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Die analytische Ultrazentrifuge ist ein unverzichtbares Instrument zur Charakterisierung von schwachen Protein-Protein-Wechselwirkungen und deren funktioneller oder regulatorischer Bedeutung. Eine besondere Gruppe von Untersuchungsobjekten bilden die integralen Membranproteine, die für eine Ultrazentrifugenanalyse solubilisiert, d.h. aus ihrer natürlichen, hydrophoben Umgebung in wäßriges Milieu überführt werden müssen. Diese Aufgabe wird vom Standpunkt der Erhaltung des natürlichen Proteinzustands am besten von nichtionischen Detergenzien erfüllt, wobei das biochemisch optimale Detergens von Protein zu Protein i.A. verschieden ist. Die notwendige Anwesenheit von Detergens während der Zentrifugenanalyse belastet diese andererseits, da freies wie proteingebundenes Detergens zusätzliche unbekannte Größen darstellen. Diese Unbekannten können durch experimentelle Gleichsetzung von Detergensdichte und Lösungsdichte eliminiert werden (Dichtekompensation). Die Möglichkeiten der etablierten Dichtekompensationsverfahren sind allerdings beschränkt, insbesondere Detergenzien mit hoher Dichte sind damit nicht erfaßbar - ein Mangel, der manche Untersuchung be- oder verhindert. Aus diesem Grund wurden neue Dichtekompensationsverfahren entwickelt und bestehende verbessert bzw. erweitert: zum einen die Erhöhung der Lösungsdichte durch Zusatz von Saccharose, Glyzerin oder einer Saccharose-D2O-Kombination, zum anderen die Anpassung der Detergensdichte durch Mischen von Detergenzien mit niedriger und mit hoher Dichte. Die neuen Verfahren wurden überprüft, indem ein integrales Membranprotein mit bekannten Eigenschaften, Cytochrom c-Oxidase von Paracoccus denitrificans, unter Anwendung sowohl der neuen Verfahren als auch der etablierten D2O-Methode im Sedimentationsgleichgewicht analysiert wurde. Der Vergleich der Ergebnisse zeigte zum einen die Äquivalenz der verschiedenen Methoden im Falle der Kompensation von Detergensdichten, die auf herkömmliche Weise kompensierbar sind, zum andern, daß nach Kompensation deutlich höherer Dichten das partialspezifische Volumen des Proteins zu korrigieren ist. Eine derartige Korrektur wurde nötig beim Vorhaben, den oligomeren Zustand des Cytochrom bc1-Komplexes von Paracoccus denitrificans zu bestimmen, da dieses Atmungskettenenzym nur in Gegenwart von DDM, einem Detergens mit hoher Dichte, stabil war. Die Unsicherheit, die sich aus der via Vergleich mit Cytochrom c-Oxidase durchgeführten Korrektur ergab, war nicht relevant, da sich der intakte bc1-Komplex in DDM-Lösung als einheitliche Substanz erwies und er damit ein "einfaches" Problem darstellte. Die Sedimentationsgleichgewichtsuntersuchung des Proteins unter der Bedingung der Dichtekompensation ergab nach Berücksichtigung des Korrekturterms, daß der solubilisierte, enzymatisch aktive bc1-Komplex als Dimer vorliegt. Dieses Ergebnis korreliert mit der aktuellen Vorstellung von der Funktionsweise des Enzyms, derzufolge die dimere Form für den Elektronentransfer notwendig ist. Komplizierter als der oligomere Zustand des bc1-Komplexes ist offenbar das Selbstassoziationsverhalten des Bande 3-Proteins, des Anionenaustauschers aus der menschlichen Erythrozytenmembran: Entgegen der vorherrschenden Meinung, eine in Detergenslösung vorliegende intakte Bande 3 bilde stabile Dimere, weisen die vorliegenden Ergebnisse darauf hin, daß das solubilisierte Protein aus mehreren Oligomeren besteht. So zeigen die vorhandenen Daten neben dimerer Bande 3 die Existenz von monomerem und tetramerem Protein, letztere Form vermutlich in unterschiedlichen Zuständen, und verweisen auf ein Assoziationsgleichgewicht zwischen den Oligomeren, vermutlich überlagert durch stabiles Dimer. Letzteres erscheint als "Grenzfall" eines Bande 3-Präparats, der nach langer Lagerung und/ oder nach suboptimaler Behandlung eintritt. Wegen der Komplexität des Bande 3-Verhaltens konnten die Zentrifugenuntersuchungen nur in Gegenwart von Detergenzien durchgeführt werden, deren Dichte eine Kompensation ohne Korrekturbedarf zuläßt. Darüber hinaus kamen wegen der offensichtlichen Empfindlichkeit der Bande 3 nur sehr milde Detergenzien zum Einsatz: C12E9 und Triton X-100 (reduzierte Form). Aus selbigem Grund wurde die Detergensdichte bevorzugt mit Saccharose oder Glyzerin kompensiert, deren proteinstabilisierende Wirkung bekannt ist.
Die vorliegende Arbeit beschäftigt sich mit den Tieftemperatureigenschaften dreier niedrigdimensionaler Spinsysteme. Der experimentelle Schwerpunkt liegt auf Messungen zur thermischen Ausdehnung und zur spezifischen Wärme, die mit einem hochauflösenden kapazitiven Dilatometer bzw. einem AC-Kalorimetrie-Aufbau durchgeführt wurden. Da die sogenannten magnetischen Grüneisenparameter, die die Stärke der Kopplung des magnetischen Teilsystems ans Gitter beschreiben, durchweg sehr groß sind, liefern insbesondere die thermischen Ausdehnungsmessungen wertvolle Informationen zum Verständnis der behandelten Systeme. Das zentrale Ergebnis dieser Arbeit stellen Messungen an der Hochdruckphase von (VO)2P2O7, kurz HP-VOPO, dar. Dieses System besteht aus alternierenden Spinketten, wobei die beiden Austauschkonstanten ähnliche Werte haben, das heißt es liegt nur eine schwache Alternierung vor. In der thermischen Ausdehnung beobachtet man eine insbesondere in Kettenrichtung sehr ausgeprägte Anomalie bei etwa 13 K. Die Erklärung dieser Anomalie offenbart einen neuartigen Aspekt von alternierenden Spinketten mit schwacher Alternierung, der auf dem Vorhandensein von zwei deutlich verschiedenen Energieskalen beruht, zum einen der größeren der beiden Austauschkonstanten und zum anderen der Energielücke im System. Eine sehr gute quantitative Beschreibung der thermischen Ausdehnungsmessungen gelingt durch eine Erweiterung des herkömmlichen Grüneisenmodells, welches eine Proportionalität zwischen den magnetischen Beiträgen zur thermischen Ausdehnung und zur spezifischen Wärme vorsieht, auf Systeme mit zwei magnetischen Austauschkonstanten. In diesem Fall tritt in der thermischen Ausdehnung ein zusätzlicher, zur Ableitung der Entropie nach der Energielücke proportionaler Term auf, der durch Messungen zur spezifischen Wärme nicht zugänglich ist. Aus den unter Verwendung dieses Modells bestimmten Grüneisenparametern lässt sich folgern, dass die ausgeprägte Tieftemperaturanomalie in HP-VOPO zum Teil von der starken Verzerrungsabhängigkeit der kleineren der beiden Austauschkonstanten, zum Teil aber auch von der Nähe zu einem quantenkritischen Punkt verursacht wird. Das zweidimensionale Dimersystem SrCu2(BO3)2 hat insbesondere durch die Lokalisierung der Triplettanregungen und die dadurch bedingten Magnetisierungsplateaus bei gewissen Bruchteilen der Sättigungsmagnetisierung Berühmtheit erlangt. In der thermischen Ausdehnung wird eine deutliche Anomalie bei der gleichen Temperatur beobachtet (T = 8K), wo sie auch in der spezifischen Wärme auftritt. Sie lässt sich durch die thermische Anregung der lokalisierten Tripletts erklären. Abschließend werden Messungen am natürlichen Mineral Azurit vorgestellt, bei dem die Spins zu sogenannten Diamantketten angeordnet sind. In der Literatur wird noch diskutiert, ob es sich bei Azurit um die magnetisch frustrierte Variante einer solchen Kette handelt. In der magnetischen Suszeptibilität, der spezifischen Wärme und der thermischen Ausdehnung tritt eine auffallende Doppelstruktur auf. Im Tieftemperaturbereich lässt sich die spezifische Wärme gut mit dem effektiven Modell einer homogenen Spinkette beschreiben. Auch der lambdaförmige antiferromagnetische Ordnungsübergang wurde untersucht und das in der Literatur bis B = 2 T gegebene Phasendiagramm, bestehend aus paramagnetischer, antiferromagnetische und Spin-Flop-Phase, bis B = 10 T erweitert.
Die vorliegende Arbeit befallt sich im theoretischen Teil mit den Grundlagen zu Strahl-Resonator-Wechselwirkungen bei Beschleunigerresonatoren und mit den sich daraus ergebenden Konsequenzen bei der Resonatorentwicklung für zukünftige lineare Kollider mit Multibunch-Betrieb. Zur Bekämpfung der vor allem im Multibunchbetrieb störenden Long-Range-Wakefelder müssen die schädlichen Moden möglichst so stark bedämpft werden, daß ihre Felder bis zum Eintreffen des nächsten Bunches auf ein erträgliches Maß abgeklungen sind. Im experimentellen Teil befaßt sich diese Arbeit daher mit der Entwicklung von Meßmethoden zur Bestimmung sehr kleiner Resonatorgüten sowie sehr kleiner transversaler Shuntimpedanzen bzw. sehr kleiner Feldpegel in stark störmodenbedämpften Beschleunigerresonatoren. Diese Meßmethoden sind an mehreren S-Band-Modellresonatoren (Betriebsfrequenz lag bei etwa 2.4 GHz) mit verschiedenen Dämpfungssystemen, die für den Einbau in einen normalleitenden Linearbeschleuniger für einen Kollider geeignet wären, erfolgreich getestet worden. Die Feldmessungen an den Modellresonatoren haben bisher unbekannte Gesetzmäßigkeiten bezüglich des Verhaltens dieser Dämpfungssysteme ergeben. In einer kurzen Beschreibung und Diskussion der sechs wichtigsten Vorschläge für zukünftige lineare Kollider wurde ein Überblick über die Unterschiede bei diesen verschiedenen Konzepten gegeben. Zunächst konnten über eine qualitative Diskussion der beim Linearbeschleuniger vom Iristyp vorkommenden Beam Blowup Phänomene, wie der regenerative BBU und der cumulative BBU, die Erscheinungsformen und die physikalischen Ursachen dieser BBU Phänomene verstanden werden. Hier zeigt sich, daß bei Irisstrukturen die HEM11-Moden die Hauptursache sowohl für den regenerativen- als auch für den cumulativen BBU sind. Der dritte Abschnitt führte in eine allgemeine Methode zur quantitativen Beschreibung der sogenannten Strahl-Resonator-Wechselwirkung ein. Diese Methode heißt Condon- Methode und erlaubt die Berechnung von BBU verursachenden Wakefeldern über eine Eigenwellenentwicklung aus den Eigenmoden des leeren Rersonators. Im vierten Abschnitt wurde durch die Herleitung des Theorems von Panofsky-Wenzel die Theorie der Strahl-Resonator-Wechselwirkung vervollständigt, wonach der einer Testladung während der Durchquerung eines felderfüllten Resonators mitgeteilte Transversalimpuls vollständig durch die räumliche Verteilung der elektrischen Longitudinalkomponente allein bestimmt ist. Damit erhält man also eine Aussage über die Wirkung der in Beschleunigerresonatoren feldanfachenden vorauslaufenden Ladungen auf die nachfolgenden. Dabei konnte auch die Frage geklärt werden, welche Moden zylindrischer Symmetrie wegen ihrer transversal ablenkenden Wirkung für den Teilchenstrahl gefährlich sind. Hier zeigt sich, daß alle BBU verursachenden Moden TM2np- bzw. TM2np-Moden sind, d.h., die Moden mit dipol- bzw. quadrupolartiger Symmetrie. Die Anwendung der in den Abschnitten drei und vier entwickelten Theorie zur Strahl-Resonator-Wechselwirkung konnte im Abschnitt fünf anhand dreier, für die Beschleunigerphysik sehr interessanter Beispiele gezeigt werden. Im ersten Beispiel gelang die Beschreibung der Wechselwirkung eines in Längsrichtung homogenen Strahls, welcher transversal Betatranschwingungen vollführt, mit der TM110-Mode eines Zylinderresonators. Dieses Beispiel ist von praktischer Bedeutung bei Linearbeschleunigern. die bei hohem Duty Cycle betrieben werden, also z.B. beim RACE TRACK Mikrotron oder bei supraleitenden Linacs. Beim zweiten Beispiel hat die Anwendung der Theorie auf eine Irisstruktur zu Formeln geführt, die sich Fair eine numerische Berechnung des Startstroms zum regenerativen BBU eignen, was jedoch relativ aufwendig ist. Es konnte aber auch eine einfache Abschätzungsformel für den Startstrom durch die Anwendung des Poyntingschen Satzes auf eine differentielle Länge des der Irisstruktur entsprechenden Wellenleiters abgeleitet werden. Aus der Bedingung, daß die durch den Strahl erzeugte Leistung pro Längeneinheit gleich den Leistungsverlusten pro Längeneinheit ist, findet man den Startstrom für den regenerativen BBU. Das letzte Beispiel, die Wechs 1 e Wirkung einer hochrelativistischen Punktladung mit einem beliebigen Resonator, ist auch das wichtigste. Hier wurden die Wakefelder aus einer simplen Energiebilanzbetrachtung abgeleitet, da eine Berechnung nach der Condon-Methode relativ aufwendig und langwierig wäre. Diese Vorgehensweise hat hier zu einem tieferen physikalischen Verständnis der Vorgänge im Resonator geführt. Die mit Hilfe einer Punktladung abgeleiteten Wakefelder sind Greensfunktionen. die zur quantitativen Beschreibung des cumulativen BBU’s bei linearen Kollidern benutzt werden können. Die Diskussion der anhand der Beispiele gewonnenen Ergebnisse am Ende des fiinften Abschnitts führte zu verschiedenen Maßnahmen zur Verringerung der schädlichen Strahl-Resonator-Wechselwirkung. Hier hat sich gezeigt, daß sowohl der regenerative BBU als auch der cumulative BBU u. a. durch eine Verringerung der Resonatorgüte der strahlstörenden Dipolmode verhindert werden können. Im sechsten Abschnitt erfolgte die noch ausstehende quantitative Beschreibung des cumulativen BBU mit Hilfe der im vorangehenden Abschnitt am dritten Beispiel gewonnenen Formeln für die Wakefelder. Die Berechnung der Strahlablage und Strahlrichtung geschieht hier über einen Matrizenformalismus, der aus der Idee heraus entstand, die Beschleunigersektionen des linearen Kolliders durch Resonatoren verschwindender Länge zu ersetzen. Uber den Matrizenformalismus konnte die durch den Einfluß von Beschleunigung, Fokussierung und Wakefeldern doch recht komplizierte Teilchenbewegung sehr elegant formuliert werden, jedoch eignet sich dieser Formalismus nur für numerische Zwecke. Abschätzungen sind in diesem allgemeinen Fall unmöglich. Durch die Einführung eines sehr restriktiven Modells, des sogenannten DAISY-CHAIN Modells, welches nur bei sehr stark bedämpften Beschleunigersektionen gültig ist. hat sich der Matrizenformalismus auf sehr einfache, der analytischen Berechnung zugängliche Gleichungen reduzieren lassen. Die Bedämpfung der Beschleunigersektionen muß dabei so stark sein, daß eine Ladung innerhalb einer ganzen Kette äquidistanter Ladungen nur ein signifikantes Wakefeld der unmittelbar vorrauslaufenden Ladung erfährt. Wie stark im Einzelfall bedämpft werden muß, um einen stabilen Transport einer Kette von Teilchenpaketen zu ermöglichen, konnte anhand zweier, in der Betriebsfrequenz unterschiedlicher Konzepte für normalleitende Linearbeschleuniger zukünftiger Kollider gezeigt werden. Dabei wurde deutlich, daß man bei ausschließlicher Anwendung von in Bezug auf die HEM11-pi-Mode stark bedämpften Beschleunigerstrukturen zur Kontrolle des cumulativen BBU bei einer hohen Betriebsfrequenz, z.B. im X-Band (11.45 GHz), sehr unbequem niedrige Gütewerte von ca. Q=5 erreichen muß. Das ist, wie sich im praktischen Teil der vorliegenden Arbeit gezeigt hat, vom technischen Aufwand her gesehen sehr schwierig. Für einen X-Band-Kollider wird man also eine Kombination von Maßnahmen zur Kontrolle des cumulativen BBU’s bevorzugen, z.B. neben dem Bedämpfen auch das sogenannte “Detunen” der Beschleunigersektionen. Bei einem Linearbeschleuniger im S-Band (Betriebsfrequenz bei 3 GHz) befindet man sich von vornherein bei ausschließlicher Verwendung gedämpfter Strukturen in bequemeren Gütebereichen Q ungefähr gleich 20-50, was ohne weiteres praktikabel ist. Aber auch hier kann man durch Zusatzmaßnahmen die Anforderungen an die Resonatordämpfung weiter reduzieren. Als erste Methode zur Bestimmung der Güte eines störmodenbedämpften Beschleunigerresonators wurde die Chipman-Methode angewendet. Meßobjekt war hier das dreizellige Modell einer Irisstruktur mit Halbzellenabschluß. Zur Auskopplung der dominanten Störmode, der sogenannten HEM11-Mode, war die mittlere Irisblende einseitig geschlitzt. Bei diesem Modell lag die Frequenz der als Beschleunigermode vorgesehenen TM010-2pi/3-Mode etwa bei 2.35 GHz und die Frequenz der dominanten Störmode, der HEM11-pi-Mode, lag bei etwa 2.81 GHz. Die mittlere geschlitzte Irisblende war austauschbar, so daß eine Messung der durch das Dämpfungssystem belasteten Güte QL bzw. des Koppelfaktors K in Abhängigkeit von der Schlitzhöhe möglich war. Die Messungen ließen sich bei diesem Koppelsystem ohne Schwierigkeiten durchrühren, bei der größten möglichen Schlitzhöhe von 10 mm wurde auch der größte Koppelfaktor mit 46 gemessen. Bei einer vom Dämpfungssystem unbelasteten Güte von Q0=4500 korrespondiert ein Koppelfaktor von K=46 mit einer durch das Dämpfungssystem belasteten Güte von QL = 100. Ein Mangel wurde bei der Anwendung der Chipman-Methode sofort sichtbar: Durch die Anregung der HEM11-pi-Mode von der Meßleitung aus sind im Koppelsystem offenbar Störmoden angeregt worden. Liegen diese Störmoden nahe bei der zu messenden Resonanz, dann ist eine präzise Bestimmung des Koppelfaktors unmöglich. Glücklicherweise war das hier nicht der Fall. Die Messungen mit der einseitig geschlitzten Irisblende haben gezeigt, daß dieses Dämpfungssystem Anwendung finden könnte bei Beschleunigerstrukturen im S-Band. wie sie z.B beim DESY/THD-Kollider vorgeschlagen wurden. Natürlich kann bei den hier erreichten Koppelfaktoren nicht die Dämpfung der schädlichen HEM11-pi- Mode die alleinige Maßnahme sein, die einseitig geschlitzte Irisblende könnte nur zusammen mit dem Detunen angewendet werden. Da die einseitig geschlitzte Irisblende auch eine Feldasymmetrie bei der Beschleunigermode erzeugt, müssen die Dämpfer entlang einer Beschleunigersektion alternierend angebracht werden, d.h. jeder Dämpfer ist im Bezug zum nächsten Nachbardämpfer um 90° gedreht. Die 90° ergeben sich aus der Notwendigkeit, auch die Dämpfung der zweit en Polarisationsebene der HEM11-pi-Mode zu gewährleisten. Als zweite, der Chipman-Methode sehr ähnliche Methode, wurde die Kurzschlußschiebermethode angewendet. Erstes Untersuchungsobjekt war die bei der Chipman- Methode bereits erwähnte dreizeilige Irisstruktur. Ein Vorteil im Vergleich zur Chipman-Methode ist vor allem die schnelle Durchführbarkeit der Messung bei wenig experimentellem Aufwand, wenn auch die Kurzschlußschiebermethode weniger präzise ist, und man auf einige Informationen, wie z.B. der Verlauf des Reflexionsfaktors und dessen Phase, verzichten muß. Im Vergleich mit der Chipman-Methode waren die mit der Kurzschlußschiebermethode gemessenen Koppelfaktoren immer um etwa 10-15% höher. Das liegt vor allem daran, daß die Theorie zur Kurzschlußschiebermethode von einem verlustfreien Resonator-Hohlleitersystem ausgeht, so daß die nach dieser Theorie ermitteten Koppelfaktoren prinzipiell zu groß sind. Auch bei dieser Methode hat sich gezeigt, daß eine Auswertung der Meßergebnisse scheitern muß, falls ein Modenüberlapp auftritt. Bei Experimenten mit komplizierteren Dämpfungssystemen, bestehend aus mehr als vier Hohlleitern an Resonatoren mit mehr als zwei Zellen ist deutlich geworden, daß eine Bestimmung des Koppelfaktors über die Kurzschlußschiebermethode durch die entstehende Modenvielfalt praktisch unmöglich ist. Es stellte sich heraus, daß bei der Auswertung der Meßergebnisse dadurch ein Fehler entsteht, wenigstens bei sehr starker Dämpfung, daß man die Feldverteilung als konstant animmt, denn bei dem Vergleich der unbelasteten Güte Q0 mit der vom Dämpfungssystem belasteten Güte QL geht man davon aus, daß die Feldverteilungen im ungedämpften- und gedämpften Fall identisch sind. Das kann bei Koppelfaktoren im Bereich von einigen zehn bis zu einigen hundert nicht mehr zutreffen, da das Feld der Mode immer stärker in das Dämpfungssystem eindringt, je stärker die Kopplung ist. Das ändert die Modengeometrie natürlich in dramatischer Weise und die belastete Güte QL kann dann nicht mehr einfach über die Gleichung QL=Q0/(1+ K) aus den gemessenen Größen Q, und K ausgerechnet werden, da der Koppelfaktor K nun nicht mehr konstant sein kann, sondern im Gegenteil sich sehr stark ändert, je nachdem an welcher Stelle die Felder gemessen werden. Ein weiterer Mangel bei beiden Methoden ist, daß über diese Methoden weder die longitudinale noch die transversale Shuntimpedanz bestimmt werden kann. Ein Ausweg aus diesem Dilemma war die Anwendung zweier neuer Meßmethoden, die Antennenmethode und die nichtresonante Störkörpermethode. Diese beiden Methoden beruhen im Gegensatz zu den ersten beiden Methoden auf einer direkten Bestimmung der Feldpegel bzw. der transversalen Shuntimpedanz im bedämpften Resonator was den Vorteil hat, daß im Resonator genau das Feld bzw. die Shuntimpedanz vermessen wird, welches die Teilchen bei der Durchquerung des Resonators auch tatsächlich sehen. Die Antennenmethode war eine komplette Neuentwicklung, während es sich bei der nichtresonante Störkörpermethode um die Anwendung einer seit 1966 bekannten, jedoch in Vergessenheit geratenen Theorie handelte. Beide Meßmethoden konnten am Beispiel eines im Bezug auf die TM110-Mode (Frequenz bei ca. 3.2 GHz) sehr stark bedämpften Zylinderresonators (Die Frequenz der TM010-Mode lag bei ca. 2.049 GHz) erfolgreich getestet werden. Die durch das Dämpfungssystem belastete Güte QL war hier ca. 10. Bei der Bestimmung der longitudinalen elektrischen Feldstärken bzw. der longitudinalen Shuntimpedanz der TM110-Mode in Abhängigkeit vom axialen Abstand vor und nach der Bedämpfung konnten zunächst folgende Feststellungen gemacht werden: 1) Die Modengeometrie im ungedämpften- und gedämpften Fall unterscheiden sich sehr stark voneinander. Dadurch mißt man verschiedene Koppelfaktoren, je nachdem an welcher Stelle man die Felder mißt. 2) der maximal gemessene Koppelfaktor liefert über die Gleichung QL=Q0/(1+K) die richtige beklastete Güte QL. 3) Der höchste Koppelfaktor wurde bei der Feldmessung in einem Achsortabstand vom halben Radius des Zylinderresonators gemessen. Da die beiden Meßmethoden das Verhältnis der elektrischen Feldstärkequadrate in Abhängigkeit vom Meßort vor und nach der Bedämpfung liefern, konnte die zweite Feststellung nur durch eine Kontrollmessung mit Hilfe der Kurzschlußschiebermethode, die hier dank des einfachen Aufbaus leicht durchfiihrbar war, gemacht werden. Die Kurzschlußschiebermessung lieferte eine Güte QL ungefähr gleich 9, während der höchste bzw. der niedrigste mit den beiden neuen Megmethoden ermittelte Koppelfaktor mit einer Güte von QL ungefähr gleich 11 bzw. mit einer Güte von QL ungefähr gleich 14 korrespondierte, d.h. also. daß der höchste gemessene Koppelfaktor für dieses Dämpfungssystem die richtige Resonatorgüte liefert. Anhand eines zweizeiligen Resonators (Die Frequenz der TM010-2pi/3-Beschleunigermode lag bei ca. 2.35 GHz) mit beidseitig geschlitzter Irisblende als Dämpfungssystem für die HEM11-pi-Mode (ca. 3.5 GHz) konnte gezeigt werden, daß die zweite Feststellung eine Gesetzmäßigkeit bei spiegelsymmetrischen Dämpfungssystemen ist. Im Unterschied zum Zylinderresonator wurde der höchste mit der richtigen bedämpften Güte QL ungefähr gleich 37 korrespondierend Koppelfaktor K ungefähr gleich 153 jedoch direkt auf der Resonatorachse gemessen. Die bedämpfte Güte wurde auch hier wieder mit Hilfe der Kurzschlußschiebermethode kontrolliert. Ein sehr interessantes Verhalten zeigte der gleiche zweizeilige Resonator mit einseitig geschlitzter Irisblende als Dämpfungssystem. Hier korrespondierte der in der Nähe der Resonatorwand gemessene niedrigste Koppelfaktor mit der bedämpften Güte QL ungefähr gleich 230 des Resonators. In Achsennähe hingegen war der Koppelfaktor etwa dreimal höher, K ungefähr gleich 82, als aus der der Güteerniedrigung K ungefähr gleich 35 nach der Dämpfung hervorgegangen wäre, die transversale Shuntimpedanz ist also auch etwa um den Faktor 3 erniedrigt. Durch dieses Verhalten ist der einseitig bedämpfte Resonator für die Verwendung bei einem linearen Kollider im S-Band (hier muß nicht so stark bedämpft werden) interessant geworden, denn wenn nur wenige Zellen einer Beschleunigersektion mit einem Dämpfungssystem ausgerüstet werden müssen, ist es wichtig in diesen Zellen ein effektives Dämpfungssystem bei Gewährleistung eines einwandfreien Transports der Feldenergie der HEM11-pi-Mode in diese gedämpften zu haben. Das funktioniert einerseits nur, wenn sich die Resonanzfrequenz der gedämpften Zellen in Bezug auf die HEM11-pi-Mode auf die Resonanzfrequenz der benachbarten ungedämpften Zellen einstellen läßt und andererseits die mit einer Dämpfung einhergehende schlechtere Anregungsfähigkeit dieser Störmode in den gedämpften Zellen nicht zu schlecht ist. Bei einer zu starken Dämpfung wäre beides nicht möglich. Zusammenfassend kann man sagen, daß durch die Antennen- und die nichtresonante Störkörpermethode ein für die Entwicklung von störmodenbedämpften Beschleunigerresonatoren für zukünftige lineare Kollider und natürlich auch anderer Elektronenbeschleuniger sehr wirksames Instrument zur Verfügung steht. Ein detailliertes Design eines für einen bestimmten Beschleuniger passenden Dämpfungssystems ist mit Hilfe dieser Meßmethoden möglich geworden, da kleine Unterschiede zwischen verschiedenen Ausführungen von Dämpfungssystemen meßbar sind. Durch die bei der Anwendung der Meßmethoden auf unterschiedliche bedämpfte Resonatoren gefundenen Gesetzmäßigkeiten ist unter anderem auch die Frage geklärt worden, auf welche Weise ein Dämpfungssystem auch auf numerischem Wege mit Hilfe von Computerprogrammen wie z.B. MAFIA berechnet werden kann.
Im Rahmen dieser Arbeit werden verschiedene Modellsysteme untersucht, die Metriken der klassischen Allgemeinen Relativitätstheorie mit Erweiterungen vergleichen, in denen Ereignishorizonte nicht existieren müssen. Die untersuchten Korrekturterme sind durch Schwachfeldmessungen, wie sie zum Beispiel in unserem Sonnensystem durchgeführt werden, nicht überprüfbar. Es ist deshalb nötig solche Systeme zu betrachten, in denen die vollständigen Gleichungen berücksichtigt werden müssen und keine Entwicklungen für schwache Felder gemacht werden können. Es gibt eine Reihe von astrophysikalischen Systemen, die diese Bedingungen erfüllen, wie das Galaktische Zentrum oder Doppelsternsysteme.
Im zweiten Kapitel der Arbeit werden Testteilchenorbits in einem Zentralpotential beschrieben und Unterschiede zwischen der klassischen und einer modifizierten Kerr-Metrik herausgearbeitet. Drei neue Phänomene der modifizierten Metrik gegenüber der Klassischen treten hier in Erscheinung. Zum einen haben Teilchen, die sich auf prograden Bahnen um den Zentralkörper drehen, ein Maximum in ihrer Winkelgeschwindigkeit. Zum anderen ist das Phänomen des frame-draggings deutlich schwächer ausgeprägt. Schließlich tritt ein letzter stabiler Orbit für entsprechend schnell rotierende Zentralkörper nicht mehr auf. Gleichzeitig sind die Unterschiede in den beiden Metriken für große Abstände (r > 10m) nahezu vernachlässigbar. In Kapitel 3 werden diese Ergebnisse auf zwei unterschiedliche Modelle zur Beschreibung von Akkretionsscheiben angewendet. Untersucht wird zum einen das Verhalten der Eisen-Kα-Emissionslinie und zum anderen der Energiefluss aus einer Akkretionsscheibe.
In der Form der Eisen-Kα-Emissionslinie gibt es eine deutliche Zunahme des rotverschobenen Anteils der Strahlung in der modifizierten Kerr-Metrik gegenüber der klassischen Kerr-Metrik. Die Akkretionsscheibe nach Page und Thorne zeigt unter Verwendung der modifizierten Kerr-Metrik eine signifikante Erhöhung der abgestrahlten Energie, wenn der Zentralkörper so schnell rotiert, dass kein letzter stabiler Orbit mehr auftritt. Zusätzlich gibt es hier in der Scheibe einen dunklen Ring im Vergleich zu den Bildern höherer Ordnung, die in der klassischen Kerr-Metrik auftreten. Erklärbar sind diese Phänomene dadurch, dass sich Teilchen auf stabilen Bahnen in der modifizierten Kerr-Metrik näher an den Zentralkörper heran bewegen können, als es in der klassischen Kerr-Metrik der Fall ist. Die Rotverschiebung ist für beide Fälle annäherend gleich.
Kapitel 4 gibt eine kurze Einführung in die Beschreibung von Gravitationswellen im Rahmen der linearisierten Allgemeinen Relativitätstheorie. Hier wird als Modell ein Binärsystem, wie etwa der Hulse-Taylor-Pulsar, betrachtet. Die Unterschiede zwischen der klassischen Theorie und einer Beschreibung unter Hinzunahme von Zusatztermen sind hier erwartungsgemäß sehr gering, da die Linearisierung der Gleichungen dazu führt, dass Starkfeldeffekte vernachlässigt werden. Für große Abstände, was in diesem Fall auch schwache Felder impliziert, sind die Erweiterungen der Gleichungen vernachlässigbar. Hier werden zum Teil auch Effekte in der klassischen ART vernachlässigt.
In Kapitel 5 befindet sich ein kurzer Ausblick in die 3+1-Formulierung der Einsteingleichungen für die numerische Beschreibung von Gravitationsphänomenen. Diese Beschreibung ermöglicht es auch komplexe Systeme ohne viele nähernde Annahmen genau beschreiben zu können. Diese Systeme können zum einen Akkretionsscheiben um kompakte Objekte sein, aber auch die Verschmelzung von zwei massiven Objekten und die damit verbundenen Gravitationswellensignale. Dadurch lassen sich die Vorhersagen der ART oder etwaiger Erweiterungen präziser modellieren.
Die vorgestellten Ergebnisse liegen innerhalb der Einschränkungen durch aktuelle Messungen. Zukünftige Messungen wie genauere Beobachtungen des Galaktischen Zentrums durch das Event Horizon Telescope sind aber voraussichtlich dazu in der Lage zwischen den untersuchten Metriken zu unterscheiden.
Im NA49-Experiment wird der hadronische Endzustand von Kern und Protonen induzierten Reaktionen gemessen, um die Eigenschaften von Kernmaterie unter extremen Bedingungen zu untersuchen. Dabei stellt die Flugzeitmessung ein wichtiges Instrument zur Teilchenidentifizierung dar. Der von Yu.N. Pestov 1971 erstmal vorgestellte und nach ihm benannte Pestov-Zähler ist ein gasgefüllter Parallelplatten-Zähler, der im Funken/Überschlag-Modus betrieben wird. Die Besonderheit dieses Zählers ist die Lokalisierung der Entladung, die durch eine Anode aus halbleitendem Glas mit einem hohen spezifischen Widerstand und ein Zählgas mit großer Photonen-Absorption erreicht wird. In der Protonenstrahlzeit 1997 wurde der PesTOF-Detektor (Pestov Time Of Flight) bestehend aus zwölf einzelnen Zählern, erstmals im Vertex-1 Magneten des NA49-Experimentes eingesetzt. Neben der guten Zeitauflösung sind die Unempfindlichkeit gegenüber dem magnetischen Feld und die gute Ortsauflösung die auch bei großen Spurdichten ein korrektes Zuordnen der Treffer ermöglicht, die Voraussetzungen für diesen Einsatz. Der kinematische Akzeptanzbereich für die Identifikation von Pionen liegt bei Rapiditäten von y ~ 2-5 - 3 und Tranzversalimpulsen von pt <= 500 MeV/c. Der Akzeptanzbereich der Kaonen liegt bei einer Rapidität von y ~ 2 und Tranzversalimpulsen von pt <= 500 MeV/c. Der Detektor konnte über den gesamten Zeitraum stabil und zuverlässig betrieben werden. Die gemessene gaußförmige Zeitauflösung beträgt 78 ps, wobei die Hochspannung die 1.5fache Schwellenspannung betrug. Neben dem gaußförmigen Anteil der Zeitauflösung zeigt der Detektor jedoch auch einen asymmetrischen nicht gaußförmigen Anteil ("Tail"). Aufgrund einer verzögerten Funkenentwicklung im Zähler liegen etwa 12.6% der Signale außerhalb der gaußförmigen Verteilung bzw. sind etwa 4% der Signale um mehr als 500 ps verspätet. Neuere Untersuchungen mit anderen Zählgasen und Zählergeometrien haben gezeigt, dass der Anteil der verzögerten Signale in Zukunft deutlich reduziert werden kann. Der Verlauf der gemessenen pt und mt-Verteilungen der identifizierten Kaonen und Pionen kann durch Simulationen mit dem VENUS-Modell reproduziert werden. Mit der möglichen Verbesserung der Zeitauflösung und dem geplanten Ausbau des PesTOF-Detektors mit bis zu 80 einzelnen Zählern wird der Impuls- und Akzeptanzbereich, in dem Teilchen identifiziert werden können, deutlich vergrößert werden. Die Messungen dieser Arbeit geben einen Ausblick darauf dass es in Zukunft möglich sein wird, relevante physikalische Größen mit dem PesTOF-Detektor im NA49-Experiment zu messen. Insbesondere in nicht symmetrischen Stoßsystemen ist der Einsatz von Flugzeitdetektoren in dem rückwärtigen kinematischen Bereich der Reaktion interessant. Mit den in dieser Arbeit gefundenen positiven Eigenschaften und den sich abzeichnenden Modifikationen am Zählgas und Zähler ist der Pestov-Zähler ein interessanter Detektor für zukünftige Experimente.
Elektron-Zyklotron-Resonanz-Ionenquellen dienen der Erzeugung von hochgeladenen Schwerionen. Die Erzeugung und Extraktion der Schwerionen beruht auf dem komplexen Zusammenspiel von physikalischen Prozessen aus der Atom, Oberflächen und Plasmaphysik sowie der Elektrodynamik. In dieser Arbeit werden grundlegende physikalische Prozesse in EZR-Ionenquellen experimentell untersucht, welche auf Grund der Komplexität bislang nicht vollständig verstanden sind. Als Schwerpunkt werden insbesondere die häufig angewendeten Methoden zur Steigerung der Ausbeute an hochgeladenen Ionen erforscht. Hierzu zählen die negativ vorgespannte Scheibe (eine Elektrode in axialer Nähe des Plasmas, biased Disk), die Beschichtung der Plasmakammerwände mit Isolatoren (Wall coating) und die Gasbeimischung von leichteren Gasen zum eigentlichen Arbeitsgas. Die Untersuchungen wurden an der Frankfurter EZR-(VE)RFQ-Beschleunigeranlage durchgeführt und mit aktuellen Theorien sowie Messungen an anderen EZR-Ionenquellen verglichen. Zur Diagnose wird erstmals die negativ vorgespannte Scheibe im gepulsten Betrieb eingesetzt, um die dynamische Auswirkung dieser Scheibe auf den Ionisationsprozeß und die Ionenextraktion zu studieren. Als erstaunlichstes Ergebnis wird die bisher vermutete und in der Literatur dargestellte physikalische Wirkungsweise der biased Disk, nämlich die Erhöhung der Plasmadichte und eine Verbesserung des Ionisationsprozesses, widerlegt. Dieses Ergebnis wird durch Messungen der Quellenemittanz, des dynamischen Ionisationsverlaufes durch Injektion von kurzen Neutralteilchenpulsen mittels Laserablation, der Spektroskopie der Röntgenbremsstrahlung und der optischen Spektroskopie des sichtbaren Lichtes bestätigt. Als neue Hypothese für die physikalische Auswirkung der negativ vorgespannten Scheibe auf die Ausbeute an hochgeladenen Schwerionen wird eine axiale Elektronenverteilung angenommen. Diese entsteht aus axial oszillierenden Elektronen, welche in einem Potentialtopf zwischen der negativ vorgespannten Scheibe und dem Extraktionsbereich der Ionenquelle eingeschlossen sind. Radial werden diese Elektronen durch die Magnetfeldlinien der beiden Magnetspulen geführt. Diese Elektronenverteilung beeinflußt die Ionendiffusion aus dem EZR-Plasma und die Ionenstrahlformierung im Extraktionsbereich der Ionenquelle positiv. In dieser Arbeit wird zudem gezeigt, daß die gezielte Steuerung der Ionenextraktion durch die vorgespannte Scheibe (biased Disk) mit sehr geringem Aufwand möglich ist. Insbesondere durch Pulsung der Disk-Spannung ist die Extraktion von gepulsten Ionenstrahlen aus einer EZR-Ionenquelle mit bislang nicht erreichten Wiederholungsfrequenzen möglich (bis einige 10 kHz). Die Ionenpulse weisen zudem höhere Intensitäten im Vergleich zur kontinuierlichen Extraktion auf. Eine weitere angewendete Diagnosemethode ist die Injektion von kurzen Pulsen an Neutralteilchen in das EZR-Plasma mit dem Ziel, die Ionenerzeugung und die Ionenextraktion zeitaufgelöst zu studieren. Die Neutralteilchenpulse werden mit Hilfe der Laserablation erzeugt und im EZR-Plasma sukzessive ionisiert. Das zeitliche Verhalten der extrahierten Ionen gibt Ausschluß über die Dynamik des Ionisationsprozesses, den Ioneneinschluß und die Extraktion der Ionen. Hierbei werden die Auswirkungen der Mikrowellenleistung, des Quellengasdruckes, der Gaszusammensetzung und der negativ vorgespannten Scheibe auf die Erzeugung von hochgeladenen Ionen in einer EZR-Ionenquelle untersucht. Auch diese Messungen werden durch die Untersuchung der Röntgenbremsstrahlung und der optischen Spektroskopie des sichtbaren Lichtes vervollständigt. Außerdem wird der Einfluß der injizierten Neutralteilchenpulse auf das bestehende Plasma in der Ionenquelle gemessen. Neben der Plasmadiagnose durch die Injektion von Neutralteilchenpulsen mittels Laserablation wurde auch die Erzeugung von gepulsten Strahlen hochgeladener Ionen verschiedenster Festkörperelemente untersucht. Es wird gezeigt, daß durch einen einfachen Versuchsaufbau hochgeladene Ionen von nahezu allen Festkörpern erzeugt werden können. Durch den Einsatz von speziellen Aluminium-Hohlzylindern mit metalldielektrischer Beschichtung (AlAl 2 O 3 ) in der Plasmakammer der EZR-Ionenquelle (Wall coating) und der dadurch gezielten Beeinflussung der Plasma-Wand-Wechselwirkung kann die Ausbeute an hochgeladenen Schwerionen (z. B. Ar 16 ) um bis zu einem Faktor 50 gesteigert werden. Die in dieser Arbeit angewandten Diagnosemethoden und das dadurch erzielte bessere Verständnis der physikalischen Prozesse und der Dynamik im EZR-Plasma ermöglichen die Erhöhung der Ausbeute an hochgeladenen Ionen, die effektive Erzeugung von hochgeladenen Festkörperionen und die Extraktion von gepulsten Ionenstrahlen mit bisher nicht erreichten Wiederholungsfrequenzen.
In der vorliegenden Arbeit beschäftigen wir uns mit der Frage, wie ein Regler für ein hochdimensionales physikalisch/technisches System strukturiert und optimiert werden soll. Diesbezüglich untersuchen wir einen neuen Ansatz, welcher versucht, Regel-Mechanismen des ökonomischen Marktes und Lern-Prozesse mit in den Regler einzubauen. Um eine anschauliche Vorstellung von der Wirkung des Reglers zu erhalten, wenden wir diesen auf ein einfaches physikalisches Model an, eine an ihren Enden eingespannte eindimensionale Federkette. Wir implementieren das Model auf einem Rechner und simulieren den Einfluß des Regelverfahrens auf die Bewegung der Kette. Dabei beschränken wir uns auf den Grenzfall kleiner Amplituden, um das System im Rahmen einer näherungsweise linearen Dynamik beschreiben zu können. Mit Hilfe eines schwachen destabilisierenden Zusatzpotentials erreichen wir, daß die niedrigen Eigenmoden der schwingenden Kette instabil werden und die ausgestreckte Kette eine instabile Gleichgewichtslage darstellt. Wir stellen uns die Aufgabe, diese unter Verwendung des Reglers zu stabilisieren. Anhand des Modells untersuchen wir den Einfluß verschiedener Anfangsbedingungen der Kette, den Einfluß der Markt-Regelung, den Einfluß verschiedener Kommunikationsstrukturen und den Einfluß des Lernverfahrens auf die Wirksamkeit und die Robustheit des Regelprozesses. Als wichtigstes Ergebnis erkennen wir, daß die Regelung mit dem Markt robuster im Vergleich mit der Regelung ohne Markt ist, aber im allgemeinen einen höheren Regel-Energieaufwand aufweist. Untersuchungen anhand des Lernverfahrens ergeben, daß sich das Lernen der Markt- und der Kommunikationsstruktur kombinieren läßt und dadurch die Wirksamkeit der Regelung gegen über der Verwendung von nur einem der beiden Lern-Ansätze erhöht werden kann. Unsere Ergebnisse zeigen, daß sich das Markt-Konzept vollständig auf den gegebenen technischen Regelprozeß übertragen läßt. In der Diskussion der Ergebnisse führen wir die erhöhte Robustheit und den erhöhten Energieaufwand der Markt-Regelung auf eine indirekte, nichtlineare Kopplung der Regeleinheiten zurück, die der Markt-Mechanismus in den Regelprozeß einführt. Die Nichtlinearität bewirkt, daß die von dem Regler bestimmten Regelkräfte bei kleinen Kontrollfehlern relativ größer sind als bei großen Kontrollfehlern. Daduch ist der Energieaufwand der Markt-Regelung bei kleinen Kontrollfehlern gegenüber der Regelung ohne Markt erhöht. Der Regler ist damit in der Lage, die Kette auch bei dem Ausfall einer Regeleinheit zu stabilisieren, da ausreichend große Regelkräfte durch die verbleibenden Regeleinheiten ausgeübt werden. Die Kopplung von benachbarten Massenpunkten durch Federn unterstützt die Robustheit der Regelung in dem untersuchten Ketten-Modell, da die Kopplung dazu führt, daß die Massenpunkte eine zur instabilen Gleichgewichtslage rücktreibende Kraft erfahren und dadurch in den Bereich von kleinen Kontrollfehlern und relativ hohen Regelkräften gelangen. Am Ende der Diskussion gehen wir kurz auf mögliche Anwendungen der gewonnen Ergebnisse ein. Dabei haben wir besonders technische Regelprozesse im Sinne von Smart Matter (intelligente Bauteile) im Auge.
Die auf dem ACDM-Modell beruhenden numerischen Simulationen der gravitativen Strukturbildung sind auf Skalen M >> 10 hoch 10 M sehr erfolgreich, insbesondere konvergieren die Verfahren hinsichtlich des vorhergesagten Masseanteils der Halos an der Gesamtmasse von Galaxien. Jedoch konvergieren die Simulationen nicht bezüglich der lokalen Überdichten von CDM in den Halos, vielmehr setzt sich gravitative Strukturbildung auf immer kleinere Skalen fort. Numerisch kann keine Massen-Schwelle berechnet werden, unterhalb derer keine CDM-Strukturen mehr gravitativ gebildet werden. Die Kenntnis der lokalen Überdichten in den CDM-Wolken und die Verteilung der CDM-Wolken ist jedoch für Experimente zum direkten und indirekten Nachweis von CDM-Teilchen essentiell. Aus den lokalen Überdichten folgen für Experimente zum direkten Nachweis die einfallende Stromdichten der CDM-Teilchen und für Experimente zum indirekten Nachweis die Stromdichte der Annihilationsprodukte. Außerdem können die lokalen Überdichten als Gravitationslinsen wirken. In dieser Arbeit werden Massen Schwellen analytisch berechnet, unterhalb derer akustische Störungen in CDM nicht mehr zur gravitativen Strukturbildung beitragen können. Das Massen-Spektrum von lokalen Überdichten ist nach unten durch zwei unterschiedliche Mechanismen beschränkt: (1) Während der kinetischen Entkopplung formieren sich Nichtgleichgewichtsprozesse, die sich kollektiv als Reihungsphänomene konstituieren. Im lineare Regime sind dies die Volumenviskosität, die Scherungsviskosität und die Wärmeleitung. Die dissipativen Prozesse deponieren Energie und Impuls der akustischen Störungen in die Ebene senkrecht zur Ausbreitungsrichtung der Störungen und schmieren diese so aus. (II) Nach dem kinetischen Entkopplungsprozeß strömt CDM frei auf Geodäten. Dies ermöglicht einen Strom von Teilchen von überdichten in unterdichte Regionen, so daß die Amplituden der lokalen Überdichten weiter gedämpft werden. Die lokalen Transportkoeffizienten in (1) werden durch einen legitimen Vergleich von hydrodynamischer und kinetischer Beschreibung schwach dissipativer Prozesse gewonnen. Dissipative Prozesse induzieren eine Dämpfungsmasse Mc ungefähr gleich 10 hoch minus 9 M in SUSY-CDM und beschränken damit das Spektrum akustischer Störungen in SUSY-CDM. Freies Strömen (II) von CDM-Teilchen auf Geodäten induziert eine weitere Dämpfungsmasse M fs ungefähr gleich 10 hoch minus 6 M in SUSY-CDM, wobei das berechnete M d als Anfangswert dient. Die berechneten Schwellen liefern konsistente Schranken für numerische Simulationen, die weit unterhalb des momentanen numerischen Auflösungsvermögens liegen. Weiterhin folgt aus den Schwellen die Masse der ersten rein gravitativ gebundenen CDM-Wolken. Aus diesen bilden sich im Rahmen der hierarchischen Strukturbildung größere Substrukturen bis hin zu den heute vorhandenen CDM-Halos.
Struktur, Funktion und Dynamik von Na(+)-, H(+)-Antiportern : eine infrarotspektroskopische Studie
(2008)
Die Funktion von Membranproteinen ist von entscheidender Bedeutung für eine Vielzahl zellulärer Prozesse. Um diese verstehen zu können, ist das Verständnis der Beziehungen zwischen der Struktur, der Dynamik und der Wechselwirkung mit der Umgebung der Membranproteine notwendig. Spektroskopische Methoden, wie beispielsweise FTIR- und CD-Spektroskopie sind in der Lage, diese Informationen zu geben. In der vorliegenden Dissertation haben sie bedeutende Beiträge zum Verständnis der durch die Aktivierung induzierten Konformationsänderungen der Na+/H+ Antiporter geleistet. Die hohe Empfindlichkeit einer selbstkonstruierten FTIR-ATR-Perfusionszelle ermöglichte es, über eine Proteinprobe verschiedene Wirkstoffmoleküle perfundieren zu lassen und die dadurch verursachten strukturellen Änderungen spektroskopisch zu charakterisieren. Die Konformationsänderungen, die den Aktivierungsprozess begleiten, wurden bei zwei verschiedenen Na+/H+ Antiportern, NhaA und MjNhaP1, untersucht. Sie werden bei unterschiedlichen pH-Bereichen aktiviert bzw. deaktiviert. Der Na+/H+ Antiporter NhaA aus E. coli hat seine maximale Transportaktivität bei pH 8,5 und ist bei pH < 6,5 vollständig inaktiv. Trotz bekannter 3D-Struktur dieses Proteins für die inaktive Konformation bei pH 4 bleiben die Konformationsänderungen, die mit der Aktivierung des Proteins einhergehen, immer noch ungeklärt. Die Analyse der FTIR- und CD-Spektren von NhaA ergab in beiden Zuständen Anteile an beta-Faltblatt, an Schleifen und ungeordneten Strukturen, wobei die alpha-helikale Struktur dominiert. Die FTIR Spektren des inaktiven und aktiven Zustands zeigen zwei Komponenten, die auf die Präsenz zweier alpha-Helices mit unterschiedlichen Eigenschaften abhängig vom Aktivitätszustand hindeuteten. Die temperaturinduzierten strukturellen Änderungen und die Reorganisation des Proteins während des Entfaltungsprozesses bestätigten, dass die Aktivierung des Proteins eine Änderung in den Eigenschaften der alpha-Helices zur Folge hat. Aktivierung führt zu einer thermischen Destabilisierung dieser Struktur. Auch für die beta-Faltblattstruktur, welche den Hauptkontakt zwischen den Monomeren bildet, wurde ein unterschiedliches thermisches Verhalten zwischen dem inaktiven und aktiven Zustand beobachtet. Daraus konnte gefolgert werden, dass Aktivität nur dann möglich ist, wenn NhaA als Dimer vorliegt. Die Ergebnisse des (1)H/(2)H Austauschs zeigen, dass die Lösungsmittelzugänglichkeit des Proteins sich mit der Aktivierung ändert. Die Aktivierung des Proteins induziert eine offene, für die Lösung zugänglichere Konformation, in welcher die Aminosäureseitenketten in der hydrophilen Region des Proteins schneller Wasserstoff durch Deuterium austauschen, und in welcher zusätzliche Aminosäureseitenketten, die sich im inaktiven Zustand in der hydrophoben Region des Proteins befinden, mit der Aktivierung der Lösung exponiert werden. Die Aufnahme reaktionsinduzierter Differenzspektren ergab eindeutige spektroskopische Signaturen für die Zustände „inaktiv“ und „aktiv“. Die Differenzspektren der pH-Titration zeigten, dass der pH-Wert einen dramatischen Effekt sowohl auf die Sekundärstruktur als auch auf den Protonierungszustand der Aminosäureseitenketten hat. Die pH- und Na+-induzierte Aktivierung des Proteins führt zur Umwandlung der transmembranen alpha-helikalen Struktur bezüglich Länge, Ordnungsgrad und/oder Anordnung und zur einer Protonierungsänderung der Aminosäureseitenketten von Glutaminsäure oder Asparaginsäure. Die pD induzierten Sekundärstrukturänderungen lieferten zusätzlich Informationen über die Umgebungsänderung der Aminosäureseitenkette des Tyrosins mit der Aktivierung. Der Vergleich der durch die Bindung des Natriums und des Inhibitors induzierten Differenzspektren zeigte, dass die Bindungsstellen des Natriums und des Inhibitors unterschiedlich sind. Die FTIR- und CD-Ergebnisse für den Na+/H+ Antiporter MjNhaP1 aus M. jannaschii, der im Gegensatz zu NhaA bei pH 6 aktiv und bei pH Werten > 8 inaktiv ist, zeigten, dass ähnlich wie NhaA das Protein im aktiven Zustand bei pH 6 hauptsächlich aus alpha-Helices aufgebaut ist. Es bestand die Möglichkeit, zwei verschiedene Probenpräparationen (Protein in Detergenz bzw. in 2D-Kristallen) zu untersuchen und miteinander zu vergleichen. Die Erhöhung des pH-Werts bei der in Detergenz solubilisierten Probe führte zu einer Abnahme der alpha-helikalen und einer Zunahme der ungeordneten Strukturen. Das äußerte sich auch in den Untersuchungen zur thermischen Stabilität und im (1)H/(2)H Austauschexperiment. Die thermische Stabilität der alpha-Helices nahm mit der Inaktivierung dramatisch ab. Diese Ergebnisse zeigten auch, dass bei der Aktivierung von MjNhaP1 die beta-Faltblattstruktur nicht involviert ist, aber diese von fundamentaler Bedeutung für die Gesamtstabilität des Proteins und wahrscheinlich für den Hauptkontakt zwischen den Monomeren verantwortlich ist. Im Gegensatz zu NhaA ist die Monomer Monomer Wechselwirkung nicht für die Aktivität von MjNhaP1 notwendig. Aufgrund des höheren Anteils von ungeordneter Struktur im inaktiven Zustand der in Detergenz solubilisierten Probe beobachtet man in diesem Zustand einen höheren (1)H/(2)H Austausch. Der Vergleich mit den Ergebnissen des (1)H/(2)H Austausches von 2D-Kristallen ermöglichte die Lokalisation der ungeordneten Struktur an der Außenseite des Proteinmoleküls im inaktiven Zustand. Die pH-induzierten Differenzspektren zeigten, dass die Aktivierung zu einer Helikalisierung des Proteins und einer Protonierungsänderung der Aminosäureseitenketten von Asparaginsäure und/oder Glutaminsäure unabhängig von der Probenpräparation führt. Der Vergleich von NhaA und MjNhaP1 zeigt, dass die Aktivierung in beiden Fällen mit einer Konformationsänderung und Änderung der Protonierung oder der Umgebung von einer oder mehreren Seitenketten von Asparaginsäure oder Glutaminsäure verbunden ist. Dabei sind die Strukturänderungen der beiden Proteine während der Aktivierung ähnlich, bei Inaktivierung jedoch deutlich unterscheidbar. Die pH-induzierten Strukturänderungen wurden bei NhaA und MjNhaP1 durch die Mutanten G338S und R347A, die keine pH-Abhängigkeit der Aktivität zeigen, bestätigt.
In dieser Arbeit wurden zum ersten Mal explizite Ausdrücke für Strahlungskorrekturen zur Grundzustandsenergie der relativistischen Dichtefunktionaltheorie hergeleitet und im Rahmen einer Langwellennäherung ausgewertet. Dazu wurde, ausgehend von einer angemessenen Zerlegung des Wechselwirkungs-Hamiltonians (2.23), ein DFT-Analogon zu Sucher's Level-Shift Formel abgeleitet, G1. (3.54). Mit Hilfe der Ausdrücke für die Gesamtenergie Etd (3.17), die Hartree-Energie EH (3.21) sowie die korrespondierenden Potentiale (3.29), (3.30) und der Grundzustandsenergie des nichtwechselwirkenden KS-Systems, (3.41), kann diese DFT Level-Shift Formel dann mit dem Austauschkorrelationsenergiefunktional in Verbindung gebracht werden. Der resultierende Ausdruck für den Level-Shift, G1. (3.55), liefert eine exakte Darstellung des Austauschkorrelationsenergiefunktionals der RDFT. Dieses Funktional ist ein implizites Dichtefunktional, da es von den KS-Orbitalen und Eigenwerten abhängt. Der Vergleich mit dem Ausdruck für Exc aus Kapitel 6.1, der das Ergebnis des in der DFT weit verbreiteten Kopplungskonstantenintegrations-Schemas ist, zeigt, dass beide Zugänge vollkommen äquivalent sind. Allerdings wurde die in dieser Dissertation erarbeitete DFT Level-Shift Formel analog zur Standard QED-Störungsreihe abgeleitet und stellt damit einen idealen Zugang für , die Untersuchung von QED-Effekten im Rahmen relativistischer DFT dar. Insbesondere beinhaltet unser Zugang das bekannte QED-Schema, wenn man im Störanteil des Hamiltonoperators (3.32) das KS-Potential ... (3.29) durch das Potential eines wasserstoffartigen Systems ersetzt. Eine selbstkonsistente Anwendung dieses Zugangs verlangt jedoch die Lösung der relativistischen OPM-Integralgleichung. Während in Kapitel 4 gezeigt wurde, dass dies für den transversalen Austausch relativ direkt möglich ist, ist bisher noch nicht explizit überprüft worden, wie Vakuumkorrekturen im Zusammenspiel mit der OPM-Integralgleichung zu berücksichtigen sind. Da eine solche Untersuchung den Rahmen der vorliegenden Arbeit gesprengt hätte, haben wir uns auf eine perturbative Auswertung der Ausdrücke für Vakuumpolarisation und Vertexkorrektur beschränkt. .....
Im Rahmen dieser Arbeit wurden astrophysikalisch relevante, kernphysikalische Raten, die zum Verständnis der beobachteten Häufigkeit des langlebigen Isotopes 60Fe wichtig sind, am GSI Helmholtzzentrum für Schwerionenforschung GmbH und am Forschungsreaktor TRIGA in Mainz gemessen.
Zunächst wurde der Coulombaufbruch von 59Fe und 60Fe am GSI Helmholtzzentrum für Schwerionenforschung GmbH untersucht. Zur Produktion der radioaktiven Strahlen wurde ein 64Ni-Primärstrahl auf ein Spallationstarget geleitet. Im Fragmentseparator wurden die Isotope nach deren magnetischen Steifigkeit separiert und nur die gewünschte Spezies im LAND/R3B-Aufbau untersucht. Die Bestimmung von Impuls und Ladung der eingehenden Ionen erlaubte eine individuelle Identifikation. Der Coulombaufbruchwirkungsquerschnitt wurde mit einer Bleiprobe bestimmt. Die verschiedenen Untergrundkomponenten ergaben sich aus einer begleitenden Leermessung, sowie einer Messung mit einer Kohlenstoffprobe. Der Wirkungsquerschnitt der Reaktion Pb(60Fe,n+59Fe)Pb bei (530±5) MeV/u wurde zu σ(60Fe,n+59Fe) COULEX = (298±11stat±31syst) mb (0.1) bestimmt und für die Reaktion Pb(59Fe,n+58Fe)Pb ergab sich σ(59Fe,n+58Fe) COULEX = (410±11stat±41syst) mb. (0.2)
Außerdem konnten für beide einkommenden Strahlsorten die Wahrscheinlichkeiten für die Produktion von zwei Neutronen bestimmt werden.
Anschließend wurde der Neutroneneinfangsquerschnitt von 60Fe bei kT = 25,3 meV am Forschungsreaktor TRIGA in Mainz bestimmt. Hierfür wurde eine 60Fe Probe zunächst anhand des Anstieges der Aktivität der 60Co-Tochterkerne charakterisiert und anschließend im Reaktor bestrahlt. Die frisch erzeugte Aktivität des 61Fe wurde mit einem HPGe-Detektor nachgewiesen. Mit Hilfe der Cadmiumdifferenzmethode konnte daraus erstmals der thermische Neutroneneinfangsquerschnitt von 60Fe zu σ60Fe(n,γ) th = 0,22±0,02stat±0,02syst b. (0.3) bestimmt werden. Für das Resonanzintegral ergab sich die obere Schranke von I 60Fe(n,γ) res = 0,61 b. (0.4)
Im Rahmen der vorliegenden Arbeit wurde die Spindephasierung optisch angeregter itineranter Ladungsträger in magnetisch dotierten Volumenhalbleitern mit Methoden der zeitaufgelösten magneto-optischen Ultra-Kurzzeit-Spektroskopie untersucht und eine theoretische Beschreibung der Spindephasierung entwickelt, die ein hohes Maß an Übereinstimmung mit den experimentellen Ergebnissen aufweist. Beim untersuchten Material Cd1-xMnxTe handelt es sich um einen sog. magnetischen Halbleiter, der die elektronischen Eigenschaften eines Halbleiters mit den magnetischen Eigenschaften eines Paramagneten vereint. Bedingt durch die starke sp/d-Austauschwechselwirkung zwischen den Spins der lokalisierten magnetischen Ionen und denen der optisch angeregten itineranten Ladungsträger, kommt es zur Ausbildung vieler neuer, bisher unbekannter, aber auch zur Modifikation bereits bekannter Effekte. Die Wirkungsweise der sp/d-Austauschkopplung in magnetischen Halbleitern kann stark vereinfacht gesprochen als eine Art „Verstärker“ verstanden werden, der unter anderem zu einer Intensivierung all solcher Effekte führt, die durch Magnetfelder, seien sie externer oder interner Natur, bedingt sind. Durch diese starke Respons auf externe Magnetfelder kommt es in magnetischen Halbleitern zu einer starken Überhöhung der Zeeman-Aufspaltung, so daß eine getrennte Beobachtung der ansonsten entarteten Spinzustände möglich wird. Die Methode der Wahl zur Untersuchung der zeitlichen Entwicklung der energetisch aufgespaltenen Spinzustände ist die Detektion der zeitaufgelösten Spinquantenschwebungen der Ladungsträger, die das zeitaufgelöste Analogon zur Detektion des Hanle-Effektes in Gasen darstellt. Hierfür kam ein magneto-optischer Detektionsaufbau zum Einsatz, der es ermöglichte, die zeitliche Entwicklung der Komponenten der transienten Magnetisierungen der im Magnetfeld präzedierenden Ladungsträgerspins zu erfassen und so Rückschlüsse auf die Lebensdauer der angeregten Zustände zu schließen. Da die so bestimmten Dephasierungszeiten der detektierten Transienten der Spinquantenschwebungen eine starke Abhängigkeit von den externen Parametern wie der Temperatur, dem Magnetfeld und der magnetischen Dotierung aufweisen, war es ein Ziel dieser Arbeit, eine systematische Untersuchung der gefundenen Abhängigkeiten durchzuführen, um so eine möglichst breite Datenbasis für die weitere theoretische Untersuchung der gefundenen Ergebnisse zu schaffen. Im Zuge dieser Untersuchungen gelang uns unter anderem der erste experimentelle Nachweis der oszillatorischen Signaturen von kohärenten Lochspinquantenschwebungen in magnetisch dotierten Halbleitern. Obwohl magnetisch dotierte Halbleiter bereits seit mehr als 30 Jahren experimentell untersucht werden, konnten unsere experimentellen Befunde zur Spindephasierung optisch angeregter Ladungsträger durch keines der etablierten Modelle zur Beschreibung der Spindephasierung, sei es in magnetisch dotierten oder in undotierten Halbleitern, beschrieben werden. Aus diesem Grund wurde ausgehend vom Gedanken, daß lokale Fluktuationen der Magnetisierung der magnetischen Ionen einen starken Einfluß auf die Lebensdauer der itineranten Spins haben, ein neues Modell entwickelt. Dieses Modell beruht auf der Adaption einer Beschreibung der Spindephasierung, die im Rahmen von Kernresonanzexperimenten entwickelt wurde und der Orientierung der Störungen der Magnetisierung in bezug zur Orientierung der Spins der itineranten Ladungsträger besonders Rechnung trägt. Durch die konsequente Ableitung quantitativer Ausdrücke für die Stärke der Magnetisierungsfluktuationen unter Berücksichtigung quantenmechanischer Fluktuationen gelang es uns, eine einfache Beschreibung für die Spindephasierung optisch angeregter Elektronen und Löcher in magnetischen Halbleitern in Abhängigkeit von der Temperatur, dem Magnetfeld und der Mangan-Dotierung zu formulieren. Die im Rahmen unseres Modells berechneten Dephasierungszeiten weisen im Bereich geringer Mangan-Konzentrationen (x <4 %) ein hohes Maß an Übereinstimmung mit den experimentellen Daten auf und können die beobachteten Temperatur- und Magnetfeldabhängigkeiten sehr gut wiedergeben. Für noch höhere Konzentrationen der Mangan-Ionen treten zunehmend Abweichungen der berechneten Dephasierungszeiten von den experimentellen Daten auf, die allerdings immer noch eine qualitative Aussage über das Verhalten der Spindephasierung erlauben. So reproduziert unser Modell unter anderem den experimentell für alle Proben gefundenen, an sich nicht direkt einsichtigen Befund, zunehmender Spinlebenszeiten mit steigender Temperatur, der allgemein als "motional narrowing" bezeichnet wird. Da das von uns vorgestellte Modell ohne wahlfreie Parameter auskommt und die zur Berechnung der Spindephasierungszeiten notwendigen Größen der Literatur entnommen oder experimentell bestimmt werden können, ist der hohe Grad an Übereinstimmung mit den experimentellen Ergebnissen beachtlich. Weitere Verfeinerungen des Modells könnten zu einer weiteren Steigerung der Übereinstimmung vor allem im Bereich hoher Mangan-Konzentrationen führen, jedoch würde dies unserer Meinung nach den Rahmen des vorgestellten Modells sprengen. Wir verstehen unsere theoretische Untersuchung zur Spindephasierung vielmehr als einen Startpunkt für eine nun durchzuführende exakte quantenmechanische theoretische Untersuchung der Spindephasierung optisch angeregter Ladungsträger in magnetischen Halbleitern. Weitere Untersuchungen müssen nun klären, inwieweit das von uns für die Beschreibung der Spindephasierung in magnetisch dotierten CdTe-Volumenhalbleitern entwickelte Modell auf II-VI-Volumenhalbleiter allgemein und andere magnetisch dotierte Materialien wie z.B. magnetische III-V-Halbleiter vom Typ Ga1-xMnxAs übertragbar sind, die speziell im Hinblick auf ihre ferromagnetische Ordnung unter dem Einfluß der RKKY-Wechselwirkung und deren möglichen Einfluß auf die Spindephasierung von besonderem Interesse sind.
Es wurde eine neue Routine zur Berechnung der Raumladungskräfte basierend auf einer schnellen Fourier-Transformation entwickelt und in das Teilchensimulationsprogramm LORASR integriert. Dadurch werden einzelne oder bis zu mehreren 100 Simulationen im Batch-Modus mit je 1 Million Makroteilchen und akzeptablen Rechenzeiten ermöglicht. Die neue Raumladungsroutine wurde im Rahmen der Europäischen „High Intensity Pulsed Proton Injectors” (HIPPI) Kollaboration erfolgreich validiert. Dabei wurden verschiedene statische Vergleichstests der Poisson-Solver und schließlich Vergleichsrechnungen entlang des Alvarez-Beschleunigerabschnittes des GSI UNILAC durchgeführt. Darüber hinaus wurden Werkzeuge zum Aufprägen und zur Analyse von Maschinenfehlern entwickelt. Diese wurden erstmals für Fehlertoleranzstudien an der IH-Kavität des Heidelberger Therapiebeschleunigers, am Protonen-Linearbeschleuniger für das FAIR Projekt in Darmstadt sowie am Vorschlag eines supraleitenden CH-Beschleunigers für die “International Fusion Materials Irradiation Facility” (IFMIF) eingesetzt.
Die P-Typ-ATPasen finden sich in allen Domänen des Lebens und stellen die größte Gruppe aktiver Ionentransporter in Zellen dar. Es handelt sich bei den P-Typ-ATPasen um integrale Membranproteine, die eine große Anzahl verschiedenster Ionen aktiv über eine biologische Membran transportieren. Die für diesen Ionentransport notwendige Energie wird durch Bindung und Hydrolyse von Adenosintriphosphat (ATP) und durch Phosphorylierung des Enzyms gewonnen. Diese, im cytoplasmatischen Teil gewonnene Energie, muss für den Ionentransport von der Phosphorylierungsstelle zur räumlich entfernten transmembranen Ionenbindungsstelle übertragen werden, bei dem das Protein einem Reaktionszyklus mit zwei Hauptkonformationszuständen E1 und E2 unterliegt. Zwischen diesen beiden Zuständen finden große strukturelle Änderungen statt, durch die die Ionenaffintät und die Zugänglichkeit der Ionenbindungsstelle reguliert wird. Da dieser Mechanismus der Energiegewinnung für alle Ionenpumpen dieser Art ähnlich ist, wurde die Ca2+-ATPase und die Na+/K+-ATPase als Modellproteine für die Untersuchung molekularer Mechanismen in P-Typ-ATPasen ausgewählt. Im Rahmen der vorliegenden Arbeit soll die Energietransduktion in P-Typ-ATPasen im Allgemeinen und der Protonengegentransport bzw. ein potentieller Protonentransportweg in der Ca2+-ATPase im Speziellen untersucht werden. Die beiden oben genannten Mechanismen sollen mittels computergestützter Methoden analysiert werden. Vor allem die Ca2+-ATPase ist prädestiniert für computergestützte Untersuchungen, da für diese sehr viele hochaufgelöste Röntgenstrukturdaten vorliegen, wenn auch bisher aufgrund der Größe und Komplexität des Systems nur sehr wenige theoretische Arbeiten durchgeführt wurden. Um den Energietransduktionsmechanismus in P-Typ-ATPasen zu untersuchen, wurde mittels Elektrostatik-Rechnungen der Einfluss eines elektrischen Feldes auf die verschiedenen Transmembranhelices untersucht. Dazu wurde ein Simulationssystem entwickelt, welches aus einem molekularen Kondensator besteht, der im Modell das Anlegen eines homogenen elektrischen Feldes über den Transmembranbereich simuliert. Da es sich bei dem Energietransduktionsmechanismus um einen dynamischen Prozess handelt, wurden die Elektrostatik-Rechnungen um Molekulardynamik-Simulationen erweitert. Mit diesen kann die konformelle Dynamik der P-Typ-ATPasen während der Energietransduktion in die Elektrostatik-Rechnungen einbezogen werden. Aus Spannungsklemmen-Fluorometrie-Experimenten, bei denen eine Spannung über eine Membran angelegt wird, kann geschlossen werden, dass die Helix M5 für die Energietransduktion verantwortlich ist. Mit den in dieser Arbeit durchgeführten Elektrostatik-Rechnungen konnte für verschiedene Enzymzustände der Ca2+-ATPase und für die Na+/K+-ATPase gezeigt werden, dass die Helix M5 die größten Konformeränderungen aufgrund des elektrischen Feldes aufweist. Durch die Erweiterung der Elektrostatik-Rechnungen um die Methode der Molekulardynamik-Simulation konnte zusätzlich die elektrische Feldstärke reduziert werden. Auch dabei zeigte sich, dass auf der Helix M5 die meisten Rotameränderungen durch das elektrische Feld induziert werden. Die aus Experimenten vermutete Rolle der Helix M5 als wichtiges Energietransduktionselement ließ sich mit diesen Simulationsrechnungen bestätigen. Um einen möglichen Protonenweg durch den Transmembranbereich der Ca2+-ATPase aufzuklären, wurden explizite Wassermoleküle in sechs verschiedene Enzymzustände der Ca2+-ATPase eingefügt. Aus Experimenten ist bekannt, dass in der Ca2+-ATPase ein Protonengegentransport stattfindet. Deshalb wurden für verschiedene Enzymzustände der Ca2+-ATPase mittels Elektrostatik-Rechnungen die Protonierungen der eingefügten Wassermoleküle sowie der titrierbaren Aminosäuren bestimmt. Aus den Ergebnissen dieser Rechnungen kann geschlossen werden, dass es sich bei dem Protonentransfer nicht um einen linearen Transport der Protonen handelt. Die Untersuchungen zeigen einen mehrstufigen Prozess, an dem Protonen in verschiedenen Transmembranbereichen der Ca2+-ATPase beteiligt sind. Anhand der berechneten Protonierungszustände der eingefügten Wassermoleküle und der pK-Werte der Aminosäuren im Transmembranbereich konnte weiterhin ein möglicher Protonenweg identifiziert werden.
This thesis deals with the simulation, optimization and realization of quasi-optical scanning systems for active THz cameras. Active THz cameras are sensitive in the THz regime of the electromagnetic spectrum and are suitable for the detection of metal objects such as weapons behind clothing or fabrics (maybe for security applications) or material investigation. An advantage of active THz-systems is the possibility to measure the phase of the THz-radiation and thus to reconstruct the surface topography of the objects under test. Due to the coherent illumination and the required system parameters (like image field size, working distance and lateral resolution) the optical systems (in the THz region often called quasi-optical systems) must be optimized. Specifically, the active illumination systems require highly optimized quasioptical systems to achieve a good image quality. Since currently no suitable multi-pixel detectors are available, the object has to be scanned in one or two dimensions in order to cover a full field of view. This further reinforces the occurring aberrations. The dissertation covers, alongside the underlying theory, the simulation, optimisation and realisation of three different active THz systems. The subdivision of the chapters is as follows: Chapter 1 deals with a motivation. Chapter 2 develops the underlying theory and it is demonstrated that the geometrical optics is an adequate and powerful description of the image field optimization. It also addresses the developed analytic on-axis and the off-axis image field optimization routine. Chapter 3, 4 and 5 are about the basis of various active THz cameras, each presented a major system aspect. Chapter 3 shows how active THz-cameras with very high system dynamics range can be realised. Within this chapter it could although be demonstrated how very high depth resolution can be achieved due to the coherent and active illumination and how high refresh rate can be implemented. Chapter 4 shows how absolute distance data of the objects under test can be obtained. Therefore it is possible to reconstruct the entire object topography up to a fraction of the wavelength. Chapter 5 shows how off-axis quasi-optical systems must be optimized. It is also shown how the illumination geometry of the active THz systems must be changed to allow for real-time frame rates. The developed widened multi-directional lighting approach also fixes the still existing problem of phase ambiguity of the single phase measurement. Within this chapter, the world’s first active real-time camera with very high frame rates around 10 Hz is presented. This could be only realized with the highly optimised quasioptical system and the multi-directional lighting approach. The paper concludes with a summary and an outlook for future work. Within the outlook some results regarding the simulation of synthetic aperture radar systems and metamaterials are shown.
Die Dissertation ist in den Bereichen der semiklassischen Quantengravitation und der pseudokomplexen Allgemeinen Relativitätstheorie (pk-ART) anzusiedeln. Dabei wird unter semiklassischer Quantengravitation die Untersuchung quantenmechanischer Phänomene in einem durch eine klassische Gravitationstheorie gegebenen gravitativen Hintergrundfeld verstanden und bei der pk-ART handelt es sich um eine Alternative zu der aktuell anerkannten klassischen Gravitationstheorie, der Allgemeinen Relativitätstheorie (ART), die die reellen Raumzeitkoordinaten der ART pseudokomplex erweitert. Dies führt zusammen mit einer Veränderung des Variationsprinzips in führender Ordnung auf eine Korrektur der Einstein- Gleichung der ART mit einem zusätzlichen Quellterm (Energie-Impuls-Tensor), dessen exakte Form jedoch bisher nicht bekannt ist.
Die Beschreibung der Gravitation als Hintergrundfeld ergibt sich zwangsläufig daraus, dass auf Basis der ART bisher keine quantisierte Beschreibung für sie gefunden werden konnte. Jedoch wird erhofft, dass die Untersuchung semiklassischer Phänomene Hinweise auf die korrekte Theorie der Quantengravitation gibt. Zudem motiviert der Mangel einer quantisierten Gravitationstheorie die Verwendung alternativer Theorien, da sich dadurch die Frage stellt, ob die ART die korrekte Beschreibung klassischer Felder ist.
Das Ziel der vorliegenden Dissertation war die grundlegenden Unterschiede zwischen der ART und der pk-ART für gebundene sphärisch symmetrische Zustände der Klein-Gordon- und der Dirac-Gleichung zu identifizieren und ein qualitatives Modell der Vakuumfluktuationen in sphärisch symmetrischen Materieverteilungen zu bestimmen, wobei der Zusammenhang der pk-ART mit den Vakuumfluktuationen in der Annahme besteht, dass ein Zusammenhang zwischen ihnen und dem zusätzlichen Quellterm der pk-ART existiert. Dafür wurden die gebundenen Zustände der Klein-Gordon- und der Dirac-Gleichung für drei verschiedene Metrikmodelle (zwei ART-Modelle und ein pk-ART-Modell) mit konstanter Dichte systematisch numerisch berechnet, einige repräsentative Grafiken erstellt, anhand derer die grundlegenden Unterschiede der Ergebnisse der ART-Modelle und des pk-ART-Modells erörtert wurden, und die ART Ergebnisse der Dirac-Gleichung soweit wie möglich mit Ergebnissen der Literatur verglichen. Insbesondere wurde dabei festgestellt, dass die Energieeigenwerte in der pk-ART im Gegensatz zu denen in der ART in Abhängigkeit der Ausdehnung des Zentralobjekts ein Minimum aufweisen. Zudem wurden die Energieeigenwerte der Klein-Gordon-Gleichung teilweise sowohl über das Eigenwertproblem einer Matrix als auch über ein Anfangswertproblem berechnet und es wurde festgestellt, dass die Beschreibung als Eigenwertproblem deutlich uneffektiver ist, wenn dafür die Basis des dreidimensionalen harmonischen Oszillators genutzt wird. Für die Entwicklung des qualitativen Vakuumfluktuationsmodells wurden zwei Näherungen für den Erwartungswert des Energie-Impuls-Tensors in führender Ordnung für die Schwarzschildmetrik (ART) verglichen und die Verwendung eines qualitativen Modells durch die dabei auftretende Diskrepanz gerechtfertigt. Danach wurden die Vakuumfluktuationen für Metriken konstanter Materiedichte mit Hilfe einer der Näherungen in führender Ordnung berechnet und ein Modell gesucht, das den gleichen qualitativen Verlauf aufweist. Im Anschluss wurde dieses Modell noch für einfache Metriken mit variabler Materiedichte verifiziert.
Die Dissertation leistet mit der Analyse der gebundenen Zustände einen Beitrag in der Identifikation der Unterschiede zwischen der pk-ART und der ART und führt somit auf weitere mögliche Messgrößen, die der Unterscheidung der beiden Theorien dienen könnten. Weiterhin ermöglicht das abgeleitete Modell eine Verfeinerung der schon publizierten Ergebnisse über Neutronensterne und die für die Erstellung nötigen Vorarbeiten leisten einen Beitrag zur Identifikation des
pk-ART Quellterms.
In der vorliegenden Arbeit wurden verschiedene Aspekte der starken Wechselwirkung in effektiven Modellen in selbstkonsistenten Vielteilchenresummationsverfahren, die mit Hilfe des Cornwall-Jackiw-Tomboulis-Formalismus (CJT) hergeleitet wurden, untersucht. Zum einen wurden in der vorliegenden Arbeit lineare Sigma-Modelle behandelt, die zur Beschreibung der chiralen Symmetrierestauration der starken Wechselwirkung herangezogen werden. Hierbei handelt es sich um die linearen Sigma-Modelle mit O(4)-, U(2)r × U(2)-, U(3)r × U(3)- und U(4)r × U(4)-Symmetrie. Diese linearen Sigma-Modelle wurden zur Berechnung der Meson-Massen und Quark-Kondensate in Abhängigkeit von der Temperatur herangezogen. Hierzu wurden die Meson-Massen und Kondensate selbstkonsistent im Rahmen der Hartree-Näherung berechnet, die wiederum mit Hilfe des CJT-Formalismus hergeleitet wurde. Dies führte zum Studium verschiedener Symmetriebrechungsmuster der chiralen Symmetrie in den verschieden linearen Sigma-Modellen, wie sie in Tabelle 1.1 dargestellt wurden. Als erstes Ergebnis wurde dann der Fall maximaler Symmetriebrechung, nämlich die explizite Symmetriebrechung in Anwesenheit der U(1)A-Anomalie, besprochen. Hierbei wurden alle untersuchten Modelle miteinander verglichen, um den Einfluß der unterschiedlichen Anzahl von Quark-Flavors Nf auf die erzielten Ergebnisse zu diskutieren. Beim Vergleich des linearen O(4)- mit dem U(2)r×U(2)-Modell wird eine Verdopplung der physikalischen Freiheitsgrads augenfällig: zusätzlich zum Sigma-Meson und den Pionen, die schon im O(4)-Modell vorhanden sind, treten noch das η-Meson und die a0-Mesonen. Dies führt dazu, daß in der chiral-restaurierten Phase die Mesonmassen stärker mit der Temperatur ansteigen. Der Grund hierfür sind die Tadpole-Beiträge der zusätzlichen Freiheitsgrade, zu den Mesonenselbstenergie beitragen und so zu einer Zunahme der Mesonmassen führen. Dies trifft auch zu, wenn man den Strange-Freiheitsgrad beim Übergang zum U(3)r × U(3)-Modell hinzufügt. Dies ist eine allgemeine Tatsache, solange die Massen der zusätzlichen Freiheitsgrade von der gleichen Größenordnung sind wie die Übergangstemperatur des chiralen Phasenüberganges. Das Hinzufügen des Charm-Freiheitsgrades im Rahmen eines U(4)r ×U(4)-Modells beeinflußt die Resultate für die bereits im U(3)r×U(3)-Modell vorhandenen Mesonen und Kondensate nicht wesentlich. Dies beruht letztendlich auf der großen Masse des Charm-Quarks, die weit über der Übergangstemperatur des chiralen Phasenüberganges liegt. In der Hartree-Näherung wird diesem Sachverhalt dadurch Rechnung getragen, daß die Tadpole-Beiträge der schwereren, das Charm-Quark enthaltenden Mesonen ex4.3 ponentiell mit der jeweiligen Mesonenmasse unterdrückt sind ~ exp(−M/T ). Umgekehrt ändern sich die Massen der das Charm-Quark enthaltenden Mesonen fast nicht gegenüber ihrem Vakuumwert auf der Temperaturskala, die für die chirale Symmetrierestauration eine entscheidende Rolle spielt. Dies beruht darauf, daß die Tadpole- Beiträge der anderen leichten, Mesonen klein sind für gegenüber den großen Vakuummassen der schweren, das Charm-Quark enthaltenden, Mesonen. Dieses Resultat entspricht den intuitiven Erwartungen, aber ist dennoch aus zweierlei Gründen nichttrivial: erstens sind die Gleichungen für die In-Medium-Massen im U(4)r × U(4)- Modell strukturell von denen im U(3)r × U(3)-Modell verschieden; zweitens stellen die gekoppelten Gleichungen für die Massen und Kondensate ein nichtlineares Gleichungssystem dar, was dazu führen könnte, daß auch kleine Störungen große Veränderungen der Lösung des Gleichungssystemes nach sich ziehen. Dann wurde sich dem Studium der expliziten chiralen Symmetriebrechung ohne U(1)A-Anomalie zugewandt. Der Hauptunterschied zum vorherigen Fall war, daß der Bereich des Phasenüberganges auf der Temperaturskala enger um die Übergangstemperatur konzentriert ist und der chirale Phasenübergang bei etwas kleineren Temperaturen einsetzt. Schließlich wurden die skalaren und pseudoskalaren Mesonen und die Quark-Kondensate im chiralen Limes untersucht. Die Hartree-Näherung sagt hierbei korrekterweise einen Phasenübergang erster Ordnung im Fall des U(2)r × U(2)-Modelles ohne U(1)A-Anomalie und im U(3)r×U(3)-Modell voraus. Im O(4)- und im U(2)r× U(2)-Modell mit U(1)A-Anomalie versagt allerdings die Hartree-Näherung: eigentlich sollte ein Phasenüberganges zweiter Ordnung auftreten, die Hatree-Näherung führt aber auch hier auch hier auf einen Phasenübergang erster Ordnung. Die Übergangstemperaturen sind überraschend nah an denjenigen die in Gittereichrechnungen vorhergesagt werden. Allerdings nimmt mit der U(1)A-Anomalie die Übergangstemperatur mit der Anzahl der Quarkflavors zu, wohingegen die Gittereichtheorie das umgekehrte Verhalten vorhersagt. Dieses Bild ändert sich in Abwesenheit der U(1)A-Anomalie. Hier stimmen die Vorhersagen für die Ordnung der Übergangstemperaturen mit der Anzahl der Quark-Flavors mit der QCD-Vorhersage überein. Dies mag ein Anzeichen dafür sein, daß die U(1)A-Symmetrie – zumindest partiell – in der Nähe der Übergangstemperatur des chiralen Phasenüberganges und darüberhinaus wiederhergestellt sein könnte. Zum anderen wurde die Wechselwirkung von Pionen und Rho-Mesonen im Medium untersucht. Dies wurde im Rahmen eines einfachen Pion-Rho-Vektormesondominanzmodelles vorgenommen. Für dieses Modell wurde eine selbstkonsistente Ein-Schleifen-Näherung für die Dyson-Schwinger-Gleichungen des Pions- und des Rho-Vektormesons hergeleitet. Die im Rahmen dieser Näherung den Dyson- Schwinger-Gleichungen äquivalenten selbstkonsistenten Integralgleichungen für die Spektraldichten und Selbstenergien wurden im CJT-Formalismus unter Verwendung der Saclay-Methode hergeleitet. Renormierungsfragen wurden durch die Beschränkung der Untersuchungen auf die Imaginärteile der Selbstenergien umgangen, damit treten in dieser Näherung keine Massenmodifikationen der Pionen oder des Rho-Vektormesons auf. Im Rahmen der Aufstellung der selbstkonsistenten Dyson- Schwinger-Gleichungen zeigte sich, daß eine Verletzung der Vierer-Transversalität des Selbstenergietensors der Rho-Vektormesons auftritt, die letztlich auf Verletzung der Eichsymmetrie des zugrundeliegenden Pion-Rho-Modells beruht. Dennoch konnte durch sachgerechte Eichung erreicht werden, daß der Tensor der Spektraldichte des Rho-Vektormesons auch in dieser Näherung vierer-transversal ist. Das so erhaltene Integralgleichungssystem wurde numerisch auf einem Energie- und Impulsgitter gelöst. Die Spektraldichten und Selbstenergien der Pionen sowie die Komponenten der Spektraldichten und Selbstenergien des Rho-Mesons wurden hiermit selbstkonsistent bestimmt. Eine sehr interessante Eigenschaft im Vergleich zu perturbativen Ein-Schleifen-Rechnungen in diesen Modellen ist, daß die räumlich-longitudinale und räumlichtransversale Komponente der Spektraldichte des Rho-Vektormesons auch für invariante Massen pP2 unterhalb der Zwei-Pionen-Schwelle pP2 < 2mPion nicht-verschwindende Beiträge erhalten. Dies rührt daher, daß nun in den Integralgleichungen für die Selbstenergiekomponenten des Rho-Mesons die pionische Spektralfunktion im Medium prinzipiell alle Energieanregungen mit einem thermischen Gewichtsfaktor zugänglich macht. Das Schwellenverhalten ist also ein Artefakt der perturbativen Ein-Schleifen-Näherung. Die selbstkonsistenten Spektraldichten des Rho-Meson wurden zur Berechnung der statischen, thermischen Dileptonenproduktionsrate herangezogen. Es ergab sich, daß aufgrund dieses Aufweichens der Zwei-Pion-Schwelle eine erhebliche Erhöhung der statischen Dileptonenproduktionsrate im Vergleich zur perturbativen Ein-Schleifen-Näherung im Bereich von invarianten Massen zwischen 300MeV < pP2 < 700MeV eintritt. Auch das in perturbativen Rechnungen auftretende Maximum im Bereich invarianter Massen von 700MeV < pP2 < 900MeV in der Dileptonenproduktionsrate ist aufgrund der Stoßverbreiterung in den Ergebnissen der selbstkonsistenten Rechnungen nicht mehr auszumachen. Insbesondere zeigt sich hier auch, daß eine rein perturbative Behandlung stark wechselwirkender Systeme bei endlichen Temperaturen und Dichten a priori nicht ausreichend für ein angemessenes physikalisches Verständnis der auftretenden Effekte ist. Die Anwendung von vielteilchentheoretischen Verfahren zur Herleitung von genäherten Dyson-Schwinger-Gleichungen ist deshalb von besonderer Wichtigkeit. Mit den Studien dieser zwei Modellklassen, nämlich zum einen der Modelle des chiralen Phasenüberganges in der starken Wechselwirkung, und zum anderen eines Vektormesondominanzmodelles für ein Pion-Rho-System bei endlichen Temperaturen mit Hilfe von Vielteilchenresummationsverfahren in selbstkonsistenten Näherungen konnten so interessante phänomenologische Einblicke in die Physik der stark wechselwirkenden Materie gewonnen werden. Darüberhinaus wurde ein theoretischer Beitrag zur Behandlung beliebiger bosonischer Systeme in der selbstkonsistenten Schleifen-Näherung für die Dyson-Schwinger-Gleichungen geleistet. Natürlich sind damit die Forschungen auf dem Gebiet der Beschreibung von Aspekten stark wechselwirkender Materie in effektiven Modelle mittels selbstkonsistenter Vielteilchenresummationsverfahren bei weitem nicht abgeschlossen. Vielfältige Entwicklungen auf diesem Forschungsgebiet sind auch in Zukunft zu erwarten. Zum Beispiel bleibt die Frage der Veränderung der Massen (Realteil der Selbstenergien) der Rho-Mesonen und Pionen im Medium in der selbstkonsistenten Schleifennäherung bisher noch unbeantwortet. Auch das Einbinden von Baryonen in diese Betrachtungen ist eine Aufgabe für die Zukunft. Schließlich können auch noch die Effekte der chiralen Symmetrierestauration einen wesentlichen Einfluß auf die Beschreibung der Dileptonenproduktion nehmen. Die vorliegende Arbeit läßt die begründete Hoffnung zu, daß bei der Behandlung dieser weitergehenden Fragen in selbstkonsistenten Resummationsschemata wichtige neue Erkenntnisse gewonnen werden könnten. Darüberhinaus bleibt die Frage eines eichinvarianten, numerisch tatsächlich mit Hilfe des aktuellen Standes der Computertechnologie realisierbaren Vielteilchenresummationsschemas, das bei allen Temperaturen und Dichten anwendbar wäre ein grundlegendes und offenes Problem der Forschung, das nicht nur für die Beschreibung effektiver Theorien sondern auch für die Untersuchung von Dyson-Schwinger-Gleichungen für fundamentale Theorien, wie der Quantenchromodynamik, von höchstem Interesse wäre.
Die Struktur der uns umgebenden Materie sowie die zwischen ihren Bestandteilen wirkenden Kräfte waren schon immer eine der zentralen wissenschaftlichen Fragestellungen. Nach den gegenwärtigen Erkenntnissen ist die uns umgebende Materie aus einigen wenigen Elementarteilchen aufgebaut; sechs Quarks und sechs Leptonen. Zwischen ihnen wirken vier fundamentale Kräfte; die starke, die schwache, die elektromagnetische und die Gravitationskraft. Dominierende Kraft zwischen Quarks ist auf kleinen Skalen, wie im Inneren von Nukleonen, die starke Kraft. Die sie beschreibende Theorie ist die Quantum Chromo Dynamic (QCD). Eine besondere Eigenschaft der QCD ist die Vorhersage, dass Quarks nur in gebundenen Zuständen auftreten, entweder als Paar (Mesonen) oder als Kombination aus drei Quarks (Baryonen). Tatsächlich wurden bisher keine freien Quarks experimentell gefunden. Dieses Phänomen wird als "confinement" bezeichnet. Es stellt sich die Frage, ob es möglich ist, einen Materiezustand zu erzeugen in welchem sich die Quarks in einem ausgedehnten Volumen wie freieTeilchen verhalten. Tatsächlich sagen theoretische Berechnungen einen solchen Zustand, das Quark-Gluon-Plasma, für sehr hohe Temperaturen und/oder Dichten voraus. Ultrarelativistische Schwerionenkollisionen sind die einzige derzeit bekannte Möglichkeit, die nötigen Temperaturen und Dichten im Labor zu erreichen. Erschwert wird die Interpretation des hierbei erzeugten Materiezustandes durch die Tatsache, dass im Experiment nur der hadronische Endzustand der Kollision beobachtet werden kann, auf Grund der sehr kurzen Zeitskala jedoch nicht die erzeugte Materie selbst. Trotzdem wurden inzwischen einige Observablen gemessen, die einen Rückschluss auf den Materiezustand in den frühen Phasen der Kollision zulassen. Die kombinierte Information legt die Bildung eines "deconfinten" Zustandes nahe. Eine dieser Proben ist die Produktion von schweren Quarkonia, d.h. Mesonen, die aus charm-anticharm (bzw. bottom-antibottom) Quarkpaaren bestehen. Wie in Kapitel 2 näher erläutert, kann von ihrer Produktion möglicherweise auf die in der Kollision erreichte Temperatur geschlossen werden. Das bisherige experimentelle Programm konzentrierte sich auf die Messung des J/Ã Mesons, dem 1S Zustandes des charm - anticharm Systems. Wie von der Theorie vorhergesagt, wurde eine Unterdrückung seiner Produktion in Schwerionenkollisionen relativ zur Produktion in Proton-Proton-Kollisionen beobachtet, z.B. vom Experiment NA50 am SPS Beschleuniger des Europäischen Zentrums für Teilchenphysik CERN, wie in Abbildung 2.2 gezeigt.Die Deutung dieser Meßdaten ist jedoch umstritten. Neben einer Interpretation im Rahmen des oben beschriebenen Modells können die Daten sowohl von hadronischen Modellen als auch von statistischen Hadronisierungsmodellen, die eine Bildung des cc Zustandes nicht in den initialen Partonkollisionen, sondern erst beim Übergang zum hadronischen Endzustand annehmen, beschrieben werden. Eine Möglichkeit, einzelne Modelle zu falsifizieren bzw. einige der Modellparameter weiter einzuschränken, besteht in der Messung anderer Quarkonia Zustände als dem J/Ã Meson. Hier wären zum einen die anderen Zustände der cc Familie zu nennen, z.B. das Âc(1P). Dieses ist jedoch durch seine Zerfallskanäle experimentell nur schwer nachzuweisen. Eine andere Möglichkeit bietet die Messung von Bindungszuständen zwischen bottom Quarks. Das bb System hat durch die grössere Massendifferenz zwischen dem ersten Bindungszustand, dem (1S), und der für die Erzeugung zweier Hadronen mit jeweils einem bottom und einem leichten Quark, wesentlich mehr Zustände als das cc System. Experimentell sind durch den Zerfallskanal in zwei Leptonen insbesondere die Upsilon gut nachzuweisen.Die Messung von Upsilons in ultrarelativistischen Schwerionenkollisionen ist jedoch experimentell äusserst herausfordernd. Durch die große Masse von circa 10 GeV/c2 ist die Produktionswahrscheinlichkeit sehr klein im Vergleich zu leichteren Teilchen, zum Beispiel dem nur 3.14 GeV/2 schwerem J/Ã. Der im Jahr 2000 in Betrieb genommene Relativistic Heavy Ion Collider (RHIC, siehe Kapitel 3.1) des Brookhaven National Laboratories (BNL) auf Long Island in der Nähe vonNew York erreicht zum ersten Mal eine ausreichend grosse Schwerpunktsenergie und Luminosit ät, welche eine Upsilon Messung möglich erscheinen lassen. Die Entwicklung des experimentellen Programms zur Messung von Upsilons mit dem STAR Detektor am RHIC und erste Ergebnisse aus der Strahlzeit der Jahre 2003/2004 werden in dieser Arbeit beschrieben. Herzstück des STAR Detektors, der in Kapitel 3.2 näher beschrieben wird, ist eine Time Projection Chamber (TPC) welche die Rekonstruktion geladener Teilchen in einem grossen Phasenraumbereich bei mittlerer Rapidität erlaubt. In den Jahren 2001 bis 2005 wurde das Experiment um elektromagnetische Kalorimeter (BEMC, EEMC) erweitert, mit welchen zusätzlich die Energie von Photonen und Elektronen bestimmt werden kann. Die verschiedenen Detektoren des STAR Detektorsystems können in zwei, durch ihre mögliche Ausleserate definierte, Klassen eingeteilt werden. Ein Teil der Detektoren wird bei jedem RHIC Bunch Crossing ausgelesen, d.h. mit einer Frequenz von 9.3 MHz. Zu dieser Klasse der sogenannten Triggerdetektoren gehören unter anderem das schon erwähnte elektromagnetische Kalorimeter, der Central Trigger Barrel (CTB), die Zero Degree Calorimeter (ZDC) und die Beam-Beam Counter (BBC). Die Time Projection Chamber und einige andere Detektoren, wie z.B. der Silicon Vertex Tracker (SVT), können im Gegensatz dazu nur mit maximal 100 Hz ausgelesen werden.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
Wir haben uns in dieser Arbeit der möglichen Produktion Schwarzer Löcher in hochenergetischen Teilchenkollisonen unter Annahme einer Raumzeit mit großen Extra-Dimensionen gewidmet. Die Produktionsraten, die bei einer neuen fundamentalen Skala im Bereich Mf ~ 1 TeV zu erwarten sind, liegen für den LHC in der Größenordnung von ~ 10 hoch 8 Schwarzen Löchern pro Jahr. Diese hohe Anzahl begründet das Interesse an den Eigenschaften der produzierten Schwarzen Löchern und wirft die Frage auf, wie diese Objekte beobachtet werden können. Bei der Untersuchung der Eigenschaften dieser Schwarzen Löcher haben wir festgestellt, dass das Entstehen Schwarzer Löcher ab einer c.o.m.-Energie im Bereich der neuen Planck-Masse zu einer raschen Unterdrückung hochenergetischer Jets, wie sie in pp-Kollisionen entstehen, führt. Dies ist ein klares Signal und leicht zu beobachten. Unter Ansetzen des Mikrokanonischen Ensembles haben wir die Zerfallsrate der Schwarzen Löcher und ihre Lebensdauer berechnet. Es zeigt sich, dass diese Lebensdauer hoch genug ist, um ein zeitlich deutlich verzögertes Signal zu erhalten. Nimmt man an, dass die statistische Mechanik bis zur Größenordung Mf gülig bleibt, so gelangen die Schwarzen Löcher im Zuge ihrer Verdunstung in einen quasi-stabilen Zustand und ein Rest verbleibt. Die Lebenszeit ist von der Anzahl der Dimensionen abhängig und lässt so Rückschlüsse auf diesen Parameter zu. Im Falle (Mf ~ TeV, d > 5) liegt sie für Energien von ~ 10 TeV in der Größenordung 100 fm/c. Eine geometrische Quantisierung der Strahlung legt außerdem nahe, dass die Schwarzen Löcher nicht restlos verdampfen können, sondern ein stabiler Überrest verbleibt. Diese Ergebnisse sind in [202, 203, 205] veröffentlicht worden.
In dieser Arbeit werden mit Hilfe von Röntgenstreuung Polymere untersucht, die auf molekularer Ebene eine lamellenartige Schichtstruktur aufweisen. Diese Ordnung wird bei hohen Temperaturen zerstört, das Polymer wandelt sich in eine homogene Schmelze um. Ziel dieser Arbeit ist es, die Ursachen dieser Phasenumwandlung, d.h. ihre treibenden Kräfte zu erforschen. Hierzu werden mehrere Polymere verschiedener Zusammensetzung untersucht und der Einfluss von mechanischem "Stress" auf die Phasenumwandlung überprüft. Die untersuchte Polymerklasse ist ein sogenanntes Diblockcopolymer , d.h. die Polymermoleküle bestehen aus jeweils zwei linearen Polymerkettenstücken verschiedener Polymersorten (hier: {\em Polystyrol} und {\em Polybutadien}), die "Kopf an Kopf" miteinander verbunden sind. Durch diese molekulare Verbindung ist eine Auftrennung auf makroskopischem Massstab, etwa vergleichbar der Entmischung von "Ol und Wasser, nicht möglich. Mikroskopisch kann das Polymer durch eine günstige Ausrichtung der Moleküle zueinander die Kontakte zwischen den Polystyrol- und Polybutadien-Teilketten minimieren. Diese Abnahme der Gesamt-Wechselwirkungsenergie führt zum Aufbau einer lamellaren Struktur und bedeutet gleichzeitig eine Absenkung der Entropie. Bei Erhöhung der Temperatur kann der entropische Beitrag zur freien Energie dominant werden, d.h. die Ordnung wird zerstört. Die Experimente wurden am Max-Planck-Institut für Polymerforschung in Mainz unter Betreuung von Herrn Prof. Dr. Manfred Stamm (inzwischen an der Universität Dresden) durchgeführt. Dort wurden die Polymere synthetisiert und eine vorhandene Röntgenkleinwinkelstreuanlage für die hier vorgestellten Messungen genutzt. Weiterhin wurde eine Scherapparatur so umgebaut, dass die gleichzeitige Messung von Scherung und Röntgenkleinwinkelstreuung im Time-Slicing-Verfahren möglich war. Im Rahmen dieser Arbeit wurde ein Röntgendetektor entwickelt, der die korrelierte Datenerfassung von Scherung und Röntgenstreuung im Zeitmassstab deutlich unter einer Sekunde ermöglicht. Die hier vorgestellten Experimente gliedern sich zum einen in statische Röntgenmessungen an verschiedenen Polymersystemen, welche die Temperaturabhängigkeit der inneren, molekularen Struktur untersucht, bei der Umwandlung von der lamellenartigen Schichtstruktur zur homogenen Schmelze und umgekehrt. Hierbei zeigen sich keine Hystereseeffekte und eine gute Übereinstimmung mit {\em MC-CMA}-Simulationen. Die einzelne Polymerkette wird beim Phasenübergang leicht gestreckt. Die beobachteten Phänomene werden durch feldtheoretische Modelle nicht vollständig wiedergegeben. Zum anderen wird der Einfluss von mechanischem "Stress" in Form einer oszillatorischen Verscherung auf diese Umwandlung und bei Temperaturen nahe dieser Umwandlung untersucht. Der anisotrope Aufbau der lamellenartigen Schichtstruktur bewirkt ein stark nichtlineares mechanisches Verhalten des Polymers, das mit dem Aufbau einer Vorzugsorientierung der Lamellen zur Richtung der Verscherung einher geht. Die Kinetik dieser Orientierungsphänomene wurde mit Hilfe der Röntgenkleinwinkelstreuung während der mechanischen Beanspruchung gemessen. Es ergibt sich innerhalb der Messungenauigkeit von 1-2\,K keine Erhöhung der Umwandlungstemperatur. Abhängig von den Scherparametern zeigen sich knapp unterhalb der Umwandlungstemperatur unterschiedliche Vorzugsorientierungen, deren zeitliche Abfolge irreversibel ist. Für das Auftreten der verschiedenen Vorzugsorientierungen zum Scherfeld werden verschiedene Parameter auf unterschiedlichen Größenskalen verantwortlich gemacht. Das komplexe Zusammenwirken dieser strukturellen Details kann durch die mechanische Beanspruchung "getestet" werden. Der Aufbau einer langreichweitigen Ordnung wird durch die externen Kräfte beschleunigt.
Das zeitdiskrete Rohrmodell besitzt für die Modellierung der menschlichen Sprachproduktion eine wichtige theoretische und praktische Bedeutung, da es ein mathematisch handhabbares Modell darstellt und zugleich eine vereinfachte akustische Beschreibung des Sprechtraktes beinhaltet. Dies ist einerseits begründet durch die modellhafte Beschreibung der Ausbreitung von ebenen Wellen durch den Sprechtrakt und andererseits in der Darstellung des Rohrmodells als zeitdiskretes lineares System. Erst durch die Verfügbarkeit von adäquaten Schätzalgorithmen, welche die Modellparameter aus dem Sprachsignal bestimmen, ist das Rohrmodell für Anwendungen in der Sprachverarbeitung interessant. Diese liegen allerdings nur für die einfachsten unverzweigten Rohrmodelle vor, welche den Sprechtrakt nur stark vereinfacht modellieren. Für erweiterte Rohrmodelle existieren nur in eingeschränkter Weise adäquate Schätzalgorithmen, mit denen die Modellparameter aus dem Sprachsignal geschätzt werden können. Daher wird mit dieser Arbeit versucht diesen Mißstand aufzulösen, wofür Schätzalgorithmen auch für erweiterte Rohrmodelle entwickelt und vorgestellt werden. Die Erweiterungen des Rohrmodells beziehen sich auf Rohrverzweigungen, die auch mehrfach auftreten können, und Rohrabschlüsse, die frequenzabhängig oder zeitvariabel sein können. Zusätzlich werden Sprechtraktmodelle behandelt, die zwei Systemausgänge aufweisen. Dies wird für Analysen von getrennt aufgenommenen Mund- und Nasensignalen von nasalierten Lauten diskutiert, um die Lippen- und Nasenabstrahlung einzeln zu berücksichtigen. Ebenso werden verzweigte Modelle mit zwei Systemausgängen für eine Beschreibung des Nasaltraktes unter Berücksichtigung der beiden Nasengänge behandelt. Die Erweiterungen des Rohrmodells durch Verzweigungen und angepaßte Rohrabschlüsse ermöglichen eine genauere Beschreibung des Sprechtraktes infolge der Verzweigungen durch den Nasaltrakt und infolge der Abschlüsse an den Lippen, Nasenlöchern und der Glottis. Die Parameterbestimmung wird durch Minimierung eines Fehlers durchgeführt, welcher ein spektrales Abstandsmaß zwischen dem Rohrmodell und dem analysierten Sprachsignal darstellt. Für die Definition des Fehlers wird die inverse Filterung herangezogen, welche eine Leistungsminimierung des Ausgangssignals des inversen Systems beinhaltet. Dabei hat sich gezeigt, daß die Fehlerdefinition der inversen Filterung modifiziert werden muß, um auch erfolgreich auf erweiterte Rohrmodelle angewendet werden zu können. Die Modifikation kann für erweiterte Rohrmodelle einheitlich für den zeitinvarianten und zeitvariablen Fall vorgestellt werden. Über den allgemeinen Ansatz der Schätzung hinaus werden auch effiziente Schätzverfahren für ausgewählte Rohrstrukturen und allgemeine Pol-Nullstellen-Systeme vorgestellt. Die diskutierten Schätzverfahren ermöglichen eine gute Approximation der Sprachspektren durch die Modellbetragsgänge. Darüber hinaus konnte auch gezeigt werden, daß durch entsprechende Rohrmodellstrukturen und eine geeignete Vorverarbeitung des Sprachsignals realistische Querschnittsflächen des Sprechtraktes geschätzt werden können. Daher eignen sich die erweiterten Sprechtraktmodelle auch für die Sprachproduktion. In Synthesebeispielen wurden Lautübergänge auf der Basis von geschätzten Vokaltraktflächen realisiert und in Resynthesebeispielen mittels unverzweigter Rohrmodelle wurde insbesondere die Anregung der Modelle diskutiert. Daß durch die Verwendung von Rohrmodellen auch Lauttransformationen möglich sind, zeigt die vorgestellte künstliche Nasalierung von Sprachsignalen unnasalierter Laute, welche mittels verzweigter Rohrmodelle und Analysen von getrennt aufgenommenen Mund- und Nasensignalen erreicht werden konnte.
Ziel dieser Arbeit ist die Herstellung und Charakterisierung von Zn-Mg-SE-Legierungen (SE = Y, Ho, Er, Dy, Tb, Gd), um Informationen über Struktur, Stabilisierung und physikalische Eigenschaften der quasikristallinen Phasen dieses Systems zu erhalten. Die Quasikristalle dieses Systems unterscheiden sich von Quasikristallen anderer Legierungen, die meist Al als Hauptkomponente enthalten. Es konnten bis zu 275 mm3 große Einkristalle der flächenzentriert ikosaedrischen Phase in den Systemen Zn-Mg-Y und Zn-Mg-Ho gezüchtet werden. Außerdem wurden MgZn2- und hexagonale A-Zn70Mg14Y16-Einkristalle hergestellt, deren Existenzbereiche im Phasendiagramm benachbart zu dem der ikosaedrischen Phase liegen. Um polykristalline Proben herzustellen, die unterschiedliche quasikristalline oder verwandte Strukturen als Hauptphase enthalten, wurden verschiedene Herstellungsverfahren getestet und verwendet. So konnte zum Beispiel erstmalig eine Probe hergestellt werden, die dekagonales ZnMgY als Hauptphase enthält. Zudem wurde eine neue kubische (R-Phase) bzw. hexagonale (M-Phase) und eine neue hochgeordnete primitiv ikosaedrische Phase im System Zn-Mg-Er entdeckt, synthetisiert und charakterisiert. Bei Untersuchungen dieser selbst gefertigten Proben konnten Erkenntnisse über magnetische Eigenschaften, elastische Konstanten, optische Leitfähigkeit, Leerstellenverteilung, Oberflächenbeschaffenheit, Diffusionsmechanismen und die Erstarrungsgeschichte der flächenzentriert ikosaedrischen Zn-Mg-SE-Quasikristalle gewonnen werden. Durch vergleichende Messungen an kristallinen Zn-Mg-SE-Legierungen lassen sich die für Quasikristalle spezifischen Effekte identifizieren. Die im Rahmen dieser Arbeit hergestellten und charakterisierten Proben sind aktuell Gegenstand weiterer Untersuchungen. Mit Hilfe von Beugungsexperimenten konnte gezeigt werden, dass die kubische R-Phase strukturell nahe mit der ikosaedrischen Phase im System Zn-Mg-SE verwandt ist. Die R- Phase ist bei Raumtemperatur nicht stabil und bildet die rhomboedrische M-Phase. Es konnte ein Strukturmodell für die R-Phase entwickelt werden, in dem keine ikosaedrischen Cluster als Strukturelement verwirklicht sind. Auch in der hexagonalen A-Phase konnten solche Strukturelemente nicht gefunden werden. Die Resultate dieser Arbeit legen nahe, dass die Struktur der Zn-Mg-SE-Quasikristalle, im Gegensatz zu Quasikristallen anderer Systeme, nicht auf großen ikosaedrischen Clustern basiert. Damit ist gezeigt, dass große ikosaedrische Cluster zur Bildung von Quasikristallen nicht notwendig sind. Messungen an den Proben zeigen, dass sich dadurch auch einige der physikalischen Eigenschaften, zum Beispiel die optische Leitfähigkeit, von Quasikristallen mit Clustern unterscheiden. Keine Unterschiede konnten beim Diffusionsverhalten und bei mechanischen Eigenschaften festgestellt werden. Hier gleichen die Zn-Mg-SE-Quasikristalle anderen strukturell komplexen Legierungen oder Quasikristallen anderer Legierungssysteme.
Quasikristalle im System Zink-Magnesium-Seltene-Erden : Materialpräparation und Einkristallzüchtung
(2005)
Diese Arbeit beschäftigt sich mit der Materialpräparation und Einkristallzüchtung von Quasikristallen und verwandten Verbindungen im System Zink-Magnesium-Seltene-Erden (Zn-Mg-SE). Für eine Einkristallzüchtung der hochgeordneten primitiv-ikosaedrischen Phase (si Zn-Mg-Ho) wird zuerst eine geeignete Schmelzzusammensetzung ermittelt, aus der si Zn-Mg-Ho primär erstarrt. Es wird gezeigt, daß sich diese auch auf die Seltenen Erden Erbium und Thulium, die einen ähnlich großen Atomradius haben, übertragen läßt. Bei der Verwendung von Seltenen Erden mit größerem Atomradius bildet sich eine bisher unbekannte rhomboedrische Phase mit einer Zusammensetzung von Zn84Mg5SE11, von der im Zn-Mg-Gd--System Einkristalle mit der Bridgman-Methode in einem geschlossenen Tantaltiegel gezüchtet werden. Die Kristallzüchtung von si Zn-Mg-Ho erfolgt sowohl mit der Bridgman-Methode als auch aus einem offenen Tiegel mit Keimvorgabe von oben, wobei die Schmelze mit einer Salzabdeckung vor Verdampfungsverlusten geschützt wird (LETSSG-Methode). Auf diese Weise werden facettierte Einkristalle mit einer Kantenlänge von über einem Zentimeter gezüchtet. Auch von der flächenzentriert-ikosaedrischen Phase im System Zn-Mg-Y, Zn-Mg-Ho und Zn-Mg-Er sowie von der hexagonalen Zn-Mg-Y--Z-Phase werden mit dieser Methode ähnlich große Einkristalle hergestellt. Zur Synthese von größeren Mengen polykristallinen Materials durch Abschrecken und Tempern wird eine Meltspinanlage aufgebaut, die durch die Verwendung eines ebenen Drehtellers (statt des sonst üblichen Rades) sehr kompakt ist und in eine vorhandene Metallschmelzanlage integriert werden kann. Mit diesem Gerät wird quasikristallines si Zn-Mg-Ho einphasig synthetisiert und dekagonales Zn-Mg-Dy, Zn-Mg-Ho und rhomboedrisches Mg21Zn25 als Probenhauptbestandteil hergestellt. Die erzeugten Proben werden zur Untersuchung von Struktur und physikalischen Eigenschaften an Kooperationspartner weitergegeben. Dabei wird ein lokales Strukturmodell der fci und si Quasikristalle mittels Analyse der Atompaarverteilungsfunktionen, die aus Röntgenpulverdaten (Molybdän- und Synchrotronstrahlung) gewonnen werden, entwickelt. Anhand dessen lassen sich erstmals ikosaedrische Cluster in den Quasikristallen eindeutig nachweisen. Die magnetische Suszeptibilität von si Zn-Mg-Ho zeigt bis zu einer Temperatur von 50~mK paramagnetisches Verhalten. Eine magnetische Fernordnung tritt bis zu dieser Temperatur nicht auf. Untersuchungen mit der Radio-Tracer-Methode zeigen, daß Phasonen an der Diffusion in fci Zn-Mg-Y und Zn-Mg-Ho nicht beteiligt sind.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.
Die Kinetik der Quantenkohärenz entarteter bosonischer Exzitonen bietet ein reiches Spektrum von interessanten Phänomenen, die in dieser Arbeit unter vielfältigen Aspekten untersucht wurden. Dabei lag das Interesse vor allem im Wechselspiel von kohärenten und inkohärenten Prozessen, die mit Hilfe der Vielteilchentheorie auf gemeinsamer Basis behandelt werden konnten. Dies ermöglichte die Beschreibung zweier völlig gegensätzlicher Prozesse: - Den Übergang einer nach Laserpulsanregung rein kohärenten Amplitude in eine Gleichgewichtsverteilung inkohärenter Bosonen unter totalem Verlust jeglicher Phase (Zerfall von Quantenkohärenz). - Den entgegengesetzen Vorgang des spontanen Aufbaus einer makroskopischen kohärenten Amplitude aus einer inkohärenten Verteilung von Exzitonen, den typischen Vorgang in einer BoseEinsteinKondensation (Aufbau von Quantenkohärenz). Die Arbeit begann mit einer getrennten Untersuchung der inkohärenten und der kohärenten Eigenschaften von Exzitonen in Quantendrähten. In diese Halbleiternanostrukturen führt das schwache Confinement zu Subbändern für Exzitonen und Biexzitonen, die sich auch in den komplizierten Auswahlregeln der ExzitonExziton und der ExzitonBiexzitonWechselwirkung bemerkbar machen. Dabei ergibt sich in sehr guter Übereinstimmung mit Experimenten in Würzburg ein überraschendes Phänomen: Streuraten werden durch stärkeres Confinement nicht immer vermindert. In der Tat wurde eine Erhöhung der ExzitonExzitonStreuung bei kleinerer Drahtbreite gefunden. Experimentell und theoretisch skalieren die Streuraten dabei mit dem inversen Quadrat der ConfinementLänge \Gamma XX / 1=L 2 x . Dies könnte durchaus auch Auswirkungen auf den Bau optischer Devices haben, bei denen die Streurate im Allgemeinen minimiert werden soll. Weiterhin wurde gezeigt, dass das Exzitonsystem durch die Kopplung an Biexzitonen für höhere Intensitäten in völlig irreguläres Verhalten übergeht. Daran anschließend wurde eine vereinheitlichende Kinetik mit Hilfe der Nicht gleichgewichtDiagrammtechnik formuliert, die kohärentes und inkohärentes Verhalten gemeinsam auf mikroskopischer Skala beschreibt. Die bosonische Diagrammtechnik war dabei zwar von Methoden für Nicht gleichgewichtsfermionen inspiriert, viele fundamentale Aspekte ohne Analogie in Fermionensystemen oder bosonischen Gleichgewichtssystemen mussten jedoch in dieser Arbeit neu entwickelt werden. Für die gesamte bosonische Einteilchendichtematrix, die sowohl eine kohärente Amplitude ha 0 (t)i als auch Besetzungszahlen ha k (t)a k (t)i und Paarkorrelationen ha k (t)a \Gammak (t)i bei endlichen Impulsen k enthält, wurde eine Markov Kinetik entwickelt. Mit deren Hilfe wurde dann die Dephasierungskinetik einer exzitonischen Polarisation nach Anregung mit einem kohärenten Laserpuls untersucht. Dabei konnte der gesamte Übergang von kohärent erzeugten Exzitonen zu einer inkohärenten Gleichgewichtsverteilung allein aufgrund der ExzitonExzitonWechselwirkung auf mikroskopischer Ebene simuliert und verstanden werden. Erstaunlicherweise stellt sich bei diesem Prozess die Berücksichtigung der Paarkorrelationen F k = ha k a \Gammak i, die zwei Exzitonen mit Impuls k und \Gammak korrelieren, als absolut notwendig heraus. Ohne diese Korrelation zerfällt eine einmal kohärent angeregte Exzitonpolarisation überhaupt nicht durch ExzitonExzitonStreuung und das System bleibt völlig kohärent. Bei diesen Berechnungen zur Dephasierung zeigte sich auch erstmals in dieser Arbeit, dass die prinzipielle Fähigkeit der Exzitonen zu einer Kondensation selbst unterhalb der kritischen Dichte die Kinetik der Polarisation beeinflusst. Dabei spielt eine Besonderheit der Kondensation von Exzitonen eine wesentliche Rolle, die keine Äquivalenz in atomaren Systemen hat: die Identität des Ordnungparameters der BoseEinsteinKondensation (BEC) mit der direkt messbaren optischen Polarisation. So zeigt sich ein auf den ersten Blick überraschendes Phänomen: In der Nähe des Phasenübergangs verliert die allgemein anerkannte lineare Dichteabhängigkeit der Dephasierungrate \Gamma XX (n) = fln (excitation induced dephasingi ) ihre Gültigkeit. Stattdessen erhält man eine signifikante Verlangsamung der Polarisationsdephasierung, wie man sie aus vielen Phasenübergängen für die Dynamik des Ordnungsparameters kennt (critical slowing downi ). Diese Tendenz der Gleichungen die Quantenkohärenz der InterbandPolarisation in der Nähe der Kondensation zu erhalten, kann als erstes experimentell messbares Kriterium für eine Annäherung an den Phasenübergang verwendet werden. Aufgrund der unvermeidlich kurzen ExzitonLebensdauer eignet sich dieses Nichtgleichgewichtsphänomen für eine Beobachtung der BEC von Exzitonen möglicherwiese besser als die üblichen Gleichgewichtsargumente. Um die Kinetik der Kondensation besser zu verstehen, wurde danach die MarkovKinetik von Exzitonen in Wechselwirkung mit einem Phononenbad behandelt. Als Anfangsbedingung wurde sowohl eine inkohärente Verteilung als auch eine rein kohärente Amplitude untersucht, die durch einen Lichtpuls erzeugt wurde. Bei der Herleitung der markovschen Ratengleichungen im Kondensationsregime sind beim thermodynamischen Limes und bei der Behandlung der detaillierten Bilanz einige subtile Punkte unbedingt zu beachten. Durch deren konsequente Berücksichtigung wurden Ratengleichungen erhalten, die von den Literaturüblichen abweichen. Die abgeleiteten Stoßterme wechseln oberhalb der kritischen Dichte für eine BEC spontan das Vorzeichen, was zum Aufbau eines Kondensates und erstmals auch asymptotisch zu einer Bose EinsteinKondensation des freien BoseGases innerhalb der Lebenszeit der Paraexzitonen von Cu 2 O führt. Auch die Dephasierungsrate der Polarisation nach Laserpulsanregung aufgrund von Phononenstreuung \Gamma XP zeigt in der Nähe des Phasenübergangs Abweichungen von der erwarteten Dichteunabhängigkeit und verschwindet quadratisch an der kritischen Dichte n c : \Gamma XP (n) / (n \Gamma n c ) 2 . Das Zerfallsgesetz ändert sich bei höheren Intensitäten in eine Potenzgesetzrelaxation zur stationären BEC. Beide Gesetze haben große experimentelle Relevanz bei der Suche nach einer BEC in Halbleitern. Obwohl in der MarkovKinetik die BEC des freien BoseGases erfolgreich simuliert wurde, geht diese Eigenschaft bei der Mitnahme der kohärenten ExzitonExzitonWechselwirkung sofort verloren. Die Gleichungen beschreiben dann entweder den Aufbau oder den Zerfall der Quantenkohärenz falsch. Der Grund hierfür wurde in der Unstimmigkeit zwischen markovschen Stoßtermen mit festen Energien und dem Aufbau des kohärenten BoseEinstein Kondensats des wechselwirkenden BoseGases gefunden, bei dem die Energien der Quasiteilchen zeitabhängig werden. Dieses Dilemma konnte im letzten Kapitel durch eine quantenkinetische Formulierung der Kinetik mit expliziten Gedächtnisintegralen als Stoßterme gelöst werden. Dabei werden die Deltafunktionen durch komplexe Integralkerne ersetzt, bei denen die zeitliche Evolution der Quasiteilchenspektren exakt berücksichtigt werden. Mit dieser Methode gelingt es erstmals, den zeitlichen Aufbau der BEC des wechselwirkenden BoseGases erfolgreich zu simulieren. Die involvierten Zeitskalen der Kondensation, die asymptotischen Verteilungsfunktionen der Exzitonen und die Kondensatanteile weichen dabei unter den Bedingungen typischer Experimente in Cu 2 O stark vom freien Gas ab. Die Beträge aller anomalen Größen (also auch p und F k ) erreichen den von der Gleichgewichtstheorie mit Wechselwirkung vorausgesagten Wert, oszillieren jedoch asymptotisch mit Vielfachen des chemischen Potentials, das in dieser Kondensation nicht verschwindet. Die erste theoretische Realisierung des Aufbaus der nichttrivialen BEC eines wechselwirkenden BoseGases, mit der allein z.B. viele Interferenzexperimente und Superfluidität erklärbar sind, ist von großem fundamentalen Interesse. Sie weist auch über das Thema dieser Arbeit hinaus und könnte Anstoß für ähnliche Simulationen der Kondensation in atomaren Fallen und anderen "meanfield" Phasenübergänge geben.
Das Antiprotonen-Experiment PANDA an der zukünftigen Beschleunigeranlage FAIR wird unter anderem Charmonium-Zustände mit einer bis dato unerreichten Genauigkeit messen können. Um dieses Ziel zu erreichen, wird eine sehr gute Teilchenidentifikationsfähigkeit verlangt. Eine gute Trennung zwischen Pionen und Kaonen wird durch den Einsatz eines Cherenkovdetektors erreicht. Die Leistungsfähigkeit eines DIRC hängt von dessen Radiatorgüte ab. Um die Qualität der Radiatorstäbe spezifizieren zu können, wurde im Rahmen dieser Doktorarbeit eine optische Messapparatur entwickelt. Dieser Aufbau erlaubt es die Transmission sowie die Oberflächenrauheit der Stäbe zu messen. Es wurden mehrere Radiatorstäbe aus synthetischem Quarzglas und Acrylglas untersucht. Die Messgenauigkeit bei hochqualitativen Stäben liegt für die Transmissionsmessung bei etwa 1 Promille und für die Rauheit bei 1-2 Angström. Die Messergebnisse bei verschiedenen Wellenlängen zeigen eine gute Übereinstimmung mit der skalaren Streutheorie, die den Zusammenhang zwischen Reflexionskoeffizienten und Rauheit beschreibt. Bei einer Strahlzeit an der GSI mit einem 2 GeV Protonenstrahl wurde ein erster Prototyp für den Barrel-DIRC mit einem Stab aus synthetischem Quarzglas als Radiator getestet. Durch Variation des Einfallswinkels und der Position des Protonenstrahls auf dem Radiator konnten Cherenkovringe eindeutig nachgewiesen werden. Zudem wurde der Cherenkovwinkel und die Einzelphotonauflösung in guter Übereinstimmung mit dem Erwartetem und der Simulation bestimmt.
Diese Arbeit untersucht die Produktion von Teilchen durch Vakuumpolarisation in Anwesenheit klassischer Felder. Eine unquantisierte Beschreibung des bosonischen Sektors einer Quantenfeldtheorie wird möglich, wenn dieser stark besetzt ist. Sind die Besetzungszahlen größer als eins, können Quantenprozesse als Korrekturen angesehen werden. Für die Fermionen gibt es wegen des Paulischen Prinzips kein solches Konzept. Situationen mit diesen starkbesetzten Feldern finden sich im Fall der Quantenchromodynamik (QCD) zum Beispiel in ultrarelativistischen Schwerionenkollisionen. Diese werden zur Zeit am Relativistic Heavy Ion Collider (RHIC) am Brookhaven National Laboratory durchgeführt und in Zukunft am Large Hadron Collider (LHC) am CERN untersucht werden. Diese hochbesetzten sind auch starke Felder. Damit können in Abwesenheit weiterer Skalen Prozesse mit unterschiedlich häufigen Kopplungen an das Hintergrundfeld nicht parametrisch unterschieden werden. Die dominanten Quanteneffekte werden durch Terme der klassischen Wirkung. die zweiter Ordnung in den Quantenfeldern sind, repräsentiert. Alle diesbezüglichen Informationen sind in den Propagatoren der entsprechenden Quanten enthalten. Wegen der starken Felder müssen hier die vollen Propagatoren im Hintergrundfeld benutzt werden. Bei schwacher Kopplung - in führender Ordnung in den Quanteneffekten - enthalten sie alle Details über die Streuung der Quantenteilchen am Feld und deren Produktion durch Vakuumpolarisation. Ohne weitere radiative Korrekturen, gibt es in der Quantenelektrodynamik die Produktion von Elektron-Positron-Paaren. Analog dazu werden in der QCD Quark-Antiquark-Paare produziert. Dort kommt aber wegen der Nichtlinearität des Feldtensors noch die Produktion von Paaren gluonischer Quantenfluktuationen hinzu. Die Quarks und Antiquarks sowie die gluonischen Quantenfluktuationen sind parametrisch nicht zu unterscheiden. Für Schwerionenkollisionen lassen sich Größen wie die anfängliche Energiedichte und die Zerfallszeit des hochdichten Regimes abschätzen. Es stellt sich nun die Frage, ob man bei Einschränkung auf diese Situationen eine der beiden Quantenspezies als unwichtig vernachlässigen kann. Im Bereich hoher Teilchenimpulse, läßt sich die Produktion störungstheoretisch beschreiben. Hier untersuche ich zunächst in der niedrigsten Ordnung der klassischen Wirkung die Produktionsprozesse der beiden Arten von Quanten bei Anwesenheit beliebiger Felder. Für die Aufteilung des Gluonenfeldes in seinen Erwartungswert und seine Fluktuationen wird die Hintergrundfeldmethode der QCD verwendet. Für den Spezialfall rein zeitabhängiger Felder werden die Produktionsraten für Parametersätze, wie sie für RHIC und LHC erwartet sind, angegeben. Es stellt sich heraus, daß auf perturbativem Niveau sowohl Situationen, in denen die Fermionen dominieren, als auch solche, in denen die gluonischen Quantenfluktuationen überwiegen' vorkommen. Im Fall der Gluonen könnte der stark besetzte niederengetische Bereich durch das klassische Feld und der hochenergetische schwächer besetzte durch eine perturbative Beschreibung hinreichend genähert sein. Da es für die Fermionen jedoch kein klassisches Feld gibt, bliebe ihr niederenergetischer Bereich vollkommen unbehandelt. Hier ist auf jeden Fall eine nichtperturbative Beschreibung notwendig. Diese kann auf dem vollen Fermionpropagator im Hintergrundfeld aufgebaut werden. Der bereits oben verwendete Spezialfall eines rein zeitabhängigen Feldes kann als Näherung eines boostinvarianten Szenarios in der zentralen Region der Schwerionenkollision gesehen werden. In Anwesenheit derartiger Felder wird hier der volle retardierte Propagator hergeleitet. Für den exakten Propagator und alle Näherungen wird das Impulsspektrum der produzierten Fermionen berechnet. Dabei stellt sich die sogenannte Abelsche Näherung als bester Kandidat neben der exakten Beschreibung heraus. Sie entspricht, im Gegensatz zur störungstheoretischen Näherung, bei der die Fermionen immer mir ihrem asymptotischen kinematischen Impuls propagiert werden, einer Propagation mit dem mittleren kanonischen Impuls, was die Verbesserung der Näherung erklärt. Mit den, durch die induzierten Strömen modifizierten Yang-Mills-Gleichungen, stellt die Arbeit das komplette Funktionensystem dar, daß benötigt wird, um eine selbstkonsistente Berechnung des klassischen Feldes mit perturbativ beschriebenen gluonischen Quantenfluktuationen und exakt berechneten Quarks und Antiquarks durchzuführen.
Bei der Kollision ultra-relativistischer Schwerionen wird die Kernmaterie extrem verdichtet und erhitzt. Die dabei erzeugte Energiedichte könnte ausreichen, um für kurze Zeit in einem begrenzten Volumen ein Quark-Gluon-Plasma entstehen zu lassen. Dieser Zustand der Materie, bei dem die Quarks und Gluonen nicht mehr in Hadronen gebunden sind, lag möglicherweise innerhalb der ersten Millisekunde nach dem Urknall vor und wird im Inneren von schweren Neutronensternen erwartet. Das NA49-Experiment am SPS-Beschleuniger des CERN untersucht hauptsächlich die Produktion von Hadronen in ultra-relativistischen Blei-Blei-Kollisionen. Eine erhöhte Produktion seltsamer Teilchen ist eine der vorgeschlagenen Signaturen für das Auftreten eines Quark-Gluon-Plasmas. Neutrale seltsame Teilchen werden aus den Spuren ihrer geladenen Zerfallsprodukte, die diese in den großvolumigen Spurendriftkammern (TPC) des NA49-Experiments hinterlassen, rekonstruiert. Bei der Auslese der TPCs entstehen Datenmengen von ca. 8 TByte (8 x 10 exp 12 Byte) pro Strahlzeit. Diese riesigen Datenmengen und die aufwendige Spurrekonstruktion stellen hohe Anforderungen an die Software-Infrastruktur. Daher wurde zur Vereinfachung und Modularisierung der Software-Entwicklung eine Software-Entwicklungs- und Analyseumgebung konzipiert und implementiert. Sie basiert auf dem Client-Server-Prinzip und kann über ein heterogenes TCP/IPNetzwerk aus UNIX-Workstations verteilt werden. Der zentrale Bestandteil des Systems ist der Daten-Server, der Datenobjekte mit persistenten Relationen verwaltet und die Kommunikation mit den Clients zur Steuerung des Systems übernimmt. Programmierschnittstellen (API) für verschiedene Sprachen (C, FORTRAN, C++, Fortran90) erlauben eine einfache Entwicklung von Clients, beispielsweise für die Datenanalyse und -visualisierung. Für die Rekonstruktion neutraler seltsamer Teilchen wurden 93497 zentrale Blei-Blei-Ereignisse aus der Strahlzeit im Herbst 1995 analysiert. Aus den Rohdaten der zweiten Vertex-TPC (VTPC2), die zur Bestimmung der Impulse in einem Magnetfeld positioniert ist, wurden zunächst die Ladungs-Cluster und dann die Teilchenbahnen rekonstruiert. Mit diesen Spuren wurden anschließend die Zerfalls-Vertices von neutralen seltsamen Teilchen gesucht. Dabei wurde neben den tatsächlichen Vertices auch ein Untergrund von zufälligen Kombinationen gefunden. Das Verhältnis von Signal zu kombinatorischem Untergrund wurde durch die Anwendung von Qualitätskriterien optimiert. Die Phasenraumakzeptanz liegt für die drei untersuchten Teilchen Lambda, Antilambda und K 0 s in den Rapiditäts-Intervallen 2,9 < y lambda < 3,9, 3,0 < y antilambda < 3,8 und 3,25 <= yK < 4,05. Der verwendete Transversalimpuls-Bereich ist abhängig von der Teilchenspezies und dem betrachteten Rapiditätsintervall und liegt zwischen 0,6 GeV/c und 2,4 GeV/c. Die inversen Steigungsparameter der Transversalimpuls-Spektren sind rapiditätsabhängig. Im Rapiditätsintervall, das jeweils am nächsten an Midrapidity liegt, betragen sie T lambda = 281 +- 13 MeV, T antilambda = 308 +- 28 MeV und T K 0 s = 239 +- 9 MeV. Die beobachtete lineare Abhängigkeit der inversen Steigungsparameter von der Ruhemasse und die Überschreitung der Hagedornschen Grenztemperatur für ein ideales Hadronengas sind ein Indiz für die Existenz eines kollektiven transversalen Flusses. Im Rahmen eines hydrodynamischen Modells ergibt sich eine mittlere transversale Flußgeschwindigkeit <vT> ~ 0,65 c und eine Freeze-out-Temperatur T fo ~ 110 MeV. Während die Rapiditäts-Verteilungen für Antilamda und K 0 s bei Midrapidity ein deutliches Maximum aufweisen, zeigt die Rapiditäts-Verteilung der Lambda einen flachen Verlauf. Die Multiplizitäten im Rapiditätsintervall bei oder nahe Midrapidity betragen 19,2 +- 1,1 für Lambda, 3,2 +- 0,3 für Antilambda und 27,1 +- 1,8 für K 0 s . Aufgrund der in der Analyse verwendeten Qualitätskriterien kann angenommen werden, daß die Spektren von Lambda und Antilambda in erster Näherung frei von Lambda und Antilambda aus den Zerfällen mehrfach-seltsamer Baryonen sind. Aus dem Vergleich mit den Rapiditäts-Spektren, die von anderen NA49-Gruppen mit unterschiedlichen Analyseansätzen ermittelt wurden, konnte der systematische Fehler der Analyse auf etwa 20-30% abgeschätzt werden. Beim Vergleich der Rapiditäts-Spektren von verschiedenen Stoßsystemen bei der gleichen Energie besitzen die Lambda-Verteilungen für Schwefel-Schwefel- (S+S) und Blei-Blei-Stöße (Pb+Pb) die gleiche flache Form. Hingegen weist die p+p-Verteilung zwei deutliche Maxima auf. Die Rapiditäts-Verteilungen von K 0 s und Antilambda zeigen für alle drei Stoß-Systeme annähernd die gleiche Form. Während bei den Lambda- und K 0 s -Verteilungen die Teilchenausbeute beim Übergang von S+S zu Pb+Pb etwa mit der Anzahl der Partizipanten skaliert, ist der Anstieg bei den Antilambda nur halb so groß. Im Vergleich zu p+p nimmt die Produktion aller drei Spezies um etwa das Zweifache der Partizipanten-Anzahl zu. Die Lambda-Multiplizität bei Midrapidity wird durch Rechnungen des UrQMD-Modells sehr gut reproduziert. Allerdings scheint die Form des Lambda-Rapiditäts-Spektrums flacher als die des Modells zu sein. Bei den Antilambda - und K 0 s -Spektren wird die Form der Verteilung besser durch das Modell beschrieben, jedoch reproduziert es nicht die Gesamtmultiplizität. Während die K 0 s-Daten um 30% unter der UrQMD-Verteilung liegen, wird für die Antilambda nur ungefähr die Hälfte der tatsächlich gemessenen Multiplizität vorhergesagt. Eine Abschätzung für die Anzahl von s- und s-Quarks, die bei einem zentralen Blei-Blei-Stoß erzeugt werden, zeigt eine Übereinstimmung innerhalb der systematischen Fehler dieser Abschätzung und ist damit konsistent mit der erwarteten Erhaltung der Seltsamkeits-Quantenzahl. Das Antilambda/Lambda-Verhältnis bei Midrapidity beträgt 0,17 +- 0,02. Der Vergleich der Verhältnisse von seltsamen zu nicht-seltsamen Teilchen zeigt keinen signifikanten Unterschied zwischen Proton-Proton- und Proton-Kern-Stößen; beim Übergang zu S+S kommt es zu einer Erhöhung der Seltsamkeits-Produktion um etwa einen Faktor 2. In Blei-Blei-Kollisionen kommt es jedoch zu keiner weiteren Erhöhung. Mit steigender Anzahl der Partizipanten, die proportional zur Größe des Reaktionsvolumens ist, kommt es zu einer Sättigung der Strangeness-Produktion. Die Energieabhängigkeit der Strangeness-Produktion zeigt für Nukleon-Nukleon-Stöße (N+N) ein anderes Verhalten als für Kern-Kern-Kollisionen (A+A). Während sie für N+N-Stöße zwischen AGS- und SPS-Energien um einen Faktor 2 zunimmt, kommt es bei A+A-Kollsionen zu einer Sättigung auf dem AGS-Niveau. Dieser Unterschied kann durch eine Reduktion der Masse der Seltsamkeitsträger bei den A+A-Stößen erklärt werden, wie sie in einem Quark-Gluon-Plasma erwartet wird. Dies läßt vermuten, daß der Phasenübergang von einem Quark-Gluon-Plasma zu einem Hadronengas im Energiebereich zwischen AGS und SPS stattfindet.
Der Ursprung der Masse bekannter Teilchen und der Einschlu der Quarks in Hadronen ist einer der grundlegendsten Fragestellungen der modernen Physik. Die Kenntnis des Verhaltens von Kernmaterie unter extremen Bedingungen ist unabdingbar zum Verstandnis der Evolution des Universums und zur Theoriebildung von stellaren Objekten wie Neutronensternen und schwarzen Löchern. Einen experimentellen Zugang zur Untersuchung dieser Problematik stellt die Erzeugung heier und dichter Kernmaterie in ultrarelativistischen Schwerionenkollisionen dar. Hierzu untersucht das NA49 Experiment seit Herbst 1994 am 208-Pb-Strahl des CERN-SPS Pb+Pb Kollisionen bei 158 GeV pro Nukleon. Ein Schwerpunkt des Forschungsprogrammes liegt in der Untersuchung des Zustandes der Materie in der frühen Phase der Reaktion. Nach gegenwartem Stand der Theorie wird bei genugent hoher Energiedichte der Einschlu der Quarks in Hadronen aufgebrochen und ein Zustand der Materie erzeugt, in welchen die eektiven Freiheitsgrade von Hadronen und Hadronen-Resonanzen in die von Quarks und Gluonen übergehen - das sogenannte Quark-Gluon-Plasma (QGP). Die Honung ist nun, da sich die Formation eines solchen QGP im hadronischen Endzustand wiederspiegelt. Es wird erwartet, da die Seltsamkeitsproduktion in einem QGP sich in ihrer Rate und ihren Gleichgewichtswerten von der in einem hadronischen Feuerball-Szenario unterscheidet und sich somit als Signatur fur die Erzeugung eines GQP eignet. Von besonderen Interesse ist hier die Produktion von Hyperonen. Schwerpunkt dieser Arbeit ist die Untersuchung der Produktion von doppelt seltsamen geladenen -Hyperonen in zentralen Pb+Pb Kollisionen. Zu diesem Zweck wurden 58000 zentrale Pb+Pb Ereignisse der im Herbst 1995 aufgezeichneten Reaktionen untersucht. Die Analyse der Daten wurde auschlielich mit der zweiten Spurendriftkammer (VTPC2) durchgeführt. Zur Rekonstruktion der -Hyperonen muten Verfahren entwickelt werden, um die typischen Zerfalls-Topologien der doppelt seltsamen Hyperonen aus der Vielzahl von ca. 700 in der Vertex-TPC gemessenen geladenen Teilchenspuren herauszulösen. Aus den in der kombinatorischen Analyse rekonstruierten 720 und 138 + - Hyperonen konnten Spektren des Transversalimpulses und Rapiditatsverteilungen ermittelt werden. Die gewonnene Phasenraum-Akzeptanz fur die in der VTPC2 gemessenen und + - Hyperonen beträgt ....
In der vorliegenden Arbeit wurden zeitaufgelöste optische und magneto-optische Untersuchungen an den halb-metallischen gemischtvalenten Manganatverbindungen La0.67Ca0.33MnO3 und Nd0.7Sr0.3MnO3 durchgeführt, die wichtige Informationen über die nach der optischen Anregung ablaufenden Relaxationsprozesse lieferten. Dabei wird das zu untersuchende Material mittels eines intensitätsstarken ultrakurzen Lichtpuls angeregt. Die dadurch erzeugten Änderungen in der komplexen dielektrischen Funktion der Probe tastet man mittels eines zweiten intensitätsschwächeren ultrakurzen Lichtpuls ab. Durch eine variable Weglängendifferenz zwischen den optischen Wegen des Anregeund des Abtastpulses erzeugt man eine variable Zeitverzögerung und kann damit die Änderungen in der dielektrischen Funktion zeitaufgelöst untersuchen....
Die vorliegende Arbeit bietet zunächst einen weiteren Beweis für die Existenz des neutralen Heliumdimers. Darüber hinaus konnten zwei verschiedene Prozesse identifiziert werden, über die die Absorbtion eines Photons zur Ionisation beider Atome des Dimers über sehr große Abstände führen kann. Oberhalb einer Photonenenergie von 65,4 eV konnte ein ICD Prozess beobachtet werden, der über Photoionisation mit gleichzeitiger Anregung von einem der beiden Atome realisiert wird. Bei 77,86 eV konnte ICD über elektronisch angeregte Zustände bis n=6 nachgewiesen werden. In der KER-Verteilung konnten zudem Strukturen gefunden werden, die auf Vibrationsanregungen im Zwischenzustand des Dimer-Ions schließen lassen. Eine vollständig quantenmechanische Rechnung von Sisourat et al. konnte dies schließlich hervorragend bestätigen. Es konnte also ein direkter Blick auf die Vibrationswellenfunktionen des Systems erlangt werden. In anderen Systemen ist dies in der Regel nicht möglich, da sich alle Zustände üblicherweise zu einer strukturlosen Verteilung überlagern. Weiterhin konnte gezeigt werden, dass sich die Winkelverteilungen von ICD- und Photoelektronen in verschiedenen Bereichen des KER mitunter stark voneinander unterscheiden. Dies konnte auf die unterschiedliche Besetzung von verschiedenen Potentialkurven zurückgeführt werden. Unterhalb der Photonenenergieschwelle zur Anregung und Ionisation eines Heliumatoms konnte ein weiterer, zweistufiger Ionisationsmechanismus gefunden werden. Hier wird zunächst durch Photoionisation ein Elektron aus einem der beiden Atome im Dimer freigesetzt. Dieses Photoelektron kann nun am neutralen Atom gestreut werden und dabei ausreichend viel Energie übertragen, um dieses ebenfalls zu ionisieren. Es konnte gezeigt werden, dass der Prozess einer Abhängigkeit von der Polarisation der Synchrotronstrahlung unterliegt, die man für Photoionisation erwarten würde. Die Energie- und Winkelverteilungen der Elektronen konnten daher mit vorangegangenen Elektronenstoß-Experimenten verglichen werden. Die gute Übereinstimmung mit diesen Daten rechtfertigt eine anschauliche Sichtweise des Prozesses als Analogon zum klassischen Billiard-Stoß. Der Two-Step-Prozess wurde bisher zwar schon in vielen Systemen als theoretisches Modell zur Doppelionisation beschrieben, allerdings konnten die einzelnen Unterprozesse bisher nicht gesondert gemessen werden. Die großen Abstände im Heliumdimer ermöglichen erstmals eine deutliche Trennung in Photoionisation an einem Atom und Elektronenstoß (e,2e) am Nachbaratom. Der Two-Step-Prozess konnte außerdem dazu verwendet werden, die ungewöhnliche Grundzustandswellenfunktion des Heliumdimers zu experimentell zu bestätigen. Eine Analyse des gemessenen KER konnte dabei deutliche Abweichungen zu einer klassischen Theorie aufzeigen. Erst eine vollständig quantenmechanische Rechnung des Übergangs von Sisourat et al. konnte die Messdaten beschreiben.
In der vorliegenden Arbeit wird die Photodoppelionisation (PDI) von Helium (He) experimentell untersucht. Dazu wurde an der Synchrotronstrahlenquelle Advanced Light Source des Lawrence Berkeley National Laboratory (USA) der vollständig differentielle Wirkungsquerschnitt (FDCS) der PDI von He mit linear sowie mit links und rechts zirkular polarisiertem Licht bei den zwei Photon-Energien E_gamma = 179 eV und 529 eV gemessen. Dabei gelang erstmals eine Messung, bei der die Kontinuumsenergie der Fragmente wesentlich über der Bindungsenergie (79 eV) des Systems liegt. Aufgrund dieser hohen Energie lassen die gemessenen Winkel- und Energieverteilungen erstmals Rückschlüsse auf die Wechselwirkungsprozesse in der Ionisation zu. In allen bisherigen Messungen bei niedrigen Photon-Energien überdeckt der Einfluß der Elektron-Elektron-Wechselwirkung im Endzustand alle Spuren der seit langem theoretisch diskutierten Reaktionsmechanismen. Der FDCS der PDI von He wurde mit einer COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Apparatur gemessen. Hierbei wird das Gastarget durch eine adiabatische Expansion gekühlt und dann mit dem Photon-Strahl zum Überlapp gebracht. Die bei einer Reaktion freigesetzten Elektronen, deren Summenenergie sich zu E_sum = E_1 + E_2 = E_gamma - 79 eV berechnet (die Summenenergie der beiden Elektronen ist gleich der Überschußenergie E_exc), werden mit einer Energie bis zu E_1,2 = 60 eV durch ein elektrisches und magnetisches Feld im vollen Raumwinkel von 4 pi auf einem großen ortssensitiven Detektor abgebildet. Das elektrische Feld projiziert die kalten Rückstoßionen auf einen zweiten ortssensitiven Detektor. Aus der Flugzeit und dem Auftreffort werden der Ladungszustand und der Impuls der Teilchen ermittelt. Ergebnisse: Die Energieaufteilung auf die beiden Elektronen erfolgt asymmetrisch. Diese Asymmetrie ist bei der PDI 450 eV über der Doppelionisationsschwelle (79 eV) stärker ausgeprägt als bei E_exc = 100 eV. Langsame Elektronen werden generell isotrop zur Polarisation emittiert (beta = 0), während die 100 eV-Elektronen einen Anisotropie-Parameter von beta = 1,7 und die sehr schnellen 450 eV-Elektronen sogar eine Dipolverteilung (beta = 2) bzgl. der Polarisationsachse aufweisen. Eine asymmetrische Energieaufteilung zusammen mit einem Anisotropie-Parameter von beta = 2 für die 450 eV-Elektronen zeigt, daß bei der PDI 450 eV über der Schwelle ein Zwei-Stufen-Prozeß vorliegt, in dem das erste Elektron die Energie und den Drehimpuls des Photons aufnimmt. Das zweite Elektron gelangt dann durch den Shake-off oder den Two-Step-One-Mechanismus ins Kontinuum. Sowohl die Häufigkeitsverteilung der Zwischenwinkel der Elektronen als auch der Verlauf der Quadrate der geraden und der ungeraden Amplituden bei der PDI 450 eV über der Schwelle zeigen, daß sehr langsame Elektronen (2 eV) hauptsächlich durch den Shake-off-Mechanismus ins Kontinuum gelangen, während etwas schnellere 30 eV-Elektronen ihre Energie über einen (e,2e)-Stoß (Two-Step-One-Mechanismus) erhalten. Für 100 eV über der Schwelle zeigt sich, daß der Relativimpulsvektor der beiden Elektronen parallel zum Polarisationsvektor steht. Das bedeutet, daß die PDI von He 100 eV über der Schwelle nicht mehr im Gültigkeitsbereich der Wannier-Näherung liegt. Aufgrund der großen Geschwindigkeitsdifferenzen kann die PDI von Helium parallel zum Polarisationsvektor erfolgen. Der gegen den Zwischenwinkel varphi_12 der Elektronen aufgetragene normierte Zirkulare Dichroismus CD_n ist bei E_exc = 100 eV wesentlich stärker ausgeprägt als bei E_exc = 450 eV. Der Wert des Extremums ist für alle Energieaufteilungen - außer der symmetrischen - gleich. Für beide Überschußenergien findet man eine Abhängigkeit der varphi_12-Position des Extremums von der Energieaufteilung. Die Extreme entfernen sich mit zunehmender asymmetrischer Energieaufteilung von varphi_12=180°. Die experimentell gewonnenen Ergebnisse zu den vollständig differentiellen Wirkungsquerschnitten der PDI von He sowohl mit linear als auch mit links und rechts zirkular polarisiertem Licht bei 100 eV und 450 eV über der Doppelionisationsschwelle zeigen insgesamt gute Übereinstimmungen mit den Ergebnissen der convergent-close-coupling-Rechnungen von A. Kheifets und I. Bray.
Optoelektronische THz-Systeme finden seit 1995 Anwendung in der Bildgebung. Alle bisherigen Systeme basieren dabei auf gepulsten Femtosekunden-Laserquellen und emittieren gepulste, breitbandige THz-Strahlung. In dieser Arbeit wird erstmals ein bildgebendes optoelektronisches Dauerstrich-THz-Svstem auf Basis von Photomischern als Emitter und Detektor vorgestellt. Zur Optimierung des Systems wurden im Rahmen dieser Arbeit die einzelnen Komponenten detailliert untersucht und insbesondere ihre Wechselwirkung im Rahmen einer Systembetrachtung analysiert. Für den Laborbetrieb wurde ein Zweifarben-Ti:Saphir-Laser entwickelt, der es ermöglicht, die beiden zu mischenden nah-infraroten Frequenzen in einem Verstärkermedium zu generieren. Für das bildgebende System wurde der Laser in unidirektionaler Ringkonfiguration mit zwei sich im Laserkristall kreuzenden Resonatoren verwendet. Zur Optimierung der als THz-Emitter verwendeten Photomischer wurde die generierte THz-Leistung von schnellen Photoschaltern basierend auf bei unterschiedlichen Temperaturen gewachsenem LT-GaAs gemessen. Es zeigt sich, dass neben der Ladungsträgereinfangzeit auch die effektive Ladungsträgermobilität mit der Wachstumstemperatur variiert. Sie nimmt zu höheren Wachstumstemperaturen hin ab. Für eine gegebene THz-Zielfrequenz muss das LT-GaAs Material so gewählt werden, dass es eine optimale elektrische Effizienz aufweist. Die so optimierten Photoschalter müssen in eine resonante Antennenstruktur eingebettet werden, um eine optimale THz-Abstrahlung zu ermöglichen. Je nach Anwendung kann die Antennenstruktur entweder breitbandig (d.h. breiter Abstimmbereich) mit vergleichsweise niedriger Abstrahlungseffizienz oder schmalbandig mit hoher Abstrahlungseffizienz gewählt werden. Das Schlüsselproblem beim Entwurf effizienter Photomischer ist jedoch die Fehlanpassung zwischen der Impedanz des Photoschalters und der Eingangsimpedanz der Antenne, die nur durch die Wahl einer geeigneten Antenne verbessert werden kann. Eine der ungeklärten Fragen bei der Entwicklung von leistungsfähigen Photomischern auf LT-GaAs-Basis für Dauerstrich- und hochrepetierlichen Pulsbetrieb war bisher der Einfluss der Feldabschirmung im Photoschalter. Zur Untersuchung des lokalen Feldes und seiner Abschirmung wurde ein zeitaufgelöstes Doppelpulsexperiment durchgeführt. Das beobachtete Abschirmverhalten ist, entgegen allen bisherigen Aussagen, nicht auf die Abschirmung durch Raumladungen. sondern auf die Abschirmung durch das elektrische THz-Strahlungsfeld (Nahfeld) zurückzuführen.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
Das Funneling-Prinzip ist für Großprojekte wie SNS und IFMIF zur Erzeugung hoher Strahlströme bei hoher Brillanz von großem Interesse und bietet die Möglichkeit der Strahlstromerhöhung bei gleichbleibender Emittanz. Das Frankfurter Funneling-Experiment ist ein skalierter Aufbau einer ersten Funneling-Stufe von HIDIF. Hauptbestandteile des Experimentes sind zwei Multicusp-Ionenquellen, ein Zwei-Strahl-RFQ-Beschleuniger, ein Einzellen- und ein Mehrzellen-Deflektor sowie eine Emittanzmeßanlage. Das Zusammenführen zweier Ionenstrahlen nach dem Funneling-Prinzip konnte am IAP im Jahr 2000 erstmalig realisiert werden. Allerdings war aufgrund der unmodulierten End-Elektroden des RFQ-Beschleunigers der Strahlradius und die Emittanz bereits bei Eintritt in den Deflektor viel zu groß. Die dadurch aufgetretenen Strahlverluste an den Elektroden führten also nicht zu der gewünschten Strahlstromverdoppelung. Daraufhin wurden die letzten Elektrodenstücke der beiden Beschleuniger gegen modulierte Elektroden ausgetauscht. Der Fokus der Ionenstrahlen wird nun mittels eines sogenannten 3D-Matchings in den Strahlkreuzungspunkt gelegt. Experimente mit den neuen RFQ-End-Elektroden und dem überarbeiteten Mehrzellen- Deflektor stehen noch aus. Die vorliegende Arbeit entstand als theoretischer Teil im Rahmen des Frankfurter Funneling-Experimentes. Es sind zahlreiche Simulationsrechnungen zum bestehenden experimentellen Aufbau durchgeführt worden, die in Auszügen in Kapitel 7 dargestellt wurden. Weiterhin wurde die Teilchendynamik und die Raumladung in Deflektoren, das Emittanzwachstums während des Funnelings, der Einfiuß der inhomogenen Felder bei verschiedenen Deflektorgeometrien ausführlich untersucht und ausgewertet (Kapitel 8). Für diese Aufgaben sind einerseits neue Programme für eine dreidimensionale Deflektorsimulation und andererseits Software zur Auswertung mit graphischer Darstellung geschrieben worden. Diese wurden in Kapitel 6 vorgestellt. Die für diese Arbeit entwickelten Programme ermöglichen die Berechnung der Potential- und Feldverteilungen in elektrischen Hochfrequenz-Funneling-Deflektoren sowie die Simulation des Funnelingprozesses zweier Ionenstrahlen. Ferner sind diverse Auswertemethoden in tabellarischer oder graphischer Form wie Strahlverlauf, Emittanzebenen, Dichteverteilungen und Verlustgraphen verfügbar. Damit sind umfangreiche Simulationen und Auswertungen bezüglich des Deflektordesigns und der Strahldynamik sowie Optimierungen solcher Systeme möglich. Der Einfluß der Raumladungskräfte und der inhomogenen Felder auf den Funnelingprozeß konnten in Kapitel 8 gezeigt werden. Für den im Experiment verwendeten Mehrzellen-Deflektor sollten folgende Strahlparameter eingehalten werden: der Strahlradius in der x-y-Ebene sollte vor Eintritt in den Deflektor kleiner als 0.5 cm sein, die Energiebreite deltaW < +- 2% und die Phasenbreite deltaPhi < +- 30° betragen. Ansonsten treten Teilchenverluste durch Elektrodenkontakt auf oder der Bunch wird in longitudinaler Richtung zu groß, so daß die Möglichkeit besteht, das eine Überlappung der Bunche stattfindet. Mit der vorliegenden Arbeit sind Programme zur detaillierten Berechnung und Analyse von Funneling-Systemen entwickelt worden. Zukünftige Aufgaben sind neben der Untersuchung der Randfelder in Deflektoren die Minimierung des Emittanzwachstums durch die inhomogenen Felder. Nach ersten Strahltests und Funnelingergebnissen ist zu entscheiden, ob eine Matching-Sektion zwischen RFQ-Beschleuniger und Funneling-Deflektor zur weiteren Strahlanpassung eingebracht werden muss.
Mit immer komplexeren Experimenten erhöhen sich die Anforderungen an die Detektoren und diese Arbeit ist ein neuer Beitrag für eine weiterentwickelte technologische Lösung. In der vorliegenden Dissertation wurde eine nichtinvasive optische Strahldiagnose für intensive Ionenstrahlen in starken Magnetfeldern entwickelt. Das optische System besteht aus miniaturisierten Einplatinen CMOS-Kameras. Sowohl die hardwareseitige Entwicklung als auch die softwareseitige Implementierung der Algorithmen zur Kamerakalibrierung, Netzwerksteuerung und Strahlrekonstruktion wurden in dieser Arbeit entwickelt. Die Leistungsstärke dieses neuartigen Diagnosesystems wurde dann experimentell an einem Teststand demonstriert. Dabei wurde das optische System ins Vakuumstrahlrohr eingebettet. Ein Wasserstoffionenstrahl mit einer Energie von 7keV bis 10keV und einem Strahlstrom bis 1mA wurde in einer Stickstoffatmosphäre bis 1E-5 mbar untersucht. Dabei wurde der Ionenstrahl entlang des Strahlrohres des Toroidsegmentmagnetes mit einer Bogenlänge von 680mm mit einem xy-Kamerasystem beobachtet.
Der Strahlschwerpunkt und die Breite des Strahlprofils wurden im Ortsraum rekonstruiert. Die analytisch berechnete und in anderen Arbeiten simulierte Gyrationsbewegung sowie der RxB-Drift des Strahlschwerpunktes konnte experimentell bestätigt werden.
Diese Arbeit beschreibt wie mit physikalischen Methoden die Glukosekonzentration gemessen werden kann. Die Infrarot-Spektroskopie bietet eine Möglichkeit da die Energie der meisten Molekülschwingungen Photonenenergien im infraroten Spektralbereich entspricht. Hier zeigen Glukosemoleküle charakteristische Absorptionsspektren, die mit spektroskopischen Methoden gemessen werden. Um nicht invasiv zu messen, wurde eine photoakustische Messmethode gewählt. Die Grundidee ist, dass die durch Licht angeregten Moleküle ihre Anregungsenergie teilweise in Form von Wärme abgeben. Da die anregende Strahlung intensitätsmoduliert ist, wird auch die Wärmeentwicklung periodisch verlaufen wodurch periodische Volumenänderungen hervorgerufen werden, die eine Druckwelle erzeugen, die sich durch empfindliche Mikrofone oder Schallwandler erfassen lässt. So kann im MIR auf Grund der hohen Spezifizität, der Glukosegehalt mit sehr hoher Genauigkeit bestimmt werden. Die Wellenlänge der Glukoseabsorptionsbanden im MIR Bereich sind im Wesentlichen gekoppelte C=O Streck- und O–H Biegeschwingungen. Im MIR-Bereich zeigen Spektren zwischen 8,3µm bis 11,1µm fünf glukoserelevanten Banden. Der photoakustische Effekt wird durch die Rosencwaig-Gersho Theorie beschrieben. Die Absorption des Lichtes in der Probe bewirkt eine Temperaturerhöhung, die als Wärme an Umgebung abgegeben wird. Da das eingestrahlte Licht gepulst ist, wird auch die Wärme periodisch abgegeben. Durch die Absorption eines Laserpulses in der Haut entsteht ein Temperaturgradient, die abhängig vom Absorptionskoeffizienten und der Glukosekonzentration ist. Der führt zu einer Diffusion von Wärme im Absorptionsvolumen. Die Hautoberfläche und damit eine dünne Luftschicht über der Hautoberfläche werden durch die Diffusionswärme periodisch mit der Modulationsfrequenz der Laser aufgeheizt, was als Druckschwankungen in Messkammer mit Mikrofon detektiert wird. Im Mitteinfrarot geben Quantenkaskadenlaser die beste Lichtquelle, wegen ihre gute Strahlqualität und hohe optische Leistung. Die verwendete photoakustische(PA) Resonanzzelle ist nach dem Prinzip des Helmholtz-Resonators konzipiert. Der Vorteil des Verstärkungsverhaltens einer resonanten PA-Zelle kann unter Umständen durch Verwendung Volumenreduzierten und mit empfindlichen Mikrofonen ausgestatteten nicht-resonanten PA-Zelle erreicht werde. Zum Erfassung der PA Signale wird eine Kombination aus einen Analog-Digital Wandlerkarte verwendet, die eine gemeinsame Zeitbasis mit der synchronen Lasersteuerung und der Datenerfassung liefert und phasenechte Fourieranalyse der photoakustischen Signale ermöglicht. Es wurde ein Modellsystem entwickelt um photoakustischen Glukosemessungen in vitro zu testen. Dieses „Phantommodell“ besteht aus einer dünnen Polymermembran befestigt in eine Gefäß von nur paar ml Volumen die mit verschiedenen Glukosekonzentrationen gefüllt wurde. Die modulierte Laserstrahlung passiert die Messzelle und dringt durch die Folie in die wässerige Glukoselösung ein. Das Folienmaterial und Dicke wurde so gewählt, dass keineAbsorption im verwendeten MIR-Bereich entsteht. Als Lösung für die jeweiligen Glukosekonzentrationen wurde ein Wasser-Albumin Gemisch verwendet mit einen 10%igen Albuminanteil, die verwendet wurde, um den Proteingehalt der Haut zu imitieren und zu zeigen, dass Eiweiß keinen Störeinfluss im Glukosefingerprintbereich hat. Messungen wurden bei steigenden und fallenden Glukosekonzentration durchgeführt damit gezeigt könnte, dass das Messsignal in der PA- Zelle nicht von der Lufterwärmung in der Zelle stammt, sondern vom PA-Signale der Glukose. Die Glukoseschwankungen in der extrazellulären Flüssigkeit der Epidermis spiegeln die Glukoseschwankungen im Blut gut wider, bei einer Messung am Arm entsteht eine Verzögerung von paar Minuten. Im Daumenballenbereich findet aufgrund der guten Durchblutung ein schneller Austausch der Glukosekonzentration der von uns gemessenen interstitiellen Flüssigkeit mit der Blutzuckerkonzentration statt. Deshalb wurden die in-vivo Messungen am Daumenballen durchgeführt. Das Stratum spinosum ist für uns von Bedeutung, da dies das interstitielle Wasser enthält, in dem der Glukosegehalt mit dem Glukosegehalt im Blut gut übereinstimmt. Die photoakustische Messmethode wird nicht-invasiv durchgeführt. Probanden wird Zucker verabreichet und danach in Abständen von 5 Minuten der Blutzucker konventionell bestimmt und gleichzeitig mittels der photoakustischen Messung am Daumenballen durchgeführt. Mit diesen Daten kann die Korrelation zwischen beiden Methoden bestimmt werden. In vielen in vivo Messreihen zeigen sich bereits in direkter Korrelation zu invasiv genommenen Blutzuckerwerten Korrelationskoeffizienten bis zu R=0,8 und eine damit deutliche Evidenz für einen glukoserelevanten Effekt. Trotz der versprechenden Ergebnisse wird deutlich, dass weitere Entwicklungen notwendig sind, damit das System zu einer direkten Konkurrenz zu der vorhandenen invasiven Meßsystemen werden kann.
Nichtgleichgewichtsdynamik des chiralen Phasenübergangs in relativistischen Kern-Kern-Kollisionen
(2005)
In meiner Dissertation "Nichtgleichgewichtsdynamik des chiralen Phasenübergangs bei endlichen Temperaturen und Dichten" untersuche ich das Verhalten von stark wechselwirkender Materie bei hohen Temperaturen und Baryonendichten. Diese Form der Materie untersucht man mit Hilfe von Kern-Kern-Kollisionen an großen Beschleunigern am SPS in Genf (Schweiz) und am RHIC in Brookhaven (USA). Die Quantenchromodynamik (QCD) ist bis heute der beste Kandidat für die Theorie der starken Wechselwirkung und sollte daher die verschiedenen Phasen bei allen Baryonendichten und Temperaturen beschreiben. In der Praxis läßt die QCD sich bisher allerdings nur in einigen Grenzfällen, bei denen eine Störungstheoretische Beschreibung möglich ist, lösen. Daher ist es notwendig, bei endlichen Temperaturen und Baryonendichten effektive Modelle zu entwickeln, welche dann nur den grundlegenden Eigenschaften der QCD Rechnung tragen. Untersuchungen haben ergeben, daß die QCD zwei unterschiedliche Phasenübergänge beinhaltet. Zum einen den sogenannten Deconfinement-Phasenübergang von Kernmaterie zu einem asymptotisch freien Zustand, dem Quark Gluon Plasma, und zum anderen den chiralen Phasenübergang von massiven zu masselosen Teilchen. Gittereichtheoretische Rechnungen haben darüber hinaus gezeigt, daß es im Phasendiagramm einen kritischen Punkt und es Phasenübergänge erster Ordnung und sogenannte Crossover-übergänge gibt. In meiner Arbeit habe ich ein Modell verwendet und weiterentwickelt mit dem es möglich ist, den sogenannten {\em chiralen Phasenübergang} im Nichtgleichgewicht zu untersuchen. Dabei betrachte ich den übergang von masselosen (bei hohen Temperaturen und Baryonendichten) zu massiven Quarks (bei niedrigen Temperaturen und Baryonendichten). Der Schwerpunkt meiner Arbeit liegt auf den Nichtgleichgewichtseffekten des chiralen Phasenübergangs. Solche Nichtgleichgewichtseffekte sind zum Beispiel der Siedeverzug, wie man ihn manchmal beim Kochen von Wasser in einem Reagenzglas vorfindet. Auch hier wird die zeitliche Entwicklung des Systems durch Nichtgleichgewichtseffekte stark verändert, das Wasser kocht nicht einfach nur, sondern es verdampft schlagartig. Ziel meiner Arbeit ist es nun, den Einfluß von Nichtgleichgewichtseffekten auf den chiralen Phasenübergang in Kern-Kern-Kollisionen und insbesondere den Einfluß des kritischen Punktes zu untersuchen. Um mehr über den Phasenübergang im Nichtgleichgewicht herauszufinden, bietet es sich an, Fluktuationen bestimmter thermodynamischer Größen und ihren Einfluß auf Observablen zu untersuchen. Hierzu werden Fluktuationen in die Anfangsbedingungen der numerischen Simulationen eingefügt und untersucht, wie sich jeweils die zeitliche Entwicklung des Systems verhält. Zunächst habe ich die zeitliche Entwicklung der Fluktuationen in Abhängigkeit von der anfänglichen Systemgröße untersucht. Für ein unendliches System würde man am kritischen Punkt eine divergierende Korrelationslänge der Fluktuationen erwarten. Bei einer Kern-Kern-Kollision ist die Größe des Systems hingegen endlich und das System expandiert sehr schnell. Meine Ergebnisse zeigen, daß für alle untersuchten Systemgrößen die Korrelationslänge maximal 2-3 mal so groß wie die anfängliche Korrelationslänge wurde. Es ist daher zweifelhaft, ob dieser Effekt in Kern-Kern-Kollisionen gemessen werden kann. \\ Daher habe ich im weiteren untersucht, wie sich die anfänglichen Fluktuationen des Ordnungsparameters auf die Entwicklung der Energie- und Baryonendichte des Systems auswirken. Die Ergebnisse zeigen, wie Inhomogenitäten von Energie- und Baryonendichte durch die Anwesenheit von verschiedenen Phasenübergängen beeinflußt werden. Während die Inhomogenitäten der Energiedichte sich nur wenig unterscheiden, zeigt sich bei der Baryonendichte ein anderes Verhalten. Für Phasenüberänge erster Ordnung sind die Inhomogenitäten deutlich höher als für Crossover-übergänge. Dies könnte sich unter anderem in der relativen Häufigkeit bestimmter Teilchenspezies wie der Kaonen und Pionen bemerkbar machen.
Die Entstehung der Elemente im Universum wird auf eine Vielzahl von Prozessen zurückgeführt, die sowohl in Urknall - als auch in stellaren Szenarien angesiedelt werden. Die Kenntnis der dort ablaufenden Reaktionen und deren Raten ermöglicht es die zugrundeliegenden Modelle einzugrenzen und somit genauere Aussagen über die Plausibilität der Szenarien zu treffen. Ein Teil dieser Prozesse stützt sich auf Neutroneneinfänge an Atomkernen, wodurch die Massezahl des Ausgangskerns erhöht wird.
Die Aktivierungsmethode ermöglicht die Bestimmung der Wahrscheinlichkeit eines Neutroneneinfangs, sofern der Zielkern eine detektierbare Radioaktivität aufweist. Die experimentelle Untersuchung einer Reaktion mit einem kurzlebigen Produktkern ist eine besondere Herausforderung, da bei langen Aktivierungen zwar viele Einfänge stattfinden, die meisten Produktkerne jedoch schon während der Aktivierung zerfallen. Ein probates Mittel um genügend Zerfälle des Produktkerns beobachten zu können ist die zyklische Aktivierung, wobei die Probe in mehrfachen Wiederholungen kurz bestrahlt und ausgezählt wird.
Im Rahmen dieser Arbeit wurden zwei verschiedene Anwendungen der zyklischen Aktivierung behandelt.
Eine vom Paul Scherrer Institut Villigen bereitgestellte Probe von 10Be wurde am TRIGA Reaktor der Johannes Gutenberg - Universität Mainz mit Neutronen aktiviert. Über die Cadmiumdifferenzmethode konnte der thermische und der epithermische Anteil der Neutronen separiert werden und dadurch sowohl der thermische Wirkungsquerschnitt als auch das Resonanzintegral für die Reaktion 10Be(n,γ)11Be bestimmt werden.
Am Institut für Kernphysik der Goethe Universität Frankfurt wurde mit einem Van - de - Graaff - Beschleuniger über die 7Li(p,n)7Be Reaktion ein quasistellares Neutronenspektrum mit kBT ≈ 25 keV erzeugt. Für die zyklische Aktivierung von Proben wurde die Infrastruktur in Form einer automatisiert ablaufenden Vorrichtung zur Bestrahlung und Auszählung geplant und umgesetzt. In diesem Rahmen wurden die über das Spektrum gemittelten Neutroneneinfangsquerschnitte für verschiedene Reaktionen bestimmt. Für 19F(n,γ)20F konnte der Gesamteinfangsquerschnitt bestimmt werden. Für die Reaktion 45Sc(n,γ)46Sc wurde der partielle Wirkungsquerschnitt in den 142,5 keV Isomerzustand gemessen. Aus der 115In(n,γ)116In Reaktion konnten die partiellen Querschnitte in die Isomerzustände bei 289,7 keV, 127,3 keV sowie den Grundzustand bestimmt werden.
Außerdem wurde mit einer Hafniumprobe die partiellen Einfangsquerschnitte in den 1147,4 keV Isomerzustand von 178Hf und in den 375 keV Isomerzustand von 179Hf gemessen.
Für das bessere Verständnis der Nukleosynthese der schweren Elemente im s-Prozess wurde im Rahmen dieser Arbeit die Messung zur Bestimmung der Neutroneneinfangsreaktion von 83Kr durchgeführt. Als Messinstrument wurde DANCE am LANL verwendet, ein 4pi-Kalorimeter zur Detektion der entstehenden g-Kaskaden bei (n,g)-Reaktionen. Darüber hinaus wurden außerdem noch Proben mit 85Kr und 86Kr vermessen.
Die Herausforderung an diesem Experiment bestand vor allem in der Probenherstellung. Das Edelgas Kr erforderte eine Neukonstruktion der normalerweise bei DANCE verwendeten Probenhalterung. Das Hauptaugenmerk lag auf der Maximierung der Kr-Exposition durch den Neutronenstrahl. Im Gegenzug wurde versucht das umgebende Material nach Möglichkeit keinen Neutronen auszusetzen. Für die Isotope 83,86Kr wurden Hochdruckgaskugeln verwendet, die an der Goethe-Universität Frankfurt gefüllt und in eine der neuen Probenhalterungen eingesetzt wurden. Zur Beachtung des bei der Messung entstehenden Untergrundes wurde eine Messung mit baugleicher Probenhalterung und leerer Gaskugel durchgeführt. Da bereits kleine Mengen 85Kr eine hohe Radioaktivität aufweisen, wurde eine in einen Stahlzylinder eingeschweißte, existierende Quelle verwendet.
Bei der Analyse zu 86Kr wurde schnell eine zu starke Verunreinigung der Kr-Probe mit Xe offensichtlich, einen signifikanten Anteil des Spektrums ausmachte. Aus diesem Grund kam es vor allem zu Problemen den korrekten Untergrund von den 86Kr Messdaten zu subtrahieren. Die weitere Bestimmung inklusive Streukorrekturen, Normierung anhand des Flussmonitors und DICEBOX/GEANT3 Effizienzbestimmung lieferte zwar einen energieabhängigen Wirkungsquerschnitt, dieser zeigte allerdings große Abweichungen von den evaluierten ENDF/B-VII.1 Daten, was besonders ersichtlich in der deutlichsten 86Kr Resonanz bei 5515 eV zu erkennen war. Aus diesem Grund konnte aus den Messdaten kein MACS extrahiert werden.
Bei einer Untersuchung der Aktivität der 85Kr-Probe mit Hilfe der einzelnen BaF2-Detektoren in der DANCE Kugel zeigte sich zunächst eine um fast einen Faktor vier geringere Aktivität als vom Hersteller angegeben. Auch bei der weiteren Analyse traten massive Untergrundprobleme auf. Die Form des Stahlzylinders, in dem das Kr-Gasgemisch eingeschweißt war, konnte aufgrund seiner Form nur schwer im Strahlrohr untergebracht werden. Beim Experiment selbst zeigte sich dann, dass Teile der Halterung vom Neutronenstrahl getroffen wurden, was einen Untergrund mit sehr hohem Q-Wert erzeugte, der nicht durch ein Esum Fenster entfernt werden konnte. Durch eine Beschädigung der Halterung mit der Probe kam es darüber hinaus zu Abweichungen mit der verwendeten Leerhalterung. All das führte trotz einer langen Messzeit von fast 18 d dazu, dass nur ein sehr schwaches Signal von der eigentlichen Kr-Probe zu erkennen war. Es wurde eine mögliche 85Kr Resonanz bei 675 eV gefunden, allerdings ist die endgültige Zuordnung aufgrund der nicht eindeutigen Untergrundsituation äußerst schwierig. Im Vorfeld des Kr-Experimentes wurde eine Messung von RbCl an DANCE durchgeführt, da ursprünglich zu erwarten war, dass bereits ein Teil des 85Kr zu 85Rb zerfallen war. Durch diese Messung sollte dieser Anteil leicht von der späteren Messung zu subtrahieren sein. Allerdings trat ein unerwartetes Problem während der Datenaufnahme auf. Die Verbindung der DAQ Boards wurde getrennt, wodurch ca. 3/4 der Detektoren nicht mehr zeitsynchron liefen. Im Zuge dieser Arbeit wurde eine Rekonstruktion dieser Daten angestrebt. Durch Modifikationen am FARE Code, der zur Auswertung verwendet wurde, konnte Flugzeitspektren für jeden Beschleunigerpuls erzeugt werden. Es zeigte sich zunächst ein offensichtlicher Trend einer Verschiebung der getrennten Boards zu späteren Zeiten. Durch mehrere Fits an die Abweichungsverteilung und anschließende Korrektur konnte zunächst ein Spektrum wiederhergestellt werden, das vergleichbar mit den unbeschädigten Daten war. Bei einer detaillierten Analyse dieser neu gewonnen Daten zeigte sich jedoch eine Nichtlinearität in der Zeitverschiebung. Dies resultierte letztlich in einer Korrektur des Spektrums, allerdings nicht in einem Koinzidenzfenster von 10 ns, das für eine Wirkungsquerschnittsanalyse notwendig ist. Es wurde geschlussfolgert, dass durch die geringe Statistik in den einzelnen Flugzeitspektren solch eine Genauigkeit nicht zu erreichen ist.
Die Messung des Neutroneneinfangsquerschnitts von 83Kr konnte im Zuge dieser Arbeit erfolgreich durchgeführt werden. Es wurden zwei Messungen mit verschiedenen Strömen kombiniert. Eine Messung mit 40 µA wurde durchgeführt, um Pile-Up in der größten Resonanz bei 28 eV zu reduzieren. Die zweite Messung diente dann dem Sammeln von ausreichend Statistik in den nicht resonanten Bereichen. Die eingesetzte Leerkugel erlaubte eine saubere Subtraktion des Untergrundes von Probenhalterung, Gaskugel und Umgebung. Für die Skalierung der Messergebnisse wurde eine weitere Messung mit einer 5000 Å dicken Goldfolie durchgeführt. Zur Bestimmung der Detektoreffizienz konnten zunächst die durch den Neutroneneinfang entstandenen Abregungskaskaden der 84Kr Kerne mit DICEBOX modelliert werden. Diese Kaskaden wurden dann anschließend in GEANT3 Simulationen verwendet, um die Effizienz bestimmen zu können. Mit diesen Methoden erhielt man die Maxwell-gemittelten Wirkungsquerschnitte von kT = 5 keV - 100 keV. Bei der für den s-Prozess wichtigen Temperatur von kT = 30 keV wurde der Querschnitt bestimmt zu: MACS (30 keV) = (256,6 +- 14,2 (stat) +- 18,1(sys)) mb.
Dieser Wert ist in guter Übereinstimmung mit dem in der KADoNIS v0.3 Datenbank angegebenen Wert von MACS;KADoNIS (30 keV) = (243 +- 15) mb. Mit den so gewonnenen Wirkungsquerschnitten wurden außerdem die Reaktionsraten berechnet. Bei den anschließenden Netzwerkrechnungen mit dem Programm NETZ wurden die Auswirkungen der in dieser Arbeit gewonnenen Wirkungsquerschnitte im Vergleich zu den KADoNIS v0.3 Werten betrachtet. Dabei zeigte sich eine leicht erhöhte Produktion der stabilen Isotope 84Kr, 86Kr, 85Rb und 87Rb, sowie eine leichte Unterproduktion der stabilen Isotope 86-88Sr in der Hauptkomponente des s-Prozess. Ein ähnliches Bild zeigte sich in der He-Brennphase der schwachen Komponente. Der in dieser Arbeit gemessene Wirkungsquerschnitt bei hohen Temperaturen ist geringer als der in KADoNIS v0.3 angegebene, weswegen es bei der Simulation mit NETZ zu einer stark erhöhten Produktion von 83Kr in der C-Brennphase kommt.
Die vorliegende Arbeit beschreibt die Erzeugung und Charakterisierung verschiedenartiger piezoresistiver Dünnschichten für die Druck- und Dehnungssensorik bei hohen Temperaturen, die mittels Sputterdeposition abgeschieden werden:
- metallische Schichten aus Chrom mit Verunreinigungen aus Sauerstoff, Stickstoff oder Platin,
- granulare Keramik-Metall-Schichten (Cermets), mit Platin oder Nickel als Metallkomponente und Aluminiumoxid (Al2O3) oder Bornitrid (BN) als Keramikkomponente.
Beide Schichttypen können mit geeigneten Beschichtungsparametern erhebliche piezoresistive Effekte aufweisen, also einen Widerstands-Dehnungs-Effekt, der den von typischen Metallschichten um ein Mehrfaches übersteigt. Der Effekt wird quantifiziert durch den k-Faktor, der die relative Änderung des Widerstands R auf die relative Änderung der Länge l, d.h. die Dehnung ε=Δl/l, bezieht: k=ΔR/(R ε).
In Beschichtungsreihen werden die Schichtzusammensetzung und die Depositionsbedingungen variiert und die Auswirkungen auf den elektrischen Widerstand, dessen Temperaturkoeffizienten (TKR), sowie den k-Faktor untersucht. Die k-Faktoren der chrombasierten Schichten liegen bei 10 bis 20 mit um null einstellbarem TKR. Die Cermet-Schichten erreichen je nach Material k-Faktoren von 7 bis über 70 mit meist stark negativen TKR von mehreren -0,1 %/K.
Die Chrom- und Chrom-Stickstoff-Schichten erweisen sich als geeignete Sensorschichten für Membran-Drucksensoren. Daher wird eine Reihe von Sensoren mit Wheatstone-Messbrücken erzeugt und charakterisiert. Sie zeigen den hohen k-Faktoren entsprechende hohe Signalspannen. Die guten Sensoreigenschaften bleiben auch bei hohen Temperaturen bis 230 °C erhalten.
Nach den ersten Untersuchungen bei Dehnungen bis maximal 0,1 % wird zusätzlich das Verhalten der Schichten bei höheren Dehnungen bis 1,4 % untersucht. Es zeigt sich vorwiegend ein lineares Widerstands-Dehnungs-Verhalten. Die Leiterbahnen der spröden chrombasierten Schichten werden bei Dehnungen um 0,7 % jedoch durch Risse zerstört, die sich von den Rändern der Schicht her ausbreiten.
Die Platin-Aluminiumoxid-Schicht zeigt einen enorm großen, nichtlinearen Widerstands-Dehnungs-Effekt, der auf Risse zurückgeführt werden kann, die sich nach einigen Belastungszyklen reproduzierbar öffnen und schließen.
Tieftemperaturmessungen von 2 bis 300 K zeigen Widerstandsminima der Chrom-Stickstoff-Schichten; Magnetwiderstandsmessungen deuten jedoch nicht auf den Kondo-Effekt hin.
Die Cermet-Schichten zeigen thermisch aktivierte Leitfähigkeit.
Ausgewählte Schichten werden bei Temperaturen bis 420 °C (693 K) charakterisiert. Die chrombasierten Schichten haben bei hohen Temperaturen stabile Widerstände, zeigen jedoch stark nichtlineare Temperaturverläufe von Widerstand und k-Faktor. Oberhalb einer gewissen Temperatur verschwindet der piezoresistive Effekt, kehrt jedoch beim Abkühlen zurück. Die Verläufe lassen sich durch die Schichtzusammensetzung und auch durch Temperaturbehandlungen modifizieren.
Die Platin-Aluminiumoxid-Schicht ist ebenfalls temperaturstabil und zeigt geringe Änderungen des k-Faktors im Temperaturverlauf. Platin-Bornitrid zeigt große, reversible Widerstandsänderungen bei höheren Temperaturen, die auf mögliche Gaseinlagerungen hindeuten.
Aus den experimentellen Ergebnissen lassen sich die Ursachen der Piezoresistivität ableiten: Die chrombasierten Schichten bilden, wie in der Literatur vielfach beschrieben, unterhalb einer Ordnungstemperatur einen Spindichtewellen-Antiferromagnetismus aus. Dieser Zustand führt zu einem zusätzlichen Widerstandsbeitrag, der die beschriebenen Nichtlinearitäten der Widerstands-Temperatur-Verläufe verursacht und zudem empfindlich auf mechanische Dehnung reagiert und so zu erhöhten k-Faktoren führt.
Die Piezoresistivität der Cermet-Schichten resultiert aus der granularen Struktur, in der Ladungsträger zwischen Metallpartikeln tunneln. Mit exponentiell vom Partikelabstand abhängigen Widerständen der Tunnelübergänge resultieren hohe k-Faktoren. Mithilfe von Modellbetrachtungen, in denen Gleichungen für Tunnelwiderstände auf granulare Systeme angewendet werden, werden die experimentellen Ergebnisse diskutiert. Die Ergebnisse deuten darauf hin, dass sich die Eigenschaften der Keramik vorrangig auf den Betrag der k-Faktoren auswirken und die Eigenschaften des Metalls vor allem den TKR beeinflussen.
Chiralität ist in der belebten Natur ein omnipräsentes Phänomen und beschreibt die Symmetrieeigenschaft eines Objektes, dass dieses von seinem Spiegelbild unterscheidbar ist. Die bisherigen Untersuchungen der Wechselwirkung zwischen chiralen Molekülen und Licht fokussieren sich auf das Regime der Ein- und Multiphoton-Ionisation und wird mit dieser Arbeit um Untersuchungen im Starkfeldregime erweitert. Im Rahmen dieser Arbeit wurden Experimente an einzelnen chiralen Molekülen in starken Laserfeldern vorbereitet, durchgeführt, analysiert und alle geladenen Fragmente in Koinzidenz untersucht.
Die Präsentation der Ergebnisse orientierte sich an der Reihenfolge, in der auch die Datenauswertung von Vielteilchenaufbrüchen vonstattengeht: Zunächst wurde der Dichroismus in den Photoionen (PICD) auf chirale Signale in integraler differentieller Form untersucht, dann wurde die Asymmetrien in den Elektronenverteilungen vorgestellt und abschließend die Zusammenhänge zwischen den Ionen- und Elektronenverteilungen aufgezeigt.
Kapitel 6 untersuchte die (differentielle) Ionisations- und Fragmentationswahrscheinlichkeit von verschiedenen chiralen Molekülen. Die in Kapitel 6.1 präsentierten Daten verknüpften erstmals den bereits in der Literatur diskutierten Zirkulardichroismus in den Zählraten von Photoionen (PICD) mit dem signalstärkeren differentiellen PICD in der Einfachionisation von Methyloxiran. Dissoziiert das Molekül nach der Ionisation rasch genug, gewährt der Impulsvektor des geladenen Fragments Zugang zu einer Fragmentationsachse. Durch die Auflösung nach einer Molekülachse ist der beobachtete PICD fast eine Größenordnung stärker, als der über alle Raumrichtungen integrierte.
In steigender Komplexität wurde in Kapitel 6.2 eine Fragmentation in vier Teilchen von Molekülen aus einem racemischen Gemisch von CHBrClF untersucht. Über die Auswertung eines Spatproduktes aus den Impulsvektoren konnte für jedes Molekül dessen Händigkeit bestimmt und der vollständig differentielle PICD untersucht werden. Durch das Festhalten einer Fragmentationsachse (analog zu Kapitel 6.1) konnten um einen Faktor vier stärkere PICD-Signale und durch das Auflösen nach der vollständigen Molekülorientierung die Signalstärke des PICD um einen Faktor von etwa 16 in den Bereich einiger Prozente gebracht werden. Leider übersteigt die theoretische Beschreibung dieses Prozesses den aktuellen Stand der Forschung weit. Daher kann nicht ausgeschlossen werden, dass nicht ein Beitrag zur PICD-Signalverstärkung auch aus der Dynamik der sequentiellen vielfachen Ionisation stammt.
Die untersuchte Reaktion in Kapitel 6.3 war der Fünf-Teilchenaufbruch der achiralen Ameisensäure. In der Messung aller ionischen Fragmente konnten analog zu dem vorherigen Kapitel die internen Koordinaten sowie die Orientierung des Moleküls ermittelt werden. Tatsächlich wurde von einer chiralen Fragmentation der achiralen Ameisensäure berichtet. Welches Enantiomer in der Fragmentation beobachtet wird, hängt maßgeblich von der Molekülorientierung relativ zum ionisierenden Laserpuls ab. Diese Erkenntnis könnte zu neuen Ansätzen für Laserkatalysierte enantioselektive Reaktionen führen. Darüber hinaus konnte gezeigt werden, dass die beobachtete Händigkeit des Moleküls nicht nur von seiner Orientierung, sondern auch von der Helizität des ionisierenden Laserpulses abhängt. Dieser differentielle PICD an der Ameisensäure zeigte sich neben einer sehr großen Signalstärke von über 20 % auch als sensitive Probe für die molekulare Struktur.
In Kapitel 7 wurden die Untersuchungen an den 3-dimensionalen Impulsverteilungen der Photoelektronen vorgestellt. Zunächst wird hierzu auf die allgemeine Form des Dichroismus in den Photoelektronen (PECD) im Starkfeldregime eingegangen und die vorherrschenden Symmetrien des Ionisationsregimes herausgearbeitet (Kapitel 7.1). Mit leicht steigender Komplexität konnte eine klare Verbindung zwischen der Asymmetrie in der Elektronenverteilung und dem Schicksal des zurückbleibenden molekularen Ions anhand der Einfachionisation von Methyloxiran herausgearbeitet werden (Kapitel 7.2). Dies hat eine wichtige Auswirkung auf die Nutzbarkeit des PECD im Starkfeldregime als Analysemethode für Chemie und Pharmazie: Der über alle Fragmentationskanäle integrierte PECD ist sensitiv auf die Gewichtung der Fragmente und damit auch auf beispielsweise die maximale Laserintensität. Die Daten legen nahe, dass die Abhängigkeit des PECD von dem Fragmentationskanal auf die unterschiedliche Auswahl von Subensembles molekularer Orientierungen zurückzuführen ist.
Bei Verwendung von elliptisch polarisiertem Licht treten gegenüber der zirkularen Polarisation eine Reihe neuer Effekte auf (Kapitel 7.3). Zunächst zeigt der PECD auch im Starkfeldregime eine nicht lineare Sensitivität auf den Polarisationszustand, welche sich auch als Funktion des Elektronentransversalimpulses und dem Fragmentationskanal ändert. Somit ist die Verwendung von elliptisch polarisiertem Licht bestens für die chirale Erkennung geeignet, wie inzwischen auch in der Literatur bestätigt wurde. Darüber hinaus führt die gebrochene Rotationssymmetrie bei elliptisch polarisiertem Licht zu einer Elektronenimpulsverteilung, welche selbst chiral ist: Der PECD variiert je nach Winkel φ in der Polarisationsebene, wobei die Extrema des PECD nicht mit den Maxima der Zählraten übereinstimmen. Als neue chirale Beobachtungsgröße konnten wir eine enantiosensitive und vorwärts-/rückwärtsasymmetrische Rotation der Zählratenmaxima einführen. Als abgeleitete Größe aus derselben drei-dimensionalen Elektronenverteilung ist diese Beobachtungsgröße jedoch untrennbar verknüpft mit dem ϕ-abhängigen PECD.
Kapitel 8 verknüpfte das (partielle) Wissen um die molekulare Orientierung und den PICD mit den Asymmetrien der Elektronenverteilung für die Messung der fünffach-Ionisation von Ameisensäure (Kapitel 8.1), der vierfach-Ionisation von CHBrClF (Kapitel 8.2) und der Einfachionisation von Methyloxiran (Kapitel 8.3). Im Datensatz der Ameisensäure und dem des CHBrClF zeigte die molekulare Orientierung einen größeren Einfluss auf die Asymmetrie in der Elektronenverteilung als das Enantiomer oder die Helizität des Lichtes. Diese Verknüpfung zwischen Molekülorientierung und Elektronenasymmetrie überträgt die Asymmetrien des PICD auf die Elektronenverteilung. Die Messung an Methyloxiran relativiert diesen Zusammenhang jedoch in dem dieser in dieser Stärke nur bei manchen Fragmentationskanälen auftritt. Offenbar ist die Übertragung der Asymmetrie der differentiellen Ionisationswahrscheinlichkeit nur einer der Mechanismen, welcher zu Elektronasymmetrien im Starkfeldregime führt.
Das Ziel der vorliegenden Arbeit war, die systematischen Anfangsverluste im SIS18 zu minimieren. Das SIS18 soll als Injektor für das SIS100 in der neuen geplanten FAIR-Anlage eingesetzt werden und dafür die Strahlintensität erhöht werden. Eine wesentliche Rolle spielen das dynamische Vakuum im SIS18 und die anfänglichen Strahlverluste, verursacht durch Multiturn-Injektions- (MTI) oder HF-Einfangsverluste. Um den dynamischen Restgasdruck im SIS18 zu stabilisieren, müssen diese systematischen Anfangsverluste minimiert werden. Strahlteilchen, welche auf der Vakuumkammerwand verloren gehen, führen durch ionenstimulierte Desorption zu einem lokalen Druckanstieg. Dies wiederum erhöht die Wahrscheinlichkeit für Stöße zwischen Restgasteilchen und Strahlionen, wodurch diese umgeladen werden können und nach einem dispersiven Element (Dipol) auf der Vakuumkammer verloren gehen. Dies produziert einen weiteren lokalen Druckanstieg und verursacht eine massive Erhöhung der Umladungsraten. Eine Möglichkeit, die anfänglichen Verluste zu minimieren bzw. zu kontrollieren, ist die MTI-Verluste auf den Transferkanal (TK) zu verlagern, da dort ein Druckanstieg den umlaufenden Strahl im SIS18 nicht stört. Im Transferkanal werden die Strahlränder mit Hilfe von Schlitzen beschnitten und somit eine scharf definierte Phasenraumfläche erzeugt. ...
Im Weltall existieren hunderte sehr helle Objekte, die eine hohe konstante Leuchtkraft im Wellenlängenbereich von Gammastrahlung besitzen. Die konstante Leuchtkraft mancher dieser Objekte wird in regelmäßigen Abständen von starken Ausbrüchen, den sogenannten X-Ray-Bursts, unterbrochen. Hauptenergiequelle dieser X-RayBursts ist der „rapid-proton-capture“-Prozess (rp-Prozess). Dieser zeichnet sich durch eine Abfolge von (p,γ)-Reaktionen und β+-Zerfällen aus, die die charakteristischen Lichtkurven produzieren. Für viele am Prozess beteiligte Reaktionen ist der Q-Wert sehr klein, wodurch die Rate der einzelnen Reaktionen von den resonanten Einfängen in die ungebundenen Zustände dominiert wird. Die Unsicherheiten in der Beschreibung der Lichtkurve sind derzeit aufgrund fehlender kernphysikalischer Informationen von vielen am Prozess beteiligten Isotopen sehr groß. Sensitivitätsstudien zeigen, dass dabei die Unsicherheiten der 23Al(p,γ)24Si-Reaktion eine der größten Auswirkungen auf die Lichtkurve hat. Diese werden durch ungenaue und widersprüchliche Informationen zu den ungebundenen Zuständen im kurzlebigen 24Si hervorgerufen.
Um Informationen über die Kernstruktur von 24Si zu erhalten, wurde am National Superconducting Cyclotron Laboratory (NSCL), Michigan, USA, die 23Al(d,n)24Si Transferreaktion untersucht. Der in dieser Form erstmals umgesetzte Versuchsaufbau bestand aus einem Gammadetektor zur Messung der Übergangsenergien des produzierten 24Si, einem Neutronendetektor zur Messung der Winkelverteilung der emittierten Neutronen und einem Massensprektrometer zur Identifikation des produzierten Isotops. Mit diesem Aufbau, der eine Detektion der kompletten Kinematik der (d,nγ)-Reaktion ermöglichte, konnten folgende Erkentnisse gewonnen werden:
Aus der Energie der nachgewiesenen Gammas konnten die Übergänge zwischen den Kernniveaus von 24Si bestimmt und daraus die Energien der einzelnen Zustände ermittelt werden. Dabei konnte neben dem bereits bekannten gebundenen 2+-Zustand (in dieser Arbeit gemessen bei 1874 ± 2,9keV) und dem ungebundenen 2+-Zustand (3448,8 ± 4,6keV), erstmals ein weiterer ungebundener (4+,0+)-Zustand bei 3470,6 ± 6,2 keV beobachtet werden. Zusätzlich konnte die Diskrepanz, die bezüglich der Energie des ungebundenen 2+-Zustands aufgrund früherer Messungen bestand, beseitigt und die Energieunsicherheit reduziert werden.
Aus der Anzahl der nachgewiesenen Gammas konnten ebenfalls die (d,n)-Wirkungsquerschnitte in die einzelnen Zustände von 24Si bestimmt werden. Unter Verwendung der Ergebnisse von DWBA-Rechnungen konnte mithilfe dieser die spektroskopischen Faktoren berechnet werden. Für die angeregten Zustände musste dabei zwischen verschiedenen Drehimpulsüberträgen unterschieden werden. Mittels der Winkelverteilung der nachgewiesenen Neutronen konnte gezeigt werden, dass die Gewichtung anhand der theoretischen spektroskopischen Faktoren zur Berechnung der Anteile des jeweiligen Drehimpulsübertrags am gesamten Wirkungsquerschnitt für den entsprechenden Zustand gute Ergebnisse liefert. Für eine quantitative Bestimmung der spektroskopischen Faktoren der Zustände anhand der Neutronenwinkelverteilungen in 24Si war allerdings die Statistik zu gering. Für den Fall der deutlich häufiger beobachteten 22Mg(d,n)23Al-Reaktion konnte hingegen ein spektroskopischer Faktor für den 23Al-Grundzustand von 0,29 ± 0,04 bestimmt werden. Abschließend wurden die Auswirkungen der gewonnenen Erkenntnisse zur Kernstruktur von 24Si auf die Rate der 23Al(p,γ)-Reaktion untersucht. Dabei konnte aufgrund der besseren Energiebestimmung zum einen die Diskrepanz zwischen den Raten die auf Grundlage der beiden früheren Untersuchungen berechnet wurden und bis zu einem Faktor von 20 voneinander abweichen, beseitigt werden. Zum anderen konnte aufgrund der kleineren Unsicherheit in der Energiebestimmung der Fehlerbereich der Rate verkleinert werden. Die Untersuchungen zeigen, dass die Unsicherheit in der neuen Rate von der Ungenauigkeit der Massenbestimmung der beiden beteiligten Isotope und damit dem Q-Wert der Reaktion dominiert wird. Durch eine bessere Bestimmung des Q-Werts könnte die Unsicherheit in der Rate aufgrund der neuen experimentellen Ergebnisse auf ein Zehntel gesenkt werden.
Im Rahmen dieser Arbeit wird ein Experiment vorgestellt, mit dem es möglich ist, die Wechselwirkungen zwischen Elektronen in der Gegenwart eines extrem starken Laserfeldes zu untersuchen. Diese resultieren aus der nichtsequentiellen Multiphoton- Doppelionisation von Neon in einem starken elektrischen Feld, das durch einen Hochleistungslaser erzeugt wird. Mit Hilfe der COLTRIMS-Technologie ist es möglich die entstandenen Teilchen nachzuweisen und die Impulskomponenten zu bestimmen. Bei dieser Technologie handelt es sich um ein „Mikroskop“, das atomphysikalische Prozesse vollständig differntiell beobachtet. Die bei der Doppelionisation entstandenen Elektronen und das Rückstossion werden mittels eines schwachen elektrischen Feldes auf orts- und zeitaufgelöste Multichannelplate-Detektoren mit Delaylineauslese geleitet. Zusätzlich wird noch ein magnetisches Feld überlagert. Aus dem Auftreffort und der Flugzeit der Teilchen können die Impulse bestimmt werden. Es ist erstmals möglich die Impulskomponenten der drei Raumrichtungen für alle an der Ionisation beteiligten Teilchen mit hinreichend guter Auflösung zu bestimmen. Es können vollständige differentielle Winkelverteilungen erzielt werden. Damit gelingt es, ein kinematisch vollständiges Experiment zu realisieren. Die Elektronen werden bevorzugt in Richtung des Polarisationsvektors des Laserlichtes emittiert. Aufgrund der guten Impulsauflösung ist es jetzt möglich, die Richtung senkrecht zur Polarisation zu untersuchen und die Erkenntnisse in Bezug zueinander zu bringen. Das der nichtsequentiellen Doppelionisation zu grunde liegende sehr anschauliche Modell ist der „Rescattering-Prozess“: Das Laserfeld koppelt an das Coulombpotential des Atoms und verformt es derart, dass ein Elektron die effektive Potentialbarriere überqueren oder durch diese durchtunneln kann. Dieses zuerst befreite Elektron wird durch das oszillierende elektromagnetische Feld zunächst vom Ursprungsion fortgetrieben. Kehrt aber die Phase des Laserfeldes um, wird es zurück zum Ion beschleunigt, nimmt dabei Energie aus dem Feld auf und kann durch Elektron-Elektron-Stossionisation ein zweites Elektron aus dem Atom ionisieren oder es können kurzzeitige Anregungszustände erzeugt werden, die später feldionisiert werden. Dieses Modell wurde schon durch ein Vielzahl von Experimenten verifiziert. Gleichzeitig wirft es aber auch Fragen auf: Wie sind die Elektron-Elektron-Korrelationen zu erklären? Wie hängt der Longitudinal- mit dem Transversalimpuls zusammen? Welche Ionisationsmechanismen treten wann auf? Zusammenfassend kann man sagen, dass ein Experiment präsentiert wird, das zur Erfoschung von Korrelationseffekten bei Multiphoton-Ionisation beiträgt und sehr detaillierte Einblicke in die Welt der Laseratomphysik gewährt. Die Daten belegen eindeutig, dass eine Messung der korrelierten Impulse mehrerer Teilchen in einem Laserfeld eine Zeitmessung mit einer Auflösung weit unter einer Femtosekunde ermöglicht. Das beobachtete Ein- und Ausschalten der Elektronenabstossung, je nach der über die Longitudinal-Impulskorrelation gemessenen Verzögerungszeit, zeigt die Möglichkeit „Attosekunden Physik ohne Attosekunden-Pulse“ zu betreiben.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer spektroskopischen Methode für die medizinische Diagnostik und zielt auf die Einführung neuer analytischer Methoden in die klinische Praxis, die eine höhere Qualität bei der Behandlung von Patienten sowie eine Kostensenkung versprechen. Es wird eine reagenzienfreie infrarotspektroskopische Messmethode vorgestellt, mit der die Konzentrationen bestimmter Inhaltsstoffe von Körper- und anderen Flüssigkeiten quantitativ bestimmt werden können. Dabei kommt das kommerzielle FTIR- (Fourier-Transform Infrarot-) Spektrometer ALPHA der Firma Bruker zum Einsatz, für das eine spezielle ATR- (Abgeschwächte Totalreflexion) Messzelle konstruiert wurde. Diese eignet sich sowohl für Durchflussmessungen bei Volumenströmen von bis zu 1 l/min als auch für diskrete Proben mit einem minimalen Volumen von 10 µl. Die Kombination aus Spektrometer und Messzelle stellt somit ein kompaktes Messgerät dar, das zur Steuerung und Auswertung lediglich einen Computer benötigt und dessen Stabilität ebenfalls Langzeitmessungen erlaubt. Es stellt damit eine Basis für ein neuartiges Medizingerät dar, das auch außerhalb der Laborumgebung und insbesondere in der klinischen Routine von ungeschultem Personal eingesetzt werden kann.
Die quantitative Auswertung der Spektren erfolgt mittels multivariater Kalibrierung und PLS (Partial Least Squares) Regression. Dabei werden für die unterschiedlichen Inhaltsstoffe entsprechende Kalibriermodelle verwendet, die aus einer Reihe sorgfältig ausgewählter Proben erstellt wurden. Die Auswahl bezieht sich dabei vor allem auf einen breiten Konzentrationsbereich und auf möglichst unabhängig voneinander schwankende Konzentrationswerte der Inhaltsstoffe. Es wurden daher sowohl Proben im physiologischen als auch im pathologischen Bereich verwendet. Da die Konzentrationswerte der Kalibrierproben bekannt sein müssen, wurden die Proben mittels konventioneller klinischer Methoden analysiert. Die Genauigkeit dieser Referenzanalytik begrenzt dabei die maximale Genauigkeit der vorgestellten Methode.
Im Rahmen dieser Arbeit wurden Kalibriermodelle für die Inhaltsstoffe Glucose, Harnstoff, Creatinin und Lactat in der Waschlösung bei der Hämodialyse (Dialysat) sowie für die Inhaltsstoffe Glucose, Harnstoff, Cholesterol, Triacylglyceride, Albumin und Gesamtprotein in Vollblut und ebenso für Hämoglobin und Immunglobulin G in hämolysiertem Vollblut erstellt. Im Fall von Dialysat wurden hierfür sowohl künstlich erstellte sowie auch bei realen Dialysebehandlungen von Patienten entnommene Proben verwendet. Für Vollblut wurden bestehende Spektren an das neue Messgerät angepasst und durch Spektren neuer Blutproben erweitert. Die hiermit erreichte Genauigkeit und Präzision genügt in den meisten Fällen bereits klinischen Ansprüchen.
Für Dialysat wird gezeigt, dass mit dem vorgestellten Aufbau bereits kontinuierliche inline-Messungen direkt am Patienten möglich sind und gute Ergebnisse liefern. Dabei wurde sowohl auf eine einfache Anwendbarkeit während der Dialysebehandlung als auch auf eine einfache Bedienung mittels der vorgestellten Software geachtet. Das Gerät lässt sich somit problemlos in den klinischen Alltag integrieren und bietet aufgrund der Reagenzienfreiheit eine kostengünstige Methode zur kontinuierlichen und regelmäßigen Überwachung der Behandlungsverläufe.
Im Fall von Vollblut wird gezeigt, dass Messungen mit einer Probenmenge von 10 µl beispielsweise aus der Fingerbeere prinzipiell möglich sind und ebenfalls reproduzierbare Ergebnisse liefern. Damit steht eine präzise, einfache, kompakte und betriebskostengünstige Methode zur Verfügung, um in kurzer Zeit wichtige Blutparameter quantitativ bestimmen zu können.
Das kompakte und reagenzienfreie Messsystem erlaubt eine Vielzahl von Anwendungen, die insbesondere von den schnellen Analyseergebnissen und den geringen Verbrauchskosten profitieren. Beispielsweise beim Blutspendedienst, beim Hausarzt oder in Seniorenheimen kann die schnelle und einfache Ermittlung der hier untersuchten Blutparameter zur ersten Beurteilung des Patienten dienen und damit die Diagnose erleichtern. Der hohe Probendurchsatz und die vernachlässigbaren Betriebskosten führen in diesem Fall zu einer schnellen Amortisierung der Anschaffungskosten. Auch in Apotheken kann mit einem derartigen System ein erweiterter Service für Kunden angeboten werden.
Aufgrund des geringen Probenvolumens kommt das Messsystem ebenfalls für Anwendungen im Versuchstierbereich in Frage, beispielsweise für die Untersuchung von Mäuseblut in der German Mouse Clinic am Helmholtz Zentrum München. Die der Maus zu entnehmende Blutmenge und damit die Belastung des Tieres kann hierdurch erheblich reduziert werden.
Die Kompaktheit dieses universellen Systems erlaubt es weiterhin, eine Vielzahl anderer Flüssigkeiten zu untersuchen, die bereits erfolgreich infrarotspektroskopisch analysiert wurden. Dazu gehört unter anderem Urin, Bier und Wein.
In der Arbeit wird abschließend ebenfalls gezeigt, dass der Einsatz abstimmbarer Quantenkaskadenlaser zusammen mit der ATR-Technik prinzipiell die Möglichkeit eröffnet, die aufwändigen und teuren FTIR-Spektrometer zu ersetzen. Langfristig ist sowohl mit einer Verkleinerung des Aufbaus als auch mit einem Sinken des derzeit noch sehr hohen Anschaffungspreises zu rechnen. Der bereits verfügbare Abstimmbereich genügt zur Bestimmung der Glucosekonzentration. Eine Erweiterung, beispielsweise durch die Verwendung mehrerer Quantenkaskadenlaser mit unterschiedlichem Abstimmbereich, ermöglicht die Untersuchung weiterer Parameter.
In der vorliegenden Arbeit wird die Anwendung einer optischen Detektionsmethode zur Messung der magnetischen Eigenschaften eines verdünnten Systems angewandt und zur Untersuchung von High-Spin–Low-Spin-Komplexen etabliert. Die von uns angewandte MCD-Spektroskopie vereint eine optische Messtechnik, die auf die Messung ultraschneller Effekte erweiterbar ist, mit einer direkten Messmethode für die magnetischen Eigenschaften einer verdünnten Probe des LD-LISC-Komplexes Fe(stpy)4(NCSe)2 (stpy = 4-styrylpyridin). Der LD-LISC-Effekt ist ein licht-induzierter Spinübergang, der auftreten kann, wenn von einem Paar metallorganischer Komplexe eines einen thermischen Spinübergang aufweist und optisch zwischen den beiden Komplexes geschaltet werden kann, beispielsweise durch eine Photoisomerisation. Im Falle von Fe(stpy)4(NCSe)2 ist der cis-Komplex für alle Temperaturen im high-Spin-Zustand, während der trans-Komplex einen thermischen Spinübergang aufzeigt. Mit MCD-Spektroskopie wurde die Magnetisierung des Grundzustands des Fe(II)(stpy)4 (NCS)2-Komplexes in der trans- und der cis-Konfiguration in verdünnten dotierten Polymerfilmen untersucht. Diese magnetooptische Spektroskopie-Technik ermöglicht die Identifizierung von MLCT-Bändern des Eisen-Komplexes, die in optischen Spektren durch stärkere Ligandenabsorptionsbäder überlagert sind und sich nur schlecht auflösen lassen. Das untersuchte System dient als Beispiel für eine Reihe von Verbindungen, die photoschaltbare magnetische Eigenschaften besitzen. Für den Komplex in der cis-Form können bei tiefen Temperaturen durch die Messung von MCD-Daten bei variablem Feld und variabler Temperatur der Spinzustand, der g-Tensor und die Übergangspolarisierung M, sowie achsiale und rhombische Verzerrungen der oktaedrischen Geometrie des Moleküls bestimmt werden. Für den Komplex in der trans-Form konnte erstmals der Unterschied im Spinübergangsverhalten zwischen einer verdünnten Probe und einer konzentrierten Pulverprobe mit einem High-Spin–Low-Spin-Übergangskomplex gezeigt werden. Mit MCD-Spektroskopie konnten die Spinübergangsparameter bestimmt werden, die mit SQUID-Magnetometrie nur unzureichend untersucht werden können. Erste Messungen der MCD-Spektren während gleichzeitiger optischer Anregung zur Beobachtung des LD-LISC-Effekts auf langsamen Zeitskalen zeigen keine Änderung der MCD-Spektren trotz ausreichender Anregungsleistung, die zu einer deutlich messbaren Photoisomerisation geführt hat. Bei einer Temperatur von 120K der Messung ist der trans-Komplex bereits zu einem großen Teil im High-Spin-Zustand, so daß der Unterschied zwischen den Spinzuständen des cis- und des trans-Zustandes unterhalb der Auflösung des verwendeten Aufbaus liegt. Die in dieser Arbeit erzielten Resultate demonstrieren, daß die MCD-Spektroskopie eine geeignete Technik zur Messung des magnetischen Zustands von LD-LISC-Komplexen (oder anderen Komplexen) in verdünnten, zufällig orientierten Proben ist.