Refine
Year of publication
Document Type
- Doctoral Thesis (593) (remove)
Has Fulltext
- yes (593)
Is part of the Bibliography
- no (593)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (593) (remove)
Das Gehirn ist die wohl komplexeste Struktur auf Erden, die der Mensch erforscht. Es besteht aus einem riesigen Netzwerk von Nervenzellen, welches in der Lage ist eingehende sensorische Informationen zu verarbeiten um daraus eine sinnvolle Repräsentation der Umgebung zu erstellen. Außerdem koordiniert es die Aktionen des Organismus um mit der Umgebung zu interagieren. Das Gehirn hat die bemerkenswerte Fähigkeit sowohl Informationen zu speichern als auch sich ständig an ändernde Bedingungen anzupassen, und zwar über die gesamte Lebensdauer. Dies ist essentiell für Mensch oder Tier um sich zu entwickeln und zu lernen. Die Grundlage für diesen lebenslangen Lernprozess ist die Plastizität des Gehirns, welche das riesige Netzwerk von Neuronen ständig anpasst und neu verbindet. Die Veränderungen an den synaptischen Verbindungen und der intrinsischen Erregbarkeit jedes Neurons finden durch selbstorganisierte Mechanismen statt und optimieren das Verhalten des Organismus als Ganzes. Das Phänomen der neuronalen Plastizität beschäftigt die Neurowissenschaften und anderen Disziplinen bereits über mehrere Jahrzehnte. Dabei beschreibt die intrinsische Plastizität die ständige Anpassung der Erregbarkeit eines Neurons um einen ausbalancierten, homöostatischen Arbeitsbereich zu gewährleisten. Aber besonders die synaptische Plastizität, welche die Änderungen in der Stärke bestehender Verbindungen bezeichnet, wurde unter vielen verschiedenen Bedingungen erforscht und erwies sich mit jeder neuen Studie als immer komplexer. Sie wird durch ein komplexes Zusammenspiel von biophysikalischen Mechanismen induziert und hängt von verschiedenen Faktoren wie der Frequenz der Aktionspotentiale, deren Timing und dem Membranpotential ab und zeigt außerdem eine metaplastische Abhängigkeit von vergangenen Ereignissen. Letztlich beeinflusst die synaptische Plastizität die Signalverarbeitung und Berechnung einzelner Neuronen und der neuronalen Netzwerke.
Der Schwerpunkt dieser Arbeit ist es das Verständnis der biologischen Mechanismen und deren Folgen, die zu den beobachteten Plastizitätsphänomene führen, durch eine stärker vereinheitlichte Theorie voranzutreiben.Dazu stelle ich zwei funktionale Ziele für neuronale Plastizität auf, leite Lernregeln aus diesen ab und analysiere deren Konsequenzen und Vorhersagen.
Kapitel 3 untersucht die Unterscheidbarkeit der Populationsaktivität in Netzwerken als funktionales Ziel für neuronale Plastizität. Die Hypothese ist dabei, dass gerade in rekurrenten aber auch in vorwärtsgekoppelten Netzwerken die Populationsaktivität als Repräsentation der Eingangssignale optimiert werden kann, wenn ähnliche Eingangssignale eine möglichst unterschiedliche Repräsentation haben und dadurch für die nachfolgende Verarbeitung besser unterscheidbar sind. Das funktionale Ziel ist daher diese Unterscheidbarkeit durch Veränderungen an den Verbindungsstärke und der Erregbarkeit der Neuronen mithilfe von lokalen selbst-organisierten Lernregeln zu maximieren. Aus diesem funktionale Ziel lassen sich eine Reihe von Standard-Lernenregeln für künstliche neuronale Netze gemeinsam abzuleiten.
Kapitel 4 wendet einen ähnlichen funktionalen Ansatz auf ein komplexeres, biophysikalisches Neuronenmodell an. Das Ziel ist eine spärliche, stark asymmetrische Verteilung der synaptischen Stärke, wie sie auch bereits mehrfach experimentell gefunden wurde, durch lokale, synaptische Lernregeln zu maximieren. Aus diesem funktionalen Ansatz können alle wichtigen Phänomene der synaptischen Plastizität erklärt werden. Simulationen der Lernregel in einem realistischen Neuronmodell mit voller Morphologie erklären die Daten von timing-, raten- und spannungsabhängigen Plastizitätsprotokollen. Die Lernregel hat auch eine intrinsische Abhängigkeit von der Position der Synapse, welche mit den experimentellen Ergebnissen übereinstimmt. Darüber hinaus kann die Lernregel ohne zusätzliche Annahmen metaplastische Phänomene erklären. Dabei sagt der Ansatz eine neue Form der Metaplastizität voraus, welche die timing-abhängige Plastizität beeinflusst. Die formulierte Lernregel führt zu zwei neuartigen Vereinheitlichungen für synaptische Plastizität: Erstens zeigt sie, dass die verschiedenen Phänomene der synaptischen Plastizität als Folge eines einzigen funktionalen Ziels verstanden werden können. Und zweitens überbrückt der Ansatz die Lücke zwischen der funktionalen und mechanistische Beschreibungsweise. Das vorgeschlagene funktionale Ziel führt zu einer Lernregel mit biophysikalischer Formulierung, welche mit etablierten Theorien der biologischen Mechanismen in Verbindung gebracht werden kann. Außerdem kann das Ziel einer spärlichen Verteilung der synaptischen Stärke als Beitrag zu einer energieeffizienten synaptischen Signalübertragung und optimierten Codierung interpretiert werden.
Diese Dissertation stellt die systematische Einbeziehung von Eichkorrekturen in die Theorie der thermischen Leptogenese vor, welche eine Erklärung für die Frage nach dem Ursprung der Materie in unserem Universum bereitstellt.
Geht man vom weithin anerkannten Urknallmodell aus, so müsste hierbei zu gleichen Teilen Materie sowie Antimaterie entstanden sein. Aufgrund von Annihilationsprozessen sollte demnach die gesamte Materie zerstrahlt sein und ein leeres Universum zurückbleiben. Da dies aber nicht der Fall ist, stellt sich die Frage, wie das Ungleichgewicht zwischen Materie und Antimaterie entstehen konnte. Der Wert der Asymmetrie lässt sich mit Hilfe von Experimenten sehr genau bestimmen. Für eine systematische theoretische Beschreibung dieser Problematik stellte A. Sacharow drei Bedingungen auf: 1. die Verletzung der Baryonenzahl, 2. die Verletzung der Invarianz von Ladungskonjugation C sowie der Zusammensetzung von Ladungskonjugation und Parität CP sowie 3. eine Abweichung vom thermischen Gleichgewicht.
Da das Urknallmodell und das Standardmodell der Teilchenphysik nicht in der Lage sind, diese Asymmetrie zu beschreiben, beschäftigt sich die vorliegende Dissertation mit der Theorie der thermischen Leptogenese, welche statt von einer ursprünglichen Baryonenasymmetrie von einer Leptonenasymmetrie ausgeht. Zu einem späteren Zeitpunkt wird diese dann mittels Sphaleron-Prozesse, welche die Baryonenzahl verletzen, in eine Baryonenasymmetrie übertragen. Hierzu werden neue Teilchen zum Standardmodell hinzugefügt: schwere Majorana-Neutrinos. Diese zerfallen im thermischen Nichtgleichgewicht CP-verletzend in die bekannten Standardmodell-Leptonen und Higgs-Teilchen.
In dieser Arbeit wird eine hierarchische Anordnung der drei schweren Neutrinomassen betrachtet. Dies hat zur Folge, dass zwei der drei Majorana-Neutrinos ausintegriert werden können und eine effektive Theorie aufgestellt werden kann. Dieses Modell wird auch vanilla leptogenesis genannt und im Folgenden verwendet.
Die Dissertation ist wie folgt gegliedert. Die einleitenden Betrachtungen sind Gegenstand der Kapitel 1 und 2. Dort werden weiterhin andere Modelle zur Lösung des Problems der Baryonenasymmetrie kurz vorgestellt. Die thermische Leptogenese wird eingeführt und der See-saw-Mechanismus sowie die CP-Asymmetrie genauer beschrieben. Am Ende des Kapitels wird der klassische Ansatz für Leptogenese über Boltzmann Gleichungen präsentiert.
In Kapitel 3 werden die Grundlagen für Quantenfeldtheorien im Nichtgleichgewicht eingeführt. Die wichtigsten Definitionen im Falle des thermischen Gleichgewichts werden gegeben, anschließend findet sich die Verallgemeinerung auf Nichtgleichgewichtszustände. Die Bewegungsgleichungen, die sogenannten Kadanoff-Baym-Gleichungen, werden im Folgenden sowohl für skalare Teilchen als auch für Fermionen gelöst.
Kapitel 4 stellt die Notwendigkeit der Einbeziehung von Eichkorrekturen im Kontext der thermischen Leptogenese vor. Durch die Definition einer Leptonenzahlmatrix lässt sich die Asymmetrie durch die Kadanoff-Baym Gleichung für Leptonen umschreiben. Da der Vergleich von Boltzmann und Kadanoff-Baym Gleichungen im letzten Teil dieses Kapitels Unterschiede im Zeitverhalten zeigt, werden im Kadanoff-Baym Ansatz thermische Standardmodell-Breiten des Higgsfeldes und der Leptonen per Hand eingeführt. Mit dieser naiven Erweiterung erhält man ein gleiches Verhalten für die Leptonenzahlmatrix, lokal in der Zeit wie die Lösung der Boltzmann Gleichung. Eine systematische Einführung von Standardmodellkorrekturen für thermische Leptogenese ist daher unumgänglich, weshalb im Rahmen der vorliegenden Dissertation von Grund auf Eichkorrekturen der Diagramme, die zur Asymmetrie führen, berücksichtigt werden.
Die vier für diese Arbeit wichtigen Skalenbereich bedingen zwei Resummationsschemata, Hard Thermal Loop (HTL) und Collinear Thermal Loop (CTL), welche in Kapitel 5 vorgestellt werden. Dies führt schließlich auf zwei Differenzialgleichungen für die Berechnung der thermischen Produktionsrate des Majorana-Neutrinos, welche in Kapitel 6 numerisch weiter ausgewertet werden.
In Kapitel 7 erfolgt zunächst eine naive Berechnung aller eichkorrigierter 3-Schleifen-Diagramme, die zu den beiden die Asymmetrie verursachenden Diagrammen gehören. Da eine einfache Berechnung der 3-Schleifen-Diagramme nicht ausreicht, wird an dieser Stelle ein neues, zylindrisches Diagramm eingeführt, welches alle wichtigen Beiträge, insbesondere die HTL- und CTL-resummierten, enthält. Am Ende des Kapitels findet sich der erste geschlossene Ausdruck für die eichkorrigierte Leptonenzahlmatrix in führender Ordnung in allen Kopplungen.
Abschließend gibt es eine kurze Zusammenfassung und einen Ausblick in Kapitel 8. In dieser Dissertation findet sich zum ersten Mal ein systematischer Zugang zur Berücksichtigung aller Eichwechselwirkungen in der Theorie der thermischen Leptogenese. Ein geschlossener Ausdruck für die eichkorrigierte Leptonenasymmetrie konnte vorgestellt werden.
In der nuklearen Astrophysik sind Experimente mit hochgeladenen Radionukliden von großer Bedeutung. Diese exotischen Nuklide können in Schwerionenbeschleunigeranlagen hergestellt und in Speicherringen gespeichert werden. Momentan existieren weltweit zwei Anlagen, die solche Experimente ermöglichen: das GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt und das Institut für moderne Physik (IMP) in Lanzhou, China. Da die Ausbeute dieser Nuklide gering ist, werden zerstörungsfreie Nachweismethoden in den Speicherringen verwendet. Diese machen von den Methoden der Spektralanalyse Gebrauch. Nicht nur die geringe Ausbeute, sondern auch die kurze Lebensdauer dieser Nuklide stellen hohe Anforderungen an die Sensitivität und Geschwindigkeit dieser Detektoren.
Eine übliche Methode ist die Verwendung kapazitiver Schottky-Sonden. Eine solche Sonde ist seit 1991 an der GSI im Speicherring ESR im Einsatz. Um die Empfindlichkeit zu erhöhen, kann man Mikrowellenkavitäten als resonante Pickups verwenden. Die von den Teilchen induzierten elektromagnetischen Felder können resonante Moden im Resonator anregen. Die Geometrie des Pickups und das verwendete Material spielen eine wesentliche Rolle in der Gestaltung der Feldbilder. Die resultierenden Signale, auch Schottky Signale genannt, werden mittels einer Antenne ausgekoppelt und anschliessend an einen Spektrumanalysator angeschlossen. Für die Analyse der gespeicherten Daten können verschiedene Methoden der Spektralschätzung wie z.B. das Multi-Taper angewendet werden. Nachdem eine externe Kalibrierung durchgeführt worden ist, kann das Pickup auch als ein Stromsensor verwendet werden.
Diese Arbeit befasst sich mit der Theorie, dem Aufbau und ersten Anwendungen eines neuen resonanten Pickups, das im Jahr 2010 in den Speicherring ESR eingebaut und in mehreren Experimenten erfolgreich eingesetzt wurde. Ein ähnliches Pickup wurde im Jahr 2011 in den CSRe im IMP Lanzhou eingebaut. Einzelne Schwerionen mit 400 MeV pro Nukleon wurden erfolgreich mit dem GSI-Pickup nachgewiesen. Das Pickup wird regelmässig in Speicherringexperimenten eingesetzt. Ähnliche Experimente sind für CSRe in Lanzhou geplant.
Heparin wird als gerinnungshemmendes Medikament in vielen Bereichen eingesetzt: in niedriger Dosierung wird es vor allem zur Thromboseprophylaxe verwendet, in höheren Konzentrationen kommt es zum Beispiel in der Hämodialyse oder bei herzchirurgischen Eingriffen unter Verwendung der Herz-Lungen-Maschine zum Einsatz, um ein Gerinnen des Patientenblutes zu verhindern. Obwohl Heparin schon seit vielen Jahrzehnten eingesetzt wird, fehlt bis heute eine Methode, mit der sich die Heparin-Konzentration einfach, schnell und kostengünstig während des OP-Verlaufs bestimmen lässt. Vielmehr wird der Zustand des Patientenblutes über Gerinnungsverfahren eingeschätzt, die nur indirekt abhängig von Heparin sind und die von vielen Parametern beeinflusst werden. Eine Überwachung des Heparinspiegels ist mit diesen Methoden nicht möglich. Ein weiteres Problem ergibt sich, wenn am Ende des Eingriffs die normale Blutgerinnung wiederhergestellt werden soll. Zu diesem Zweck wird Protamin verabreicht, welches das im Patientenblut zirkulierende Heparin binden und damit dessen gerinnungshemmende Wirkung neutralisieren soll. Die Verabreichung des Protamins geschieht jedoch nicht, wie es idealerweise wäre, entsprechend der aktuellen Heparin-Konzentration, da derzeit kein Heparin-Messverfahren existiert. Dies kann eine fehlerhafte Heparin-Neutralisierung zur Folge haben, welche mit weitreichenden Nebenwirkungen, vor allem einer erhöhten Blutungsgefahr, verbunden ist.
Aufgrund dieser Problematik wurde eine streulichtphotometrische Methode (LiSA-H) entwickelt, mit dem die Bestimmung der Heparin-Konzentration einer Patientenprobe während chirurgischen Eingriffen möglich ist. Diese basiert auf der Messung der Intensität des an Heparin-Protamin-Nanopartikeln gestreuten Lichts. Diese Nanopartikel bilden sich, sobald Protamin einer Lösung mit Heparin, z.B. heparinisiertes Blutplasma, zugegeben wird.
Mit Hilfe von analytischer Ultrazentrifugation sowie Rasterkraftmikroskop-Aufnahmen konnten die Größe und die Größenverteilung der Heparin-Protamin-Partikel charakterisiert werden. Beide Methoden zeigten gut übereinstimmende Ergebnisse und lieferten Partikeldurchmesser von etwa 70 – 200 nm.
Um den Prozess der Messung zu optimieren, wurde nach Filtrationsmethoden gesucht, um den zeit- und arbeitsaufwendigen Zentrifugationsschritt zu vermeiden. Dazu wurden Filtermembranen aus verschiedenen Materialien und mit unterschiedlichen Porengrößen getestet, die eine Plasmagewinnung durch Filtration von Vollblut ermöglichen sollten. Leider war dies mit den getesteten Filtersystemen nicht möglich. Dies bleibt jedoch ein aktuelles Thema und wird weiterhin untersucht werden.
Zusätzlich zu der streulichtbasierten Messmethode konnte gezeigt werden, dass über fluoreszenzspektroskopische Methoden die Bestimmung kleiner Heparin-Konzentrationen möglich ist. Dafür wurde Protaminsulfat mit Fluoreszenzfarbstoffen markiert und die Erniedrigung der Emissionsintensität des fluoreszierenden Protamins nach Zugabe von Heparin beobachtet. Aus dem Grad dieser Intensitätsabnahme lässt sich auf die Heparin-Konzentration schließen. Diese Methode wäre hervorragend dafür geeignet, das streulichtbasierte Verfahren zu ergänzen, das im niedrigen Konzentrationsbereich zunehmend unempfindlich wird. Hierfür müssen jedoch noch einige Messungen durchgeführt werden, um zu zeigen, ob eine Messung auch von Plasma- oder sogar Vollblutproben möglich ist.
Es wurde ein klinischer Prototyp entwickelt, der die Bestimmung der Heparin-Konzentration in einer Blutplasmaprobe während chirurgischer Eingriffe ermöglicht. Dabei wird eine LED mit einem Emissionsmaximum bei 627 nm verwendet und die Streulichtintensität zur Bestimmung der Anzahl und der Größe der Heparin-Protamin-Partikel genutzt. Die Steuerung der Messung sowie die Auswertung der Messdaten werden mit einem Netbook und eigens dafür neu entwickelter Software realisiert. Mit diesem Prototyp lässt sich reproduzierbar aus der Änderung der Streulichtintensität einer Blutplasmaprobe nach Protaminzugabe innerhalb weniger Minuten deren Heparin-Konzentration bestimmen. Es wurde eine Kalibrierfunktion erstellt, mit der es möglich ist, aus der Streulichtintensität die Heparin-Konzentration zu berechnen.
Eine erste Studie im Universitätsklinikum der Johann Wolfgang Goethe-Universität Frankfurt a.M., bei der bei 50 herzchirurgischen Eingriffen unter Verwendung der Herz-Lungen-Maschine parallel zur üblichen Gerinnungsmessung eine Heparin-Bestimmung mit dem neuen Heparin-Assay erfolgte, zeigte, dass es mit diesem Verfahren möglich ist, im OP-Verlauf die Heparin-Konzentration im Patientenblut zu ermitteln. Daraus konnten schließlich weitere Informationen wie die individuelle Geschwindigkeit des Heparin-Abbaus erhalten werden.
Eine zweite Studie in der Kinderkardiologie des Universitätsklinikums Gießen, deren Ergebnisse statistisch noch nicht vollständig ausgewertet sind, wurde ebenfalls mit Erfolg abgeschlossen. Die vorläufigen Ergebnisse zeigten hier, dass sich die Heparin-Abbaukinetik bei Erwachsenen und Kindern deutlich unterscheidet. Zudem zeigte sich, dass die gemessene Gerinnungszeit bei Kindern wesentlich schlechter (nur 30 % der Fälle) mit der gemessenen Heparin-Konzentration korreliert als bei Erwachsenen (etwa 70 % der Fälle).
Die Arbeit entstand im Rahmen des Förderprogramms ”Profil NT” und war Bestandteil des BMBF–Projektes ”NANOTHERM” (FKZ17PNT005). Dabei sollte die Möglichkeit der Integration und Verwendung von Nanodrähten als funktionsbestimmende Komponente im thermoelektrischen Sensorelement untersucht werden. Eine wichtige Aufgabe bestand darin die thermoelektrischen Eigenschaften der einzelnen Nanodrähte, insbesondere den Seebeck–Koeffizienten, zu untersuchen. Im Hinblick auf die weitere Entwicklung der Nanotechnologie ist es sehr wichtig, geeignete Messplattformen zu generieren und der Wissenschaftlichen Gemeinschaft zur Verfügung zu stellen für die Charakterisierung von Nanostrukturen. Für die Forschung bedeutet dies, dass man immer präziser die ”Physik im kleinen” studieren kann. Im Bezug auf die Anwendungen stellen die ausgeführten Untersuchungen eine wesentliche Basis für die Bauelemente–Optimierung und ihren späteren industriellen Einsatz dar.
In dieser Arbeit werden zwei Chipdesigns vorgestellt für die Bestimmung des Seebeck–Koeffizienten, die eine ausreichend hohe Temperaturdifferenz in Nanostrukturen erzeugen. Für beide Chips wird die mikromechanische Fertigung im einzelnen erläutert. Zusätzlich wurden die Chips in FEM–Simulationen analysiert. Eine messtechnische Charakterisierung der Chips bestätigt die Simulationen und die Funktionsweise der Chips für Untersuchungen des Seebeck–Koeffizienten an Nanostrukturen. Erstmals wurden Wolfram bzw. Platin FEBID–Deponate hinsichtlich des Seebeck–Koeffizienten untersucht. Für die Wolfram–Deponate ergab sich ein negativer Seebeck–Koeffizient. Der gemessenen Seebeck–Koeffizient war über mehrere Tage stabil. Als Ergebnis temperaturabhängiger Messungen des Seebeck–Koeffizienten konnte eine Wurzel-T Abhängigkeit beobachtet werden, die in der Theorie beschrieben wird.
Eine Untersuchung des Seebeck–Koeffizienten an Pt–FEBID–Deponaten zeigt einen Vorzeichenwechsel für Proben mit geringer elektrischer Leitfähigkeit (isolierender Charakter, schwache Kopplung). In der Literatur wird dieser Vorzeichenwechsel allerdings für Proben mit metallischer elektrischer Leitfähigkeit beschrieben. Aufgrund der Messergebnisse ist zu prüfen inwiefern die Theorie des Seebeck–Koeffizienten auf Proben mit schwacher Kopplung zu übertragen ist. Da die gemessenen Seebeck–Koeffizienten bei einigen nanoskaligen Proben sehr klein waren, wurde der Seebeck–Koeffizient des Kontaktmaterials in separaten Versuchen untersucht. Für das hier verwendete Schichtsystem Ti(40nm)/Au(120nm) kann ein Seebeck–Koeffizient von -0,22µV/K angegeben werden. Bei der Charakterisierung der Pt–FEBID–Deponaten wurde dieser Beitrag des Kontaktschichtsystems zur Thermospannung berücksichtigt.
Untersuchungen an BiTe–Nanodrähten mit dem Seebeck–Chip ergaben einen negativen Seebeck–Koeffizienten. Die ersten Untersuchungen wurden mit Kupfer als Kontaktmaterial durchgeführt, weil dieses sehr gute Lift–Off Eigenschaften besaß. Trotz der Kupferdiffusion in den Nanodraht hinein, wird der negative Seebeck–Koeffizient einem Tellur–Überschuss zugeschrieben, denn an Proben mit einer geeigneten Diffusionsbarriere war in nachfolgenden Untersuchungen ebenso ein negativer Seebeck–Koeffizient zu messen. Die ermittelten Beweglichkeiten sind niedriger als die von Bulkmaterial und können durch klassische Size–Effekte erklärt werden. Die gemessenen Ladungsträgerkonzentrationen liegen in typischen Bereichen für Halbmetalle. Die Charakterisierung des Seebeck–Koeffizienten mit Hilfe des hier vorgestellten Z–Chip ergab einen negativen Seebeck–Koeffizienten für die BiTe–Nanodrähte, die wie oben erläutert auf einen Tellur–Überschuss zurückzuführen sind. Eine Abschätzung eines mit Nanodrähten aufgebauten Sensors zeigt, dass im Vergleich zu konventionellen Dünnschicht–Thermopiles deutlich höhere Empfindlichkeiten zu erzielen sind. Erste technologische Konzepte für den Aufbau von Nanodraht–Arrays wurden erarbeitet und durch entsprechende Untersuchungen verifiziert.
Grundsätzlich ist der Z–Chip für die Charakterisierung aller drei Transportkoeffizienten geeignet und bietet die Option, anderen Arbeitsgruppen eine universelle thermoelektrische Messplattform zur Verfügung zu stellen.
Detailed knowledge of reaction mechanisms is key to understanding chemical, biological, and biophysical processes. For many reasons, it is desirable to comprehend how a reaction proceeds and what influences the reaction rate and its products.
In biophysics, reaction mechanisms provide insight into enzyme and protein function, the reason why they are so efficient, and what determines their reaction rates. They also reveal the relationship between the function of a protein and its structure and dynamics.
In chemistry, reaction mechanisms are able to explain side products, solvent effects, and the stereochemistry of a product. They are also the basis for potentially optimizing reactions with respect to yield, enhancing the stereoselectivity, or for modifying reactions in order to obtain other related products.
A key step to investigate reaction mechanisms is the identification and characterization of intermediates, which may be reactive, short-lived, and therefore only weakly populated. Nowadays, the structures of those can in most cases only be hypothesized based on products, side products, and isolable intermediates, because intermediates with a life time of less than a few microseconds are not accessible with the commonly used techniques for structure determination such as X-ray crystallography and nuclear magnetic resonance (NMR) spectroscopy.
In this thesis, two-dimensional infrared (2D-IR) spectroscopy is shown to be a powerful complement to the existing techniques for structure determination in solution. 2D-IR spectroscopy uses a femtosecond laser setup to investigate interactions between vibrations - analogous to 2D-NMR, which investigates the interactions between spins. Its ultrafast time resolution makes 2D-IR spectroscopy particularly well suited for the two topics investigated in this thesis: Structure Determination of Reactive Intermediates and Conformational Dynamics of Proteins.
Structure Determination of Reactive Intermediates: The focus of this thesis is using polarization-dependent 2D-IR (P2D-IR) spectroscopy for structure determination of N-crotonyloxazolidinone (referred to as 1), a small organic compound with a chiral oxazolidinone, known as Evans auxiliary, and its reactive complexes with the Lewis acids SnCl4 and Mg(ClO4)2. Chiral oxazolidinones in combination with Lewis acids have frequently been used in stereoselective synthesis for over 30 years. Nevertheless, the detailed mechanisms are in many cases xvi ABSTRACT still mere hypotheses and have not yet been experimentally proven. By accurately measuring the angles between the transition dipole moments in the molecules using an optimized P2D-IR setup and comparing the results to DFT calculations, the conformation of 1 and the conformation and coordination of the main complexes with SnCl4 and Mg(ClO4)2 are unequivocally identified and analyzed in depth. Structural details, such as a slight twist in the solution structure of 1, are detected using P2D-IR spectroscopy; these cannot be inferred from NMR spectroscopy or DFT calculations. In addition to the main Lewis acid complexes, complexes in low concentration are detected and tentatively assigned to different conformations and complexation geometries. The knowledge of those structures is essential for rationalizing the observed stereoselectivities. Additionally, a method is introduced that enables structure determination of molecules in complex mixtures and even in the presence of molecules with similar spectral properties and in high concentration. This work sets the stage for future studies of other substrate-catalyst complexes and reaction intermediates for which the structure determination has not been possible to date.
Conformational Dynamics of Proteins: Exchange 2D-IR spectroscopy allows the investigation of fast dynamics without disturbing the equilibrium of the exchanging species. It is therefore well suited to investigate fast dynamics of proteins and to reveal the speed limit of those. The temperature dependence of the conformational dynamics between the myoglobin substates A1 and A3 in equilibrium is analyzed. The various substates of myoglobin can be detected with FTIR spectroscopy, if carbon monoxide is bound to the heme. From previous studies it is known that the exchange rates at room temperature are in the picosecond time range, well suited to be investigated by 2D-IR spectroscopy. In the temperature range between 0 °C and 40 °C only a weak temperature dependence of the exchange rate in the myoglobin mutant L29I is observed in the present study. The exchange rate approximately doubles from 15 ns-1 at 0 °C to 31 ns-1 at 40 °C. It turned out that the conformational dynamics correlates linearly with the solvent viscosity, which itself is temperature dependent. Comparing our results to measurements at cryogenic temperatures, the linear relation between exchange time constant for this process and the viscosity is shown for the temperature range between -100 °C and 40 °C (corresponding to a viscosity change of 14 orders of magnitude). Thus, it is proven that the dynamics of the conformational switching are mainly determined by solvent dynamics, i.e., the protein dynamics are slaved to the solvent dynamics. This is the first time slaving is observed for such fast processes (in the picosecond time range). The observation implies a long-range structural rearrangement between the myoglobin substates A1 and A3. In addition, the exchange for other mutants and wild type myoglobin is analyzed qualitatively and found to agree with the conclusions drawn from L29I myoglobin.
In dieser Arbeit wurde eine Messmethode entwickelt, die es ermöglicht, mittels Infrarotspektroskopie quantitative Aussagen über bestimmte Inhaltsstoffe in Körperflüssigkeiten zu machen. Hierfür wurden sowohl selektierte Blutplasma- und Vollblutproben gemessen als auch selektierte Urinproben. Die richtige Selektion des Probensatzes ist von großer Wichtigkeit, um für jede Komponente eine große, unabhängige Varianz der Absorptionswerte zu erhalten. Hierfür wurden sowohl physiologische als auch pathologische Proben in den Datensatz integriert. Um Referenzwerte für diese ausgewählten Proben zu erhalten, wurden konventionelle klinische Methoden verwendet. Grundsätzlich ist die Genauigkeit dieser Methode durch die Genauigkeit der jeweiligen Referenzmethode, also den konventionellen klinischen Methoden, beschränkt. Mit der neu entwickelten Methode besteht nun die Möglichkeit, die wichtigsten Parameter im Blut und Urin schnell, einfach und reagenzienfrei quantitativ zu bestimmen. Zusätzlich zu den in dieser Arbeit angegebenen Inhaltsstoffen ist es möglich, für weitere Komponenten oberhalb eines bestimmten Schwellenwerts quantitative Angaben zu machen. Hierbei könnten z.B. für Albumin oder Glukose im Urin pathologische Proben identifiziert werden und somit Rückschlüsse auf bestimmte Krankheitsbilder ermöglicht werden. ...
In this thesis, various aspects on the theoretical description of ultracold bosonic atoms in optical lattices are investigated. After giving a brief introduction to the fundamental concepts of BECs, atomic physics, interatomic interactions and experimental procedures in chapter (1), we derive the Bose-Hubbard model from first principles in chapter (2). In this chapter, we also introduce and discuss a technique to efficiently determine Wannier states, which, in contrast to current techniques, can also be extended to inhomogeneous systems. This technique is later extended to higher dimensional, non-separable lattices in chapter (5). The many-body physics and phases of the Bose-Hubbard is shortly presented in chapter (3) in conjunction with Gutzwiller mean-field theory, and the recently devised projection operator approach. We then return to the derivation of an improved microscopic many-body Hamiltonian, which contains higher band contributions in the presence of interactions in chapter (4). We then move on to many-particle theory. To demonstrate the conceptual relations required in the following chapter, we derive Bogoliubov theory in chapter (5.3.4) in three different ways and discuss the connections. Furthermore, this derivation goes beyond the usual version discussed in most textbooks and papers, as it accounts for the fact, that the quasi-particle Hamiltonian is not diagonalizable in the condensate and the eigenvectors have to be completed by additional vectors to form a basis. This leads to a qualitatively different quasi-particle Hamiltonian and more intricate transformation relations as a result. In the following two chapters (7, 8), we derive an extended quasi-particle theory, which goes beyond Bogoliubov theory and is not restricted to weak interactions or a large condensate fraction. This quasi-particle theory naturally contains additional modes, such as the amplitude mode in the strongly interacting condensate. Bragg spectroscopy, a momentum-resolved spectroscopic technique, is introduced and used for the first experimental detection of the amplitude mode at finite quasi-momentum in chapter (9). The closely related lattice modulation spectroscopy is discussed in chapter (10). The results of a time-dependent simulation agree with experimental data, suggesting that also the amplitude mode, and not the sound mode, was probed in these experiments. In chapter (11) the dynamics of strongly interacting bosons far from equilibrium in inhomogeneous potentials is explored. We introduce a procedure that, in conjunction with the collapse and revival of the condensate, can be used to create exotic condensates, while particularly focusing on the case of a quadratic trapping potential. Finally, in chapter (12), we turn towards the physics of disordered systems derive and discuss in detail the stochastic mean-field theory for the disordered Bose-Hubbard model.
The study of systems whose properties are governed by electronic correlations is a corner stone of modern solid-state physics. Often, such systems feature unique and distinct properties like Mott metal-insulator transitions, rich phase diagrams, and high sensitivity to subtle changes in the applied conditions. Whereas the standard approach to electronic structure calculations, density functional theory (DFT), is able to address the complexity of real-world materials but is known to have serious limitations in the description of correlations, the dynamical mean-field theory (DMFT) has become an established method for the treatment of correlated fermions, first on the level of minimal models and later in combination with DFT, termed LDA+DMFT.
This thesis presents theoretical calculations on different materials exhibiting correlated physics, where we aim at covering a range in terms of systems --from rather weakly correlated to strongy correlated-- as well as in terms of methods, from DFT calculations to combined LDA+DMFT calculations. We begin with a study on a selection of iron pnictides, a recently discovered family of high-temperature superconductors with varying degree of correlation strength, and show that their magnetic and optical properties can be assessed to some degree within DFT, despite the correlated nature of these systems. Next, extending our analysis to the inclusion of correlations in the framework of LDA+DMFT, we discuss the electronic structure of the iron pnictide LiFeAs which we find to be well described by Fermi liquid theory with regard to many of its properties, yet we see distinct changes in its Fermi surface upon inclusion of correlations. We continue the study of low-energy properties and specifically Fermi surfaces on two more iron pnictides, LaFePO and LiFeP, and predict a topology change of their Fermi surfaces due to the effect of correlations, with possible implications for their superconducting properties. In our last study, we close the circle by presenting LDA+DMFT calculations on an organic molecular crystal on the verge of a Mott metal-insulator transition; there, we find the spectral and optical properties to display signatures of strong electronic correlations beyond Fermi liquid theory.
With the increasing energies and intensities of heavy-ion accelerator facilities, the problem of an excessive activation of the accelerator components caused by beam losses becomes more and more important. Numerical experiments using Monte Carlo transport codes are performed in order to assess the levels of activation. The heavy-ion versions of the codes were released approximately a decade ago, therefore the verification is needed to be sure that they give reasonable results. Present work is focused on obtaining the experimental data on activation of the targets by heavy-ion beams. Several experiments were performed at GSI Helmholtzzentrum für Schwerionenforschung. The interaction of nitrogen, argon and uranium beams with aluminum targets, as well as interaction of nitrogen and argon beams with copper targets was studied. After the irradiation of the targets by different ion beams from the SIS18 synchrotron at GSI, the γ-spectroscopy analysis was done: the γ-spectra of the residual activity were measured, the radioactive nuclides were identified, their amount and depth distribution were detected. The obtained experimental results were compared with the results of the Monte Carlo simulations using FLUKA, MARS and SHIELD. The discrepancies and agreements between experiment and simulations are pointed out. The origin of discrepancies is discussed. Obtained results allow for a better verification of the Monte Carlo transport codes, and also provide information for their further development. The necessity of the activation studies for accelerator applications is discussed. The limits of applicability of the heavy-ion beam-loss criteria were studied using the FLUKA code. FLUKA-simulations were done to determine the most preferable from the radiation protection point of view materials for use in accelerator components.
In dieser Arbeit wurden Verfahren zur Identifikation hirnelektrischer Aktivität mit Zellularen Nichtlinearen Netzwerken (CNN), im Besonderen Reaktions-Diffusions-Netzwerken, entwickelt und untersucht. Mit Hilfe der eingeführten Methoden wurden Langzeitaufzeichnungen hirnelektrischer Aktivität bei Epilepsie analysiert und mittels eines automatisierten Verfahrens ermittelt, inwieweit sich mögliche Voranfallszustände vom anfallsfreien Zustand im statistischen Sinne trennen lassen.
Zunächst wurde ein Überblick über CNN gegeben und deren Beschreibung durch Systeme gekoppelter Differentialgleichungen dargestellt. Weiterhin wurden die Möglichkeiten der Informationsverarbeitung mit CNN durch Ausnutzung von Gleichgewichtszuständen oder der vollständigen raum-zeitlichen Dynamik der Netzwerke diskutiert. Zusätzlich wurde die Klasse der Reaktions-Diffusions-Netzwerke (RD-CNN) eingeführt. Für die Repräsentation der hierbei benötigten weitgehend allgemeinen nichtlinearen Zellkopplungsvorschriften wurden polynomiale Gewichtsfunktionen vorgeschlagen. Mit einer Darstellung der Theorie der Lokalen Aktivität wurden notwendige Bedingungen für emergentes Verhalten in RD-CNN angegeben. Die statistische Bewertung von Vorhersagemodellen wurde aus theoretischer Sicht beleuchtet. Mit der Receiver Operating Characteristic (ROC) wurde eine Analysemethode zur Beurteilung der Vorhersagekraft des zeitlichen Verlaufs von Kenngrößen bezüglich bevorstehender epileptischer Anfälle vorgestellt.
Als nächstes wurden Überlegungen zur numerischen Simulation von CNN und deren flexible und erweiterbare programmtechnische Umsetzung entwickelt. Die daraus resultierende und im Rahmen dieser Arbeit entstandene objektorientierte Simulationsumgebung FORCE++ wurde konzeptionell und im Hinblick auf die Softwarearchitektur vorgestellt.
Die Verfahren zur numerischen Simulation wurden auf die Problemstellung der Systemidentifikation mit CNN angewandt. Dazu wurden Netzwerke derart bestimmt, dass deren Zellausgangswerte entsprechende Signalwerte des beobachteten, zu identifizierenden Systems approximieren.
Da die Parameter der zu bestimmenden CNN im vorliegenden Fall der Untersuchung hirnelektrischer Aktivität nicht bekannt sind und nicht direkt abgeleitet werden können, wurden überwachte Lernverfahren zur Bestimmung der Netzwerke eingesetzt. Hierbei wurden Lernverfahren verschiedener Klassen für die Identifikation mit CNN mit polynomialen Gewichtsfunktionen untersucht. Die Leistungsfähigkeit des vorgestellten Identifikationsverfahrens wurde anhand bekannter Systeme einer genauen Betrachtung unterzogen. Dabei wurde festgestellt, dass die betrachteten Systeme mit hoher Genauigkeit durch CNN repräsentiert werden konnten. Exemplarisch wurde das Parametergebiet lokaler Aktivität für ein RD-CNN berechnet und durch numerische Simulationen die Ausbildung von Mustern innerhalb des Netzwerkes nachgewiesen.
Nach einem einleitenden Überblick über die medizinischen Hintergründe von Epilepsie und der Erfassung hirnelektrischer Aktivität wurde eine vergleichende Übersicht über den Stand veröffentlichter Studien zur Vorhersage epileptischer Anfälle gegeben. Für die Anwendung des hier vorgestellten Identifikationsverfahrens zur Analyse hirnelektrischer Aktivität wurde zunächst die Genauigkeit der Approximation kurzer, als quasi-stationär betrachteter Abschnitte, von EEG-Signalen untersucht. Durch gezielte Erhöhung der Komplexität herangezogener Netzwerke konnte hier die Genauigkeit der Repräsentation von EEG-Signalverläufen deutlich verbessert werden. Dabei wurde zudem die Verallgemeinerungsfähigkeit der ermittelten Netzwerke untersucht, wobei festgestellt wurde, dass auch solche Signalwerte mit guter Genauigkeit approximiert werden, die nicht im Identifikationsverfahren durch die überwachte Parameteroptimierung berücksichtigt waren. Um speziell den Einfluss der Information aus der Korrelation benachbarter Elektrodensignale zu untersuchen, wurde ein Verfahren zur multivariaten Prädiktion mit Discrete Time CNN (DT-CNN) entwickelt.
Hierbei werden durch ein CNN Signalwerte der betrachteten Elektrode aus vergangenen, korrelierten Signalwerten von Nachbarelektroden geschätzt. Für diese Aufgabenstellung konnte eine Methode zur Bestimmung der Netzwerkparameter im optimalen Sinn, alleine aus den statistischen Eigenschaften der Elektrodensignale angegeben werden. Dadurch gelang eine erhebliche Reduzierung der Rechenkomplexität, die eine umfangreiche Untersuchung intrakranieller Langzeitableitungen ermöglichte.
Zur Analyse von Langzeitaufzeichnungen mit dem RD-CNN Identifikationsverfahren, wurden die numerischen Berechnungen zur Simulation von CNN mit FORCE++ auf einem durchsatz-orientierten Hochleistungs-Rechnernetzwerk durchgeführt. Mit den so gewonnen Ergebnissen konnten vergleichende Analysen vorgenommen werden. Zudem wurden Untersuchungen zum Vorliegen lokaler Aktivität in den ermittelten RD-CNN durchgeführt.
Die bei den beschriebenen Verfahren extrahierten Kenngrößen hirnelektrischer Aktivität wurden durch ein automatisiertes Verfahren auf ihre Vorhersagekraft für epileptische Anfälle bewertet. Dabei wurde untersucht, inwieweit der anfallsfreie Zustand und ein angenommener Voranfallszustand durch die jeweils betrachtete Kenngröße im statistischen Sinn diskriminiert werden kann. Durch parallele Analysen mit Anfallszeitsurrogaten wurden hierzu ergänzende Signifikanztests durchgeführt.
Nach Auswertung von mehrtägigen Hirnstromsignalen verschiedener Patienten konnte festgestellt werden, dass mit den in dieser Arbeit entwickelten Verfahren Kenngrößen hirnelektrischer Aktivität bestimmt werden konnten, welche offenbar die Identifikation potentieller Voranfallszustände ermöglichen.
Auch wenn für eine breite medizinische Anwendung die Spezifität und Sensitivität noch weiter verbessert werden muss, so können doch die erzielten Ergebnisse einen wesentlichen Schritt hin zu einer implantierbaren, CNN-basierten Plattform zur Erkennung und Verhinderung epileptischer Anfälle darstellen. Die Berechnungen für das Identifikationsverfahren mit RD-CNN könnten dabei durch zukünftige, spezialisierte schaltungstechnische Realisierungen für mehrschichtige CNN mit polynomialen Gewichtsfunktionen eine erhebliche Beschleunigung erfahren.
A new era in experimental nuclear physics has begun with the start-up of the Large Hadron Collider at CERN and its dedicated heavy-ion detector system ALICE. Measuring the highest energy density ever produced in nucleus-nucleus collisions, the detector has been designed to study the properties of the created hot and dense medium, assumed to be a Quark-Gluon Plasma.
Comprised of 18 high granularity sub-detectors, ALICE delivers data from a few million electronic channels of proton-proton and heavy-ion collisions.
The produced data volume can reach up to 26 GByte/s for central Pb–Pb
collisions at design luminosity of L = 1027 cm−2 s−1 , challenging not only the data storage, but also the physics analysis. A High-Level Trigger (HLT) has been built and commissioned to reduce that amount of data to a storable value prior to archiving with the means of data filtering and compression without the loss of physics information. Implemented as a large high performance compute cluster, the HLT is able to perform a full reconstruction of all events at the time of data-taking, which allows to trigger, based on the information of a complete event. Rare physics probes, with high transverse momentum, can be identified and selected to enhance the overall physics reach of the experiment.
The commissioning of the HLT is at the center of this thesis. Being deeply embedded in the ALICE data path and, therefore, interfacing all other ALICE subsystems, this commissioning imposed not only a major challenge, but also a massive coordination effort, which was completed with the first proton-proton collisions reconstructed by the HLT. Furthermore, this thesis is completed with the study and implementation of on-line high transverse momentum triggers.
The main purpose of the Transition Radiation Detector (TRD) located in the central barrel of ALICE (A Large Ion Collider Experiment) is electron identification for separation from pions at momenta pt > 1 GeV/c, since in this momentum range the measurements of the specific energy loss (dE/dx) of the Time Projection Chamber (TPC) is no longer sufficient. Furthermore, it provides a fast trigger for high transverse momentum charged particles (pt > 3 GeV/c) and makes a significant contribution to the optimization of the tracking of reaction products in heavy-ion collisions. Its whole setup comprises 18 supermodules out of which 13 are presently operational and mounted cylindrically around the beam axis of the Large Hadron Collider (LHC). A supermodule contains either 30 or 24 chambers, each consisting of a radiator for transition radiation creation, a drift and an amplifying region followed by the read-out electronics. In total, the TRD is an array of 522 chambers operated with about 28 m3 of a Xe-CO2 [85-15%] gas mixture. During the work of this thesis, the testing, commissioning, operation and maintenance of detector parts, the gas system and its online quality monitor, improvements on the detector control user-interface and studies about a new pre-trigger module for data read-out have been accomplished. The TRD gas system mixes, distributes and circulates the operational gas mixture through the detector. Its overall optimization has been achieved by minimizing gas leakage, surveying, controlling, maintaining and continuously improving it as well as designing and carrying out upgrades. Gas quality monitors of the type \GOOFIE" (Gas prOportional cOunter For drIfting Electrons) can be used in gaseous detectors as on-line monitors of the electron drift velocity, gain and gas properties. One of these devices has been implemented within the TRD gas system, while another one surveys the gas of the TPC. Both devices had to be adapted to the specific needs of the detectors, were under constant surveillance and control, and needed to be further developed on both hardware and software side. To improve the operation of the TRD, modifications on its DCS software (Detector Control System) used for monitoring, controlling, operating, regulating and configuring of hardware and computing devices have been carried out. The DCS is designed to enable an operator to interact with equipment through user interfaces that display the information from the system. The main focus of this work was laid on the optimization of the usability and design of the user interface. The front-end electronics of the TRD require an early start signal (\pre-trigger") from the fast forward detectors or the Time-Of-Flight detector during the running periods. The realization of a new hardware concept for the read-out of the TRD pre-trigger system has been studied and first tests were performed. This new module called PIMDDL (Pre-trigger Interface Module Detector Data Link) is meant to acquire all data necessary to simulate and predict the full pre-trigger functionality, and to verify its proper operation. Furthermore, it shall provide all functionalities of the so-called Control Box Bottom as well as keep the functionalities of the already existing PIM (Pre-trigger Interface Module) in order to combine and replace these two modules in the future.
Zellulare Nichtlineare Netzwerke bzw. Zellulare Neuronale Netzwerke, sogenannte CNN, wurden 1988 von L.O. Chua und L.Yang eingeführt und seither intensiv untersucht. Diese sind als Simulations-Software und als schaltungstechnische Realisierungen, in Hardware, verfügbar.
Als analog arbeitende Hardware Schaltungen können diese Netzwerke erhebliche Rechenleistungen erzielen.
Durch ihren Aufbau ermöglichen sie eine parallele Daten- und Signalverarbeitung.
Eine Einführung in CNN wird gegeben und das EyeRIS 1.1 Systems des Unternehmens ANAFOCUS Ltd. vorgestellt.
Das EyeRIS 1.1 System ist mit einem analog arbeitenden Focal Plane Prozessor (FPP) und einem digitalen Prozessor ausgestattet, wobei der Focal Plane Prozessor auch als Kamera zur Aufnahme von Bildern und Bildsequenzen benutzt werden kann.
Dies ermöglicht es, analoge CNN-Algorithmen zusammen mit digitalen Algorithmen auf einem System zu implementieren und so die Vorteile beider Ansätze zu nutzen. Der Datenaustausch zwischen dem analogen und digitalem Teil des EyeRIS 1.1 Systems geschieht mittels digital/analog und analog/digital Wandlung. Es werden Algorithmen auf dem EyeRIS 1.1 System untersucht und mit Ergebnissen die mittels Simulationen erzeugt wurden verglichen.
In Voruntersuchungen werden die Darstellungsgenauigkeit von Werten im analogen Teil des EyeRIS 1.1 Systems und die Verarbeitungsgeschwindigkeiten des EyeRIS 1.1 Systems untersucht.
Im Weiteren wird besonderes Augenmerk auf medizinische und technische Anwendungsgebiete gelegt werden.
Im medizinischen Anwendungsbereich wird die Implementierung von Algorithmen zur Vorhersage epileptischer Anfälle untersucht.
Hierfür wird ein evolutionär motiviertes Optimierungsverfahren entwicklet und auf dem EyeRIS 1.1-System implementiert.
Hierbei werden Simulationen durchgeführt und mit Ergebnissen, die mittels Verwendung des EyeRIS 1.1 Systems erlangt wurden, verglichen.
Ein zweites Verfahren geht die Signalanalyse für die Vorhersage auf dem EyeRIS 1.1-System mittels Mustererkennung an.
Das Mustererkennungsverfahren wird eingehend beschrieben sowie die hierbei zu beachtenden Randbedingungen erläutert.
Die Ergebnisse zeigen, daß Algorithmen zur Vorhersage von epileptischen Anfällen auf schaltungstechnichen Realisierungen von CNN implementiert werden können.
Im technischen Bereich wird die Anwendbarkeit auf die Problemstellung der Bildverarbeitung gelegt und die Möglichkeit von CNN basierten Algorithmen zur Erkennung von Prozessparametern bei Laserschweißverfahren untersucht. Ein solcher Prozessparameter ist das sogenannte Key-Hole, welches in Bildsequenzen von Laserschweißprozessen als ein Maß für die zu erwartende Qualität einer Schweißnaht herangezogen werden kann. Ein CNN basierter Algorithmus für die Erkennung solcher Key-Holes wird in dieser Arbeit vorgestellt und untersucht.
Für die Überwachung eines Laserschweißverfahrens wird der entwickelte Algorithmius und seine Funktionsweise beschrieben.
Dieser wird in Teilalgorithmen auf die analog bzw. digital arbeitenden Komponenten des EyeRIS 1.1 Systems verteilt.
Die Teilalgorithmen und die möglichen Aufteilungen und deren Laufzeitverhalten werden beschrieben und untersucht.
Die Ergebnisse der Untersuchung zeigen, daß eine Prozessüberwachung mittels CNN möglich ist und heben die Vorteile hervor, welche die Bildaufnahme und -verarbeitung mittels analoger CNN-Hardware bietet.
Eine Untersuchung des Laufzeitverhaltens auf Grafikkarten Prozessoren (GPU's) wird im Anhang vorgestellt.
Quarkonia are very promising probes to study the quark-gluon plasma. The essential baseline for measurements in heavy-ion collisions is high-precision data from proton-proton interactions. However, the basic mechanisms of quarkonium hadroproduction are still being debated. The most common models, the Color-Singlet Model, the non-relativistic QCD approach and the Color-Evaporation Model, are able to describe most of the available cross-section data, despite of their conceptual differences. New measures, such as the polarization, and data at a new energy regime are crucial to test the competing models. Another issue is an eventual interplay between the production process of a quarkonium state and the surrounding pp event. Current Monte Carlo event generators treat the hard scattering independently from the rest of the so-called underlying event. The investigation of possible correlations with the pp event might be very valuable for a detailed understanding of the production processes. ALICE ist the dedicated heavy-ion experiment at the LHC. Its design has been optimized for high-precision measurements in very high track densities and down to low transverse momenta. ALICE is composed of various different detectors at forward and at central rapidities. The most important detectors for this study are the Inner Tracking System and the Time Projection Chamber, allowing to reconstruct and identify electron candidate tracks within eta < 0.9. The Transition Radiation Detector has not been utilized at this stage of the analysis; however, it will strongly improve the particle identification and provide a dedicated trigger in the upcoming beam periods. ...
The intriguing effects of electroweak induced parity violation (PV) in molecules have yet to be observed, but experiments on molecular PV promise to provide fascinating insights. They potentially offer a novel testing ground for the low energy sector of the standard model and, in addition, a successful measurement of PV differences between the two enantiomers of a chiral molecule could promote a deeper understanding of molecular chirality, by essentially establishing a new link between particle physics and biochemistry. A key challenge in the design of such experiments is the identification of suitable molecules, which in turn requires widely applicable computational schemes for the prediction of PV experimental signals. To this end, a quasirelativistic density functional theory approach to the calculation of PV effects in nuclear magnetic resonance (NMR) spectra of chiral molecules has been developed and implemented during the course of this thesis. It includes relativistic as well as electron--correlation effects and has been used extensively in the screening of molecules possibly suited for a first observation of molecular PV. Some relevant compound classes have been identified, but none of their selected representatives are predicted to exhibit PV NMR frequency shifts that can be detected under current experimental restrictions. In order to advance the design of molecules which exhibit particularly large PV signals in experiments, systematic effects on PV NMR frequency splittings such as scaling with nuclear charge, conformational dependence and the impact of atomic substitution around the NMR active nucleus have been studied. Previously predicted scaling laws were confirmed and it was determined that the environment of the NMR active nucleus, both in terms of conformation and atomic composition, can be tuned to increase PV frequency shifts by several orders of magnitude. In addition to molecules suited for NMR experiments, a fascinating chiral actinide compound was studied with regard to PV frequency shifts in vibrational spectra. This compound displays the largest such shift ever predicted for an existing molecule, which lies well within the attainable experimental resolution. The challenge now lies in making it compatible with current experimental setups.
In den letzten Jahren haben die Forschungsaktivitäten im Bereich Thermoelektrik stetig zugenommen. Das neu erweckte Interesse an der Thermoelektrik ist zurückzuführen auf neue nanostrukturierte Materialien, Quantenschicht-Strukturen und Nanodrähte, welche
eine wesentliche Steigerung der thermoelektrischen Effektivität Z im Vergleich zum Massivmaterial versprechen. Für Nanodrähte ist die größte Steigerung der thermoelektrischen Effektivität zu erwarten. Zur Bestätigung der Theorie bedarf es neuer Messmethoden zur Bestimmung des Seebeck-Koeffizienten S, der elektrischen Leitfähigkeit σ und der Wärmeleitfähigkeit λ, um hieraus eine Steigerung der thermoelektrischen Effektivität Z = (Sexp2)σ/λ experimentell zu bestätigen.
Der Schwerpunkt der Doktorarbeit lag in der Untersuchung thermoelektrischer Eigenschaften von Nanodrähten. Hierzu wurden neueMessmethoden zur Bestimmung der elektrischen und thermischen Leitfähigkeit von Nanodrähten entwickelt.
Die elektrische und thermische Leitfähigkeit von Pt-Nanodrähten wurden mit dem in dieser Arbeit entwickelten λ-Chip gemessen. Die elektrische Leitfähigkeit der Pt-Nanodrähte ist im Vergleich zum Massivmaterial entsprechend der klassischen Size-Effekt-Theorie reduziert. Ebenso wurde eine Abnahme der Wärmeleitfähigkeit beobachtet. Die Ergebnisse stimmen mit den im Rahmen der klassischen Size-Effekt-Theorie zu erwartenden Resultaten gut überein, jedoch bedarf die Reduzierung der Lorenz-Zahl noch einer theoretischen Erklärung.
Im Weiteren wurde die elektrische Leitfähigkeit von BixTe1-x und BixSb1-x-Nanodrähten mit dem λ-Chip bestimmt. Hierzu wurden zunächst unterschiedliche Kontaktmaterialien getestet, um die Diffusion des Kontaktmaterials in den Nanodraht auszuschließen. Als bewährtes Kontaktmaterial stellte sich ein Schichtsystem aus Titan und Gold heraus. Die Ti-Schicht wirkt hierbei als Diffusionsbarriere und Haftvermittler-Schicht. Die Wärmeleitfähigkeit der Bi-haltigen Nanodrähte konnte mit dem λ-Chip nicht gemessen werden, da die Unterätzung der Nanodrähte mittels reaktivem Ionenätzen die Nanodrähte angriff. Als Alternative können die Nanodrähte auf dem λ-Chip mit einem fokusierten Ionenstrahl unterätzt werden. Der Aufwand hierzu ist jedoch relativ hoch und diese Alternative wurde deshalb nicht weiter verfolgt. Als weitere Alternative wurde der Z-Chip entwickelt. Hierbei werden die Nanodrähte auf den fertigen Chip aufgebracht und mittels Elektronenstrahl-induzierter Deposition an den elektrischen Kontakten fixiert. Der Chip ermöglicht die Messung der elektrische Leitfähigkeit in 4-Punkt-Anordnung, der Wärmeleitfähigkeit und des Seebeck-Koeffizienten an
einem einzelnen Nanodraht. Somit ist die Bestimmung der thermoelektrischen Effektivität an einem Nanodraht möglich. DesWeiteren wurden die theoretischen Grundlagen zur Bestimmung der Wärmekapazität an einzelnen Nanodrähten mit dem Z-Chip präsentiert. Zum Zeitpunkt der Durchführung dieser Arbeit fehlte jedoch das notwendige Equipment zur Ausführung der Wärmekapazitätsmessung an einzelnen Nanodrähten.
Des Weiteren wurde die Cross-Plane Methode zur Bestimmung der Wärmeleitfähigkeit an eingebetteten Nanodrähten entwickelt. Analog der Messmethode, welche für die Einzeldrahtmessungen verwendet wird, handelt es sich hierbei um eine stationäre „Joule-Heating“ Methode. Die Temperaturdifferenz wird aus der Widerstandsänderung einer auf die eingebetteten Nanodrähte aufgebrachten Heizschicht bestimmt.Mit derMethode wurde die Wärmeleitfähigkeit von BixTe1-x-Nanodrähten ermittelt.
Die elektrische Leitfähigkeit wurde von BixTe1-x-Nanodrähten unterschiedlicher Zusammensetzung und Herstellungsparameter mit dem λ- und dem Z-Chip bestimmt. Die gemessenen Nanodrähte zeigen sowohl intrinsisches wie extrinsisches Leitungsverhalten verbunden mit einer, im Vergleich zum Volumenmaterial, reduzierten Temperaturabhängigkeit der elektrischen Leitfähigkeit infolge von Oberflächen- und Korngrenzenstreuung der Ladungsträger. Die elektrischen Leitfähigkeitsmessungen stimmen mit Beobachtungen anderer Gruppen gut überein.
Die Wärmeleitfähigkeit konnte an einem einzelnen BixTe1-x-Nanodraht und an eingebetteten BixTe1-x-Nanodrähten gemessen werden. Die Wärmeleitfähigkeit ist gegenüber dem Massivmaterial reduziert. Die Ergebnisse sind in guter Übereinstimmung mit bisher publizierten Ergebnissen von Bismuttellurid-Nanodrähten.
In der modernen Festkörperphysik spielen elektronisch stark korrelierte Systeme mit ihrem komplexen Vielteilchenverhalten eine zentrale Rolle. Insbesondere das Wechselspiel zwischen thermischen und Quantenfluktuationen in den Ladungs- und Spinfreiheitsgraden führt zur Entstehung verschiedenster neuartiger Grundzustände.
Die vorliegende Dissertation „Ultrasonic and Magnetic Investigations in frustrated Lowdimensional Spin Systems“ beschäftigt sich mit den besonderen physikalischen Eigenschaften niedrig dimensionaler Spinsysteme. Diese Materialklasse, die auch zu den stark korrelierten Systemen zählt, wird seit vielen Jahren intensiv sowohl experimentell als auch theoretisch untersucht. Auf theoretischer Seite sind die niedrigdimensionalen Spinsysteme besonders interessant, da sie als Modellsysteme die exakte Beschreibung des Grundzustandes und des Anregungsspektrums ermöglichen. Von experimenteller Seite ist es in den letzten Jahrzehnten gelungen, verschiedenste Materialklassen niedrigdimensionaler Spinsysteme zu synthetisieren.
In der vorliegenden Arbeit werden die grundlegenden Theorien und physikalischen Konzepte niedrigdimensionaler Spinsysteme diskutiert. Insbesondere auch die Spin-Phonon-Wechselwirkung dieser Materialien, die für die hier beobachteten elastischen Anomalien verantwortlich ist. Weiterhin wird auch das elastische Verhalten bei magnetischen Phasenübergängen beschrieben.
Da die Ultraschallexperimente einen Schwerpunkt dieser Arbeit bilden, wird der Versuchsaufbau zur phasenempfindlichen Detektion von Schallgeschwindigkeit und Ultraschalldämfung ausführlich beschrieben. Diese Messmethode ist ideal zur Untersuchung der Spin-Phonon Wechselwirkung geeignet.
In this thesis, we have investigated strongly correlated bosonic gases in an optical lattice, mostly based on a bosonic version of dynamical mean field theory and its real-space extension. Emphasis is put on possible novel quantum phenomena of these many-body systems and their corresponding underlying physics, including quantum magnetism, pair-superfluidity, thermodynamics, many-body cooling, new quantum phases in the presence of long-range interactions, and excitational properties. Our motivation is to simulate manybody phenomena relevant to strongly correlated materials with ultracold lattice gases, which provide an excellent playground for investigating quantum systems with an unprecedented level of precision and controllability. Due to their high controllability, ultracold gases can be regarded as a quantum simulator of many-body systems in solid-state physics, high energy astrophysics, and quantum optics. In this thesis, specifically, we have explored possible novel quantum phases, thermodynamic properties, many-body cooling schemes, and the spectroscopy of strongly correlated many-body quantum systems. The results presented in this thesis provide theoretical benchmarks for exploring quantum magnetism in upcoming experiments, and an important step towards studying quantum phenomena of ultracold gases in the presence of long-range interactions.
This thesis has light mesons and their vacuum interactions as its topic. In particular, the work examines the question where the scalar antiquark-quark states are found in the physical spectrum -- in the energy region below or above 1 GeV. Contrary to the naive expectation, the mentioned states are found in the region above 1 GeV. This has consequences for the building of order parameters for the chiral symmetry breaking of Quantum Chromodynamics (QCD).
Towards a THz Bloch laser
(2011)
The realisation of tunable THz laser sources working at room temperature would give
rise to further applications in this range of the electromagnetic spectrum. The THz
Bloch laser could therefore become the basis for a technological breakthrough. Beside
this practical relevance, the physics of the gain mechanism has been investigated
theoretically for a long time and the experimental implementation of a self-starting
laser still has not been achieved.
At the beginning of this thesis the basic principles of Bloch oscillations and the
related Bloch gain are described. The need of a superlattice structure to make Bloch
oscillations possible in a semiconductor material is discussed. In this context, the effect
of negative differential resistance and its influence on the field distribution due to Gunn
domains is explained. The latter lead to an inhomogeneous field which may suppress
the Bloch gain mechanism. The Krömer criterion is introduced and the concept of
field-pinning layers to improve the field homogeneity is deduced. Finally, the design of
the laser material is shown and different types of laser waveguides are compared.
In chapter 3 detailed recipes for the processing of samples are given. Different types of
contacts (ohmic and Schottky), the wafer bonding process required for double-metal
lasers and the application of different photoresists for different purposes are described.
An explanation of the formation of waveguides due to dry etching, wet etching
and ion implantation follows. Dry etching is an established technique in the field
of microstructure processing but the challenge of etching about 20 μm has led to
problems. The high etching depth also makes wet etching difficult but this method
could be improved due to a hard bake of the photoresist. The protection of critical
areas on the surface of the samples with photoresist during ion implantation was
increased by optimising the spin coating process. However, a full implantation of the
active layer between the waveguides was not achieved which was the reason for the
development of the hybrid technology. Here a prior wet etching of about 10 μm is
performed and the rest of the material is implanted.
The experimental setup is shown in chapter 4. An alternative method for the electrical
contacting with the help of a copper bar is introduced. This improves the current
distribution and the risk of an electrical breakdown during the measurements could
therefore be lowered. Devices for THz beam guidance and spectroscopic measurements
are shown and the method of biasing the samples with pulses below 100 ns and
determining the effective voltage applied to the sample is depicted. These short pulses
are required to prevent the samples heating up drastically due to high power.
Chapter 5 contains the current-voltage characterisation of several structures including
I-V-samples, Bloch laser samples and a quantum cascade laser. Different contacts
(ohmic and Schottky) and different techniques for the formation of the ridges have
been used in the processing of these samples (performed at the University of Frankfurt
in all cases) and their influence on the I-V-dependence is discussed. The properties of
the THz emission of the quantum cascade laser are in good agreement with published
results from lasers processed with the same material. Another important result of
this chapter is that the Bloch laser samples show unstable behaviour compared to the
quantum cascade structure even with short pulses (of about 10 ns) where the risk of an
electrical breakdown or the building of filaments is low. THz radiation emitted from
one of the Bloch laser samples could not be observed.
Two aspects that may have prevented the Bloch laser to emit are discussed in
chapter 6. The saturation of the gain for higher amplitudes of the THz wave is
investigated in single mode and multiple mode operation (the latter could occur due
to the Bloch gain being expected to be broadband). In both cases it is shown that
the saturation effect would limit the output power only to values clearly above the
detection limit. In the subsequent section the distribution of the electric field is
simulated with SILVACO software. Structures with transit layer lengths above the
Krömer criterion are compared with structures which include field-pinning layers. It is
shown that the latter are useful to avoid propagating Gunn domains as they build up
in similar structures without field-pinning layers. Nevertheless, the electric field inside
the superlattice regions is not stable. Beside spatial inhomogeneities also temporal
variations of the field magnitude are observed. The lack of a suitable field distribution
is expected to be the main reason for the samples not to work.
The subject of this thesis aimed at a better understanding of the spectacular X-ray burst. The most likely astrophysical site is a very dense neutron star, which accretes H/He-rich matter from a close companion. While falling towards the neutron star, the matter is heated up and a thermonuclear runaway is ignited. The exact description of this process is dominated by the properties of a few proton-rich radioactive isotopes, which have a low interaction probability, hence a high abundance.
The topic of this thesis was therefore an investigation of the short-lived, proton-rich isotopes 31Cl and 32Ar. The Coulomb dissociation method is the modern technique of choice. Excitations with energies up to 20 MeV can be induced by the Lorentz contracted Coulomb field of a lead target. At the GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt, Germany, a Ar beam was accelerated to an energy of 825 AMeV and fragmented in a beryllium target. The fragment separator was used to select the desired isotopes with a remaining energy of 650 AMeV. They were subsequently directed onto a 208 Pb target in the ALAND/LAND setup. The measurement was performed in inverse kinematics. All reaction products were detected and inclusive and exclusive measurements of the respective Coulomb dissociation cross sections were possible.
During the analysis of the experiment, it was possible to extract the energy-differential excitation spectrum of 31Cl, and to constrain astrophysically important parameters for the time-reversed 30S(p,γ)31Cl reaction. A single resonance at 0.443(37) MeV dominates the stellar reaction rate, which was also deduced and compared to previous calculations.
The integrated Coulomb dissociation cross section of this resonance was determined to 15(6) mb. The astrophysically important one- and two-proton emission channels were analyzed for 32Ar and energy-differential excitation spectra could be derived. The integrated Coulomb dissociation cross section for two proton emission were determined with two different techniques. The inclusive measurement yields a cross section of 214(29stat)(20sys) mb, whereas the exclusive reconstruction results in a cross section of 226(14stat)(23sys) mb. Both results are in very good agreement. The Coulomb dissociation cross section for the one-proton emission channel is extracted solely from the exclusive measurement and is 54(8stat)(6sys) mb.
Furthermore, the development of the Low Energy Neutron detector Array (LENA) for the upcoming R3B setup is described. The detector will be utilized in charge-exchange reactions to detect the low-energy recoil neutrons from (p,n)-type reactions. These reaction studies are of particular importance in the astrophysical context and can be used to constrain half lifes under stellar conditions. In the frame of this work, prototypes of the detector were built and successfully commissioned in several international laboratories.
The analysis was supported by detailed simulations of the detection characteristics.
In this thesis I use effective models to investigate the properties of QCD-like theories at nonzero temperature and baryon chemical potential. First I construct a PNJL model using a lattice spin model with nearestneighbor interactions for the gauge sector and four-fermion interactions for the quarks in (pseudo)real representations of the gauge group. Calculating the phase diagram in the plane of temperature and quark chemical potential in QCD with adjoint quarks, it is qualitatively confirmed that the critical temperature of the chiral phase transition is much higher than the deconfinement transition temperature. At a chemical potential equal to half of the diquark mass in the vacuum, a diquark Bose–Einstein condensation (BEC) phase transition occurs. In the two-color case, a Ginzburg–Landau expansion is used to study the tetracritical behavior around the intersection point of the deconfinement and BEC transition lines which are both of second order. A compact expression for the expectation value of the Polyakov loop in an arbitrary representation of the gauge group is obtained for any number of colors, which allows us to study Casimir scaling at both nonzero temperature and chemical potential. Subsequently I study the thermodynamics of two-color QCD (QC2D) at high temperature and/or density using ZQCD, a dimensionally reduced superrenormalizable effective theory, formulated in terms of a coarse grained Wilson line. In the absence of quarks, the theory is required to respect the Z2 center symmetry, while the effects of quarks of arbitrary masses and chemical potentials are introduced via soft Z2 breaking operators. Perturbative matching of the effective theory parameters to the full theory is carried out explicitly, and it is argued how the new theory can be used to explore the phase diagram of two-color QCD.
Thermal expansion measurements provide a sensitive tool for exploring a material's thermodynamic
properties in condensed matter physics as they provide useful information
on the electronic, magnetic and lattice properties of a material. In this thesis, thermal
expansion measurements have been carried out both at ambient-pressure and under hydrostatic
pressure conditions. From the materials point of view, the spin-liquid candidate
Kappa-(BEDT-TTF) 2 Cu 2(CN)3 has been studied extensively as a function of temperature and
magnetic field. Azurite, Cu 3 (CO 3) 2 (OH) 2 - a realization of a one-dimensional distorted
Heisenberg chain is also studied both at ambient and hydrostatic pressure to demonstrate
the proper functioning of the newly built setup "thermal expansion under pressure". ...
Seit Anbeginn der Festkörperphysik ist die Frage, warum manche Materialien metallisch sind, andere dagegen isolierend, von zentraler Bedeutung. Eine erste Erklärung wurde durch die Bändertheorie [23, 44] gegeben. Die Elektronen sind dem periodischen Potential der Rumpfatome ausgesetzt, wodurch ein Energiespektrum bestehend aus Bändern erzeugt wird und die Füllung dieser Bänder bestimmt die Leitungseigenschaften des Festkörpers. ...
Interacting ultracold gases in optical lattices: non-equilibrium dynamics and effects of disorder
(2012)
This dissertation aims at giving a theoretical description of various applications of ultracold gases. A particular focus is cast upon the dynamical evolution of bosonic condensates in non-equilibrium by means of the time-dependent Gutzwiller method. Ground state properties of strongly interacting fermionic atoms in box and speckle disordered lattices are investigated via real-space dynamical mean-field theory. ...
The first measurement of the fluctuation of the kaon-to-proton ratio in relativistic heavy-ion collisions is presented. This thesis details the analysis procedure for identifying kaons and protons using the NA49 experiment at CERN-SPS and discusses the results in the context of the current state of the field.
The miniaturization of electronics is reaching its limits. Structures necessary to build integrated circuits from semiconductors are shrinking and could reach the size of only a few atoms within the next few years. It will be at the latest at this point in time that the physics of nanostructures gains importance in our every day life. This thesis deals with the physics of quantum impurity models. All models of this class exhibit an identical structure: the simple and small impurity only has few degrees of freedom. It can be built out of a small number of atoms or a single molecule, for example. In the simplest case it can be described by a single spin degree of freedom, in many quantum impurity models, it can be treated exactly. The complexity of the description arises from its coupling to a large number of fermionic or bosonic degrees of freedom (large meaning that we have to deal with particle numbers of the order of 10^{23}). An exact treatment thus remains impossible. At the same time, physical effects which arise in quantum impurity systems often cannot be described within a perturbative theory, since multiple energy scales may play an important role. One example for such an effect is the Kondo effect, where the free magnetic moment of the impurity is screened by a "cloud" of fermionic particles of the quantum bath.
The Kondo effect is only one example for the rich physics stemming from correlation effects in many body systems. Quantum impurity models, and the oftentimes related Kondo effect, have regained the attention of experimental and theoretical physicists since the advent of quantum dots, which are sometimes also referred to as as artificial atoms. Quantum dots offer a unprecedented control and tunability of many system parameters. Hence, they constitute a nice "playground" for fundamental research, while being promising candidates for building blocks of future technological devices as well.
Recently Loss' and DiVincenzo's p roposal of a quantum computing scheme based on spins in quantum dots, increased the efforts of experimentalists to coherently manipulate and read out the spins of quantum dots one by one. In this context two topics are of paramount importance for future quantum information processing: since decoherence times have to be large enough to allow for good error correction schemes, understanding the loss of phase coherence in quantum impurity systems is a prerequisite for quantum computation in these systems. Nonequilibrium phenomena in quantum impurity systems also have to be understood, before one may gain control of manipulating quantum bits.
As a first step towards more complicated nonequilibrium situations, the reaction of a system to a quantum quench, i.e. a sudden change of external fields or other parameters of the system can be investigated. We give an introduction to a powerful numerical method used in this field of research, the numerical renormalization group method, and apply this method and its recent enhancements to various quantum impurity systems.
The main part of this thesis may be structured in the following way:
- Ferromagnetic Kondo Model,
- Spin-Dynamics in the Anisotropic Kondo and the Spin-Boson Model,
- Two Ising-coupled Spins in a Bosonic Bath,
- Decoherence in an Aharanov-Bohm Interferometer.
Untersuchung von Korrelationseffekten in der Doppelphotoemission von normal- und supraleitendem Blei
(2012)
Im Rahmen dieser Arbeit wurde für die erstmalige Untersuchung der Doppelphotoemission von supraleitenden Materialien eine neue Messapparatur aufgebaut. Mit ihr lassen sich auf eine neue Weise Korrelationseffekte zwischen zwei Elektronen untersuchen, denn beide werden für jedes Reaktionsereignis mit ihrem vollständigen Impulsvektor aufgezeichnet. Die Apparatur kann daher für einen direkten Nachweis der Cooperpaarung in Supraleitern verwendet werden. Dazu wurden ein speziell für diesen Zweck angepasstes Spektrometer, Vakuumsystem und Probenhalter konstruiert. Ein mehrfach verbessertes Vakuumsystem sorgte dafür, dass eine Bleioberfläche über einen Zeitraum von mindestens 15 Stunden nach einer Reinigung gemessen werden konnte. Das Spektrometer erlaubte die koinzidente Messung von Elektronen über einen großen Raumwinkelbereich mit ausschließlich elektrischen Feldern. Dadurch war es auch im supraleitenden Zustand möglich, die Trajektorien der Elektronen zu berechnen. Die Energieauflösung für jedes Elektron lag zwischen 1/30 und 1/50, je nach untersuchtem Emissionswinkel. Ein eigens entwickelter Probenhalter erlaubte es, eine nur von einer Seite thermisch abgeschirmte Probe auf eine Temperatur von 4,5 K zu kühlen. Die Experimente wurden an einer Beamline des Berliner Synchrotrons BESSY durchgeführt.
Von entscheidender Bedeutung für die Auswertung der Daten ist die Qualität der Pulserkennungsroutine. Sie bestimmt die Totzeit der Messapparatur, das heisst wie nahe zwei Elektronen zeitlich und räumlich beieinander liegen dürfen, um noch detektiert zu werden. Sie beeinflusst somit die Beobachtung erheblich. In den als digitalisierte Pulse aufgenommen Rohdaten besteht die Schwierigkeit darin, zwei übereinander liegende Signale als solche zu erkennen und die richtige Zeit beider Signale zu bestimmten. Dies wurde erheblich verbessert, indem ein in Vorabeiten simulierter Doppelpulsalgorithmus modifiziert und erstmalig verwendet wurde. In der Folge konnte die Totzeit deutlich verringert und daher bis zu 20% mehr Doppelereignisse gefunden werden. Darüber hinaus ließen sich Fehler bei der Zeiterkennung nahe aufeinander folgender Pulse korrigieren. Ein in diesem Zusammenhang entwickeltes Programm erzeugte durch die Addition von gemessenen Einzelpulsen künstliche Doppelereignisse mit beliebiger Abstandsverteilung und erlaubte so erstmals eine exakte Simulation der Detektortotzeit mit verschiedenen Pulserkennungsalgorithmen.
Neben den Koinzidenzereignissen wurden auch die Ergebnisse der gewöhnlichen Photoemission untersucht und mit Bandstrukturrechnungen verglichen. Aufgrund der Messmethode wurde keine Vorauswahl bezüglich des Emissionswinkels oder der kinetischen Energie getroffen. Die Ergebnisse der Fermiflächen stimmen innerhalb der erreichten Auflösung mit den theoretischen Vorhersagen überein. Ebenso konnten die Strukturen in den Parallelimpulsspektren der Elektronen, die aus lokalisierten Energieniveaus emittiert wurden, mit der Interferenz der ausgehenden Wellenfunktionen erklärt werden. Eine Simulation dieses Effekts lieferte trotz der vergleichsweise sehr niedrigen Elektronenenergien eine gute Übereinstimmung der wesentlichen Merkmale.
Es wurden Doppelphotoemissionspektren von Blei bei verschiedenen Photonenenergien im Bereich von 21,22 eV bis 40 aufgenommen. Dabei konnten verschiedene Emissionskanäle identifiziert werden. Das Korrelationsloch ist ein sehr grundlegender Effekt, der aufgrund der Coulombabstoßung und des Pauli-Prinzips auftritt und daher bei allen Metallen vorkommt. Betrachtet man das Korrelationsloch im Impulsraum, so führt es dazu, dass zwei gleichzeitig emittierte Elektronen keine ähnlichen Impulsvektoren besitzen dürfen. Durch die verbesserten Pulserkennungsalgorithmen war es möglich, das Korrelationsloch zu untersuchen und über einen weiten Energiebereich zu vermessen. Es zeigte sich wie erwartet als Verarmungszone in der Impulsverteilung eines Elektrons um den Impuls eines zweiten. Ein solcher Effekt ist mit einem einzelnen Detektor sehr schwer zu messen, da die Totzeit die gleiche Auswirkung auf die Spektren hat. Durch eine Simulation konnte ihr Einfluss in jedem Spektrum herausgefunden und so beide Effekte voneinander getrennt werden. Sie stehen damit für einen Vergleich mit einer noch zu entwickelnden theoretischen Vorhersage zur Verfügung.
Aufgrund der bei Blei sehr nahe an der Fermikante liegenden, lokalisierten Energieniveaus konnte der Augerzerfall aus dem Valenzband identifiziert und untersucht werden. Korrelationseffekte zwischen den beiden Elektronen spielten aufgrund des sehr breiten Valenzbandes wie erwartet eine untergeordnete Rolle. Dies ließ sich nachweisen, indem die Energieverteilung durch eine Selbstfaltung der Valenzbandzustandsdichte beschrieben wurde und die Winkelverteilung der Augerelektronen keine Beeinflussung durch die Emissionsrichtung der Photoelektronen zeigte. Beide Beobachtungen deuten auf einen vollständig unabhängigen Emissionsprozess der beiden Elektronen hin. Überraschenderweise zeigte sich aber eine Energieverschiebung des Photoelektrons, abhängig von der kinetischen Energie des Augerelektrons. Dieser in der Gasphase als Post-Collision-Interaction bekannte Effekt sollte aufgrund der schnellen Abschirmung der im Festkörper zurückbleibenden Löcher nicht auftauchen. Die Ursache für die Energieverschiebung ist noch unbekannt.
Für die Identifizierung der Emission von Cooperpaaren wurden Messungen oberhalb und unterhalb der Sprungtemperatur bei verschiedenen Photonenenergien zwischen 20 eV und 40 eV durchgeführt. Verschiedene Spektren wurde nach der Signatur des Prozesses untersucht. Aufgrund der geringen Statistik konnte er nicht identifiziert werden. Demnach konnte auch die theoretische Vorhersage nicht widerlegt werden. Da dieses Experiment aus technischer Sicht äußerst herausfordernd ist, war die Untersuchung von Blei, als einfach zu präparierendes Material mit hoher Sprungtemperatur, naheliegend. Es stellte sich jedoch durch die Auswertung heraus, dass es im Hinblick auf die untersuchte Fragestellung einen wesentlichen Nachteil besitzt. Die Hauptintensität befindet sich im Gegensatz zu Kupfer für alle hier verwendeten Photonenenergien bei niedrigen Elektronenenergien, so dass nur wenige Ereignisse in dem für die Cooperpaaremission interessanten Energiefenster liegen.
The study of meson production in proton-proton collisions in the energy range
up to one GeV above the production threshold provides valuable information about
the nature of the nucleon-nucleon interaction. Theoretical models describe the interaction
between nucleons via the exchange of mesons. In such models, different
mechanisms contribute to the production of the mesons in nucleon-nucleon collisions.
The measurement of total and differential production cross sections provide information
which can help in determining the magnitude of the various mechanisms.
Moreover, such cross section information serves as an input to the transport calculations
which describe e.g. the production of e+e− pairs in proton- and pion-induced
reactions as well as in heavy ion collisions.
In this thesis, the production of ω and η mesons in proton-proton collisions at 3.5
GeV beam energy was studied using the High Acceptance DiElectron Spectrometer
(HADES) installed at the Schwerionensynchrotron (SIS 18) at the Helmholtzzenturm
f¨ur Schwerionenforschung in Darmstadt.
About 80 000 ω mesons and 35 000 η mesons were reconstructed. Total production
cross sections of both mesons were determined. Furthermore, the collected statistics
allowed for extracting angular distributions of both mesons as well as performing
Dalitz plot studies.
The ω and η mesons were reconstructed via their decay into three pions (π+π−π0)
in the exclusive reaction pp −→ ppπ+π−π0. The charged particles were identified
via their characteristic energy loss, via the measurement of their time of flight and
momentum, or using kinematics.
The neutral pion was reconstructed using the missing mass method. A kinematic
fit was applied to improve the resolution and to select events in which a π0 was
produced.
The correction of measured yields for the effects of spectrometer acceptance was done
as a function of four variables (two invariant masses and two angles). Systematic
studies of the acceptance for different input distributions were performed.
The measured yields were normalized to the number of measured events of elastic
scattering. Systematic errors due to the methods of the data analysis and the
background subtraction were investigated.
Production angular distributions of ω and η mesons were measured. Both mesons
exhibit a slightly anisotropic angular distribution.
The Dalitz plot of ω meson production shows indications of resonant production.
However, the deviation of the distribution from the one expected by phase space
simulations is not large.
The Dalitz plot of η meson production shows a signal of the production via the
N(1535) resonance, The contribution of N(1535) to the production was quantified
to be about 47%. The angular distribution of η mesons does not show significant
differences between resonant and non resonant production.
The total production cross section of ω mesons in the reaction pp −→ ppω was
determined to be 106.5 ± 0.9 (stat) ± 7.9 (sys) [μb] where stat indicates statistical
error and sys indicates systematic error, while that of η mesons was determined to
be 136.9 ± 0.9 (stat) ± 10.1 (sys) [μb] in the reaction pp −→ ppη
Ende der 70ger Jahre, fünf Jahre nach der Einführung des ersten kommerziellen, medizinischen Computertomographen wurde die Tomographie am Los Alamos Scientific Laboratory zum ersten Mal für die Diagnose von Teilchenstrahlen angewendet. Bei der Tomographie wird aus eindimensionalen Projektionen, sogenannten Profilen, welche in möglichst vielen Winkeln um ein Objekt herum aufgenommen werden, ein zweidimensionales Abbild der Dichteverteilung (Slice oder Scheibe) approximiert. Dies ist möglich durch das bereits 1917 von Johann Radon eingeführte Fourier-Scheiben-Theorem. In der Theorie kann die zwei-dimensionale Dichteverteilung exakt ermittelt werden, wenn Projektionen mit einer unendlich feinen Auflösung über unendlich viele Winkel um ein Objekt herum in die Rekonstruktion einbezogen werden. Durch die Rekonstruktion vieler Scheiben kann ein drei-dimensionales Abbild der Dichteverteilung in einem Objekt, in diesem Fall einem Ionenstrahl, berechnet werden, sofern dieses nicht optisch dicht ist.
Die Profile in der nicht-invasiven Strahldiagnose entstehen durch CCD-Kameraaufnahmen von strahlinduzierter Fluoreszenz, welche durch den Einlass von Restgas hervorgerufen wird. Es sind aber auch Profile, welche aus anderen Methoden gewonnen werden (z.B. Gittermessungen) denkbar. An Orten mit hoher Energie ist jedoch eine nicht-invasive Form der Profilaufnahme sowohl für die Qualität des Strahls, wie auch den Schutz der Messgeräte unabdingbar.
In den letzten 40 Jahren wurden im Bereich der Strahltomographie viele wichtige Fortschritte erzielt:
1. Anfangs standen nur sehr wenige Profile zur Verfügung, so dass die Methode der gefilterten Rückprojektion(FBP), welche sich direkt aus dem Fourier-Scheiben-Theorem ableitet und welches auch in der Medizin verwendet wird, nicht angewendet werden kann. Um dieses Problem zu lösen wurden iterative Methoden wie die Algebraische Rekonstruktion (ART) und die Methode der Maximalen Entropie (MEM) für die Strahltomographie erschlossen, so dass auch mit sehr geringer Profilanzahl eine Rücktransformation möglich wurde.
2. Neben der Ortsraumtomographie wurde die Phasenraumtomografie entwickelt, so dass mittlerweile eine Rekonstruktion des sechs-dimensionalen Phasenraumes möglich ist, mit welchem ein Ionenstrahl in seiner Gesamtheit beschrieben werden kann.
3. Die Projektionen wurden lange Zeit durch Aufnahmen von mehreren festen Anschlüssen aus gewonnen (Multi-Port-Technik). Auf diese Weise ist die Anzahl der möglichen Projektionen sehr begrenzt. So entwickelte man später eine Methode welche den Strahl mit Hilfe von Quadrupolen dreht (Quad-Scan-Technik), so dass auf diese Weise von einem Anschluss aus viele Projektionen gemessen werden konnten, so dass sogar die FBP angewendet werden konnte.
4. Die meisten Bestrebungen zielten darauf ab, die Tomographie für eine nicht-invasive Emittanzmessmethode zu nutzen, welches bis heute aufgrund der großen und noch immer zunehmenden Energien in modernen Beschleunigern ein wichtiges Problem ist. Um die Tomographie zur Emittanzmessung zu verwenden, führt man eine Rekonstruktion des Phasenraumes durch. Das Problem ist, dass hierfür das a priori Wissen über die Strahltransportmatrix in die Tomographie mit einfließt, die berechnete Strahltransportmatrix
jedoch nicht mit dem tatsächlichen Strahltransport übereinstimmt, da dieser bei hohen Energien durch auftretende Raumladung nicht-linear verändert wird. Hierzu wurden gute Fortschritte in der Abschätzung der tatsächlichen Transportmatrix gemacht um die Phasenraumtomographie trotzdem mit hinreichend gutem Ergebnis durchführen zu können.
Trotz all dieser Fortschritte und Entwicklungen ist die Tomographie bis heute keine weitverbreitete Methode in der Strahldiagnose. Der Grund ist, dass das Einrichten einer Tomografie eine komplexe Abfolge etlicher Entscheidungen und weitgestreutes Wissen aus vielen unterschiedlichen Bereichen erfordert, dieser nicht zu unterschätzende Mehraufwand jedoch auch durch einen signifikanten Nutzen gerechtfertigt sein muss. Der große Nutzen der Tomographie für die Strahldiagnose und Untersuchung der Strahldynamik ist bis heute allerdings weitgehend unerkannt und weiterhin reduziert auf die Entwicklung einer nicht-invasiven Methode für die Emittanzbestimmung. Ein zweites Hindernis stellte bisher auch die Diskrepanz zwischen Genauigkeit und Platzaufwand dar (hohe Genauigkeit durch viele Projektionen mit Quad-Scan-Technik auf mehreren Metern oder niedrige Genauigkeit durch wenig Projektionen mit Multi-Port-Technik auf weniger als einem Meter). Die Tomografie kann großen Nutzen leisten für die Online-Überwachung wichtiger Maschineneparameter im Strahlbetrieb (Monitoring) als auch für detaillierte Analysen zur Strahldynamik (Modellierung) weit über die Implementierung einer nicht-invasiven Emittanzmessmethode hinaus.
Um dies zu gewährleisten Bedarf es Zweierlei. Zum einen muss die Diskrepanz zwischen Genauigkeit und Platzaufwand aufgehoben werden. Hierzu wurde im Rahmen dieser Arbeit eine rotierbare Vakuumkammer entwickelt die nach dem Vorbild medizinischer Tomographen in mehr als 5000 Winkelschritten um den Strahl herum fahren kann, dabei ein Vakuum von mindestens 10-7mbar aufrecht erhält und einen Platzbedarf von weniger als 400 mm in der Strahlstrecke einnimmt. Zum anderen muss die Implementierung der Tomografie durch eine Angabe von schematischen Schritten und Entscheidungen vereinfacht werden. Eine Strahltomographie muss immer auf ihren jeweiligen Zweck hin implementiert werden, da Einzelelemente der Tomografie wie beispielsweise Messvorrichtung und dadurch die Profilanzahl, zu verwendender Tomographiealgorithmus, zu bestimmende Parameter sich je nach Einsatz unterscheiden können. Jedoch können die dazu nötigen Entscheidungen in ein Schema eingeordnet werden, welches die Implementierung der Tomographie vereinfacht und beschleunigt. Hierzu wurde in dieser Arbeit eine Diagnosepipeline und ein Entscheidungsschema eingeführt, sowie die Implementierung nach diesem Schema am Beispiel einer Strahltomographie für die Frankfurter Neutronenquelle (FRANZ) demonstriert und die entsprechenden Fragen und Entscheidungen diskutiert. Es wird gezeigt, wie sich aus den Messdaten über die Aufbereitung der Daten durch die Tomografie die erforderlichen Standardstrahlparameter für ein Monitoring gewinnen lassen. Zusätzlich wird ein Ebenen-Modell eingeführt, über welches nicht-Standardparameter oder neu modellierte Strahlparameter für detaillierte Analysen der Strahldynamik über die Standardparameter hinaus entwickelt werden können. Diese Arbeit soll ein grundlegendes Konzept für die routinemäßige Implementierung der Tomographie in der Strahldiagnose zur Verfügung stellen. Für die Verwendung zum Monitoring im Strahlbetrieb muss die Bestimmung von Standardparametern noch wesentlich im Zeitaufwand verbessert werden. Die Verwendung der Phasenraumtomographie benötigt noch eine Idee um den arcustangensförmigen Verlauf der berechneten Phasenraumrotationswinkel mit der Forderung der FBP nach äquidistanten Projektionswinkeln verträglicher zu machen.
The objective of this work is twofold. First, we explore the performance of the density functional theory (DFT) when it is applied to solids with strong electronic correlations, such as transition metal compounds. Along this direction, particular effort is put into the refinement and development of parameterization techniques for deriving effective models on a basis of DFT calculations. Second, within the framework of the DFT, we address a number of questions related to the physics of Mott insulators, such as magnetic frustration and electron-phonon coupling (Cs2CuCl4 and Cs2CuBr4), high-temperature superconductivity (BSCCO) and doping of Mott insulators (TiOCl). In the frustrated antiferromagnets Cs2CuCl4 and Cs2CuBr4, we investigate the interplay between strong electronic correlations and magnetism on one hand and electron-lattice coupling on the other as well as the effect of this interplay on the microscopic model parameters. Another object of our investigations is the oxygen-doped cuprate superconductor BSCCO, where nano-scale electronic inhomogeneities have been observed in scanning tunneling spectroscopy experiments. By means of DFT and many-body calculations, we analyze the connection between the structural and electronic inhomogeneities and the superconducting properties of BSCCO. We use the DFT and molecular dynamic simulations to explain the microscopic origin of the persisting under doping Mott insulating state in the layered compound TiOCl.
Epileptische Anfälle, unabhängig von ihrer Art und Auftrittshäufigkeit, bilden eine Symptomatik, welche bei ca. 1% der Weltbevölkerung auftritt. Hierbei kann es beispielsweise zu unkontrollierten Muskelkrämpfen kommen, ebenso aber zu einer Vielzahl anderer Symptome, die in ihrer Gesamtheit das Krankheitsbild der sogenannten Epileptogenesis bilden. Bei etwa zwei Drittel der an Epilepsie leidenden Patienten kann in vielen Fällen Anfallsfreiheit im Rahmen einer medikamentösen Therapie erreicht werden. Dies umso besser, wenn die Medikation präventiv zum geeigneten Zeitpunkt erfolgen könnte. Demzufolge würden in einer großen Anzahl von Fällen Patienten von einem System profitieren, das eine automatisierte zuverlässige Anfallsvorhersage ermöglicht. Bei nur 20% der anderen Patienten kann eine chirurgische Behandlung erfolgreich sein.
In dieser Arbeit soll eine weitergehende Untersuchung des im Institut für Angewandte Physik der Johann Wolfgang Goethe- Universität entwickelten Prädiktionsverfahrens an verschiedenen EEG-Registrierungen unterschiedlicher Patienten erfolgen. Dabei soll im speziellen untersucht werden, ob basierend auf den Resultaten einer Signalprädiktion eine Unterscheidung zwischen Voranfallszeitraum, Anfall und anfallsfreier Phase getroffen werden kann, und ob basierend auf den Kenngrößen eines Prädiktors und des Prädiktionsfehlers eine Merkmalsdefinition gefunden werden kann, welche in einem späteren, implantierbaren Frühwarnsystem eine automatisierte Anfallsvorhersage ermöglicht. Als Datenbasis sollen vier Langzeit-EEG-Registrierungen mit einer Länge von jeweils 5 – 10 Tagen zugrunde gelegt werden. Zur Prädiktion sollen zeitdiskrete, gedächtnisbehaftete, mehrschichtige Zellulare Nichtlineare Netzwerke herangezogen werden. Dabei soll insbesondere anhand von unterschiedlichen Netzwerken festgestellt werden, inwieweit mittels einer Signalprädiktion Synchronisationseffekte zwischen EEG-Signalen verschiedener Hirnareale festgestellt werden können.
Das Antiprotonen-Experiment PANDA an der zukünftigen Beschleunigeranlage FAIR wird unter anderem Charmonium-Zustände mit einer bis dato unerreichten Genauigkeit messen können. Um dieses Ziel zu erreichen, wird eine sehr gute Teilchenidentifikationsfähigkeit verlangt. Eine gute Trennung zwischen Pionen und Kaonen wird durch den Einsatz eines Cherenkovdetektors erreicht. Die Leistungsfähigkeit eines DIRC hängt von dessen Radiatorgüte ab. Um die Qualität der Radiatorstäbe spezifizieren zu können, wurde im Rahmen dieser Doktorarbeit eine optische Messapparatur entwickelt. Dieser Aufbau erlaubt es die Transmission sowie die Oberflächenrauheit der Stäbe zu messen. Es wurden mehrere Radiatorstäbe aus synthetischem Quarzglas und Acrylglas untersucht. Die Messgenauigkeit bei hochqualitativen Stäben liegt für die Transmissionsmessung bei etwa 1 Promille und für die Rauheit bei 1-2 Angström. Die Messergebnisse bei verschiedenen Wellenlängen zeigen eine gute Übereinstimmung mit der skalaren Streutheorie, die den Zusammenhang zwischen Reflexionskoeffizienten und Rauheit beschreibt. Bei einer Strahlzeit an der GSI mit einem 2 GeV Protonenstrahl wurde ein erster Prototyp für den Barrel-DIRC mit einem Stab aus synthetischem Quarzglas als Radiator getestet. Durch Variation des Einfallswinkels und der Position des Protonenstrahls auf dem Radiator konnten Cherenkovringe eindeutig nachgewiesen werden. Zudem wurde der Cherenkovwinkel und die Einzelphotonauflösung in guter Übereinstimmung mit dem Erwartetem und der Simulation bestimmt.
Nanotechnology is a rapidly developing branch of science, which is focused on the study of phenomena at the nanometer scale, in particular related to the possibilities of matter manipulation. One of the main goals of nanotechnology is the development of controlled, reproducible, and industrially transposable nanostructured materials.
The conventional technique of thin-film growth by deposition of atoms, small atomic clusters and molecules on surfaces is the general method, which is often used in nanotechnology for production of new materials. Recent experiments show, that patterns with different morphology can be formed in the course of nanoparticles deposition process on a surface. In this context, predicting of the final architecture of the growing materials is a fundamental problem worth studying.
Another factor, which plays an important role in industrial applications of new materials, is the question of post-growth stability of deposited structures. The understanding of the post-growth relaxation processes would give a possibility to estimate the lifetime of the deposited material depending on the conditions at which the material was fabricated. Controllable post-growth manipulations with the architecture of deposited structures opens new path for engineering of nanostructured materials.
The task of this thesis is to advance understanding mechanisms of formation and post-growth evolution of nanostructured materials fabricated by atomic clusters deposition on a surface. In order to achieve this goal the following main problems were addressed:
1. The properties of isolated clusters can significantly differ from those of analogous clusters occurring on a solid surface. The difference is caused by the interaction between the cluster and the solid. Therefore, the understanding of structural and dynamical properties of an atomic cluster on a surface is a topic of intense interest from the scientific and technological point of view. In the thesis, stability, energy, and geometry of an atomic cluster on a solid surface were studied using a liquid drop approach which takes into account the cluster-solid interaction. Geometries of the deposited clusters are compared with those of isolated clusters and the differences are discussed.
2. The formation scenarios of patterns on a surface in the course of the process of cluster deposition depend strongly on the dynamics of deposited clusters. Therefore, an important step towards predicting pattern morphology is to study dynamics of a single cluster on a surface. The process of cluster diffusion on a surface was modeled with the use of classical molecular dynamics technique, and the diffusion coefficients for the silver nanoclusters were obtained from the analysis of trajectories of the clusters. The dependence of the diffusion coefficient on the system’s temperature and cluster-surface interaction was established. The results of the calculations are compared with the available experimental results for the diffusion coefficient of silver clusters on graphite surface.
3. The methods of classical molecular dynamics cannot be used for modeling the self-assembly processes of atomic clusters on a surface, because these processes occur on the minutes timescale, what would require an unachievable computer resource for the simulation. Based on the results of molecular dynamics simulations for a single cluster on a surface a Monte-Carlo based approach has been developed to describe the dynamics of the self-assembly of nanoparticles on a surface. This method accounts for the free particle diffusion on a surface, aggregation into islands and detachment from these islands. The developed method is allowed to study pattern formation of structures up to thousands nm, as well as the stability of these structures. Developed method was implemented in MBN Explorer computer package.
4. The process of the pattern formation on a surface was modeled for several different scenarios. Based on the analysis of results of simulations was suggested a criterion, which can be used to distinguish between different patterns formed on a surface, for example: between fractals or compact islands.This criteria can be used to predict the final morphology of a growing structure.
5. The post-growth evolution of patterns on a surface was also analyzed. In particular, attention in the thesis is payed to a systematical theoretical analysis of the post-growth processes occurring in nanofractals on a surface. The time evolution of fractal morphology in the course of the post-growth relaxation was analyzed, the results of these calculations were compared with experimental data available for the post-growth relaxation of silver cluster fractals on graphite substrate.
All the aforementioned problems are discussed in details in the thesis.
This thesis deals with the simulation, optimization and realization of quasi-optical scanning systems for active THz cameras. Active THz cameras are sensitive in the THz regime of the electromagnetic spectrum and are suitable for the detection of metal objects such as weapons behind clothing or fabrics (maybe for security applications) or material investigation. An advantage of active THz-systems is the possibility to measure the phase of the THz-radiation and thus to reconstruct the surface topography of the objects under test. Due to the coherent illumination and the required system parameters (like image field size, working distance and lateral resolution) the optical systems (in the THz region often called quasi-optical systems) must be optimized. Specifically, the active illumination systems require highly optimized quasioptical systems to achieve a good image quality. Since currently no suitable multi-pixel detectors are available, the object has to be scanned in one or two dimensions in order to cover a full field of view. This further reinforces the occurring aberrations. The dissertation covers, alongside the underlying theory, the simulation, optimisation and realisation of three different active THz systems. The subdivision of the chapters is as follows: Chapter 1 deals with a motivation. Chapter 2 develops the underlying theory and it is demonstrated that the geometrical optics is an adequate and powerful description of the image field optimization. It also addresses the developed analytic on-axis and the off-axis image field optimization routine. Chapter 3, 4 and 5 are about the basis of various active THz cameras, each presented a major system aspect. Chapter 3 shows how active THz-cameras with very high system dynamics range can be realised. Within this chapter it could although be demonstrated how very high depth resolution can be achieved due to the coherent and active illumination and how high refresh rate can be implemented. Chapter 4 shows how absolute distance data of the objects under test can be obtained. Therefore it is possible to reconstruct the entire object topography up to a fraction of the wavelength. Chapter 5 shows how off-axis quasi-optical systems must be optimized. It is also shown how the illumination geometry of the active THz systems must be changed to allow for real-time frame rates. The developed widened multi-directional lighting approach also fixes the still existing problem of phase ambiguity of the single phase measurement. Within this chapter, the world’s first active real-time camera with very high frame rates around 10 Hz is presented. This could be only realized with the highly optimised quasioptical system and the multi-directional lighting approach. The paper concludes with a summary and an outlook for future work. Within the outlook some results regarding the simulation of synthetic aperture radar systems and metamaterials are shown.
Im Rahmen des Programms zur Intensitätserhöhung am Universal Linear Accelerator UNILAC für das Element Uran hat sich die Forderung nach einer Ionenquelle ergeben, die einen intensiven, hochbrillianten Ionenstrahl aus vierfach geladenen Uranionen bereitstellen kann. Ziel war es, im Zusammenspiel von Ionenquelle, Nachbeschleunigungssystem und Niederenergiestrahlführung einen Strahlstrom von mindestens 15 emA U4+ am Eingang des RFQ-Beschleunigers bereitzustellen. Die vorliegende Arbeit befaßt sich mit den Optimierungen und den experimentellen Untersuchungen an der Vakuumbogenionenquelle VARIS für den Uranbetrieb, welche schließlich ihre Leistungsfähigkeit an der Beschleunigeranlage der GSI erfolgreich unter Beweis gestellt hat. Der erste Teil dieser Arbeit widmet sich der Theorie der Vakuumbogenentladung unter besonderer Berücksichtigung der Erzeugung von U4+. Die Generierung von U4+ erfolgt dabei zu einem Teil im dichten Kathodenspotplasma, wo das Ionisationspotential von 31 auf 21 eV herabgesetzt ist, U4+ also bei vergleichsweise niedrigen Elektronenenergien erzeugt werden kann. Der U4+-Anteil beträgt jedoch nur 30 %. Die Erzeugung eines höheren Anteils an U4+ ist geknüpft an zusätzlich Ionisationsvorgänge im expandierenden Zwischenelektrodenplasma, für welches eine neuartige Theorie (MHD Ansatz) angegeben werden konnte. Für die Vakuumbogenentladung im axialen Magnetfeld konnte eine Erhöhung der Elektronentemperatur vorhersagt werden, die für eine höhere Ionisationsrate für U4+ verantwortlich ist. Für die Elektronentemperatur wurde bei einer magnetischen Flußdichte von 40 mT ein Wert von 10 eV vorhergesagt, welcher experimentell bestätigt werden konnte. Zieht man zudem die berechneten Wirkungsquerschnitte für die Ein- und Mehrfachionisation heran, so konnte aus den Wirkungsquerschnitten vorausgesagt werden, daß für die Produktion eines hohen Anteils an U4+ eine Elektronenenergie von zirka 50 eV für die Generierung von U4+ aus U3+ erforderlich ist. Im weiteren wurde ausgeführt, wie ein Extraktionssystem ausgelegt sein muß, welches den Forderungen nach einem Gesamtstrom von 140 mA entspricht oder diesen übertrifft. Das Erreichen dieses Stroms ist im Einlochextraktionssystem mit Schwierigkeiten verbunden (große Emissionsfläche, langes Extraktionssystem, Extraktionsspannung zirka 180 kV). Aus diesen Gründen ist die Entscheidung zugunsten eines Extraktionssystem mit 13 Öffnungen mit einem Durchmesser von jeweils 3 mm gefallen. Die Gesamtemissionsfläche aller Aperturen liegt bei 0,92 cm2. Zur Bestimmung der Strahlformierung einer Öffnung im Extraktionssystem ist das Strahlsimulationsprogramm KOBRA3INP unter Berücksichtigung einer experimentell gut zugänglichen Feldstärke von 11 kV/mm bei einem Aspektverhältnis von 0,5 genutzt worden. Es ergab sich ein minimaler Divergenzwinkel von etwa 55 mrad, die unnormierte effektive Emittanz geht mit steigender Stromdichte asymptotisch einem Wert von 65p mm mrad entgegen. Für das Extraktionssystem (13 Öffnungen) kann die unnormierte effektive Emittanz zu 610p mm mrad abgeschätzt werden. Die Stromdichte, welche der Plasmagenerator bereitstellen muß, beträgt etwa 1600 A/m2. Die Extraktionsspannung liegt bei 32 kV, welche, ebenso wie die Stromdichte, experimentell erreicht wurde. Bei den experimentellen Untersuchungen wurde zunächst untersucht, inwieweit die Impedanz des Vakuumbogenplasmas gesteigert werden kann. Ziel war es, eine möglichst hohe Plasmaimpedanz und damit eine hohe Bogenspannung zu erhalten, wodurch die erreichbare Elektronenenergie vergrößert wird (Regelung der Bogenspannung durch die Plasmaimpedanz). Es ist gezeigt worden, daß die Impedanz vor allem durch eine geeignete Magnetfeldkonfiguration erhöht werden kann (axiales Feld). Ebenso sind die Geometrie der Ionenquelle (Abstand Kathode-Anode 15 mm, Anodenöffnung 15 mm) und die verwendeten Materialien (Anode aus Edelstahl, kleiner Sputterkoeffizient und Sekundärelektronenaus97 löse) entscheidend, wobei zugunsten eines zuverlässigen Zündverhaltens der Ionenquelle die Entscheidung für eine Anodenöffnung von 15 mm statt 25 mm gefallen ist. So erreicht man für eine magnetische Flußdichte von 120 mT bei einem Bogenstrom von 700 A eine Bogenspannung von 54 V, wodurch die Erzeugung bis zu sechsfach geladenen Uranionen möglich wird. Um grundlegende Eigenschaften des Vakuumbogenplasmas zu bestimmen und das theoretische Modell zur Erzeugung von U4+ zu überprüfen, wurden die Ionen- und Elektronenenergieverteilung im Plasma gemessen ...
The HADES (High Acceptance DiElectron Spectrometer) is an experimental
apparatus installed at the heavy-ion synchrotron SIS-18 at GSI, Darmstadt.
The main physics motivation of the HADES experiment is the measurement
of e+e− pairs in the invariant-mass range up to 1 GeV/c2 in heavy-ion collisions
as well as in pion and proton-induced reactions.
The HADES physics program is focused on in-medium properties of the light
vector mesons ρ(770), ω(783) and φ(1020), which decay with a small branching
ratio into dileptons. Dileptons are penetrating probes which allow to study
the in-medium properties of hadrons. However, in heavy-ion collisions, the
measurement of such lepton pairs is difficult because they are rare and have a
very large combinatorial background.
Recently, HADES has been upgraded with new detectors and new electronics
in order to handle higher intensity beams and reactions with heavy nuclei up
to Au.
HADES will continue for a few more years its rich physics program at its
current place at SIS-18 and then move to the upcoming international Facility
for Antiproton and Ion Research (FAIR) accelerator complex. In this context
the physics results presented in this work are important prerequisites for the investigation
of in-medium vector meson properties in p + A and A+A collisions.
This work consists of five chapters. The first chapter introduces the physics
motivation and a review of recent physics results. In the second chapter, the
HADES spectrometer is described and its sub-detectors are presented. Chapter
three deals with the issue of lepton identification and the reconstruction of
the dielectron spectra in p + p collisions is presented. Here, two reactions
are characterized: inclusive and exclusive dilepton production reactions. From
the spectra obtained, the corresponding cross sections are presented with the
respective statistical and systematical errors. A comparison with theoretical
models is included as well. Conclusions are given in chapter four.
The final part of this work is dedicated to the HADES upgrade, whose goal
is among others the achievement of a reliable and fast data acquisition of the
Multiwire Drift Chambers (MDCs). Chapter five presents my contribution to
this successful project during the three years of my stay at GSI.
The phenomenon of magnetism is a pure quantum effect and has been studied since the beginning of civilization. The practical use of magnetic materials for technical purposes was well established in the 19th century; still nowadays there is no lack of new high-tech applications based on magnetism for example in information technology to store and process data. This thesis does not focus on the development of new applications of magnetism in technology, nor enhancement of known fields of application. Instead, the intention is to use a quantum theory of magnetism for obtaining new insights on physical effects that accompany the phenomenon of magnetism. Therefore three different model systems, each of which are believed to describe a class of real compounds, are considered. Starting from the idea that magnetism can be understood by use of the so-called Heisenberg model that microscopically characterizes the interaction between localized magnetic moments, we restrict ourselves to the case where a long-range magnetic order is present. In order to deduce consequences resulting from this microscopic picture we use the spin-wave theory that is introduced in the first chapter. Central objects of this theory are the magnons which are elementary quantum excitations in ordered magnets. An application of these mathematical techniques to a model that describes an antiferromagnet in an external magnetic field is presented in the second chapter. Quantities like the spin-wave velocity and the damping of magnons are calculated using a Hermitian operator approach in the framework of spin-wave theory. A strong renormalization of the magnetic excitations arises because the symmetry of the system is reduced due to the external magnetic field. In the second model system, that describes thin films of a ferromagnet, concepts of classical physics meet quantum physics: The magnetic dipole-dipole interaction that is also known in everyday life from the magnetic forces between magnets and was initially formulated in the theory of electromagnetism, is included in the microscopic model. Having a special compound in mind where the magnetic excitations are directly accessible in experiments, the energy dispersions of magnon modes in thin-film ferromagnets are deduced. Our approach is essentially a basis for further investigations beyond this thesis to describe strong correlations and condensation of magnons. A recent realization of data processing devices with spin waves puts the understanding of physical processes in these ferromagnetic films in the focus of upcoming research. The third model system brings in the so-called frustration where the interactions between the spins are such that the total energy cannot be minimized by an appropriate alignment of the magnetic moments in the classical picture. In the simplest case this appears because the antiferromagnetically coupled spins are located on a triangular lattice. This situation will lead to strong quantum fluctuations which make this model system interesting. Finally the overall symmetry is reduced by inclusion of spin anisotropies and an external magnetic field. Instead of focusing on the properties of the magnetic excitations, the effect of the magnetic field on the properties of the lattice vibrations is subject to the investigation. This is interesting because the characteristics of lattice vibrations can be measured experimentally using the supersonic technique.
Dynamics of chaotic strings
(2011)
The main topic of this thesis is the investigation of dynamical properties of coupled Tchebycheff map networks. At every node of the network the dynamics is given by the iteration of a Tchebycheff map, which shows strongest possible chaotic behaviour. By applying a coupling between the various individual dynamics along the links of the network, a rich structure of complex dynamical patterns emerges. Accordingly, coupled chaotic map networks provide prototypical models for studying the interplay between local dynamics, network structure, and the emergent global dynamics. An exciting application of coupled Tchebycheff map lattices in quantum field theory has been proposed Beck in Spatio-temporal chaos and vacuum fluctuations of quantized fields' (2002). In this so-called chaotic string model, the coupled map lattice dynamics generates the noise needed for the Parisi-Wu approach of stochastic quantization. The remarkable obversation is that the respective dynamics seems to reproduce distinguished numerical values of coupling constants that coincide with those observed in the standard model of particle physic. The results of this thesis give insights into the chaotic string model and its network generalization from a dynamical point of view. This leads to a deeper understanding of the dynamics, which is essential for a critical discussion of possible physical embeddings. Apart from this specific application to particle physics, the investigated concepts like synchronization or a most random behaviour of the dynamics are of general interest for dynamical system theory and the science of complex networks. As a first approach, discrete symmetry transformations of the model are studied. These transformations are formulated in a general way in order to be also applicable to similar dynamics on bipartite network structures. An observable of main interest in the chaotic string model is the interaction energy. In Spatio-temporal chaos and vacuum fluctuations of quantized fields' (2002) it has been observed that certain chaotic string couplings, corresponding to a vanishing interaction energy, coincide with coupling constants of the standard model of elementary particle physics. Since the interaction energy is basically a spatial correlation measure, an interpretation of the respective dynamical states in terms of a most random behaviour is tempting. In order to distinguish certain states as most random', or evoke another dynamical principle, a deeper understanding of the dynamics essential. In the present thesis the dynamics is studied numerically via Lyapunov measures, spatial correlations, and ergodic properties. It is shown that the zeros of the interaction energy are distinguished only with respect to this specific observable, but not by a more general dynamical principle. The original chaotic string model is defined on a one-dimensional lattice (ring-network) as the underlying network topology. This thesis studies a modification of the model based on the introduction of tunable disorder. The effects of inhomogeneous coupling weights as well as small-world perturbations of the ring-network structure on the interaction energy are discussed. Synchronization properties of the chaotic string model and its network generalization are studied in later chapters of this thesis. The analysis is based on the master stability formalism, which relates the stability of the synchronized state to the spectral properties of the network. Apart from complete synchronization, where the dynamics at all nodes of the network coincide, also two-cluster synchronization on bipartite networks is studied. For both types of synchronization it is shown that depending on the type of coupling the synchronized dynamics can display chaotic as well as periodic or quasi-periodic behaviour. The semi-analytical calculations reveal that the respective synchronized states are often stable for a wide range of coupling values even for the ring-network, although the respective basins of attraction may inhabit only a small fraction of the phase space. To provide analytical results in closed form, for complete synchronization the stability of all fixed points and period-2 orbits of all chaotic string networks are determined analytically. The master stability formalism allows to treat the ring-network of the chaotic string model as a special case, but the results are valid for coupled Tchebycheff maps on arbitrary networks. For two-cluster synchronization on bipartite networks, selected fixed points and period-2 orbits are analyzed.
Nonequilibrium phase transitions in chiral fluid dynamics including dissipation and fluctuation
(2011)
Chiral fluid dynamics combines the fluid dynamic expansion of a hot and dense plasma created in a heavy-ion collision with the explicit propagation of fluctuations at the chiral phase transition of quantum chromodynamics. From systems in equilibrium long-range fluctuations are expected at a conjectured critical point. Heavy-ion collisions are, however, finite in size and time and very dynamic. It is thus likely that nonequilibrium effects diminish the signal of a critical point. They can, however, stimulate phenomena at a first order phase transitions, like nucleation and spinodal decomposition. Both of phase transition scenarios are investigated in this work. Based on the linear sigma model with constituent quarks a consistent quantum field theoretical approach using the two-particle irreducible effective action is developed to derive both, the local equilibrium properties of the expanding quark fluid and the damping and noise terms in the Langevin equation of the order parameter of the phase transition, the sigma field. Within this formalism it is possible to obtain a conserved energy-momentum tensor of the coupled system. It describes the energy dissipation from the sigma field to the heat bath during relaxation. Within this model we investigate nonequilibrium phenomena in a scenario with a critical point and a first order phase transition. We observe long relaxation times at the phase transition, phase coexistence at the first order phase transition and critical slowing down at the critical point. We find a substantial supercooling in a first order phase transition in our model and due to the energy-momentum exchange also reheating is present. While at the critical point the correlation length increases slightly we find an enhanced intensity of nonequilibrium fluctuations at the first order phase transition, which leads to an increased production of sigma mesons.
Ziel der durchgeführten Experimente war es, die Zerfallsmechanismen Van-der-Waals gebundener Argon- und Neon Di- und Trimere in intensiven Laserfeldern zu untersuchen, um mehr über den Einfluss der schwachen Van-der-Waals Bindung auf die Dynamik des Ionisationsprozesses zu erfahren. Da Dimere aufgrund ihrer elektronischen Struktur sehr stark zwei separaten benachbarten Atomen gleichen, vereinen sie atomare und molekulare Eigenschaften in sich und ihre Untersuchung verspricht ein tieferes Verständnis der Wechselwirkungsmechanismen in starken Laserfeldern. Die Verwendung der Impulsspektroskopie Methode COLTRIMS ermöglichte die koinzidente Messung aller beim Aufbruch entstandener ionischer Fragmente sowie eines elektronischen Impulsvektors. Für die beidseitige Einfachionisation des Argon Dimers, konnten bei der gewählten Intensität (etwa 3.3E14W/cm2) drei unterschiedliche Ionisationsprozesse identifiziert werden, von denen zwei zu einer überraschend hohen kinetischen Gesamtenergie der Ionen führen. Aufgrund der Messung der Winkelverteilung der ionischen Fragmente und eines der emittierten Elektronen für lineare und zirkulare Polarisation gelang es, die den drei Prozessen zugrunde liegende Dynamik im Laserfeld zu entschlüsseln. Der dominierende Zerfallskanal stellt demzufolge eine schnelle sequentielle Doppelionisation des Argon Dimers dar, die noch am Gleichgewichtsabstand des Dimers stattfindet. Für den zweithäufigsten Ionisationsprozess ergaben sich zwei mögliche Erklärungsansätze: Entweder wird das Dimer zunächst einseitig doppelionisiert, so dass es auf einer attraktiven Potentialkurve zusammenläuft, bevor es zu einem späteren Zeitpunkt – wenn das Laserfeld bereits abgeklungen ist – durch eine Umverteilung seiner Ladungen in einer Coulomb Explosion fragmentiert, oder das Dimer wird bei einer beidseitigen Tunnelionisation zugleich angeregt, so dass die Coulomb Explosion von einer Potentialkurve erfolgt, die wesentlich steiler als 1/R verläuft. Der schwächste Zerfallskanal, der sich durch die höchste Gesamtenergie auszeichnet, ist auf eine "Frustrated Triple Tunnel Ionization" zurückzuführen, bei der ein hoch angeregter Rydberg Zustand erzeugt wird. Bei der Untersuchung des Neon Dimers konnte bei der gewählten Intensität (etwa 6.3E14W/cm2) nur die sequentielle beidseitige Einfachionisation identifiziert werden, obwohl die Daten Hinweise auf einen weitern Ionisationsprozess mit sehr geringer Statistik aufweisen. Zudem wurde in dieser Arbeit nach der Methode des Coulomb-Explosion-Imaging aus den in Koinzidenz gemessenen Impulsvektoren aller einfachgeladenen ionischen Fragmente eines Aufbruchs die geometrische Struktur der Cluster im Orts-und Impulsraum rekonstruiert. Die ermittelte Grundzustandswellenfunktion des Argon und Neon Dimers zeigt eine gute Übereinstimmung mit quantenmechanischen Berechnungen. Für das Argon und Neon Trimer konnten aus den gemessenen Impulsvektoren mittels einer numerischen Simulation die Bindungswinkel im Ortsraum bestimmt werden, so dass erstmals gezeigt werden konnte, dass diese Trimere gleichseitige Dreieckskonfigurationen aufweisen. Vergleiche mit theoretischen Berechnungen zeigen für die breite Winkelverteilung des Neon Trimers eine hervorragende Übereinstimmung, während die gemessene Winkelverteilung des Argon Trimers etwas breiter als die berechnete ist.
Für das Helmholtzzentrum für Schwerionenforschung (GSI), in Darmstadt, wurde ein neuer RFQ zur Beschleunigung schwerer Ionen für den Hochladungsinjektor (HLI) entwickelt. Dieser RFQ hat den bereits vorhandenen ersetzt und soll, für die Anpassung des HLI an die neue 28 GHz-ECR-Ionenquelle, den Duty-cycle von 25 % auf 100 % erhöhen, um superschwere Ionen zu erzeugen und die Experimente mit schweren Ionen zu versorgen. Der RFQ hat die Aufgabe schwere, hochgeladene Ionen von 4 keV/u auf 300 keV/u zu beschleunigen. Wichtige Eigenschaften sind ein hoher Strahlstrom, eine hohe Strahl-Transmission, eine kleine Strahlemittanz und eine geringe transversale Emittanzzunahme. Die Erhöhung der Injektionsenergie von 2,5 keV/u auf 4 keV/u ermöglicht eine Verkleinerung des Konvergenzwinkels. Der Aufbau des 4-Rod-RFQs für den HLI ist Thema der vorliegenden Arbeit. Die Auslegung des HLI-RFQs bezieht sich auf ein festgelegtes max. Masse zu Ladungsverhältnis von A/q = 6, bei einer Betriebsfrequenz von 108,408 MHz. Die Ionen sollen bei einem Strahlstrom von 5 mA von 4 keV/u auf 300 keV/u beschleunigt werden. Durch die spezielle teilchendynamische Auslegung konnte die Länge des Tanks von vorher 3 m auf jetzt 2 m verkürzt werden. Dies begünstigt den CW-Betrieb der Struktur. Durch den CW-Betrieb hat man eine hohe Leistungsaufnahme, dies erfordert eine besondere teilchendynamische und hochfrequenztechnische Auslegung der RFQ-Struktur und eine effiziente Kühlung. Zur Simulation der Hochfrequenzeigenschaften wurde ein Modell des RFQ mit dem Programm Microwave Studio (MWS) erstellt. Die Simulationen ergaben einen nur 2 m langen RFQ mit sehr hoher Transmission > 95%. Nach den entsprechenden Simulationsrechnungen bezüglich der Teilchendynamik und der Hochfrequenzeigenschaften wurde der RFQ aufgebaut. Der zeitaufwändige Aufbau lässt sich in drei Abschnitte einteilen. Die Elektroden wurden präzise ausgemessen. Danach wurden Stützen, Elektroden und Tuningplatten an der Bodenplatte montiert und in den Tank eingesetzt. Im Tank wurden die Elektroden justiert, die zuerst außerhalb vermessen wurden. Die korrekte Position der Elektroden zur Referenzfläche wurde berechnet und mit Hilfe eines Faro-Gage im Tank eingemessen. Die maximale Abweichung der Elektrodenposition konnte auf 0,03 mm reduziert werden. Nach der mechanischen Einrichtung folgte die HF-Anpassung des Resonators. Durch das Erhöhen der Tuningplattenpositionen zwischen den Stützen konnte die Resonanzfrequenz von 90,8 MHz auf 108,4 MHz erhöht werden. Als nächstes wurde die Spannungsverteilung im Tank gemessen und mit Hilfe der Tuningplatten konnte sie so eingestellt werden, dass die maximale Abweichung zur mittleren Elektrodenspannung bei nur ± 2% liegt. Zur weiteren Hochfrequenzabstimmung wurde die Wirkung zweier Tauchkolben mit einem Durchmesser von 75 mm untersucht. Die Tauchkolben ermöglichen eine Anpassung der Frequenz im Bereich von 1,4 MHz. Sie sollen die möglichen Frequenzverschiebungen durch beispielsweise thermische Effekte, auf Grund des HF-Betriebs, regulieren. Für die Hochfrequenzabstimmung wurde eine Ankoppelschleife gefertigt und angepasst. Die Güte des Resonators betrug Q0 = 3100, bei einem RP-Wert RP = 100 kΩm, d.h. die zur Versorgung stehende HF-Leistung (50 kW im CW-Betrieb) reicht aus. An der GSI wurde nach dem Transport eine Kontrolle der Elektroden vorgenommen, danach wurde der RFQ erst einzeln, danach als komplette HLI Einheit getestet. Dazu wurden verschiedene Pulsmessungen und Emittanzmessungen mit Argon 7+ und Argon 8+ durchgeführt. Bei der ersten Strahlinbetriebnahme wurden die Transmission, die Ionenenergie und die Emittanz mit verschiedenen Ionen gemessen. Die ersten Tests des HLI-RFQ waren sehr vielversprechend. In den Tests war zu sehen, dass die vorgenommenen Arbeiten, wie Justage und HF-Abstimmung der Resonanzstruktur, erfolgreich waren. Danach wurde der Strahlbetrieb mit Calcium, bei einer Leistung von 50 kW, durchgeführt. Die gemessene Transmission bei einer Spannung von 43 kV lag bei 70 %. Im Mai 2010 gab es eine 14Stickstoff2+ -Strahlzeit mit einer gepulsten Leistung von N = 90 kW. Danach wurde Anpassungstests mit verschiedenen Schwerionen durchgeführt. Im November 2010 wurden neue Tuningplatten mit einer besseren Stützenkontaktierung sowie einer besseren Kühlung eingebaut. Die Elektroden wurden nach diesen Maßnahmen auf ± 0,04 mm einjustiert. Die Flatness liegt bei ± 2,1 %, die Güte beträgt Q0 = 3300. Der RFQ wurde in die Beamline eingebaut und geht im Januar 2011 in Betrieb.
Subject of this thesis is the non-perturbative investigation of the thermal transition in Quantum Chromodynamics by means of lattice gauge theory and a particular type of lattice fermions, the so-called twisted mass fermions. These fermions offer the possibility of improvement as compared to the standard Wilson-type formulation. We investigate the properties of these fermions at finite temperature, i.e. the structure of the bare parameter space as well as leading order cutoff effects in the weak coupling limit. Then we focus on two-flavour simulations at finite pion mass. We identify the (pseudo-)critical temperatures for our set of pion masses (300 to 500 MeV) and discuss the extrapolation to the chiral limit for which the nature of the transition is still an open question. Besides pseudo-critical temperatures we consider the magnetic equation of state and screening observables. We find that the assumption of a second order transition (in the 3d O(4) universality class) agrees with our data without being able to exclude alternatives. Finally, we discuss the future inclusion of strange and charm quarks in dynamical twisted mass simulations and look at the corresponding cutoff effects in the free limit.
In der vorliegenden Arbeit wird die Ionisation von Stickstoff- und Sauerstoff-Molekülen in starken, nicht-resonanten Laserlicht-Pulsen untersucht. Die dreidimensionalen Impulsvektoren der freigesetzten Elektronen und Ionen wurden mittels eines sogenannten COLTRIMS Spektrometers vermessen. Das Hauptaugenmerk galt dem Kanal der Einfachionisation, der ein stabiles Molekülion ($N_2^+$ / $O_2^+$) erzeugt. Da in diesem Fall keine Dissoziation des Ions stattfindet, kann nicht aus der Flugrichtung ionischer Fragmente auf die Ausrichtung der Molekülachse geschlossen werden. Die Abhängigkeit des Prozesses vom Winkel zwischen der Molekülachse und der Polarisationsrichtung des ionisierenden Lichtes ist nur dann zugänglich, wenn die Ausrichtung der Molekülachsen vordem Zeitpunkt der Ionisation aktiv kontrolliert werden kann. Hierzu wurde die Technik der nichtadiabatischen Molekülausrichtung'' (non-adiabatic molecular alignment'') [1] angewandt. Ein erster, mäßig intensiver Lichtpuls bewirkte die Ausrichtung der Molekülachsen im Laborsystem. Sodann wurden die ausgerichteten Moleküle von einem zweiten, hochintensiven Puls ionisiert. In einem ersten Experiment wurden Elektronen-Impulsverteilungen für zwei verschiedene Molekülausrichtungen bestimmt. Ein Vergleich der Verteilungen brachte zwei wichtige Ergebnisse: 1) Im Bereich niedriger Elektronen-Impulse senkrecht zur Polarisationsrichtung des ionisierenden Lichtpulses wird der Fingerabdruck'' des ionisierten Molekülorbitals sichtbar. 2) Bei höheren Impulsen zeigten sich Strukturen, die als Doppelspalt-Interferenz interpretiert werden können. Ein ionisiertes Elektron propagiert im oszillierenden elektrischen Feld des Laser-Pulses. Von diesem kann es auf das Ion hin zurück beschleunigt werden und dort streuen [2]. Wir betrachten den Fall elastischer Rückstreuung''. In erster Näherung wirken die Bestandteile des diatomaren Molekülions wie ein Doppelspalt, an dem die streuende Elektronen-Welle gebeugt wird. In einem zweiten, dem ersten sehr ähnlichen Experiment wurde die Molekülausrichtungs-Richtung in kleinen Schritten variiert. Sowohl der Effekt der Elektronenbeugung am Ion, als auch - mit Einschränkungen - die Abbildung des ionisierten Orbitals wurde erneut beobachtet. Letztere ist durch eine Projektion des Orbitals in den Impulsraum senkrecht zur Laser-Polarisationsrichtung bestimmt [3,4]. Die Messung der Strukturen unter verschiedenen Molekül-Ausrichtungen im zweiten Experiment entspricht daher der Aufnahme verschiedener Projektionen des Orbitals. Der so gewonnene Datensatz sollte prinzipiell eine Rekonstruktion der dreidimensionalen Elektronen-Dichteverteilung des ionisierten Molekülorbitals mittels eines Tomographie-Algorithmus ermöglichen. Entsprechende Entwicklungen sind bei Kooperationspartnern im Gange. Die beobachtete Beugung des rückgestreuten Elektrons ermöglicht den Rückschluss auf die Positionen der Kerne im Molekülion. Es besteht die Hoffnung, dass sich in Zukunft detailliertere Informationen über das streuende Potential jenseits des einfachen Doppelspalt-Modells gewinnen lassen. Rückstreuung höherenergetischer Elektronen sollte hingegen eine verbesserte Ortsauflösung ermöglichen. Beide Informationen - Ionisiertes Orbital und Beugungsbild des Ions - werden simultan in ein- und derselben Messung gewonnen. Die zeitliche Auflösung wird durch rein optische Parameter (Licht-Wellenlänge, Pulslänge) determiniert. Sie kann mittels ultrakurzer, phasenstabiler Laserlicht-Pulse in den Bereich einer Femtosekunde oder darunter verbessert werden. [1] Stapelfeldt et al., Rev. Mod. Phys. 75, 543-557 (2003). doi:10.1103/RevModPhys.75.543 [2] Corkum, Phys. Rev. Lett. 71, 1994-1997 (1993). doi:10.1103/PhysRevLett.71.1994 [3] Spanner et al., J. Phys. B 37, L243-L250 (2004). doi:10.1088/0953-4075/37/12/L02 [4] Ivanov et al., J. Mod. Opt. 52, 165 (2005). doi:10.1080/0950034042000275360
In nature, society and technology many disordered systems exist, that show emergent behaviour, where the interactions of numerous microscopic agents result in macroscopic, systemic properties, that may not be present on the microscopic scale. Examples include phase transitions in magnetism and percolation, for example in porous unordered media, biological, and social systems. Also technological systems that are explicitly designed to function without central control instances, like their prime example the Internet, or virtual networks, like the World Wide Web, which is defined by the hyperlinks from one web page to another, exhibit emergent properties. The study of the common network characteristics found in previously seemingly unrelated fields of science and the urge to explain their emergence, form a scientific field in its own right, the science of complex networks. In this field, methodologies from physics, leading to simplification and generalization by abstraction, help to shift the focus from the implementation's details on the microscopic level to the macroscopic, coarse grained system level. By describing the macroscopic properties that emerge from microscopic interactions, statistical physics, in particular stochastic and computational methods, has proven to be a valuable tool in the investigation of such systems. The mathematical framework for the description of networks is graph theory, in hindsight founded by Euler in 1736 and an active area of research since then. In recent years, applied graph theory flourished through the advent of large scale data sets, made accessible by the use of computers. A paradigm for microscopic interactions among entities that locally optimize their behaviour to increase their own benefit is game theory, the mathematical framework of decision finding. With first applications in economics e.g. Neumann (1944), game theory is an approved field of mathematics. However, game theoretic behaviour is also found in natural systems, e.g. populations of the bacterium Escherichia coli, as described by Kerr (2002). In the present work, a combination of graph theory and game theory is used to model the interactions of selfish agents that form networks. Following brief introductions to graph theory and game theory, the present work approaches the interplay of local self-organizing rules with network properties and topology from three perspectives. To investigate the dynamics of topology reshaping, coupling of the so called iterated prisoners' dilemma (IPD) to the network structure is proposed and studied in Chapter 4. In dependence of a free parameter in the payoff matrix, the reorganization dynamics result in various emergent network structures. The resulting topologies exhibit an increase in performance, measured by a variance of closeness, of a factor 1.2 to 1.9, depending in the chosen free parameter. Presented in Chapter 5, the second approach puts the focus on a static network structure and studies the cooperativity of the system, measured by the fixation probability. Heterogeneous strategies to distribute incentives for cooperation among the players are proposed. These strategies allow to enhance the cooperative behaviour, while requiring fewer total investments. Putting the emphasis on communication networks in Chapters 6 and 7, the third approach investigates the use of routing metrics to increase the performance of data packet transport networks. Algorithms for the iterative determination of such metrics are demonstrated and investigated. The most successful of these algorithms, the hybrid metric, is able to increase the throughput capacity of a network by a factor of 7. During the investigation of the iterative weight assignments a simple, static weight assignment, the so called logKiKj metric, is found. In contrast to the algorithmic metrics, it results in vanishing computational costs, yet it is able to increase the performance by a factor of 5.
The aim of this work is to develop an effective equation of state for QCD, having the correct asymptotic degrees of freedom, to be used as input for dynamical studies of heavy ion collisions. We present an approach for modeling an EoS that respects the symmetries underlying QCD, and includes the correct asymptotic degrees of freedom, i.e. quarks and gluons at high temperature and hadrons in the low-temperature limit. We achieve this by including quarks degrees of freedom and the thermal contribution of the Polyakov loop in a hadronic chiral sigma-omega model. The hadronic part of the model is a nonlinear realization of an sigma-omega model. As the fundamental symmetries of QCD should also be present in its hadronic states such an approach is widely used to describe hadron properties below and around Tc. The quarks are introduced as thermal quasi particles, coupling to the Polyakov loop, while the dynamics of the Polyakov loop are controlled by a potential term which is fitted to reproduce pure gauge lattice data. In this model the sigma field serves a the order parameter for chiral restoration and the Polyakov loop as order parameter for deconfinement. The hadrons are suppressed at high densities by excluded volume corrections. As a next step, we introduce our new HQ model equation of state in a microscopic+macroscopic hybrid approach to heavy ion collisions. This hybrid approach is based on the Ultra-relativistic Quantum Molecular Dynamics (UrQMD) transport approach with an intermediate hydrodynamical evolution for the hot and dense stage of the collision. The present implementation allows to compare pure microscopic transport calculations with hydrodynamic calculations using exactly the same initial conditions and freeze-out procedure. The effects of the change in the underlying dynamics - ideal fluid dynamics vs. non-equilibrium transport theory - are explored. The final pion and proton multiplicities are lower in the hybrid model calculation due to the isentropic hydrodynamic expansion while the yields for strange particles are enhanced due to the local equilibrium in the hydrodynamic evolution. The elliptic and directed flow are shown to be not sensitive to changes in the EoS while the smaller mean free path in the hydrodynamic evolution reflects directly in higher flow results which are consistent with the experimental data. This finding indicates qualitatively that physical mechanisms like viscosity and other non equilibrium effects play an essentially more important role than the EoS when bulk observables like flow are investigated. In the last chapter, results for the thermal production of MEMOs in nucleus-nucleus collisions from a combined micro+macro approach are presented. Multiplicities, rapidity and transverse momentum spectra are predicted for Pb+Pb interaction at different beam energies. The presented excitation functions for various MEMO multiplicities show a clear maximum at the upper FAIR energy regime making this facility the ideal place to study the production of these exotic forms of multistrange objects.
In the work presented herein the microscopic transport model BAMPS (Boltzmann Approach to Multi-Parton Scatterings) is applied to simulate the time evolution of the hot partonic medium that is created in Au+Au collisions at the Relativistic Heavy Ion Collider (RHIC) and in Pb+Pb collisions at the recently started Large Hadron Collider (LHC). The study is especially focused on the investigation of the nuclear modification factor R_{AA}, that quantifies the suppression of particle yields at large transverse momentum with respect to a scaled proton+proton reference, and the simultaneous description of the collective properties of the medium in terms of the elliptic flow v_{2} within a common framework.
Organische Materialien haben bis zur Mitte des 20. Jahrhunderts hinsichtlich ihrer elektronischen Eigenschaften keine besondere Aufmerksamkeit auf sich gezogen. Größeres Interesse an diesen Materialien entstand erst durch die Entdeckung einer ungewöhnlich hohen elektrischen Leitfähigkeit des organischen Perylen-Bromin Ladungstransfer-Komplexes durch Inokuchi et al. im Jahr 1954. Diese neue Klasse von Materialien besteht typischerweise aus Donor- und Akzeptor-Molekülen, die in einer bestimmten Stöchiometrie aneinander gebunden sind. Elektrische Ladung wird zwischen den Donor- und Akzeptor-Molekülen transferiert. Um diesen Prozess zu beschreiben, entwickelte Robert Mulliken in den 60er Jahren ein theoretisches Gerüst. Abhängig von der Anordnung der Moleküle und transferierten elektrischen Ladung kann der Ladungstransfer-Komplex (oder Salz) ein Isolator, ein Halbleiter, ein Metall oder sogar ein Supraleiter sein. Noch mehr Aufmerksamkeit erhielten Ladungstransfer-Materialien mit der Entdeckung des ersten quasi-eindimensionalen organischen Metalls TTF-TCNQ (tetrathiafulvalene-tetracyanoquinodimethane) im Jahr 1973. ...
This dissertation connects two independent fields of theoretical neuroscience: on the one hand, the self-organization of topographic connectivity patterns, and on the other hand, invariant object recognition, that is the recognition of objects independently of their various possible retinal representations (for example due to translations or scalings). The topographic representation is used in the presented approach, as a coordinate system, which then allows for the implementation of invariance transformations. Hence this study shows, that it is possible that the brain self-organizes before birth, so that it is able to invariantly recognize objects immediately after birth. Besides the core hypothesis that links prenatal work with object recognition, advancements in both fields themselves are also presented. In the beginning of the thesis, a novel analytically solvable probabilistic generative model for topographic maps is introduced. And at the end of the thesis, a model that integrates classical feature-based ideas with the normalization-based approach is presented. This bilinear model makes use of sparseness as well as slowness to implement "optimal" topographic representations. It is therefore a good candidate for hierarchical processing in the brain and for future research.
Statistical physics of power flows on networks with a high share of fluctuating renewable generation
(2010)
Renewable energy sources will play an important role in future generation of electrical energy. This is due to the fact that fossil fuel reserves are limited and because of the waste caused by conventional electricity generation. The most important sources of renewable energy, wind and solar irradiation, exhibit strong temporal fluctuations. This poses new problems for the security of supply. Further, the power flows become a stochastic character so that new methods are required to predict flows within an electrical grid. The main focus of this work is the description of power flows in a electrical transmission network with a high share of renewable generation of electrical energy. To define an appropriate model, it is important to understand the general set-up of a stable system with fluctuating generation. Therefore, generation time series of solar and wind power are compared to load time series for whole Europe and the required balancing or storage capacities analyzed. With these insights, a simple model is proposed to study the power flows. An approximation to the full power flow equations is used and evaluated with Monte-Carlo simulations. Further, approximations to the distributions of power flows along the links are analytically derived. Finally, the results are compared to the power flows calculated from the generation and load data.
Quasi-zweidimensionale organischen Ladungstransfersalze weisen gewisse Analogien zu den Hochtemperatur-Kupratsupraleitern (HTSL) auf. Zu nennen ist einerseits der ähnliche schichtartige Aufbau, wobei sich leitfähige und isolierende Ebenen abwechseln. Zum anderen liegt der antiferromagnetische Grundzustand in direkter Nachbarschaft zur Supraleitung und bei höheren Temperaturen wird ebenfalls die Entstehung einer Pseudo-Energielücke diskutiert. Im Gegensatz zu den HTSL können die elektronischen Eigenschaften der organischen Ladungstransfersalze jedoch leicht durch äußere Parameter wie hydrostatischen bzw. chemischen Druck - die Verwendung verschiedener Anionen X läßt sich in einem verallgemeinerten Phasendiagramm ebenfalls auf die Achse W/U abbilden, siehe Abschn. 4.2 - oder moderate Temperaturen beeinflußt werden. In den quasi-zweidimensionalen K-(BEDT-TTF)2X-Salzen ist bspw. ein moderater Druck p ~ 250 bar ausreichend, um das antiferromagnetisch-isolierende System (X=Cu[N(CN)2]Cl) auf die metallische Seite des Phasendiagramms zu verschieben, wobei dann im Grundzustand Supraleitung auftritt (Tc ~ 12,8 K). Eine Dotierung wie bei den HTSL und die damit einhergehende unerwünschte Unordnung ist nicht notwendig um einen Isolator-Metall-übergang zu induzieren. Demnach sind die experimentellen Anforderungen im Vergleich zu anderen stark korrelierten Elektronensystemen auf relativ einfache Weise zu realisieren. Auch das macht die organischen Ladungstransfersalze zu idealen Modellsystemen, um fundamentale Konzepte der theoretischen Festkörperphysik zu studieren, wovon einige bislang lediglich von akademischem Interesse waren. Erstmalig wird in dieser Arbeit die Fluktuationsspektroskopie als experimentelle Methode angewendet, um die Dynamik des TT-Elektronensystems in den quasi-zweidimensionalen organischen Ladungstransfersalzen K-(BEDT-TTF)2X bei niedrigen Frequenzen zu studieren. Ziel ist es, Informationen über die Temperatur-, Druck- und Magnetfeld-Abhängigkeit der spektralen Leistungsdichte des Widerstandsrauschens und damit über die Dynamik der Ladungsfluktuationen zu gewinnen. Insbesondere in der Nähe korrelationsgetriebener Ordnungsphänomene spielt die Dynamik der Ladungsträger eine entscheidende Rolle. Auch die Kopplung des elektronischen Systems an bestimmte strukturelle Anregungen hat Einfluß auf das Widerstandsrauschen. Zu Beginn wird eine kurze Einführung in die Signalanalyse gegeben und daran anschließend werden verschiedene Arten des Rauschens in Festkörpern dargestellt (Kap. 1). Einige der für diese Arbeit relevanten Ordnungsphänomene werden in Kap. 2 in knapper Form eingeführt, wobei auf die dynamischen Eigenschaften in der Nähe eines Glasübergangs etwas ausführlicher eingegangen wird. Nach der Vorstellung der eingesetzten Meßmethoden, des Versuchsaufbaus und der Probenkontaktierung (Kap. 3) werden die experimentellen Ergebnisse an den K-(BEDT-TTF)2X-Salzen in Kap. 4 ausführlich diskutiert.
Die im Rahmen dieser Arbeit gewonnen Meßergebnisse zeigen, daß bei geringem Restgasdruck der Einsatz einer GPL zur Fokussierung eines hochperveanten Ionenstrahles niedriger Strahlenergie Vorteile gegenüber konventionellen Linsensystemen bietet. Neben einer kostengünstigen Realisation ist wesentlich die bei unterschiedlichen Linsenparametern hohe Linearität der Linsenfelder (und die damit verbunden geringen Aberrationen) bei gleichzeitig starker Fokussierung zu nennen. Auch die geringe Baulänge, vor allem im Vergleich zu den wegen der FODO-Struktur bei Quadrupolen i. a. notwendigen Tripletts, kann gerade bei de- bzw. teilkompensiertem Transport einen Vorteil darstellen. Die im zweiten Kapitel vorgestellten Arbeiten zur theoretischen Beschreibung des nichtneutralen Plasmas der GPL haben gezeigt, daß bei Berücksichtigung der Verlustmechanismen (longitudinal und radial) die Beschreibung der Elektronenverteilung in der Linse die Meßergebnisse wesentlich besser widerspiegelt als in der klassischen Theorie Gabors, die nur einen idealisierten Zustand maximaler Elektronendichte beschreibt. Die Integration der Verluste in die Simulation ist für den longitudinalen Verlustkanal gelungen. Die radialen Verluste entziehen sich bisher aufgrund der Komplexität der Vorgänge bei der Diffusion einer hinreichend genauen Beschreibung. Dies liegt vor allem an einer sehr schwierigen Abschätzung der hierbei dominierenden Heiz- bzw. Kühlprozesse im Linsenplasma. ...
Ziel der durchgeführten Experimente dieser Arbeit war es, den Versuch zu unternehmen, Cooper-Paare als Träger des supraleitenden Stroms direkt mit Hilfe des Photoelektrischen Effektes nachzuweisen. Die Methode der koinzidenten Photoelektronenspektroskopie zielt dabei auf den Nachweis von zwei kohärent emittierten Elektronen durch die Wechselwirkung mit einem Photon ab. Da elektrostatische Analysatoren typischerweise nur einen sehr kleinen Raumwinkel erfassen, was mit sehr geringen Koinzidenzraten einhergeht, ist im Zusammenhang mit dieser Arbeit ein Flugzeitprojektionssystem entwickelt worden, welches nahezu den gesamten Raumwinkel auf einem ortsauflösenden Detektor abbildet. Die zur Messung erforderliche gepulste Lichtquelle in Form von spezieller Synchrotronstrahlung ist so schwach eingestellt worden, daß nur vereinzelt Photonen auf die Probe gelangen konnten. Spektroskopiert wurde neben Testmessungen an Silberschichten sowohl ein Blei-Einkristall als Vertreter der klassischen BCS-Supraleiter als auch einkristallines Bi2Sr2CaCu2O8 aus der Gattung der Hochtemperatursupraleiter. Mit Anregungsenergien bis 40 eV konnte gezeigt werden, daß hinreichend glatte und saubere Oberflächen in der supraleitenden Phase innerhalb des Auflösevermögens von ungefähr 0.5 eV keine erkennbaren, signifikanten Unterschiede im Vergleich zur normalleitenden Phase aufweisen. Neben diesen Untersuchungen ist weiterhin ausführlich die einfache Photoemission an den verschiedenen Proben und insbesondere im Falle des Bleikristalls behandelt, da hier keine vergleichbaren Resultate bekannt sind. Dabei wird der gesamte Impulsraum besprochen und die Fermi-Fläche als dreidimensionales Modell erstellt, mit dessen Hilfe die Meßergebnisse diskutiert werden. In den theoretischen Beschreibungen sind verschiedene Modelle zur Cooper-Paar-Emission vorgestellt, wobei beispielsweise dem Impulsaustausch mit dem Kristall eine besondere Rolle beigemessen wird, da dieser bei direkten Anregungen nur über diskrete Gittervektoren erfolgen kann.
This work deals with the use of dielectrics with high permeability, so-called high-k dielectrics in organic thin-film field-effect transistors (FETs). The central part was the preparation of the high-k dielectric and its implementation in transistors, in which organic semiconductors were used as active layer. A field-effect transistor can be used to measure the charge carrier mobility. Employing high-k dielectrics the carrier concentration in the active layer can be greatly increased. In this way, high charge carrier concentrations in organic layers can be achieved without chemical doping. As high-k dielectric strontium titanate (STO) was selected. It is also available as a niobium-doped and therefore conducting substrate material. Thus, one has an ideal substrate for the growth of the dielectric layer in conjunction with a substrate which acts as gate electrode. As the organic semiconductor the small molecules pentacene and copper phthalocyanine (CuPc) were sublimated, as electrical contacts gold was used. As a key part of this work an ultra high vacuum chamber system was constructed for in situ preparation of field effect transistors. For the deposition of the organic thin films a molecular beam deposition chamber was built, including a manipulator and effusion cells as evaporation sources. For the preparation of the dielectric a sputtering chamber was set-up. Another chamber was used in conjunction with an effusion cell for the deposition of the gold contacts. For the structured deposition of the different layers in the devices a shadow mask system was implemented. Movable masks could be positioned by means of a wobble stick onto the sample carriers. The system thus allowed for the use of masks in all chambers. The different thin films required in the transistor structure were first individually prepared and characterized. For the characterization primarily X-ray diffraction and optical microscopy were used. The growth of pentacene was analyzed on aplha-AlO substrates. With X-ray diffraction the (00l) reflections of the thin film phase were observed. In growth studies of CuPc aplha-AlO and STO substrates were used. With X-ray diffraction the aplha-phase was detected. With increasing substrate temperature an increase in crystallinity, but also an increase in surface roughness was observed. The sputtering of STO as a high-k dielectric was studied and optimized. Simultaneously, a high deposition rate, a smooth film surface and good crystallinity of the layer were required. As the most important parameters the substrate temperature, pressure and sputtering power were identified. Argon and oxygen were employed as sputtering gases, as substrate MgO was used. The films showed in comparison to crystalline STO a distortion to larger lattice constants. The degree of distortion decreased with increasing chamber pressure, on the other hand, deposition rate decreased with increasing chamber pressure as well. By combining the individual deposition processes FETs in bottom-gate geometry were prepared. The first step was always sputtering of the STO dielectric on niobium-doped STO substrates. Subsequently, the electrodes and the organic layer were deposited. For comparison transistors on silicon substrates with silicon dioxide (SiO2) as the dielectric were prepared. To study the transistor properties a measurement setup was build. A dielectric constant of about 190 for the STO in the transistors was achieved. The transistors with CuPc as active layer showed p-type conduction behavior. The transistors with STO as dielectric had a much stronger response than those with SiO2. They reached mobilities of 2E-4 cm2/Vs at very low applied voltages of 3V. It could thus be demonstrated that STO is suitable as a dielectric for organic FETs, and that through the use of high-k dielectrics high charge carrier densities can be achieved.
Die transversale Betatronbewegung eines Ionenstrahls, genannt Tune, stellt neben der Strahlposition die wichtigste zu messende Strahleigenschaft für den stabilen Betrieb eines Kreisbeschleunigers dar. Die Einstellung des Tunes auf einen Arbeitspunkt unterliegt engen Grenzen, da eine Vielzahl resonanter Störungen existiert, die die Teilchenbewegung beeinflussen und somit Emittanzvergrößerung und Strahlverlust hervorrufen. Den gemessenen Tune mit hoher Auflösung in Zeit und Frequenz während der gesamten Beschleunigungsphase auszugeben ermöglicht eine Justierung der ionenoptischen Elemente der Strahlführung. Dadurch läßt sich die Teilchenzahl bis zur theoretischen Raumladungsgrenze erhöhen und darüber hinaus Teilchenverluste minimieren. Die Messungen wurden an Positionssonden (BPM) des Schwerionensynchrotrons SIS18 der "GSI Helmholtzzentrum für Schwerionenforschung GmbH" mit zwei verschiedenen Meßsystemen durchgeführt, was einen Vergleich der Systemauflösungen ermöglicht. Das Direkt Digitalisierende Meßsystem (DDM) wandelt das BPM-Elektrodensignal direkt nach der Verstärkerkette mit einer Rate von 125 MSa/s in digitale Daten um. Der Strahlschwerpunkt eines jeden Einzelbunches wird daraus mittels digitaler Prozessierung berechnet und durch Fouriertransformation dessen Frequenzspektrum bestimmt. Man erhält den fraktionalen Tune dadurch direkt im Basisband. Das am CERN entwickelte und für Parameter des SIS18 adaptierte Direct Diode Detection - System (DDD) zeigt ebenfalls den Tune im Basisband. Um den zu bearbeitenden Frequenzbereich erheblich zu reduzieren, werden bei diesem Verfahren die Bunchpeakwerte, die die Strahlschwingung enthalten, über ein RC-Element analog verzögert ausgegeben. Der erhaltene Tune kann daraus mit hoher Auflösung digitalisiert werden. In der vorliegenden Dissertation werden die Meßaufbauten, die digitale Prozessierung der BPM-Daten mittels neuer Algorithmen sowie die Auswertung und Berechnung des Tunes gezeigt. Es werden typische Tuneverläufe diskutiert und ein Arbeitsbereich definiert, bei dem stabile Tunemessungen mit S/N von 30-50 dB ohne meßbare Vergrößerung der Strahlemittanz möglich sind. Die Auflösung der Tunemessung beträgt δqy = 3.50 · 10−4 und δqx = 7.97 · 10−4 für Anregungskickwinkel im Arbeitsbereich. Darüber hinaus werden physikalische Anwendungen des Systems diskutiert, indem verschiedene Einflüsse von ionenoptischen- und Strahlparametern auf den Tuneverlauf gezeigt und ausgewertet werden.
In this work we study compact stars, i.e. neutron stars, as cosmic laboratories for the nuclear matter. With a mass of around 1 - 3 solar masses and a radius of around 10km, compact stars are very dense and, besides nucleons, can contain exotic matter such as hyperons or quark matter. The KaoS collaboration studied nuclear matter for densities up to 2-3 times saturation density by analysing kaon multiplicities from Au+Au and C+C collisions. The results show that nuclear matter in the corresponding density region is very compressible, with a compressibility of <200MeV. For such soft nuclear equations of state the maximum masses of neutron stars are ca. 1.8 - 1.9 solar masses, whereas the central densities are higher than 5 times nuclear saturation density and therefore point towards a possible phase transition to quark matter. If quark matter would be present in the interior of neutron stars, so-called hybrid stars, it could be produced already during their birth in supernova explosions. To study this we implement a quark matter phase transition in a hadronic equation of state which is used in supernova simulations. Supernova simulations of low and intermediate mass progenitors and two different bag constants show a collapse of the proto neutron star due to the softening of the equations of state in the quark-hadron mixed phase. The stiffening of the equation of state for pure quark matter halts the collapse and leads to the production of a second shock wave. The second shock wave is energetic enough to lead to an explosion of the star and produces a neutrino burst when passing the neutrinospheres. Furthermore, first studies of the longtime cooling of hybrid stars show, that colour superconductivity can significantly influence the cooling behaviour of hybrid stars, if all quarks form Cooper Pairs. For the so-called CSL phase (colour-spin locking) with pairing energies of several MeV, the cooling of the quark phase is suppressed and the hybrid star appears as a pure hadronic star.
Vibronic (vibrational-electronic) transition is one of the fundamental processes in molecular physics. Indeed, vibronic transition is essential both in radiative and nonradiative photophysical or photochemical properties of molecules such as absorption, emission, Raman scattering, circular dichroism, electron transfer, internal conversion, etc. A detailed understanding of these transitions in varying systems, especially for (large) biomolecules, is thus of particular interest. Describing vibronic transitions in polyatomic systems with hundreds of atoms is, however, a difficult task due to the large number of coupled degrees of freedom. Even within the relatively crude harmonic approximation, such as for Born-Oppenheimer harmonic potential energy surfaces, the brute-force evaluation of Franck-Condon intensity profiles in a time-independent sum-over-states approach is prohibitive for complex systems owing to the vast number of multi-dimensional Franck-Condon integrals. The main goal of this thesis is to describe a variety of molecular vibronic transitions, with special focus on the development of approaches that are applicable to extended molecular systems. We use various representations of Fermi’s golden rule in frequency, time and phase spaces via coherent states to reduce the computational complexity. Although each representation has benefits and shortcomings in its evaluation, they complement each other. Peak assignment of a spectrum can be made directly after calculation in the frequency domain but this sum-over-states route is usually slow. In contrast, computation is considerably faster in the time domain with Fourier transformation but the peak assignment is not directly available. The representation in phase space does not immediately provide physically-meaningful quantities but it can link frequency and time domains. This has been applied to, herein, for example (non-Condon) absorption spectra of benzene and electron transfer of bacteriochlorophyll in the photosynthetic reaction center at finite temperature. This work is a significant step in the treatment of vibronic structure, allowing for the accurate and efficient treatment of complex systems, and provides a new analysis tool for molecular science.
This thesis investigates the development of early cognition in infancy using neural network models. Fundamental events in visual perception such as caused motion, occlusion, object permanence, tracking of moving objects behind occluders, object unity perception and sequence learning are modeled in a unifying computational framework while staying close to experimental data in developmental psychology of infancy. In the first project, the development of causality and occlusion perception in infancy is modeled using a simple, three-layered, recurrent network trained with error backpropagation to predict future inputs (Elman network). The model unifies two infant studies on causality and occlusion perception. Subsequently, in the second project, the established framework is extended to a larger prediction network that models the development of object unity, object permanence and occlusion perception in infancy. It is shown that these different phenomena can be unified into a single theoretical framework thereby explaining experimental data from 14 infant studies. The framework shows that these developmental phenomena can be explained by accurately representing and predicting statistical regularities in the visual environment. The models assume (1) different neuronal populations processing different motion directions of visual stimuli in the visual cortex of the newborn infant which are supported by neuroscientific evidence and (2) available learning algorithms that are guided by the goal of predicting future events. Specifically, the models demonstrate that no innate force notions, motion analysis modules, common motion detectors, specific perceptual rules or abilities to "reason" about entities which have been widely postulated in the developmental literature are necessary for the explanation of the discussed phenomena. Since the prediction of future events turned out to be fruitful for theoretical explanation of various developmental phenomena and a guideline for learning in infancy, the third model addresses the development of visual expectations themselves. A self-organising, fully recurrent neural network model that forms internal representations of input sequences and maps them onto eye movements is proposed. The reinforcement learning architecture (RLA) of the model learns to perform anticipatory eye movements as observed in a range of infant studies. The model suggests that the goal of maximizing the looking time at interesting stimuli guides infants' looking behavior thereby explaining the occurrence and development of anticipatory eye movements and reaction times. In contrast to classical neural network modelling approaches in the developmental literature, the model uses local learning rules and contains several biologically plausible elements like excitatory and inhibitory spiking neurons, spike-timing dependent plasticity (STDP), intrinsic plasticity (IP) and synaptic scaling. It is also novel from the technical point of view as it uses a dynamic recurrent reservoir shaped by various plasticity mechanisms and combines it with reinforcement learning. The model accounts for twelve experimental studies and predicts among others anticipatory behavior for arbitrary sequences and facilitated reacquisition of already learned sequences. All models emphasize the development of the perception of the discussed phenomena thereby addressing the questions of how and why this developmental change takes place - questions that are difficult to be assessed experimentally. Despite the diversity of the discussed phenomena all three projects rely on the same principle: the prediction of future events. This principle suggests that cognitive development in infancy may largely be guided by building internal models and representations of the visual environment and using those models to predict its future development.
Die P-Typ-ATPasen finden sich in allen Domänen des Lebens und stellen die größte Gruppe aktiver Ionentransporter in Zellen dar. Es handelt sich bei den P-Typ-ATPasen um integrale Membranproteine, die eine große Anzahl verschiedenster Ionen aktiv über eine biologische Membran transportieren. Die für diesen Ionentransport notwendige Energie wird durch Bindung und Hydrolyse von Adenosintriphosphat (ATP) und durch Phosphorylierung des Enzyms gewonnen. Diese, im cytoplasmatischen Teil gewonnene Energie, muss für den Ionentransport von der Phosphorylierungsstelle zur räumlich entfernten transmembranen Ionenbindungsstelle übertragen werden, bei dem das Protein einem Reaktionszyklus mit zwei Hauptkonformationszuständen E1 und E2 unterliegt. Zwischen diesen beiden Zuständen finden große strukturelle Änderungen statt, durch die die Ionenaffintät und die Zugänglichkeit der Ionenbindungsstelle reguliert wird. Da dieser Mechanismus der Energiegewinnung für alle Ionenpumpen dieser Art ähnlich ist, wurde die Ca2+-ATPase und die Na+/K+-ATPase als Modellproteine für die Untersuchung molekularer Mechanismen in P-Typ-ATPasen ausgewählt. Im Rahmen der vorliegenden Arbeit soll die Energietransduktion in P-Typ-ATPasen im Allgemeinen und der Protonengegentransport bzw. ein potentieller Protonentransportweg in der Ca2+-ATPase im Speziellen untersucht werden. Die beiden oben genannten Mechanismen sollen mittels computergestützter Methoden analysiert werden. Vor allem die Ca2+-ATPase ist prädestiniert für computergestützte Untersuchungen, da für diese sehr viele hochaufgelöste Röntgenstrukturdaten vorliegen, wenn auch bisher aufgrund der Größe und Komplexität des Systems nur sehr wenige theoretische Arbeiten durchgeführt wurden. Um den Energietransduktionsmechanismus in P-Typ-ATPasen zu untersuchen, wurde mittels Elektrostatik-Rechnungen der Einfluss eines elektrischen Feldes auf die verschiedenen Transmembranhelices untersucht. Dazu wurde ein Simulationssystem entwickelt, welches aus einem molekularen Kondensator besteht, der im Modell das Anlegen eines homogenen elektrischen Feldes über den Transmembranbereich simuliert. Da es sich bei dem Energietransduktionsmechanismus um einen dynamischen Prozess handelt, wurden die Elektrostatik-Rechnungen um Molekulardynamik-Simulationen erweitert. Mit diesen kann die konformelle Dynamik der P-Typ-ATPasen während der Energietransduktion in die Elektrostatik-Rechnungen einbezogen werden. Aus Spannungsklemmen-Fluorometrie-Experimenten, bei denen eine Spannung über eine Membran angelegt wird, kann geschlossen werden, dass die Helix M5 für die Energietransduktion verantwortlich ist. Mit den in dieser Arbeit durchgeführten Elektrostatik-Rechnungen konnte für verschiedene Enzymzustände der Ca2+-ATPase und für die Na+/K+-ATPase gezeigt werden, dass die Helix M5 die größten Konformeränderungen aufgrund des elektrischen Feldes aufweist. Durch die Erweiterung der Elektrostatik-Rechnungen um die Methode der Molekulardynamik-Simulation konnte zusätzlich die elektrische Feldstärke reduziert werden. Auch dabei zeigte sich, dass auf der Helix M5 die meisten Rotameränderungen durch das elektrische Feld induziert werden. Die aus Experimenten vermutete Rolle der Helix M5 als wichtiges Energietransduktionselement ließ sich mit diesen Simulationsrechnungen bestätigen. Um einen möglichen Protonenweg durch den Transmembranbereich der Ca2+-ATPase aufzuklären, wurden explizite Wassermoleküle in sechs verschiedene Enzymzustände der Ca2+-ATPase eingefügt. Aus Experimenten ist bekannt, dass in der Ca2+-ATPase ein Protonengegentransport stattfindet. Deshalb wurden für verschiedene Enzymzustände der Ca2+-ATPase mittels Elektrostatik-Rechnungen die Protonierungen der eingefügten Wassermoleküle sowie der titrierbaren Aminosäuren bestimmt. Aus den Ergebnissen dieser Rechnungen kann geschlossen werden, dass es sich bei dem Protonentransfer nicht um einen linearen Transport der Protonen handelt. Die Untersuchungen zeigen einen mehrstufigen Prozess, an dem Protonen in verschiedenen Transmembranbereichen der Ca2+-ATPase beteiligt sind. Anhand der berechneten Protonierungszustände der eingefügten Wassermoleküle und der pK-Werte der Aminosäuren im Transmembranbereich konnte weiterhin ein möglicher Protonenweg identifiziert werden.
In der vorliegenden Dissertation wird die Frage der Vereinheitlichung der Quantentheorie mit der Allgemeinen Relativitätstheorie behandelt, wobei entsprechend dem Titel der Arbeit der Beziehung der Grundbegriffe der beiden Theorien die entscheidende Bedeutung zukommt. Da das Nachdenken über Grundbegriffe in der Physik sehr eng mit philosophischen Fragen verbunden ist, werden zur Behandlung dieser Thematik zunächst in einem Kapitel, das die vier jeweils drei Kapitel umfassenden Teile vorbereitet, die Entwicklung der Theoretischen Physik betreffende wissenschaftstheoretische Betrachtungen sowie einige wesentliche Gedanken aus der Klassischen Philosophie vorgestellt, welche für die weitere Argumentation wichtig sind. Bei letzteren geht es neben einer kurzen Schilderung der Platonischen Ideenlehre in Bezug auf ihre Relevanz für die Physik insbesondere um die Kantische Auffassung von Raum und Zeit als a priori gegebenen Grundformen der Anschauung, deren Bezug zur Evolutionären Erkenntnistheorie ebenfalls thematisiert wird. In den beiden ersten Teilen werden die wesentlichen Inhalte der Allgemeinen Relativitätstheorie und der Quantentheorie vorgestellt, wobei der Deutung der beiden Theorien jeweils ein Kapitel gewidmet wird. In Bezug auf die Allgemeine Relativitätstheorie wird diesbezüglich die Bedeutung der Diffeomorphismeninvarianz herausgestellt und in Bezug auf die Quantentheorie wird zunächst die Grundposition der Kopenhagener Deutung verdeutlicht, die im Mindesten als eine notwendige Bedingung zum Verständnis der Quantentheorie angesehen wird, um anschließend eine Analyse und Interpretation des Messproblems und vor allem entscheidende Argumente für die grundlegende Nichtlokalität der Quantentheorie zu geben. Im dritten Teil der Arbeit wird die seitens Carl Friedrich von Weizsäcker in der zweiten Hälfte des letzten Jahrhunderts entwickelte Quantentheorie der Ur-Alternativen beschrieben, in welcher die universelle Gültigkeit der allgemeinen Quantentheorie begründet und aus ihr die Existenz der in der Natur vorkommenden Entitäten hergeleitet werden soll, auf deren Beschreibung die konkrete Theoretische Physik basiert. Es werden sehr starke Argumente dafür geliefert, dass diese Theorie von den bislang entwickelten Ansätzen zu einer einheitlichen Theorie der Natur, welche die heute bekannte Physik in sich enthält, die vielleicht aussichtsreichste Theorie darstellt und damit die Aussicht bietet, auch für das Problem der Suche nach einer Quantentheorie der Gravitation den richtigen begrifflichen Rahmen zu bilden. Ihre große Glaubwürdigkeit erhält sie durch eine die Klassische Philosophie miteinbeziehende philosophische Analyse der Quantentheorie. Dieses Urteil behält seine Gültigkeit auch dann, wenn die Quantentheorie der Ur-Alternativen aufgrund der ungeheuren Abstraktheit der Begriffsbildung innerhalb der Theorie und der sich hieraus ergebenden mathematischen Schwierigkeiten bisher noch nicht zu einer vollen physikalischen Theorie entwickelt werden konnte. Die alles entscheidende Kernaussage dieser Dissertation besteht darin, dass aus einer begrifflichen Analyse der Quantentheorie und der Allgemeinen Relativitätstheorie mit nahezu zwingender Notwendigkeit zu folgen scheint, dass die physikalische Realität auf fundamentaler Ebene nicht-räumlich ist. Dies bedeutet, dass die These vertreten wird, dass es sich bei dem physikalische Raum, wie er gewöhnlich schlicht vorausgesetzt wird, wenn auch in unterschiedlicher Struktur, in Wahrheit nur um eine Darstellung dahinterstehender dynamischer Verhältnisse nicht-räumlicher Objekte handelt. Diese These stützt sich auf die Diffeomorphismeninvarianz in der Allgemeinen Relativitätstheorie und in noch höherem Maße auf die Nichtlokalität in der Quantentheorie, welche sich wiederum nicht nur in konkreten für die Quantentheorie konstitutiven Phänomenen, sondern dazu parallel ebenso im mathematischen Formalismus der Quantentheorie manifestiert. In Kombination mit der Kantischen Behandlung von Raum und Zeit ergibt sich damit ein kohärentes Bild in Bezug auf die eigentliche Natur des Raumes. Die Quantentheorie der Ur-Alternativen ist diesbezüglich als einzige derzeit existierende Theorie konsequent, indem sie auf der basalen Ebene den Raumbegriff nicht voraussetzt und rein quantentheoretische Objekte als fundamental annimmt, aus deren Zustandsräumen sie die Struktur der Raum-Zeit allerdings zu begründen in der Lage ist. Damit befinden sich diese fundamentalen durch Ur-Alternativen beschriebenen Objekte nicht in einem vorgegebenen Raum, sondern sie konstituieren umgekehrt den Raum. Dies ist eine Tatsache von sehr großer Bedeutung. Im vierten Teil wird schließlich die vorläufige Konsequenz aus diesen Einsichten gezogen. Nach einer kurzen Behandlung der wichtigsten bisherigen Ansätze zu einer quantentheoretischen Beschreibung der Gravitation, wird die Bedeutung der Tatsache, dass die Allgemeine Relativitätstheorie und die Quantentheorie eine relationalistische Raumanschauung nahelegen, nun konkret in Bezug auf die Frage der Vereinheitlichung der beiden Theorien betrachtet. Das bedeutet, dass das Ziel also letztlich darin besteht, einen Ansatz zu einer quantentheoretischen Beschreibung der Gravitation zu finden, bei der so wenig räumliche Struktur wie möglich vorausgesetzt wird. In Kapitel 12 wird diesbezüglich ein von mir entwickelter Ansatz vorgestellt, um zumindest eine Theorie zu formulieren, bei der die metrische Struktur der Raum-Zeit nicht vorausgesetzt sondern in Anlehnung an die Eigenschaften eines fundamentalen Spinorfeldes konstruiert wird, das im Sinne der Heisenbergschen einheitlichen Quantenfeldtheorie die Elementarteilchen einheitlich beschreiben soll. Dieser Ansatz geht bezüglich der Sparsamkeit der Verwendung von a priori vorhandener räumlicher Struktur über die bisherigen Ansätze zu einer Quantentheorie der Gravitation hinaus. Er ist aber dennoch nur als ein erster Schritt zu verstehen. Die konsequente Weiterführung dieses Ansatzes würde in dem Versuch bestehen, eine Verbindung zur von Weizsäckerschen Quantentheorie der Ur-Alternativen herzustellen, die überhaupt keine räumliche Struktur mehr voraussetzt. Hierzu konnten bisher nur aussichtsreiche Grundgedanken formuliert werden. Es wird allerdings basierend auf den in dieser Dissertation dargelegten Argumentationen die Vermutung aufgestellt, dass es im Rahmen der von Weizsäckerschen Quantentheorie der Ur-Alternativen möglich ist, eine konsistente quantentheoretische Beschreibung der Gravitation aufzustellen. In jedem Falle scheint die Quantentheorie der Ur-Alternativen die einzige Theorie zu sein, die aufgrund ihrer rein quantentheoretischen Natur in ihrer Begriffsbildung grundsätzlich genug ist, um eine Aussicht zu bieten, diejenige Realitätsebene zu erfassen, in welcher die Dualität zwischen der Quantentheorie und der Allgemeinen Relativitätstheorie zu einer Einheit gelangt.
Magnetic characteristics of metal organic low-dimensional quantum spin systems at low temperatures
(2010)
In dieser Arbeit wurden neue Klassen von niedrigdimensionalen metallisch-organischen Materialien untersucht, die es ermöglichen interessante quantenkritische Phänomene (quantum critical phenomena, QCP) wie die Bose-Einstein-Kondensation (Bose-Einstein condensation, BEC) der magnetischen Anregung in gekoppelten Spin-Dimer-Systemen, den Berezinskii-Kosterlitz-Thouless Übergang (Berezinskii-Kosterlitz-Thouless transition, BKT) und die Divergenz des magnetokalorischen Effekts (magnetocaloric effect, MCE) in Quanten-Spinsystemen beim Anlegen eines magnetischen Feldes zu beobachten. Die Niedrigdimensionalität der untersuchten Systeme war sowohl für die theoretische Beschreibung, als auch für die experimentelle Beobachtung der Phänomene von großer Bedeutung. Aus theoretischer Sicht eröffnet die Beschäftigung mit diesen Systemen die Möglichkeit, einfache Modelle zu entwickeln, die exakt lösbar sind und erlaubt somit ein qualitatives Verständnis der magnetischen Phänomene. Von experimenteller Seite ist es von größtem Interesse, dass durch das Zusammenspiel von Niedrigdimensionalität, konkurrierenden Wechselwirkungen und starker Quantenfluktuation exotische und aufregende magnetische Phänomene (quantenkritische Phänomene) entstehen, die mit verschiedenen experimentellen Methoden untersucht werden können. Um die intrinsischen Eigenschaften der quantenkritischen Phänomene zu verstehen ist es wichtig, die Phänomene an einfachen und gut kontrollierbaren niedrigdimensionalen Modellsystemen wie ein- oder zweidimensionalen Systemen zu untersuchen. ...
This dissertation is devoted to the study of thermodynamics for quantum gauge theories.The poor convergence of quantum field theory at finite temperature has been the main obstacle in the practical applications of thermal QCD for decades. In this dissertation I apply hard-thermal-loop perturbation theory, which is a gauge-invariant reorganization of the conventional perturbative expansion for quantum gauge theories to the thermodynamics of QED and Yang-Mills theory to three-loop order. For the Abelian case, I present a calculation of the free energy of a hot gas of electrons and photons by expanding in a power series in mD/T, mf /T and e2, where mD and mf are the photon and electron thermal masses, respectively, and e is the coupling constant.I demonstrate that the hard-thermal-loop perturbation reorganization improves the convergence of the successive approximations to the QED free energy at large coupling, e ~ 2. For the non-Abelian case, I present a calculation of the free energy of a hot gas of gluons by expanding in a power series in mD/T and g2, where mD is the gluon thermal mass and g is the coupling constant. I show that at three-loop order hard-thermal-loop perturbation theory is compatible with lattice results for the pressure, energy density, and entropy down to temperatures T ~ 2 - 3 Tc. The results suggest that HTLpt provides a systematic framework that can be used to calculate static and dynamic quantities for temperatures relevant at LHC.
Direct photon emission from heavy-ion collisions has been calculated and compared to available experimental data. Three different models have been combined to extract direct photons from different environments in a heavy-ion collision: Thermal photons from partonic and hadronic matter have been extracted from relativistic, non-viscous 3+1-dimensional hydrodynamic calculations. Thermal and non-thermal photons from hadronic interactions have been calculated from relativistic transport theory. The impact of different physics assumptions about the thermalized matter has been studied. In pure transport calculations, a viscous hadron gas is present. This is juxtaposed with ideal gases of hadrons with vacuum properties, hadrons which undergo a chiral and deconfinement phase transition and with a system that has a strong first-order phase transition to a deconfined ideal gas of quarks and gluons in the hybrid model calculations with the various Equations of State. The models used for the determination of photons from both hydrodynamic and transport calculations have been elucidated and their numerical properties tested. The origin of direct photons, itemised by emission stage, emission time, channel and baryon number density, has been investigated for various systems, as have the transverse momentum spectra and elliptic flow patterns of direct photons. The differences of photon emission rates from a thermalized transport box and the hadronic photon emission rates that are used in hydrodynamic calculations are found to be very similar, as are the spectra from calculations of heavy-ion collisions with transport model and hybrid model with hadronic Equation of State. Taking into account the full (vacuum) spectral function of the rho-meson decreases the direct photon emission by approximately 10% at low photon transverse momentum. The numerical investigations show that the parameter with the largest impact on the direct photon spectra is the time at which the hydrodynamic description is started. Its variation shows deviations of one to two orders of magnitude. In the regime that can be considered physical, however, the variation is less than a factor of 3. Other parameters change the direct photon yield by up to approximately 20%. In all systems that have been considered -- heavy-ion collisions at E_lab = 35 AGeV and 158 AGeV, (s_NN)**1/2 = 62.4 GeV, 130 GeV and 200 GeV -- thermal emission from a system with partonic degrees of freedom is greatly enhanced over that from hadronic systems, while the difference between the direct photon yields from a viscous and a non-viscous hadronic system (transport vs. hydrodynamics) is found to be very small. Predictions for direct photon emission in central U+U-collisions at 35 AGeV have been made. Since non-soft photon sources are very much suppressed at this energy, experimental results should very easily be able to distinguish between a medium that is entirely hadronic and a system that undergoes a phase transition from partonic to hadronic matter. In the case of lead-lead collisions at 158 AGeV, the situation is not so clear. In central collisions, the complete direct photon spectra including prompt photons seem to favour hadronic emission sources, while the partonic calculations only slightly overpredict the data. In peripheral collisions at the same energy, the hadronic contribution is more than one order of magnitude smaller than the prompt photon contribution, which fits the available experimental data. A similar picture presents itself at higher energies. At RHIC energies, however, the difference between transport calculations and hadronic hybrid model calculations is largest. Hybrid model calculations with partonic degrees of freedom can describe the experimental results in gold-gold collisions at 200 GeV. The elliptic flow component of direct photon emission is found to be consistently positive at small transverse momenta. This means that the initial photon emission from a non-flowing medium does not completely overshine the emission patterns from later stages. High-pt photons dominantly come from the beginning of a heavy-ion collision and therefore do not carry the directed information of an evolving medium.
A basic introduction to RFQs has been given in the first part of this thesis. The principle and the main ideas of the RFQ have been described and a small summary of different resonator concepts has been given. Two different strategies of designing RFQs have been introduced. The analytic description of the electric fields inside the quadrupole channel has been derived and the limitation of these approaches were shown. The main work of this thesis was the implementation and analysis of a Multigrid Poisson solver to describe the potential and electric field of RFQs which are needed to simulate the particle dynamics accurately. The main two ingredients of a Multigrid Poisson solver are the ability of a Gauß-Seidel iteration method to smooth the error of an approximation within a few iteration steps and the coarse grid principle. The smoothing corresponds to a damping of the high frequency components of the error. After the smoothing, the error term can well be approximated on a coarser grid in which the low frequency components of the error on the fine grid are converted to high frequency errors on the coarse grid which can be damped further with the same Gauß-Seidel method. After implementation, the multigrid Poisson solver was analyzed using two different type of test problems: with and without a charge density. After illustrating the results of the multigrid Poisson solver, a comparison to the field of the old multipole expansion method was made. The multipole expansion method is an accurate representation of the field within the minimum aperture, as limited by cylindrical symmetry. Within these limitations the multigrid Poisson solver and the multipole expansion method agree well. Beyond the limitation the two method give different fields. It was shown that particles leave the region in which the multipole expansion method gives correct fields and that the transmission is affected therefrom as well as the single particle dynamic. The multigridPoisson solver also gives a more realistic description of the field in the beginning of the RFQ, because it takes the tank wall into account, and this effect is shown as well. Closing the analysis of the external field, the transmission and fraction of accelerated particles of the set of 12 RFQs for the two different methods were shown. For RFQs with small apertures and big modulations the two different method give different values for the transmission due to the limitation of the multipole expansion method. The internal space charge fields without images was analyzed at the level of single particle dynamic and compared to the well known SCHEFF routine from LANL, showing major differences for the analyzed particle. For comparing influences on the transmissions of the set of 12 RFQs a third space charge routine (PICNIC) was considered as well. The basic shape of the transmission curve was the same independent of space charge routines, but the absolute values differ a little from routine to routine, with SCHEFF about 2% lower than the other routines. The multigrid Poisson solver and PICNIC agree quite well (less than 1%), but PICNIC has an extremely long running time. The major advantage of the multigrid Poisson solver in calculating space charge effects compared to the other two routines used here is that the Poisson solver can take the effect of image charges on the electrodes into account by just changing the boundaries to have the shape of the vanes whereas all other settings remain unchanged. It was demonstrated that the effect of image charges on the vanes on the space charge field is very big in the region close to the electrodes. Particles in that region will see a stronger transversely defocusing force than without images. The result is that the transmission decreases by as much as 10% which is considerably more than determined by other (inexact) routines before. This is an important result, because knowing about the big effect of image charges on the electrodes it allows it to taken into account while designing the RFQ to increase the performance of the machine. It is also an important factor in resolving the traditional difference observed between the transmission of actual RFQs and the transmission predicted by earlier simulations. In the last chapter of this thesis some experimental work on the MAFF (Munich Accelerator for Fission Fragments) IH-RFQ is described. The machine was assembled in Frankfurt and a beam test stand was built. The shunt impedance of the structure was measured using different techniques, the output energy of the structure were measured and finally its transmission was determined and compared to the beam dynamics simulations of the RFQ. Unfortunately, the transmission measurements were done without exact knowledge of the beam’s emittance. So the comparison to the simulation is somewhat rough, but with a reasonable guess of the emittance a good comparison between the measurement and simulation was obtained.
In order to fully understand the new state of matter formed in heavy ion collisions, it is vital to isolate the always present final state hadronic contributions within the primary Quark-Gluon Plasma (QGP) experimental signatures. Previously, the hadronic contributions were determined using the properties of the known mesons and baryons. However, according to Hagedorn, hadrons should follow an exponential mass spectrum, which the known hadrons follow only up to masses of M = 2 GeV. Beyond this point the mass spectrum is flat, which indicates that there are "missing" hadrons, that could potentially contribute significantly to experimental observables. In this thesis I investigate the influence of these "missing" Hagedorn states on various experimental signatures of QGP. Strangeness enhancement is considered a signal for QGP because hadronic interactions (even including multi-mesonic reactions) underpredict the hadronic yields (especially for strange particles) at the Relativistic Heavy Ion Collider, RHIC. One can conclude that the time scales to produce the required amount of hadronic yields are too long to allow for the hadrons to reach chemical equilibrium within the lifetime of a cooling hadronic fireball. Because gluon fusion can quickly produce strange quarks, it has been suggested that the hadrons are born into chemical equilibrium following the Quantum Chromodynamics (QCD) phase transition. However, we show here that the missing Hagedorn states provide extra degrees of freedom that can contribute to fast chemical equilibration times for a hadron gas. We develop a dynamical scheme in which possible Hagedorn states contribute to fast chemical equilibration times of X X pairs (where X = p, K, Lambda, or Omega) inside a hadron gas and just below the critical temperature. Within this scheme, we use master equations and derive various analytical estimates for the chemical equilibration times. Applying a Bjorken picture to the expanding fireball, the hadrons can, indeed, quickly chemically equilibrate for both an initial overpopulation or underpopulation of Hagedorn resonances. We compare the thermodynamic properties of our model to recent lattice results and find that for both critical temperatures, Tc = 176 MeV and Tc = 196 MeV, the hadrons can reach chemical equilibrium on very short time scales. Furthermore the ratios p/pi, K/pi , Lambda/pi, and Omega/pi match experimental values well in our dynamical scenario. The effects of the "missing" Hagedorn states are not limited to the chemical equilibration time. Many believe that the new state of matter formed at RHIC is the closet to a perfect fluid found in nature, which implies that it has a small shear viscosity to entropy density ratio close to the bound derived using the uncertainty principle. Our hadron resonance gas model, including the additional Hagedorn states, is used to obtain an upper bound on the shear viscosity to entropy density ratio, eta/s, of hadronic matter near Tc that is close to 1/(4pi). Furthermore, the large trace anomaly and the small speed of sound near Tc computed within this model agree well with recent lattice calculations. We also comment on the behavior of the bulk viscosity to entropy density ratio of hadronic matter close to the phase transition, which qualitatively has a different behavior close to Tc than a hadron gas model with only the known resonances. We show how the measured particle ratios can be used to provide non-trivial information about Tc of the QCD phase transition. This is obtained by including the effects of highly massive Hagedorn resonances on statistical models, which are generally used to describe hadronic yields. The inclusion of the "missing" Hagedorn states creates a dependence of the thermal fits on the Hagedorn temperature, TH , and leads to a slight overall improvement of thermal fits. We find that for Au+Au collisions at RHIC at sqrt{sN N} = 200 GeV the best square fit measure, chi^2 , occurs at TH = Tc = 176 MeV and produces a chemical freeze-out temperature of 172.6 MeV and a baryon chemical potential of 39.7 MeV.
Fullerene, Nanoröhren und auch anderen hohlen Strukturen können Atome oder Moleküle in ihrem Inneren einschliessen. In solchen Systemen beeinflussen sich die einschliessenden und eingeschlossenen Strukturen gegenseitig, und es existiert eine Vielzahl unterschiedlicher Effekte: Änderungen der Energieeigenwerte, Änderungen der Elektronenstruktur sowie Ladungsaustausch zwischen den beiden Teilen des Systems. All diese Effekte beeinflussen die Absorbtionsspektren beider Systembestandteile. In dieser Arbeit liegt der Schwerpunkt auf einem dieser Effekte: Dem dynamischen Abschirmungseffekt. Den dynamischen Abschrimungseffekt findet man insbesondere bei solchen Systemen, bei denen die einschliessende Struktur viele delokalisierte Elektronen besitzt. Zu solchen Systemen gehören zum Beispiel endohedrale Komplexe sowie "Nano Peapods" (Nanoröhren mit eingeschlossenen Atomen oder Molekülen). Ursächlich für den dynamischen Abschirmungseffekt ist die Tatsache, dass die Elek- tronen des umschliessenden Käfigs die eingeschlossene Struktur gegen elektromagentische Wellen abschirmen. Mit anderen Worten: Dass das elektrische Feld sowohl innerhalb als auch ausserhalb der einschliessenden Struktur wird vom polarisierenden Feld der einschliessenden Struktur beein°usst. Klassisch betrachtet ist die Photoabsorbtionsrate eines Objektes proportional zu der Intensität eines elektrischen Feldes. Somit unterscheidet sich die Photoabsorbtionsrate (und auch der Wirkungsquerschnitt) der gleichen elektromagnetischen Welle einer Struktur innerhalb eines Einschlusses von der Photoabsorbtionsrate eines freien Atoms oder Moleküls. Der dynamische Abschirmungsfaktor dient als Beschreibung des Verhältnisses dieser beiden Wirkungsfaktoren. Darüber hinnaus können, da die Käfigstruktur viele delokalisierte Elektronen besitzt, Elektronen gemeinsam angeregt werden und somit Plasmons hervorrufen. Wenn sich die Frequenz der anregenden elektromagentischen Strahlung der Resonanzfrequenz dieser Plasmonen annähert, wird das polarisierende Feld besonders gross. Im Endeffekt beobachtet man nahe der Plasmon-Frequenz einen starken Anstieg des Wirkungsquerschnittes der eingeschlossenen Struktur. Der Schwerpunkt in dieser Arbeit liegt auf einer spezifischen Art von System: Endo- hedrale Komplexe. Diese Strukturen wurden mit einem klassichen Ansatz untersucht. Die Fullerene wurden, da sie viele delokalisierte Elektronen besitzen als dielektrische Schalen modelliert, mit der dielektrischen Funktion eines freien Elektronengases. Dabei ist der dynamische Abschrimfaktor durch Auswertung des gesamten elektrischen Feldes am Ort des Atoms im Vergleich zur Stärke des externen elektrischen Feldes definiert. Der dynamische Abschrimungsfaktor wurde für eine Vielzahl unterschiedlicher Situationen untersucht. Im einfachsten Fall, bei dem die Polarisierbarkeit des eingeschlossenen Atoms vernachlässigbar klein ist, ist der dynamische Abschirmfaktor unabhängig von der Position des Atoms innerhalb des Fullerens. Die Veranderung des elektrischen Feldes wird vollständig von der dynamischen Reaktion des Fullerens auf das externe Feld bestimmt. Da das Fulleren von endlicher Dicke ist (definiert duch die räumliche Ausdehnung der Elektronenwolke), besitzt es zwei Oberflächen. Die Wirkung der elektromagnetischen Welle induziert oszillierende Oberflächen-Ladungs-Dichten. Die Oberflächen-Ladungs-Dichten wechselwirken und erzeugen somit zwei Plasmon Eigenmoden: eine symmetrische Mode bei der beide Ladungsdichten in Phase oszillieren und eine antisymmetrische bei denen sie gegen-phasig oszillieren. Der dynamische Abschirmfaktor eines solchen eingeschlossenen Atoms zeigt zwei ausgeprägte Peaks, welche eine Manifestation dieser beiden Oberflächen-Plasmone sind. Die Wechselwirkung zwischen diesen Plasmon-Moden wurde untersucht. Darüber hinnaus wurde der Einfluss der Grösse des Käfigs untersucht; mit Fallbeispielen für C20, C60, C240 und C960 [2, 3]. Im Grenzfall eines unendlich dünnen Fulleren-Käfigs ist nur ein einelnes Oberflächen-Plasmon zu beachten. Als nächstes wurde der Einfluss des eingeschlossenen Atoms untersucht [3{5]. Wenn dessen Polarisierbarkeit gross ist, wird ein reziproker Einfluss des Dipol-Moments des Atoms auf das Fulleren messbar. Dies wurde zunächst unter der Annahme eines zentral angeodneten Atoms für die folgenden drei Fälle untersucht: Ar@C60, Xe@C60 and Mg@C60. Der dynamische Abschirmfaktor verÄanderte sich dabei nur wenig. Der stärkste Einfluss auf das Verhalten des Abschirmfaktors ensteht durch Unstetigkeiten in der Polarisierbarkeit des Atoms nahe dessen Ionisierungs-Schwelle. Die Wahl dieser drei Fallstudien ist durch die quantenmechanischen Berechnungen von [7-9] motiviert. Der Vergleich mit diesen Berechnungen zeigt hohe Übereintismmungen für Ar@C60 und Xe@C60. Allerdings fanden sich auch grosse Unterschiede für Mg@C60, vor allem bei niedriger Photonen-Energie. Das Fulleren besitzt zwei Arten von Valenzelektronen: Die ¼-Elektronen und die stärker gebundenen ¾-Elektronen. Dies führt zum Auftreten zweier Oberflächen-Plasmons in Fullerenen. Dabei ist allgemein bekannt, dass das Buckminster-Fulleren ein Plasmon nahe 8 eV, sowie ein deutlich größeres nahe 20 eV besitzt. Diese sind mit den ¼-Elektronen, respektive den ¾-Elektronen verknüpft (auch wenn ¼-Elektronen zusÄatzlich zu dem ¾-Plasmon beitragen). Aufgrund dieser Tatsache wäre es angemessener, die Valenzelektronen nicht als Ein-, sondern als Zwei-Komponenten-Elektronen-Gas zu behandeln. Um dies miteinzubeziehen, passten wir unser Modell dahingehend an, dass wir das Fulleren als zwei unabhängige kozentrische dielektrische Schalen simulieren. Die Valenzelektronen wurden so auf die zwei Schalen aufgeteilt, dass eine Schlale alle Elektronen enthielt, die Teil des ¼{Plasmons sind, und die andere alle Beteiligten am ¾{Plasmon [4, 5]. Der Vergleich dieses modifizierten Modelles mit den quanten{mechanischen Berechnungen zeigte eine deutlich verbesserte Übereintismmung der Ergebnisse. Alle Merkmale der Berechnungen, vor allem das deutliche Maximum nahe 10 eV bei Mg@C60, konnten reproduziert und damit erklärt werden. Bedingt durch die endliche Dicke der Fulleren-Schale spalten jeder der beiden Plasmonen in jeweils zwei Plasmon Eigenmoden auf. Daher zeigt der dynamische Abschirm-Faktor nun vier Haupt{Eigenschaften welche die vier Plasmon-Moden abbilden. Nichtsdestotrotz zeigen sich immer noch quantitative Unterschiede im Falle von Mg@C60. Fürr Ar@C60 und Xe@C60, bei welchen das ursprÄungliche Modell bereits gute Fits zeigte, werden diese Fits durch die Anpassungen im Modell sogar noch verbessert. Interessanterweise zeigen sich die größten Veränderungen des dynamischen Abschirm-Faktors bei niedrigen Photonen{Energien, also im Bereich des ¼-Plasmons. Betrachtet man den Querschnitt dieses Fulleren Modells, so zeigt der Querschnitt Eigenschaften die den vier Ober°Äachen{Plasmon{Moden des Fullerens zugeordnet werden. Vergleicht man dies mit anderen theoretischen Arbeiten [12] und einer Sammlung verschiedener experimenteller Messungen [10], so zeigt sich, dass alle SchlÄussel{Eigenschaften des Querschnittes in unserem Modell vorhanden sind. Abschlie¼end wurde die Abhängigkeit des dynamische Abschirm-Faktors von der Position des endohedralen Atoms innerhalb des Fullerens anhand zweier Fallstudien, Ar@C60 und Ar@C240 [3, 4], untersucht. Die Ergebnisse zeigen, dass der dynamische Abschirmfaktor relativ unempfindlich gegenüber Veränderung des Positions-Winkels des Atoms ist. Die radiale Position hingegen stellte sich als sehr wichtig heraus. Je mehr sich das Atom der Fulleren-Hülle nähert, desto grösser wird der dynamische Abschirmfaktor. Diese Studien zeigen, dass es notwendig ist, eine Art räumlichen Mittelwertes für den dynamische Abschirmfaktor zu bestimmen, um sichtbare Resultate zu erhalten. Im Rahmen dieser Arbeit wurde daher eine Methode für solch einen Mittelwert entwickelt [3, 4]. Neben der Untersuchung des dynamische Abschirm-Faktors wurde auch ein Vergleich mit experimentellen Messungen erarbeitet. Im Falle von Ce@C82 war die Photon{Energiespanne sehr hoch, weit über der Plasmon-Energie des Fullerens. Das Fulleren sollte daher für eine solche Bestrahlung durchlässig sein, und daher würde man keinen dynamischen Abschirmungs-Effekt finden können. Der Vergleich für Sc3N@C80 ist komplizierter. Da es sich dabei um ein rein klassisches Modell handelt, muss man achtgeben, es nicht mit dem vollständig freien Komplex zu vergleichen, sondern zusätzlich quanten{mechanische Effekte aus Confinements, wie zum Beispiel Elektronen{Transfers, miteinzubeziehen. Zudem ist das aktuelle Modell zu dynamischer Abschirmung nicht für Moleküle, sondern nur für einzelen Atomeentwickelt worden. Ein erster naiver Vergleich, in welchem der Endohedrale Komplex als Pseudo{Atom modelliert wurde, konnte die breite Struktur der experimentellen Ergebnisse nicht wiedergeben. Berechnungen des dynamischen Abschirmfaktors und des daraus resultierenden Querschnittes für ein einzelnes Scandium{Ion zeigte, dass auch räumliches Mitteln nicht ausreicht um die experi-mentellen Beobachtungen erklären zu können. Die Anwesenheit des Fullerens führt zur Öffnung eines neuen Kanals innerhalbdes Auger Prozesses [6, 11] und damit zur Verbreiterung der atomaren Spektrallinienweite. Berücksichtigt man diesen Effekt, so kann die ÄAhnlichkeit zu den experimentellen Ergebnissen deutlich erhöht werden. Allerdings ist es wichtig dabei auch die räumlichen Abhängigkeiten des Effekts, wie auch die der dynamischen Abschirmung, zu beachten. Erste vorläufige Ergebnisse deuten an, dass die beiden genannten Effekte, zumindest teilweise, dabei helfen können, die experimentell gefunden Ergebnisse zu erklären. Unser Modell zur Berechnung des dynamischen Abschirmfaktors liefert eine detaillierte Beschreibung und mögliche Erklärungen der diskutierten Phänomene, welche über die bisherige Arbeiten in der theoretischen Literatur hinausgehen. Die wichtigen Eigenschaften der experimentellen Arbeiten konnten mit dem Modell reproduziert werden, und mit der Verbreiterung der atomaren Spektrallinienweite und der dynamischen Abschirmung konnten wir zwei Effekte als mögliche bisher nicht berücksichtigete Erklärungen für einige dieser Eigenschaften herausarbeiten.
Within this thesis, an experimental study of the photo double ionization (PDI) and the simultaneous ionization-excitation is performed for lithium in different initial states Li (1s22l) (l = s, p). The excess energy of the linearly polarized VUV-light is between 4 and 12 eV above the PDI-threshold. Three forefront technologies are combined: a magneto-optical trap (MOT) for lithium generating an ultra-cold and, by means of optical pumping, a state-prepared target; a reaction microscope (ReMi), enabling the momentum resolved detection of all reaction fragments with high-resolution and the free-electron laser in Hamburg (FLASH), providing an unprecedented brilliant photon beam at favourable time structure to access small cross sections. Close to threshold the total as well as differential PDI cross sections are observed to critically depend on the excitation level and the symmetry of the initial state. For the excited state Li (1s22p) the PDI dynamics strongly depends on the alignment of the 2p-orbital with respect to the VUV-light polarization and, thus, from the population of the magnetic substates (mp = 0, ±1). This alignment sensitivity decreases for increasing excess energy and is completely absent for ionization-excitation. Time-dependent close-coupling calculations are able to reproduce the experimental total cross sections with deviations of at most 30%. All the experimental observations can be consistently understood in terms of the long range electron correlation among the continuum electrons which gives rise to their preferential back-to-back emission. This alignment effect, which is observed here for the first time, allows controlling the PDI dynamics through a purely geometrical modification of the target initial state without changing its internal energy.
Das Ziel der vorliegenden Arbeit war der Einbau, die Inbetriebnahme, die Abstimmung und der Test eines Strahlmatchingsystems in eine Zweistrahl-RFQ-Beschleunigerstruktur. Dieses Strahlmatchingsystem wurde entwickelt, um die Beschleunigereinheit des Frankfurter Funneling-Experimentes besser an die nachfolgende HF-Deflektoreinheit anzupassen und um zu zeigen, dass ein Strahlmatching innerhalb der RFQ-Beschleunigerstruktur möglich ist. Des Weiteren wurden die zum Versuch gehörigen Ionenquellen modifiziert, um eine bessere Anpassung der Strahlherstellung an die Beschleunigerstruktur zu erreichen. Die Spannungsverteilung in der Beschleunigerstruktur selbst wurde durch weitergehende Tuningmaßnahmen verbessert, um die Teilchenverluste weiter zu minimieren Mit dem Funnelingexperiment soll experimentell geprüft werden, ob eine Strahlstromerhöhung durch das Zusammenführen mehrerer Ionenstrahlen verschiedener Ionenquellen möglich ist. Solch ein System ist für einige Zukunftsprojekte (HIDIF, SNS-Ausbau, ESS, u.ä.), die große Strahlströme benötigen, die nicht aus nur einer Ionenquelle extrahiert werden können, erforderlich. Das in dieser Arbeit behandelte Strahlmatching ist für das Experiment notwendig, da zu große Teilchenverluste in der Funnelsektion entstanden und somit eine bessere Anpassung des Strahls an den HF-Deflektor erforderlich wurde. Es konnte gezeigt werden, dass die hier verwendete Art der Strahlfokussierung auch in eine komplizierte RFQ-Beschleunigerstruktur integrierbar ist, in der zwei Strahlkanäle auf der gleichen Stützen-Bodenplatten-Konstruktion aufgebaut sind. Die Verlängerung der Endelektroden und die Integration einer Strahlanpassung haben einen positiven Einfluss auf die Transsmission innerhalb des Beschleunigers und verbessern die Transmission durch den Deflektor. Es konnten Energiemessungen und zeitaufgelöste Faradaytassenmessungen der Teilchenbunche sowie zeitaufgelöst Makropulse mit der Faradaytasse gemessen werden. Floureszensschirmmessungen zeigten, dass die beiden Teilchenstrahlen auf eine neue gemeinsame Strahlachse gebogen wurden. Die Energiemessung zeigte, dass die Simulationen mit RFQSIM sehr genau die Endenergie der Teilchen berechnen konnte. Im Strahlkreuzungspunkt hinter dem Zweistrahl-RFQ-Beschleuniger konnten nahezu identische Teilchenbunche erzeugt werden. Diese Teilchenbunche wiesen zudem die in vorherigen Simulationen errechneten Charakteristika auf, in denen eine transversale und eine longitudinale Fokussierung gegenüber dem ungematchten Strahl simuliert wurden. Es konnte auch eine weitere Strahlradiusreduzierung gemessen werden, die auf eine exaktere Justierung der Elektroden zurückzuführen ist. Die Phasenfokussierung konnte verbessert werden, indem die Elektrodenspannung besser an die Strahlmatchingsektion angepasst wurde. Hierzu mussten auch die Einschussparameter der Strahlen in die Beschleuniger angepasst werden, damit die Transmission der Beschleuniger sich nicht verschlechterte. Insgesamt konnte mit den durchgeführten Experimenten erstmals demonstriert werden, dass zwei Strahlen in einem RFQ-Beschleuniger auf einen Punkt hinter dem Beschleuniger angepasst werden können und die Spannungsverteilung in solch einer Struktur durch Tuningmaßnahmen abstimmbar ist. Es konnte erstmals demonstriert werden das über 90% der Teilchen beider Strahlen, bei guten Strahleigenschaften, auf eine neue gemeinsame Strahlachse abgelenkt (gefunnelt) wurden.
Im Rahmen dieser Arbeit ist es gelungen, eine weltweit einmalige Messapparatur zu entwickeln, mit der Wasserstoffmolekülionen mittels kurzer Laserpulse ionisiert und die Reaktionsprodukte kinematisch vollständig vermessen werden können. Es wird dazu eine an die Coltrims-Technik angelehnte Detektionsmethode genutzt, bei der sowohl Protonen als auch Elektronen über den vollen Raumwinkel nachgewiesen werden können. Die H2+ -Ionen stammen aus einer Hochfrequenz-Ionenquelle und werden auf 400keV beschleunigt. Die Besetzungshäufigkeit der Vibrationsniveaus entspricht daher der Franck-Condon-Verteilung für den Übergang aus dem Grundzustand des neutralen Wasserstoffmoleküls in den elektronischen Grundzustand des Molekülions: H2 (xPg, ν = 0) → H2+ (1sσg, ν′) Dieser Ionenstrahl wird mit einem 780 nm Laserpuls der Pulslänge 40 fs überlappt. Nach der Reaktion fragmentiert das Molekülion entweder über den Dissoziationskanal H2+ + nhν ⇒ H + H+ oder über eine Ionisation gefolgt von einer Coulomb-Explosion: H2+ + nhν ⇒ H+ + H+ + e−. Die Projektile werden nach einer Driftstrecke von etwa 3 m auf einem Ionendetektor nachgewiesen. Für den Nachweis der Elektronen wurde ein spezielles Spektrometer konzipiert, das eine Unterdrückung ungewollter Elektronen erlaubt und so die Messung der Elektronen ermöglicht. Um Elektronen auszublenden, die vom Laser aus dem Restgas ionisiert werden, ist der Elektronendetektor in Flugrichtung der Ionen versetzt angebracht. Durch die unkonventionelle Ausrichtung des Lasers in einem Winkel von 20◦ relativ zur Flugrichtung der Ionen können vom Laser erzeugte Elektronen nur dann den Elektronendetektor erreichen, wenn sie aus dem bewegten Bezugsystem der Projektile stammen. Diese Unterdrückung macht die Messung der Elektronen erst möglich, hat aber auch eine nachteilige Geometrie der Verteilungen gegenüber den Detektorebenen zur Folge. Durch die Ausnutzung der Projektilgeschwindigkeit ist überdies die Benutzung eines B-Feldes zur Verbesserung der Flugzeitauflösung der Elektronen nicht möglich. Um eine Überlappung des Ionenstrahls mit dem Laserfokus zu erreichen, wurde im Bereich der Reaktionszone ein System zur Visualisierung der Strahlpositionen integriert. Dieses kann überdies für eine Intensitätseichung bei linear polarisiertem Licht verwendet werden. Bei der Reaktion kommt es durch die vergleichsweise lange Pulsdauer schon bei relativ niedrigen Intensitäten zu Dissoziationsprozessen. Das dissoziierende Molekül erreicht noch während der ansteigenden Flanke des Laserpulses auf diese Weise Abstände, bei denen der Prozess der Charge-Resonance-Enhanced-Ionization (CREI) stattfinden kann. Auch die in einem sehr engen Winkelbereich um die Polarisationsrichtung des Lasers liegende Winkelverteilung der gemessenen Protonen deutet darauf hin, dass CREI der dominante Ionisationsprozess ist. Durch die vorausgehende Dissoziation nimmt das Molekül schon vor der Ionisation eine kinetische Energie auf, so dass die gemessene KER-Verteilung einer Summe aus KERDissoziation und KERIonisation darstellt. Ein Vergleich mit den KER-Spektren des Dissoziationsprozesses zeigt, dass die aufgenommene Energie durch Dissoziation zu einem überwiegenden Anteil in einem Bereich von 0, 6 ± 0, 35 eV besitzt, während die Gesamt-KER-Verteilung deutlich höhere Werte bis zu 6 eV aufweist. Dies ermöglicht, aus der gemessenen KER-Verteilung den internuklearen Abstand zum Ionisationszeitpunkt näherungsweise zu bestimmen. Die gemessenen Elektronen weisen, ebenso wie die Protonen, eine scharfe Ausrichtung entlang der Laserpolarisation auf, was durch den Einfluss des Lasers auf dieser Achse nicht verwunderlich ist. Bei zirkularer Polarisation dagegen findet eine Netto-Beschleunigung der Elektronen senkrecht zur Richtung des elektrischen Feldes zum Ionisationszeitpunkt statt, sodass die Messung der Elektronenimpulse eine geeignete Messgröße zur Untersuchung des Ionisationsprozesses darstellt. Auf diese Art konnten Winkelverteilungen der Elektronen bezüglich der internuklearen Achse innerhalb der Polarisationsebene gemessen werden. Abhängig von KER und Elektronenergie konnte dabei eine Verdrehung der Verteilung gegenüber den klassisch erwarteten 90◦ relativ zur internuklearen Achse festgestellt werden. Die Winkelverteilung rotiert dabei mit steigendem KER entgegen des Drehsinns. Dies widerspricht der gängigen Vorstellung einer Tunnelionisation, bei der nur die Beschleunigung des Elektrons im Laserfeld eine Rolle spielt und der Einfluss des Coulomb-Potentials vernachlässigt wird. Für höhere Elektronenergien zeigt sich eine zweite konkurrierende Struktur, die für die höchsten Energien die sonst vorherrschende erste Struktur sogar dominiert. Da sich in den Protonenspektren für linear polarisiertes Licht kein Einfluss einer Ionisationsenkrecht zur Polarisationsrichtung findet, erscheint dies als Grund für die zweite Struktur in den Elektron-Winkelverteilungen als unwahrscheinlich. Eine stichhaltige und gestützte Erklärung gibt es bisher weder für die Rotation der ersten Struktur noch für die Herkunft der zweiten. Dies zeigt deutlich, dass es auch für dieses einfachste Molekülsystem noch einen erheblich Handlungsbedarf sowohl auf theoretischer als auch von experimenteller Seite gibt. Da dieses Experiment den ersten experimentellen Zugang für die direkte Untersuchung der Elektronimpulse bei der Ionisation von H2+ -Ionen in kurzen Laserpulsen darstellt, bietet sich hier die bisher einzige Möglichkeit, dieses Verhalten experimentell zu untersuchen.
The goal of this project is to develop a framework for a cell that takes in consideration its internal structure, using an agent-based approach. In this framework, a cell was simulated as many sub-particles interacting to each other. This sub-particles can, in principle, represent any internal structure from the cell (organelles, etc). In the model discussed here, two types of sub-particles were used: membrane sub-particles and cytosolic elements. A kinetic and dynamic Delaunay triangulation was used in order to define the neighborhood relations between the sub-particles. However, it was soon noted that the relations defined by the Delaunay triangulation were not suitable to define the interactions between membrane sub-particles. The cell membrane is a lipid bilayer, and does not present any long range interactions between their sub-particles. This means that the membrane particles should not be able to interact in a long range. Instead, their interactions should be confined to the two-dimensional surface supposedly formed by the membrane. A method to select, from the original three-dimensional triangulations, connections restricted to the two-dimensional surface formed by the cell membrane was then developed. The algorithm uses as starting point the three-dimensional Delaunay triangulation involving both internal and membrane sub-particles. From this triangulation, only the subset of connections between membrane sub-particles was considered. Since the cell is full of internal particles, the collection of the membrane particles' connections will resemble the surface to be obtained, even though it will still have many connections that do not belong to the restricted triangulation on the surface. This "thick surface" was called a quasi-surface. The following step was to refine the quasi-surface, cutting out some of the connections so that the ones left made a proper surface triangulation with the membrane points. For that, the quasi-surface was separated in clusters. Clusters are defined as areas on the quasi-surface that are not yet properly triangulated on a two-dimensional surface. Each of the clusters was then re-triangulated independently, using re-triangulation methods also developed during this work. The interactions between cytosolic elements was given by a Lennard-Jones potential, as well as the interactions between cytosolic elements and membrane particles. Between only membrane particles, the interactions were given by an elastic interaction. For each particle, the equation of motion was written. The algorithm chosen to solve the equations of motion was the Verlet algorithm. Since the cytosol can be approximated as a gel, it is reasonable to suppose that the sub-cellular particles are moving in an overdamped environment. Therefore, an overdamped approximation was used for all interactions. Additionally, an adaptive algorithm was used in order to define the size of the time step used in each interaction. After the method to re-triangulate the membrane points was implemented, the time needed to re-triangulate a single cluster was studied, followed by an analysis on how the time needed to re-triangulate each point in a cluster varied with the cluster size. The frequency of appearance for each cluster size was also compared, as this information is necessary to guarantee that the total time needed by to re-triangulate a cell is convergent. At last, the total time spent re-triangulating a surface was plotted, as well as a scaling for the total re-triangulation time with the variation. Even though there is still a lot to be done, the work presented here is an important step on the way to the main goal of this project: to create an agent-based framework that not only allows the simulation of any sub-cellular structure of interest but also provides meaningful interaction relations to particles belonging to the cell membrane.
In the present work, the problem of protein folding is addressed from the point of view of equilibrium thermodynamics. The conformation of a globular protein in solution at common temperatures is quite complicated without any geometrical symmetry, but it is an ordered state in the sense of its biological activity. This complicated conformation of a single protein molecule is destroyed upon increasing the temperature or by the addition of appropriate chemical agents, as is revealed by the loss of its activity and change of the physical properties, and so on. Once the complicated native structures having biological activity are lost, it would be natural to suppose that the native structure could hardly be restored. Nevertheless, pioneers, such as Anson and Mirsky, recognized as early as in 1925 that this was not always the case. If one defines the folded and unfolded states of a protein as two distinct phases of a system, then under the variation of temperature the system is transformed from one phase state into another and vice versa. The process of protein folding is accompanied by the release or absorption of a certain amount of energy, corresponding to the first-oder-type phase transitions in the bulk. Knowing the partition function of the system one can evaluate its energy and heat capacity under different temperatures. This task was performed in this work. The results of the developed statistical mechanics model were compared with the results of molecular dynamic simulations of alanine poylpeptides. In particular, the dependencies on temperature of the total energy of the system and heat capacity were compared for alanine polypeptides consisting of 21, 30, 40, 50 and 100 amino acids. The good correspondence of the results of the theoretical model with the results of molecular dynamics simulations allowed to validate the assumptions made about the system and to establish the accuracy range of the theory. In order to perform the comparison of the results of theoretical model and the molecular dynamics simulations it is necessary to perform the efficient analysis of the results of molecular dynamics simulations. This task was also addressed in the present work. In particular, different ways to obtain dependence of the heat capacity on temperature from molecular dynamics simulations are discussed and the most efficient one is proposed. The present thesis reports the result of molecular dynamic simulations for not only alanine polypeptides by also for valine and leucine polypeptides. In valine and leucine polypeptides, it is also possible to observe the helix↔random coil transitions with the increase of temperature. The current thesis presents a work that starts with the investigation of the fundamental degrees of freedom in polypeptides that are responsible for the conformational transitions. Then this knowledge is applied for the statistical mechanics description of helix↔coil transitions in polypeptides. Finally, the theoretical formalism is generalized for the case of proteins in water environment and the comparison of the results of the statistical mechanics model with the experimental measurements of the heat capacity on temperature dependencies for two globular proteins is performed. The presented formalism is based on fundamental physical properties of the system and provides the possibility to describe the folding↔unfolding transitions quantitatively. The combination of these two facts is the major novelty of the presented approach in comparison to the existing ones. The “transparent” physical nature of the formalism provides a possibility to further apply it to a large variety of systems and processes. For instance, it can be used for investigation of the influence of the mutations in the proteins on their stability. This task is of primary importance for design of novel proteins and drug delivering molecules in medicine. It can provide further insights into the problem of protein aggregation and formation of amyloids. The problem of protein aggregation is closely associated with various illnesses such as Alzheimer and mad cow disease. With certain modifications, the presented theoretical method can be applied to the description of the protein crystallization process, which is important for the determination of the structure of proteins with X-Rays. There many other possible applications of the ideas described in the thesis. For instance, the similar formalism can be developed for the description of melting and unzipping of DNA, growth of nanotubes, formation of fullerenes, etc.
Untersuchung der Konformation und Dynamik von RNA mit Hilfe fluoreszierender Farbstoffmoleküle
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung der konformationellen und elektronischen Eigenschaften sowie der Dynamik verschiedener RNA-Systeme. Zur Durchführung dieser Experimente wurde zusätzlich zu bereits vorhandenen statischen und zeitaufgelösten Absorptionsspektrometern im Rahmen dieser Arbeit eine Apparatur zur Messung von Fluoreszenzlebensdauern entwickelt, die durch die integrative Verwendung zweier verschiedener, etablierter Technologien (TCSPC und Aufkonvertierung) über einen weiten Zeitbereich von 9 Größenordnungen (100 fs - 0,1 ms) operiert. Mit diesem Aufbau konnten neben den RNA-Studien wichtige Beiträge zum Verständnis der Isomerisierung eines Retinalproteins, des Transportprozess des Membrantransportproteins TbSMR und der im Infraroten liegenden Fluoreszenz des Radikalkations von Astaxanthin gewonnen werden. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Untersuchung verschiedener RNA-Systeme: So werden die optischen Eigenschaften einer 1-Ethinylpyren-modifzierten RNA-Adeninbase allein und in RNA-Strängen eingebunden untersucht. Statische Fluoreszenzmessungen zeigen einen ausgeprägten Ladungstransfercharakter des Chromophors und eine generell große Wechselwirkung zwischen Ethinylpyren und Adenin, die in einer substanziellen Änderung der optischen Eigenschaften des Pyrens resultiert. Die Untersuchung der schnellen Photodynamik von Pyrenadenin zeigt zudem eine Verringerung der Lebensdauer von Pyren um etwa 2 Größenordnungen. Pyrenadenin zeigt sowohl Fluoreszenz eines neutralen (100-200 ps), als auch eines energetisch tiefer liegenden Ladungstransferzustands (1-2 ns). Die Formationszeit des Ladungstransferzustandes fällt mit steigender Polarität des Lösemittels. Eingebunden in Modell-RNA-Stränge ist Fluoreszenzquantenausbeute des Chromophors ein deutlicher Indikator für seine Interkalation. Nur in der stabileren Umgebung von GC-Basenpaaren ist das Pyren in der Lage, sich dauerhaft innerhalb des Duplex aufzuhalten, während in einer flexibleren AU-Umgebung eine Position außerhalb des RNA-Duplex präferiert wird. Transiente Absorptionsmessungen zeigen, dass die Photophysik des in RNA eingebundenen Pyrenadenins nur kleine Variationen im Vergleich zur Photophysik des Labels allein aufweist. Die deutliche Abnahme der Quantenausbeute des interkalierten Chromophors geht hauptsächlich auf Kosten der langlebigeren Ladungstransferfluoreszenz, so dass interkaliertes Pyren insgesamt schneller in den Grundzustand zurückkehrt als nicht interkaliertes. Mit Hilfe eines doppelt modifizierten Duplex, bei dem sich jeweils ein Farbstoff an einem der beiden Stränge befindet, kann nachgewiesen werden, dass aufgrund von Exzimerwechselwirkungen eine Verschiebung des Fluoreszenzmaximums von 35 nm auftritt. Kurzzeitspektroskopische Messungen zeigen Signale, die als Superposition von Monomeren und Exzimeren interpretiert werden können, wobei die Lebensdauer des letzteren mit 18,5 ns die der Monomerkomponente um ein Vielfaches übertrifft. Ein weiterer Teil dieser Arbeit beschäftigt sich mit einer Studie zur Bindung des fluoreszenten Liganden Tetrazyklin an das Tetrazyklin bindende Aptamer. Hier wird auf Basis verschiedener Mutanten mit Hilfe des TCSPC eine Analyse der Stabilität der Bindetasche sowie mit der Stopped-Flow-Methode eine Beobachtung des Bindungsprozesses durchgeführt. Insgesamt folgt die Bindung des Tetrazyklins an das Aptamer einer zweistufigen Kinetik, deren zweiter Schritt irreversibel ist. Die Bindung läuft, verglichen mit anderen Aptameren, sehr schnell ab. Während die Mutationen von A13 und A50,die direkte Kontakte zum Substrat bilden, nur einen leichten Einfluss auf beide Bindungsschritte ausüben, führt eine Mutation der für die Präformation verantwortlichen Base A9 zu einer Verlangsamung des Bindungsprozesses um mehr als einen Faktor 20 durch eine immens gesteigerten Rückreaktionsrate des ersten Bindungsschritts. Hieraus lässt sich schließen, dass bei fehlender Präformation des Aptamers nur wenige Tetrazyklinmoleküle ein für vollständige Bindung geeignetes Aptamer vorfinden. Die Bindung an A13 und A50 geschieht bereits im ersten Schritt des Bindungsprozesses. Ferner konnte anhand von Lebensdauermessungen gezeigt werden, dass nach dem Wildtyp die Mutante A9G die stabilste Bindetasche aufwies. Das Fehlen eines direkten Kontaktes wirkt sich deutlich stärker aus. Insbesondere führt die Abwesenheit der Fixierung des Gegenions durch A50 zu der instabilsten Bindetasche. Wie in dieser Arbeit gezeigt wird, ist die zeitaufgelöste optische Spektroskopie insbesondere in Verbindung mit fluoreszierenden Molekülen ein ausgezeichnetes Mittel zur Beobachtung von Struktur und Dynamik von RNA. Die Empfindlichkeit von Fluoreszenz auf die Veränderung der Umgebung des Chromophors erlaubt es, Konformationsdynamik und elektronische Konfigurationen in Echtzeit zu beobachten.
In this work we investigate phenomenological aspects of an anisotropic quark-gluon plasma. In the first part of this thesis, we formulate phenomenologicalmodels that take into account the momentumspace anisotropy of the system developed during the expansion of the fireball at early-times. By including the proper-time dependence of the parton hard momentum scale, phard(), and the plasma anisotropy parameter, Xi, the proposed models allow us to interpolate from 0+1 pre-equilibrated expansion at early-times to 0+1 ideal hydrodynamics at late times. We study dilepton production as a valuable observable to experimentally determine the isotropization time of the system as well as the degree of anisotropy developed at early-times. We generalize our interpolating models to include the rapidity dependence of phard and consider its impact on forward dileptons. Next, we discuss how to constrain the onset of hydrodynamics by demanding two requirements of the solutions to the equations of motion of viscous hydrodynamics. We show this explicitly for 0+1 dimensional 2nd-order conformal viscous hydrodynamics and find that the initial conditions are non-trivially constrained. Finally, we demonstrate how to match the initial conditions for 0+1 dimensional viscous hydrodynamics from pre-equilibrated expansion. We analyze the dependence of the entropy production on the pre-equilibrium phase and discuss limitations of the standard definitions of the non-equilibrium entropy in kinetic theory.
In this thesis we have studied the physics of different ultracold Bose-Fermi mixtures in optical lattices, as well as spin 1=2 fermions in a harmonic trap. To study these systems we generalized dynamical mean-field theory for a mixture of fermions and bosons, as well as for an inhomogeneous environment. Generalized dynamical mean-field theory (GDMFT) is a method that describes a mixture of fermions and bosons. This method consists of Gutzwiller mean-field for the bosons, and dynamical mean-field theory for the fermions, which are coupled on-site by the Bose-Fermi density-density interaction and possibly a Feshbach term which converts a pair of up and down fermions into a molecule, i.e. a boson. We derived the self-consistency equations and showed that this method is well-controlled in the limit of high lattice coordination number z. We develop real-space dynamical mean-field theory for studying systems in an inhomogeneous environment, e.g. in a harmonic trap. The crucial difference compared to standard DMFT is that we are taking into account that different sites are not equivalent to each other and thus take into account the inhomogeneity of the system. Different sites are coupled by the real-space Dyson equation. ...
Die vorliegende Arbeit bietet zunächst einen weiteren Beweis für die Existenz des neutralen Heliumdimers. Darüber hinaus konnten zwei verschiedene Prozesse identifiziert werden, über die die Absorbtion eines Photons zur Ionisation beider Atome des Dimers über sehr große Abstände führen kann. Oberhalb einer Photonenenergie von 65,4 eV konnte ein ICD Prozess beobachtet werden, der über Photoionisation mit gleichzeitiger Anregung von einem der beiden Atome realisiert wird. Bei 77,86 eV konnte ICD über elektronisch angeregte Zustände bis n=6 nachgewiesen werden. In der KER-Verteilung konnten zudem Strukturen gefunden werden, die auf Vibrationsanregungen im Zwischenzustand des Dimer-Ions schließen lassen. Eine vollständig quantenmechanische Rechnung von Sisourat et al. konnte dies schließlich hervorragend bestätigen. Es konnte also ein direkter Blick auf die Vibrationswellenfunktionen des Systems erlangt werden. In anderen Systemen ist dies in der Regel nicht möglich, da sich alle Zustände üblicherweise zu einer strukturlosen Verteilung überlagern. Weiterhin konnte gezeigt werden, dass sich die Winkelverteilungen von ICD- und Photoelektronen in verschiedenen Bereichen des KER mitunter stark voneinander unterscheiden. Dies konnte auf die unterschiedliche Besetzung von verschiedenen Potentialkurven zurückgeführt werden. Unterhalb der Photonenenergieschwelle zur Anregung und Ionisation eines Heliumatoms konnte ein weiterer, zweistufiger Ionisationsmechanismus gefunden werden. Hier wird zunächst durch Photoionisation ein Elektron aus einem der beiden Atome im Dimer freigesetzt. Dieses Photoelektron kann nun am neutralen Atom gestreut werden und dabei ausreichend viel Energie übertragen, um dieses ebenfalls zu ionisieren. Es konnte gezeigt werden, dass der Prozess einer Abhängigkeit von der Polarisation der Synchrotronstrahlung unterliegt, die man für Photoionisation erwarten würde. Die Energie- und Winkelverteilungen der Elektronen konnten daher mit vorangegangenen Elektronenstoß-Experimenten verglichen werden. Die gute Übereinstimmung mit diesen Daten rechtfertigt eine anschauliche Sichtweise des Prozesses als Analogon zum klassischen Billiard-Stoß. Der Two-Step-Prozess wurde bisher zwar schon in vielen Systemen als theoretisches Modell zur Doppelionisation beschrieben, allerdings konnten die einzelnen Unterprozesse bisher nicht gesondert gemessen werden. Die großen Abstände im Heliumdimer ermöglichen erstmals eine deutliche Trennung in Photoionisation an einem Atom und Elektronenstoß (e,2e) am Nachbaratom. Der Two-Step-Prozess konnte außerdem dazu verwendet werden, die ungewöhnliche Grundzustandswellenfunktion des Heliumdimers zu experimentell zu bestätigen. Eine Analyse des gemessenen KER konnte dabei deutliche Abweichungen zu einer klassischen Theorie aufzeigen. Erst eine vollständig quantenmechanische Rechnung des Übergangs von Sisourat et al. konnte die Messdaten beschreiben.
Nanocarbon structures, such as fullerenes and nanotubes, have generated considerable interest and research, due to their unique properties and potential applications. In this thesis, we present a study of the phase transition properties of nanocarbon clusters,in particular, we pay special consideration to fullerenes. The work presented in this thesis is largely theoretical and computational in nature, employing as a tool, molecular dynamics simulations to probe the dynamic stability of fullerenes and associated nanocarbon structures such as graphenes and nanotubes.
This work reports on the study of the projectile x-ray emission in relativistic ion-atom collisions. Excitation of K-shell in He-like uranium ions, electron capture into H-like uranium ions and Simultaneous ionization and excitation of initially He-like uranium ions have been studied using the experimental storage ring at GSI. Information about the population of the excited states for the H- and He-like uranium ions, can be obtained by measuring the angular distribution of the decay radiation. Since the Ly_alpha2 transition is isotropic, the intensities of the Ly_alpha1 and K_alpha transitions were normalized to the Ly_alpha2 line. For the K_alpha1 and K_alpha2 transitions originating from the excitation of the He-like uranium ions, no alignment was observed. In contrast, the Ly_alpha1 radiation from the simultaneous ionization-excitation process of the He-like uranium ions shows a clear alignment. It is shown that the alignment of Ly_alpha1 was obtained by the Alignment parameter A_20. The experimental value leads to the inclusion of a magnetic term in the interaction potential. It is interesting to note that in the case of the Ly_alpha1 emission the small M2 contribution added coherently to the E1 transition amplitudes enhances the anisotropy. The capture process of target electrons into the highly-charged heavy ions was studied using H-like uranium ions at an incident energy of 220 MeV/u, impinging on N2 gas-target. It was shown that, the strongly aligned electrons captured in 2p3/2 level will couple with the available 1s1/2 electron which shows no initial directional preference. The magnetic sub-state population of the 2p3/2 electron will be redistributed according to the coupling rules to the magnetic sub-states of the relevant two-electron states. Consequently, the 1^P1 and 3^P2 states are corresponding to the the strongly aligned 2p3/2 state. This leads to the large anisotropy in the corresponding individual ground state transitions contributing to the K_alpha1 emission. Due to the fact that the 1^P1 --> 1^S0 and 3^P2 --> 1^S0 transitions are experimentally not resolved, a more detailed analysis of the angular dependence of the K_alpha1 radiation is required. From the K_alpha1/K_alpha2 ratio, the current results show that the incoherent addition of the E1 and M2 transition components yield to an almost isotropic emission of the total K_alpha1. In contrast to the radiative electron capture, the experimental results for the K-shell single excitation of He-like uranium ions indicate that only the 1^P1 level contributes to the K_alpha1 transition. For this case, the anisotropy parameter beta_20 was found to be -0.20 + 0.03 which is similar to that one calculated for pure E1 transition. This work also reports on the study of a two-electron process: the simultaneous ionization and excitation occurring in relativistic collisions of heavy highly-charged ions with gaseous targets. The investigation was performed on He-like uranium ions impinging upon xenon gas-target at an incident energy of 220 MeV/u. The measurements have been performed at the ESR gas-target using atomic xenon with a typical area density of 10^12 particles/cm^2. In contrast to the solid state target, the use of gas target offers the advantage of clear separation of the one step two-electron process due to the fact that the probability of two consecutive collision in such thin targets is negligible and the double step processes can be excluded. During the process of simultaneous ionization and excitation in He-like uranium ions, one of the ground-state electrons is promoted into the continuum and the other into the L-subshell states of the projectile. To select this process, the Lyman-series radiation has been measured at various observation angles in coincidence with up-charged projectiles (U^91+). From the yields of the Ly_alpha1 and Ly_alpha2 projectile radiation, the relative cross section for the process of simultaneous ionization and excitation was directly determined. The angle dependent measurement of the radiation yields provide information about the angular distributions of the emitted radiation and permits the determination of the alignment parameter A_{20}. This parameter gives information on the level population and the collision impact parameter. The present results (b^exp = 810 fm) show that the simultaneous ionization and excitation is a process which occurs at small impact parameter.
Mit der vorliegenden Arbeit wurden zu ersten Mal die seit mehreren Jahren vorhergesagten dynamischen Aufbruchsmechanismen - der direkte, der sequentielle und der asynchrone Zerfall - in mehratomigen Molekülen kinematisch vollständig untersucht. Experimentell wurde hierfür ein Kohlenstoffdioxid-(CO2)-Molekül in langsamen Ion-Molekül Stößen dreifach ionisiert, indem die Elektronen des Targets von den langsamen, hochgeladenen Projektilionen (Ar8+-Ionen) eingefangen wurden. Die Untersuchung des Zerfalls des CO2-Ions in die einfach geladenen ionischen Fragmente C+ + O+ + O+ zeigte, dass bei diesem Zerfall das Projektilion vornehmlich einen positiven Ladungszustand von q = 6 und nicht den zunächst erwarteten Ladungszustand q = 5 aufweist. Dies ist darauf zurückzuführen, dass die eingefangenen Elektronen oftmals elektronisch hoch angeregte Zustände im Projektil populieren und demnach im weiteren Verlauf über Autoionisationsprozesse dieses auch wieder verlassen können. Ähnliche Autoionisationsprozesse können auch im Target ablaufen, treten dort jedoch mit einer geringeren Wahrscheinlichkeit auf, da der Wirkungsquerschnitt für Autoionisationsprozesse im Target um einen Faktor 1,3 kleiner ist als für Autoionisationen im Projektil. Zusätzlich zeigte die Untersuchung der Stoßdynamik, dass der dreifache Elektroneneinfang primär bei einer parallelen Orientierung der Molekülachse zur Projektilstrahlachse auftritt. Eine weitere Abhängigkeit der Stoßdynamik zum Beispiel vom Stoßparameter beziehungsweise vom Streuwinkel konnte nicht beobachtet werden. Durch die koinzidente Messung aller vier Reaktionsteilchen konnte der Kanal Ar8+ + CO2 --> Ar6+ + C+ + O+ + O+ eindeutig bestimmt werden und die Reaktionsdynamik des CO2-Ions nach dem Stoß analysiert werden. Dabei tritt deutlich der direkte Aufbruch hervor, bei welchem die drei einfach geladenen Ionen sich rein aufgrund ihrer Coulombkräfte voneinander abstoßen. Bei einer solchen Coulombexplosion bleibt dem Molekülion kaum Zeit, um eine molekulare Schwingung zu vollführen. Neben diesem schnellen Zerfall konnten aber auch jene Zerfälle beobachtet werden, bei denen das Molekülion zuerst molekular schwingt und dann zu einem späteren Zeitpunkt in die ionischen Fragmente zerfällt. Dieser letztere Zerfallsprozess gehört zu den sogenannten asynchronen Zerfallsmechanismen. Er stellt einen Zwischenprozess zwischen dem reinen 1-Stufen-Prozess wie dem direkten Aufbruch und dem reinen 2-Stufen-Prozess dar. Bei solchen sequentiellen 2-Stufen Prozessen fragmentiert das CO2-Molekül im ersten Schritt in ein O+- und ein CO2+-Ion. Im zweiten Schritt dissoziiert dann das CO2+-Fragment, nachdem es nahezu keine Wirkung der Coulombkräfte des ersten Sauerstoffions mehr spürt, in ein C+- und ein O+-Ion. Durch die Darstellung der Schwerpunktsimpulse der Fragmente in Dalitz- und Newton-Diagrammen ist es mit dieser Arbeit erstmals gelungen diesen sequentiellen Prozess experimentell eindeutig nachzuweisen. In der weiteren Analyse konnte gezeigt werden, dass über die im System deponierte Energie, welche über die kinetische Energie der Fragmente bestimmt wird, die verschiedenen Reaktionsmechanismen direkt kontrolliert werden können. Speziell bei Energien unterhalb von 20 eV wurde gezeigt, dass es keine Potentialflächen gibt, die über einen direkten bzw. simultanen Aufbruch zu dem Endzustand C+ + O+ + O+ führen. Bei mehratomigen Molekülen erweist sich das Treffen detaillierter Aussagen über mögliche Dissoziationskanäle ohne die genaue Kenntnis der Lage der Potentialflächen und den Übergängen zwischen diesen als äußerst schwierig. Selbst bei genauer Kenntnis der Lage und Form der Potentialflächen, ist es aufgrund der hohen Dichten innerhalb der Übergangsbereiche der Potentialflächen nahezu unmöglich, den Verlauf der Dissoziationskanäle zu verfolgen. Mit dieser Arbeit ist es gelungen, die verschiedenen Reaktionskanäle ohne die Existenz von Energiepotentialflächen eindeutig zu identifizieren. Außerdem konnte gezeigt werden, dass die Energie, die während des Stoßes im Molekül deponiert wird, eine Schlüsselgröße darstellt, mit welcher die Fragmentationskanäle direkt kontrolliert werden können.
Lattice simulation of a center symmetric three dimensional effective theory for SU(2) Yang-Mills
(2010)
We present lattice simulations of a center symmetric dimensionally reduced effective field theory for SU(2) Yang Mills which employ thermal Wilson lines and three-dimensional magnetic fields as fundamental degrees of freedom. The action is composed of a gauge invariant kinetic term, spatial gauge fields and a potential for the Wilson line which includes a "fuzzy" bag term to generate non-perturbative fluctuations between Z(2) degenerate ground states. The model is studied in the limit where the gauge fields are set to zero as well as the full model with gauge fields. We confirm that, at moderately weak coupling, the "fuzzy" bag term leads to eigenvalue repulsion in a finite region above the deconfining phase transition which shrinks in the extreme weak-coupling limit. A non-trivial Z(N) symmetric vacuum arises in the confined phase. The effective potential for the Polyakov loop in the theory with gauge fields is extracted from the simulations including all modes of the loop as well as for cooled configurations where the hard modes have been averaged out. The former is found to exhibit a non-analytic contribution while the latter can be described by a mean-field like ansatz with quadratic and quartic terms, plus a Vandermonde potential which depends upon the location within the phase diagram. Other results include the exact location of the phase boundary in the plane spanned by the coupling parameters, correlation lengths of several operators in the magnetic and electric sectors and the spatial string tension. We also present results from simulations of the full 4D Yang-Mills theory and attempt to make a qualitative comparison to the 3D effective theory.
Bei der GSI – Helmholtzzentrum für Schwerionenforschung in Darmstadt wird im Rahmen des HITRAP-Projekts ein linearer Abbremser für schwere, hochgeladene Ionen für atomphysikalische Präzisionsexperimente in Betrieb genommen. Während der Inbetriebnahme wurden transversale Emittanzmessungen mit der Pepperpot- und der Multi-Gradienten-Methode durchgeführt, um die Emittanz des aus dem Experimentierspeicherring (ESR) extrahierten Strahls zu messen. Weiterhin wurde auch die Phasenraumverteilung des auf eine Zwischenenergie von 500keV/u abgebremsten Strahls hinter der IH-Struktur gemessen. Dazu wurden neue Auswertealgorithmen in die Analyse der digitalen Bilder integriert. Die longitudinalen Bunchstrukturmessungen des Strahls am Eintrittspunkt in den Abbremser und die Funktionsweise des Doppel-Drift Bunchers wird gezeigt. Die Konzeption und der Aufbau sowie die erste Inbetriebnahme einer neuartigen Einzelschuss-Pepperpot-Emittanzmessanlage für kleinste Strahlströme und -energien wird beschrieben, die es ermöglichen, den Strahl hinter den Abbremskavitäten zu vermessen. Zusätzlich wurden transversale Strahldynamikrechnungen durchgeführt, welche theoretische Grundlagen zur Inbetriebnahme von HITRAP lieferten. Es wird beschrieben, wie die gesamte Strahllinie vom ESR bis zum Radio-Frequenz Quadrupol nach der erfolgreichen Integration einer Abbremsroutine innerhalb des Softwarepakets COSY Infinity optimiert werden kann.
Im Zentrum dieser Arbeit stehen die Überstrukturphasen des Yb-Cu-Systems. Als Ausgangspunkt für die Kristallzüchtung wird die kongruent schmelzende Verbindung YbCu4:5 gewählt. Um einen genauen Einblick in das Erstarrungsverhalten dieser Phase zu erhalten, werden zunächst im Bereich zwischen 17.3 und 22.4 at-% Yb eine Reihe von DSC-Messungen durchgeführt. Die Ergebnisse lassen sich nur bedingt mit den in der Literatur veröffentlichten Phasendiagrammen (Moffat [Mo92] bzw. Massalski [Ma90] und Giovannini et al. [Gi08]) vereinbaren. Zwar kann eine kongruent schmelzende Phase der Zusammensetzung YbCu4:5 nachgewiesen werden, die Messungen deuten aber die Existenz zusätzlicher Verbindungen an, die allerdings mit Hilfe der EDX-Analyse nicht weiter spezifiziert werden können. Um diese Phasen genauer zu analysieren, werden Einkristallzüchtungsversuche nach der Bridgman-Methode im Bereich zwischen 19 und 19.2 at-% Yb durchgeführt und mittels Einkristallbeugungsmethoden (SC-XRD und SAED) charakterisiert. Auf diese Weise können neben YbCu4:5 die bisher noch unbekannten berstrukturphasen YbCu4:4 und YbCu4:25 nachgewiesen werden, deren Schmelztemperaturen mittels DSC-Untersuchungen zu 934(2)°C und 931(3)°C bestimmt werden. Die Entdeckung der beiden Verbindungen bestätigt die von Cerný et al. [Ce03] bisher nur theoretisch vorhergesagte Existenz der Überstrukturphasen SECux (x=4.4 und 4.25) für das Yb-Cu-System. Mit Hilfe von Polarisations- und Rasterelektronenmikroskopie und unter Anwendung der Laue-Methode wird das Wachstumsverhalten dieser Überstrukturphasen analysiert. Man beobachtet ein Schichtwachstum, wobei sich die Schichten parallel zur a- und b-Richtung ausbilden und in c-Richtung gestapelt vorliegen. Da eine zuverlässige Unterscheidung der YbCux-Verbindungen nur mit Hilfe von Einkristallbeugungsmethoden gelingt, wird im Rahmen dieser Arbeit untersucht, inwiefern eine Charakterisierung mittels Pulverdiffraktometrie möglich ist. Die Messungen mit Synchrotronstrahlung am ESRF in Grenoble erlauben eine eindeutige Unterscheidung der Überstrukturphasen allerdings nicht. Die Analyse des an das Überstrukturgebiet angrenzenden Zusammensetzungsbereichs von 12.5 bis 17.24 at-% Yb bestätigt die Existenz der Verbindung YbCu6:5, eine kupferärmere Phase der Zusammensetzung YbCu5 kann in den DSC-Experimenten nicht nachgewiesen werden. Die Messungen belegen die Existenz einer Phasenbreite von YbCu6:0+x mit 0 <= x <= 0:5 ist, was im Gegensatz zu dem von Giovannini et al. [Gi08] publizierten Phasendiagramm steht. SC-XRD-Aufnahmen an nach der Bridgman-Methode gezüchteten Einkristallen der Zusammensetzung YbCu6:31(9) untermauern das von Hornstra und Buschow [Ho72] gefundene Strukturmodell. Die Verschiebungen der Atompositionen bedingt durch den im Gegensatz zur YbCu5-Verbindung erhöhten Kupferanteil werden mit Hilfe der gemessenen und berechneten Paarverteilungsfunktion nachvollzogen. Phasendiagrammuntersuchungen und Einkristallzüchtungsergebnisse für weitere SE-Cu-Systeme (SE =Ho, Gd) bestätigen die Existenz der Verbindung HoCu4:5 und erhärten den Verdacht sowohl in diesem als auch in den anderen Systemen noch weitere Überstrukturphasen finden zu können.
In this thesis, we study the properties of excitations in the systems of interacting fermions. These excitations can be bosonic such as collective modes which we handle in the first part of this thesis or fermionic like quasi particles and quasi holes. One of the important points, to investigate the excitations is their damping which corresponds to their life-time in the system. This thesis consists of two parts, where in both parts, we use the field-theoretical methods to examine the problem.
Event-by-event fluctuations of the particle yield ratios in heavy-ion collisions at 20 - 158 AGeV
(2010)
Non-statistical event-by-event fluctuations are considered as an important signal for the critical endpoint of the QCD phase diagram. Event-by-event fluctuations of different observables are thus investigated in detail in current experiments but are also an important observable to be studied at the future CBM experiment at FAIR. In this work we present the energy and centrality dependence of event-by-event fluctuations of particle yield ratios measured by the NA49 experiment in Pb+Pb collisions at 20 - 158 AGeV. Systematic studies of the influence of the dE/dx resolution on the particle identification and the centrality bin size were performed. Results can be compared to event-by-event fluctuations measured by NA49 for different observables such as <pt> or the mean charged particle multiplicity. Main results of these studies are an increase of absolute value of the dynamical particle ratio fluctuations with decreasing centrality for all considered ratios, saturation of the K/Pi and K/p ratio fluctuations for peripheral Pb + Pb collisions at 158A GeV and scaling of the energy and centrality dependences of the p/Pi ratio fluctuations with NpNPi. The measured energy and centrality dependences of the K/Pi and K/p ratio fluctuations scale with NK in a different way. The saturation of the mentioned ratios fluctuations was attributed to the development of pronounced spike at zero in the eventwise ratio distributions, which, as was shown by Monte Carlo simulations, influence the measured fluctuations in the very peripheral Pb + Pb collisions at 158A GeV. In future, the CBM experiment at FAIR will investigate the intermediate region of the QCD phase diagram in great detail searching for the first order phase transition line and the expected critical endpoint. It is therefore important to closely investigate its sensitivity towards particle ratio fluctuations in Au+Au collisions at 10-45 AGeV beam energy. Detailed simulation studies will be presented. As an outcome of these feasibility studies we conclude that the CBM experiment will be able to provide high quality data on the subject of the event-by-event flucutations of particle yield ratios with sensitivity in the order of 1%.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
ALICE (A Large Ion Collider Experiment), is the dedicated heavy-ion experiment at the Large Hadron Collider (LHC) at CERN. It is optimised to reconstruct and identify the particles created in a lead-lead collision with a centre of mass energy of 5.5TeV. The main tracking detector is a large-volume time-projection chamber (TPC). With an active volume of about 88m^3 and a total readout area of 32.5m^2 it is the most challenging TPC ever build. A central electrode divides the 5m long detector into two drift regions. Each readout side is subdivided into 18 inner and 18 outer multi-wire proportional read-out chambers. The readout area is subdivide into 557568 pads, where each pad is read out by and electronics chanin. A complex calibration is needed in order to reach the design position-resolution of the reconstructed particle tracks of about 200um. One part of the calibration lies in understanding the electronic-response. The work at hand presents results of the pedestal and noise behaviour of the front-end electronics (FEE), measurements of the pulse-shaping properties of the FEE using results obtained with a calibration pulser and measurements performed with the laser-calibration system. The data concerned were taken during two phases of the TPC commissioning. First measurements were performed in the clean room where the TPC was built. After the TPC was moved underground and built into the experiment, a second round of commissioning took place. Noise measurements in the clean room revealed a very large fraction of pads with noise values larger than the design specifications. The unexpected high noise values could be explained by the 'ground bounce' effect. Two modifications helped to reduce this effect: A desynchronisation in the the start of the readout of groups of channels and a modification in the grounding scheme of the FEE. Further noise measurements were carried out after the TPC has been moved to the experimental area underground. Here even a larger fraction of channels showed too large noise values. This could be traced back to a common mode current injected by the electronics power supplies. To study the shaping properties of the FEE a calibration pulser was used. To generate signals in the FEE a pulse is injected to the cathode wires of the read-out chambers. Due to manufacturing tolerances slight channel-by-channel variations of the shaping properties are expected. This effects the determination of the arrival time as well as the measured integral signal of the induced charge and has to be corrected. The measured arrival time variations follow a Gaussian distribution with a width (sigma) of 6.2ns. This corresponds to an error of the cluster position of about 170um. The charge variations are on the level of 2.8%. In order to reach the intrinsic resolution on the measurement of the specific energy loss of the particles (6%) those variations have to be taken into account. The photons of the laser-calibration system are energetic enough to emit photo electrons off metallic surfaces. Most interesting for the detector calibration are photo electrons from the central electrode. The laser light is intense enough to get a signal in all readout channels of the TPC. Since the central electrode is a smooth surface, differences in the arrival time between sectors reveal mechanical displacements of the readout sectors and can be used to correct for this effect. In addition the measurements can be used to determine the electron drift velocity in the TPC gas. The drift velocity measurements have shown a vertical as well as a radial gradient. The first can be explained by the temperature gradient, which naturally builds up in the 5m high detector. The second gradient is most probably caused by a relative conical deformation of the readout plane and the central electrode.
Quantum entanglement plays a basic role in quantum information science. The creation of entanglement between qubits is of fundamental importance for further computation processing like quantum computation, quantum cryptography, quantum teleportation, quantum computers… We present here a symmetric electron-electron scattering experiment to determine the experimental parameters which are necessary to produce a source of entangled electrons. In this Moeller scattering experiment the electrons differ from each other only by their spin direction. At these conditions a spin entanglement of the scattered electrons is expected. To demonstrate the spin entanglement, a single particle resolved spin measurement of the electrons has to be performed. A high ratio of measured coincidences compare to random could be demonstrated. It is shown, that this ratio is related to an experiment depended nearly constant efficiency for the coincidence detection. In order to proof the spin entanglement, the goal is to measure the final polarization state of the electrons at different scattering directions to observe a spin anti correlation between these spin states of the Moeller electrons. The usual method to determine the electron polarization is based on an asymmetric scattering experiment with a high Z target. This scattering may yield an asymmetry due to a different spin-orbit coupling of the electrons. The main problem of polarized electron studies at keV-particle energy is the low efficiency of usual spin polarimeters. This low efficiency impedes or prevents electron spin resolved coincidence measurements because of necessarily induced random coincidences. To enhance the efficiency of the spin detection, a new compact mini-Mott spin analyzer has been developed. Due to a compact small size of this analyzer, a higher efficiency is obtained now, which is a prerequisite to the electron spin resolved coincidence measurements. Till date, the asymmetry measurement have been performed where one Mott analyzer rotated by an angle around the axis. The reducing asymmetry is in agreement with a prediction of quantum mechanic; however, the large systematic errors of the measurement have been estimated. As a next step for investigation of spin entanglement it is planned to increase the overall efficiency of the experiment by having higher initial energy and minimize error of the measurement by applying new kind of detectors.
Energy and environment are two major concerns in the 21st century. At present, the energy required for the daily life still mainly relies on the traditional fossil fuel resources, but the caused air pollution problem and greenhouse effect have seriously threatened the sustainable development of mankind. Another adopted energy source which can provide a large fraction of electricity for the world is the nuclear fission reaction. However, the increasing high-radioactive spent nuclear fuels, which half-lives are usually >1 million years, are becoming the hidden perils to the earth. A great advance in accelerator physics and technology opens an opportunity to solve this dilemma between man and nature, because powerful accelerator-based neutron sources can play important roles for clean nuclear power production, for example: - The Accelerator-Driven System (ADS) can serve as an easy control of a sub-critical fission reactor so that the nuclear fuels will be burnt more completely and safely. - The EUROTRANS project launched by EU is investigating another application of the ADS technology to reduce the radiotoxicity and the volume of the existing nuclear waste greatly and quickly in a transmutation way. - The developing international IFMIF plant will be used to test and qualify reactor materials for future fusion power stations, which can produce much cleaner nuclear electricity more efficiently than the fission ones. Therefore, the R&D of high-power driver linacs (HPDL) is of a worldwide importance. As the proverb said, "everything is hard at the beginning", the front end is the most difficult part for realizing an HPDL machine. Based on the RFQ and H-type DTL structures, this dissertation is dedicated to study the beam dynamics in the presence of significantly strong space-charge effects while accelerating intense hardon beams in the low- and medium-beta-region. Besides the 5mA/30mA, 17MeV proton injector (RFQ+DTL) and the 125mA, 40MeV deuteron DTL of the above-mentioned EUROTRANS and IFMIF facilities, a 200mA, 700keV proton RFQ has been also intensively studied for a small-scale but ultra-intense neutron source FRANZ planned at Frankfurt University. The most remarkable properties of the FRANZ RFQ and the IFMIF DTL are the design beam intensities, 200mA and 125mA, which are the record values for the proton and deuteron linacs, respectively. Though the design intensities for the two development stages, XT-ADS (5mA) and EFIT (30mA), of the EUROTRANS injector are well within the capability of the modern RF linac technology, the special design concept for an easy upgrade from XT-ADS to EFIT brings unusual challenges to realize a linac layout which allows flexible operation with different beam intensities. To design the 200mA FRANZ RFQ and the two-intensity EUROTRANS RFQ, the classic LANL (Los Alamos National Laboratory) Four-Section Procedure, which was developed by neglecting the space-charge forces, is not sufficient anymore. Abandoning the unreasonable constant- B (constant-transverse-focusing-strength) law and the resulting inefficient evolution manners of dynamics parameters adopted by the LANL method, a new design approach so-called "BABBLE", which can provide a "Balanced and Accelerated Beam Bunching at Low Energy", has been developed for intense beams. Being consistent with the beam-development process including space-charge effects, the main features of the "BABBLE" strategy (see Pages 55-58) are: 1) At the entrance, the synchronous phase is kept at = phi s = -90° while a gradual increase in the electrode modulation is started so that the input beam can firstly get a symmetrical and soft bunching within a full-360° phase acceptance. 2) In the following main bunching section, B is increasing to balance the stronger and stronger transverse defocusing effects induced by the decreasing bunch size so that the bunching speed can be fast and safely increased. 3) When the real acceleration starts, the quickly increased beam velocity will naturally weaken the transverse defocusing effects, so B is accordingly falling down to avoid longitudinal emittance growths and to allow larger bore apertures. Taking advantage of the gentle initial bunching and the accelerated main bunching under balanced forces enabled by the "BABBLE" strategy, a 2m-long RFQ with beam transmission in excess of 98% and low emittance growths has been designed for FRANZ, and a 4.3m-long RFQ with almost no beam losses and flat emittance evolutions at both 5mA and 30mA has been designed for EUROTRANS. All design results have proven that the "BABBLE" strategy is a general design approach leading to an efficient and robust RFQ with good beam quality in a wide intensity-range from 0mA to 200mA (even higher). To design the IFMIF DTL and the injector DTL part of the EUROTRANS driver linac, which have been foreseen as the first real applications of the novel superconducting CH-DTL structure, intensive attempts have been made to fulfill the design goals under the new conditions, e.g. long drift spaces, SC transverse focusing elements and high accelerating gradients. For the IFMIF DTL, the preliminary IAP design has been considerably improved with respect to the linac layout as well as the beam dynamics. By reserving sufficient drift spaces for the cryosystem, diagnostic devices, tuner and steerer, introducing SC solenoid lenses and adjusting the Linac Design for Intense Hadron Beams accelerating gradients and accordingly other configurations of the cavities (see Pages 78-80), a more realistic, reliable and efficient linac system has been designed. On the other hand, the specifications and positions of the transverse focusing elements (see Pages 81-82) as well as the phase- and energy-differences between the bunch-center particle and the synchronous particle at the beginning of the phi s=0° sections have been totally redesigned (see Pages 83-84) resulting in good beam performances in both radial and longitudinal planes. For the EUROTRANS injector DTL, in addition to the above-mentioned procedures, extra optimization concepts to coordinate the beam dynamics between two intensities, such as employing short adjustable rebunching cavities with phi s = -90° (see Page 116), have been applied. ...
Breitbandige Beamforming-Algorithmen zur Erfassung von Audiosignalen mit kompakten Mikrofon-Arrays
(2009)
Mikrofon-Arrays erlauben die selektive Erfassung und Trennung von Audiosignalen aus einer akustischen Umgebung. Typische Anwendungen sind z.B. die Ortung einzelner Schallquellen, die räumliche Kartierung eines Schallfeldes ("akustische Kamera") oder der gerichtete Empfang einer bestimmten Schallquelle bei gleichzeitiger Unterdrückung von Umgebungs- oder Störschallen. Vielkanalige Verfahren und Filter, die sich dieser Aufgabe widmen, werden als Beamforming bzw. Beamformer bezeichnet. In dieser Dissertation werden bekannte und eigene Beamforming-Ansätze im Hinblick auf ihre Eignung für die hochwertige Übertragung von Audiosignalen untersucht. Diese erfordert neben einer möglichst großen Abdeckung des relevanten Frequenzbereichs (Breitbandigkeit) auch die Frequenzunabhängigkeit der Richtcharakteristik, um spektrale Verzerrungen zu vermeiden. Es wird ein Algorithmus vorgestellt, der diese Anforderungen mit sehr kompakten Arrays erfüllt. Eine klassische Möglichkeit, eine frequenzinvariante Charakteristik (Beampattern) mithilfe eines Delay-and-Sum-Beamformers zu erhalten, ist eine frequenzabhängige Gewichtung der Mikrofone, welche die effektive Apertur des Arrays proportional zur Schallwellenlänge einstellt. Diese Methode funktioniert jedoch nur bei Wellenlängen, die kleiner sind als die Ausdehnung des Arrays, und erfordert bei Frequenzen unter 100Hz Arrays von mehreren Metern Größe. Ein gänzlich anderes Verhalten zeigen differentielle Mikrofonarrays, welche Differenzen aus Signalen benachbarter Mikrofone bilden: In Kombination mit Integratorfiltern erzeugen sie Beampattern, die auch bei sehr kleinen Frequenzen, d.h. bei Wellenlängen, die groß gegen das Array sind, unverändert bleiben (sog. Superdirektivität). Aus diesem Prinzip wurde in dieser Arbeit das Konzept des Multipol-Beamformers entwickelt, der ein gegebenes Soll-Beampattern durch eine Reihenentwicklung nach Sinus- und Kosinusfunktionen (zweidimensionaler Fall) oder Kugelflächenfunktionen (dreidimensionaler Fall) approximiert. Der Multipol-Beamformer erzielt eine hervorragende Richtwirkung bei kleinen Frequenzen, ist jedoch nur über einen sehr begrenzten Bereich frequenzinvariant und erweist sich insbesondere in drei Raumdimensionen als analytisch aufwändig. Flexibler und in zwei wie in drei Raumdimensionen gleichermaßen einfach in der Formulierung ist demgegenüber das in der Literatur zu findende Verfahren des modalen Subraum-Beamformings (Modal Subspace Decomposition, MSD). Dieser Ansatz bestimmt zu einer beliebigen Sensorgeometrie einen Satz orthogonaler Eigen-Beampattern, die dann zu einer Reihenentwicklung des Soll-Beampatterns herangezogen werden. Ähnlich dem erwähnten Delay-and-Sum-Beamformer jedoch erfordert auch dieser Ansatz bei großen Wellenlängen entsprechend groß dimensionierte Arrays und ist nicht superdirektiv. In dieser Arbeit wurde deshalb eine eigene, neue Ausprägung des MSD-Algorithmus formuliert, welche die Superdirektivität des Multipol-Beamformers mit der Flexibilität und Einfachheit des MSD-Verfahrens vereint. Diese als "superdirektives MSD-Beamforming" bezeichnete Methode besitzt - wie das bereits bekannte MSD-Verfahren auch - die interessante Eigenschaft, daß die Eigen-Beampattern für ein frei zu wählendes Entwurfs-Frequenzband berechnet werden, so daß das Verhalten des Beamformers über ein ganzes Frequenzintervall kontrolliert werden kann. Dies eröffnet auch die Möglichkeit eines sehr breitbandigen Beamformings durch Kombination mehrerer Beamformer, die individuell auf benachbarte Frequenzbänder abgestimmt werden. Mit beispielsweise einem hexagonalen Array von nur 6cm Durchmesser und sieben Mikrofonen erreicht der superdirektive Ansatz so ca. 20-30dB Störabstand über einen Frequenzbereich von 100Hz bis 6kHz, was für Sprache eine sehr hohe Übertragungsqualität darstellt. Zur experimentellen Verifikation der untersuchten Algorithmen wurde im Rahmen dieser Arbeit eine vielkanalige Echtzeit-Signalverarbeitungsumgebung unter Windows XP erstellt, welche die Erfassung, Verarbeitung, Analyse und Ausgabe vielkanaliger Audio-Daten erlaubt. Auch eine Simulation idealer Freifeldmessungen an Mikrofonarrays ist damit möglich, indem die Ausbreitung des Schalls von der Schallquelle zu den Mikrofonen durch zeitdiskrete Fractional-Delay-Filter simuliert wird. Dieser Filtertypus wurden im Rahmen dieser Arbeit ebenfalls eingehend untersucht: Für zwei aus der Literatur bekannte Entwurfsverfahren wurden Erweiterungen gefunden, die bei gleicher Filterordnung eine höhere nutzbare Bandbreite erzielen. Für Messungen an realen Arrays wurde die Akustik-Messkammer des Instituts durch zusätzliche Dämmauskleidung für Freifeld-Messungen nutzbar gemacht. Die Messergebnisse belegen, daß die untersuchten Algorithmen in der Praxis erwartungsgemäß funktionieren und daß der gefundene superdirektive MSD-Algorithmus mit sehr kompakten Arrays eine gute breitbandige Erfassung und Trennung von Audiosignalen ermöglicht.
Zahlreiche physikalische Prozesse, wie Bremsstrahlung, Synchrotronstrahlung oder Radiative Rekombination verursachen die Emission linear hochpolarisierter Röntgenstrahlung. Dennoch wird technisch nutzbare hochpolarisierte Röntgenstrahlung derzeit fast ausschließlich von einigen wenigen hochspezialisierten Synchrotronlichtquellen oder Freie Elektronen Lasern zur Verfügung gestellt. In der vorliegenden Arbeit wurde der Radiative Einfang in die K-Schale von nacktem Xenon verwendet, um erstmals eine Quelle einstellbarer, monoenergetischer sowie hochpolarisierter Röntgenstrahlung (97%) in einer Speicherringumgebung zu realisieren. Zum Nachweis der Polarisation der Strahlung wurde erstmals auch ein neuartiger orts-, zeit- und energieauflösender Si(Li) Streifendetektor als Röntgenpolarimeter eingesetzt, mit dem die Beschränkungen traditioneller Compton - Polarimeter umgangen werden können. Der gemessene Grad hoher linearer Polarisation, der mit den Vorhersagen durch die Theorie übereinstimmt, ist durchaus bemerkenswert, da die hochpolarisierte Röntgensstrahlung in einem Stoßprozess zwischen einem unpolarisierten Ionenstrahl und einem unpolarisierten Gasjet zustande kam. Dies bedeutet, dass der Radiative Elektroneneinfang ein ideales Werkzeug darstellt, um hochpolarisierte, energetisch frei wählbare Röntgenstrahlung in einer Speicherringumgebung zu erzeugen. Die Entwicklung der neuen 2D Detektortechnologie eröffnet auch Möglichkeiten zur experimentellen Untersuchung der Details atomphysikalischer Vorgänge. So konnte im Rahmen dieser Arbeit durch die Kombination des verwendeten Detektors und der Beschleunigereinrichtung der GSI erstmals experimentell die lineare Polarisation der Strahlung des Radiativen Elektroneneinfangs in die energetisch partiell aufgelösten L-Unterschalen von nacktem Uran bestimmt werden. Zudem wurden neue und präzisere Werte für die Polarisation der Einfangstrahlung in die K-Schalen von nacktem und wasserstoffähnlichem Uran gemessen. Die theoretischen Vorhersagen zeigten eine starke Sensitivität von Messungen linearer Polarisation der bei dem Radiativen Elektroneneinfang emittierten Strahlung auf den Einfluss der insbesondere bei Schwerionen - Atom - Stößen zu berücksichtigenden höheren Ordnungen der Multipolentwicklung. Während die Effekte bei der Messung von Winkelverteilungen des Radiativen Elektroneneinfangs gerade bei den kleineren Winkeln im Bezug auf die Ionenstrahlachse im Laborsystem vergleichsweise gering ausfallen, ist hier ein sehr ausgeprägter Effekt der Depolarisation zu beobachten. Hier liegt der wesentliche Unterschied zwischen den in dieser Arbeit vorgestellten Messungen der linearen Polarisation der Strahlung des Radiativen Einfangs in Xenon sowie in Uran. Das Auftreten der starken Depolarisation veranschaulicht die starke Abhängigkeit der Polarisationscharakteristik des REC-Prozesses von der Kernladungszahl des Projektils. Abschließend sei der Schritt zu der erstmals für diese Arbeit verwendeten Messtechnik mit einem hochaufgelösten Streifendetektor hervorgehoben. Im Gegensatz zu früheren Polarisationsmessungen mit grob dimensionierten Pixeldetektoren waren zu der Gewinnung der hier vorgestellten Messungen praktisch keinerlei zusätzliche Annahmen oder Simulationen zu der Interpretation der gewonnenen Winkelverteilungen notwendig. So konnte mit dem System bereits während des Experimentes eine erste Abschätzung der linearen Polarisation der beobachteten Strahlung durchgeführt werden. Diese Tatsache wird es in naher Zukunft ermöglichen, das für die niederenergetische Röntgenstrahlung weitgehend neue ”Fenster” polarimetrischer Messungen für weitere atomphysikalische Prozesse zu öffnen.
In den Neurowissenschaften führt die Erforschung des vegetativen Nervensystem (VNS) immer noch ein Schattendasein. Einer der wichtigsten Teile des VNS, der Hirnstamm, ist dabei besonders schlecht erforscht, obwohl er die Steuerzentren für Herzschlag, Blutdruckregulation, Atmung, Verdauung, und viele weitere lebenswichtige Funktionen beherbergt. Ein wichtiger Grund für diesen Umstand ist, dass die funktionelle Kernspintomographie (fMRT) sich in ihrer bisherigen Form nur bedingt für Messungen im Hirnstamm eignet. Ziel dieser Arbeit war es daher, neue Ansätze zur fMRT-Messung vegetativer Zentren im menschlichen Hirnstamm zu entwickeln. Nach einer Einführung in die Neuroanatomie sowie die physikalischen und physiologischen Grundlagen der strukturellen und funktionellen MRT werden im mittleren Teil der Arbeit die Entwicklung sowie der Test neuer Ansätze zur Hirnstamm-fMRT beschrieben. Dabei untersucht der Autor zunächst, welche grundlegenden Probleme einer konventionellen fMRT-Messung im Hirnstamm entgegenstehen. Es stellt sich heraus, dass alle hirnstamm-spezifischen Störquellen direkt oder indirekt auf den Herzschlag zurückzuführen sind. Aus den vorhandenen Ansätzen zur Korrektur solcher Störungen wird die Herzschlag-Taktung ausgewählt. Bei diesem Verfahren erfolgt die Aufnahme der fMRT-Bilder zeitlich gekoppelt an dem Herzschlag des Probanden, um sämtliche kardiogenen Rauschquellen zu unterdrücken. Anstelle des häufig verwendeten, aber statistisch problematischen Guimaraes-Verfahrens zur Korrektur der durch die Herzfrequenzvariabilität bedingten Schwankungen des MR-Signals wird in der vorliegenden Arbeit der die sog. Dual-Echo-Bildgebung verwendet. Dabei wird die konventionelle EPI-Sequenz (echo-planar imaging) dahingehend erweitert, dass pro Bild anstelle eines Echos zwei aufgenommen werden. Durch Quotientenbildung der beiden Bilder kann so der fluktuierende Teil des Signals entfernt werden. Beim Vergleich verschiedener Varianten der Quotientenbildung stellt sich ein neu entwickelter, exponentieller Ansatz als überlegen heraus. Danach werden die Auswirkungen verschiedener Methoden der Bewegungskorrektur und Schichtorientierung verglichen, um das Optimum für Messungen im Hirnstamm zu ermitteln. Nach Tests des neuen Verfahrens an verschiedenen fMRT-Datensätzen werden Empfehlungen für die Kombination der verschiedenen Parameter gegeben. Es zeigt sich, dass die Standardabweichung der fMRT-Bilder mit der neuen Methode im unteren Hirnstamm um 13% - 33% reduziert werden kann. Ein Sensitivitätstest an motorischen Hirnstammkernen, welche durch ein motorisches Paradigma aktiviert werden, zeigt, dass die jeweiligen Kerne in 85% - 95% der Fälle eindeutig identifiziert werden können. Im dritten Teil der Arbeit erfolgt die Anwendung der neuen Methode auf die Messung von Aktivierungen vegetativer Zentren. Hier wird als unkonventionellen Stimulus des vegetativen Nervensystems die Akupunktur verwendet. Dies geschieht u.a. mit der Zielsetzung, zur Aufdeckung des noch immer unbekannten Wirkmechanismus dieser Therapieform beizutragen. Als Akupunkturpunkt wird Pc6 am Handgelenk gewählt, da die Studienlage eindeutig dessen Effektivität bei der Behandlung von Übelkeit und Erbrechen sowie eine Beeinflussung der Magen-Peristaltik zeigt und die neuralen Zentren hierfür größtenteils im Hirnstamm lokalisiert sind. Der Autor stellt daher die Hypothese auf, dass die Akupunkturwirkung in diesem Fall über den Vagusnerv und dessen Hirnstammkern, den Nucleus dorsalis nervi vagi, vermittelt wird. Vor der Überprüfung dieser Hypothese erfolgt zunächst eine Methodenkritik der bisherigen Akupunktur-fMRT-Forschung. Anhand einer Gruppe von Studien, welche über Aktivierungen der Sehrinde bei Akupunktur visuell relevanter Punkte berichten, weist der Autor eine Reihe methodischer Probleme nach. Anhand einer eigenen Studie kann er mittels Independent Component Analysis (ICA) zeigen, dass die von den bisherigen Studien berichteten, visuellen Aktivierungen höchstwahrscheinlich nicht auf die Wirkung der Akupunktur zurückzuführen sind. Um einige der Probleme dieser Studien zu umgehen, entwickelt der Autor ein neues psychophysikalisches Verfahren, bei dem die Probanden während der Akupunktur kontinuierlich die Stärke der Nadelempfindung („DeQi“) auf einer visuellen Analogskala bewerten. Mit Hilfe dieses Verfahrens gelingt schließlich der Nachweis einer Hirnstamm-Aktivierung unter Akupunktur-Stimulation, deren Lokalisation mit der des Nucleus dorsalis nervi vagi vereinbar ist. Dies bestätigt die ursprüngliche Hypothese und zeigt gleichzeitig die Eignung des neuen Verfahrens für die Bildgebung vegetativer Hirnstammzentren.
In this thesis, we studied the single impurity Anderson model and developed a new and fast impurity solver for the dynamical mean field theory (DMFT). Using this new impurity solver, we studied the Hubbard model and periodic Anderson model for various parameters. This work is motivated by the fact that the dynamical mean field theory is widely used for the studies of strongly correlated systems, and the most frequently used methods, e.g. the quantum Monte-Carlo method (QMC), and the exact digonalization method are much CPU time consuming and usually limited by the available computers. Therefore, a fast and reliable impurity solver is needed. This new impurity solver was explored based on the equation-of-motion method (also called Green's function and decoupling method in some literature). Using the retarded Green's function, we first derived the equations of motion of Green's functions. Then, we employed a decoupling scheme to close the equations. By solving self-consistently the obtained closed set of integral equations, we obtained the single particle Green's function for the single impurity Anderson model. After that, the single impurity Anderson model was solved along with self-consistency conditions within the framework of DMFT. In this work, we studied and compared two decoupling schemes. Moreover, we also derived possible higher order approximations which will be tested in future work. Besides the theoretical work, we tested the method in numerical calculations. The integral equations are first solved by iterative methods with linear mixing and Broyden mixing, respectively. However, these two methods are not sufficient for finding the self-consistent solutions of the DMFT equations because converged results are difficult to obtain. Moreover, the computing speed of the two methods is also not satisfactory. Especially the iterative method with linear mixing costs always a lot of CPU time due to the required small mixing. Hence, we developed a new method, which is a combination of genetic algorithm and iterative method. This new method converges very fast and removes artifacts appearing in the results from the iterative method with linear and Broyden mixing. It can directly operate on the real axis, where no numerical error from the high frequency tail corrections and the analytical continuation is introduced. In addition, our new technique strongly improves the precision of the numerical results by removing the broadening. With this newly developed impurity solver and numerical technique, we studied the single impurity Anderson model, the single band Hubbard model and the periodic Anderson model with arbitrary spin and orbital degeneracy N on the real axis. For the single impurity Anderson model, the spectral functions are calculated for the infinite and finite Coulomb interaction strength. We also studied the spectral functions in dependence of the parameters of impurity position and hybridization. For the Hubbard model, we studied the bandwidth control and filling control Mott metal-insulator transition for spin and orbital degeneracy N = 2. It gives qualitatively the critical value of Coulomb interaction strength for the Mott metal-insulator transition, and the spectral functions which are comparable to those obtained in QMC and numerical renormalization group methods. We also studied the quasiparticle weight and the self-energy in metallic states. The latter shows almost Fermi liquid behavior. At last we calculated the densities of states for the Hubbard model with arbitrary spin and orbital degeneracy N. The periodic Anderson model (PAM) is also studied as another important lattice model. It was solved for various combinations of parameters: the Coulomb interaction strength, the impurity position, the center position of the conduction band, the hybridization, the spin and orbital degeneracy. The PAM results represents the physics of impurities in a metal. In short, our method works for the Hubbard model and the periodic Anderson model in a large range of parameters, and gives good results. Therefore, our impurity solver could be very useful in calculations within LDA+DMFT. Finally, we also made a preliminary investigation of the multi-band system based on the success in single band case. We first studied the two-band system in a simplified treatment by neglecting the interaction between the two bands through the bath. This has given promising numerical results for the two-band Hubbard model. Moreover, we have studied theoretically the two-band system with mean field approximation and Hubbard-I approximation in dealing with the higher order cross Green's functions which are related to both the two bands. In the mean field approximation, we even generalized the two-band system to arbitrary M=N/2 band system. Potential improvement can be carried out on the basis of this work.
The current thesis is devoted to a systematic study of fluctuations and correlations in heavy-ion collisions, which might be considered as probes for the phase transition and the critical point in the phase diagram, within the Hadron-String- Dynamics (HSD) microscopic transport approach. This is a powerful tool to study nucleus-nucleus collisions and allows to completely simulate experimental collisions on an event-by-event basis. Thus, the transport model has been used to study fluctuations and correlations including the influence of experimental acceptance as well as centrality, system size and collision energy. The comparison to experimental data can separate the effects induced by a phase transition since there is no phase transition in the HSD version used here. Firstly the centrality dependence of multiplicity fluctuations has been studied. Different centrality selections have been performed in the analysis in correspondence to the experimental situation. For the fixed target experiment NA49 events with fixed numbers of the projectile participants have been studied while in the collider experiment PHENIX centrality classes of events have been defined by the multiplicity in certain phase space region. A decrease of participant number fluctuations (and thus volume fluctuations) in more central collisions for both experiments has been obtained. Another area of this work addresses to transport model calculations of multiplicity fluctuations in nucleus-nucleus collisions as a function of colliding energy and system size. This study is in full correspondence to the experimental program of the NA61 Collaboration at the SPS. Central C+C, S+S, In+In, and Pb+Pb nuclear collisions at Elab = 10, 20, 30, 40, 80, 158 AGeV have been investigated. The expected enhanced fluctuations - attributed to the critical point and phase transition - can be observed experimentally on top of a monotonic and smooth ‘hadronic background’. These findings should be helpful for the optimal choice of collision systems and collision energies for the experimental search of the QCD critical point. Other observables are fluctuations of ratios of hadrons (e.g. pions, kaons, protons, etc.) which are not so much affected by volume fluctuations. In particular HSD results for the kaon-to-pion ratio fluctuations, which has been regarded as promising observable for a long time, are presented from low SPS energies up to high energies at RHIC. In addition to the HSD calculations statistical model is also used in terms of microcanonical, canonical and grand canonical ensembles. Further a study of the system size event-by-event fluctuations causing rapidity forward-backward correlations in relativistic heavy-ion collisions is presented. The HSD simulations reveal strong forward-backward correlations and reproduce the main qualitative features of the STAR data in A+A collisions at RHIC energies. It has been shown that strong forward-backward correlations arise due to an averaging over many different events that belong to one centrality bin. An optimization of the experimental selection of centrality classes is presented, which is relevant for the program of the NA61 collaboration at CERN, the low-energy program at RHIC, as well as future experiments at FAIR.