Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (378) (remove)
Has Fulltext
- yes (378) (remove)
Is part of the Bibliography
- no (378) (remove)
Keywords
- HADES (4)
- Beschleuniger (3)
- CBM (3)
- FAIR (3)
- Heavy Ion Collisions (3)
- Monte-Carlo-Simulation (3)
- QCD (3)
- Quark-Gluon-Plasma (3)
- Schwerionenphysik (3)
- Teilchenbeschleuniger (3)
Institute
- Physik (378) (remove)
Mit der vorliegenden Arbeit wurden zu ersten Mal die seit mehreren Jahren vorhergesagten dynamischen Aufbruchsmechanismen - der direkte, der sequentielle und der asynchrone Zerfall - in mehratomigen Molekülen kinematisch vollständig untersucht. Experimentell wurde hierfür ein Kohlenstoffdioxid-(CO2)-Molekül in langsamen Ion-Molekül Stößen dreifach ionisiert, indem die Elektronen des Targets von den langsamen, hochgeladenen Projektilionen (Ar8+-Ionen) eingefangen wurden. Die Untersuchung des Zerfalls des CO2-Ions in die einfach geladenen ionischen Fragmente C+ + O+ + O+ zeigte, dass bei diesem Zerfall das Projektilion vornehmlich einen positiven Ladungszustand von q = 6 und nicht den zunächst erwarteten Ladungszustand q = 5 aufweist. Dies ist darauf zurückzuführen, dass die eingefangenen Elektronen oftmals elektronisch hoch angeregte Zustände im Projektil populieren und demnach im weiteren Verlauf über Autoionisationsprozesse dieses auch wieder verlassen können. Ähnliche Autoionisationsprozesse können auch im Target ablaufen, treten dort jedoch mit einer geringeren Wahrscheinlichkeit auf, da der Wirkungsquerschnitt für Autoionisationsprozesse im Target um einen Faktor 1,3 kleiner ist als für Autoionisationen im Projektil. Zusätzlich zeigte die Untersuchung der Stoßdynamik, dass der dreifache Elektroneneinfang primär bei einer parallelen Orientierung der Molekülachse zur Projektilstrahlachse auftritt. Eine weitere Abhängigkeit der Stoßdynamik zum Beispiel vom Stoßparameter beziehungsweise vom Streuwinkel konnte nicht beobachtet werden. Durch die koinzidente Messung aller vier Reaktionsteilchen konnte der Kanal Ar8+ + CO2 --> Ar6+ + C+ + O+ + O+ eindeutig bestimmt werden und die Reaktionsdynamik des CO2-Ions nach dem Stoß analysiert werden. Dabei tritt deutlich der direkte Aufbruch hervor, bei welchem die drei einfach geladenen Ionen sich rein aufgrund ihrer Coulombkräfte voneinander abstoßen. Bei einer solchen Coulombexplosion bleibt dem Molekülion kaum Zeit, um eine molekulare Schwingung zu vollführen. Neben diesem schnellen Zerfall konnten aber auch jene Zerfälle beobachtet werden, bei denen das Molekülion zuerst molekular schwingt und dann zu einem späteren Zeitpunkt in die ionischen Fragmente zerfällt. Dieser letztere Zerfallsprozess gehört zu den sogenannten asynchronen Zerfallsmechanismen. Er stellt einen Zwischenprozess zwischen dem reinen 1-Stufen-Prozess wie dem direkten Aufbruch und dem reinen 2-Stufen-Prozess dar. Bei solchen sequentiellen 2-Stufen Prozessen fragmentiert das CO2-Molekül im ersten Schritt in ein O+- und ein CO2+-Ion. Im zweiten Schritt dissoziiert dann das CO2+-Fragment, nachdem es nahezu keine Wirkung der Coulombkräfte des ersten Sauerstoffions mehr spürt, in ein C+- und ein O+-Ion. Durch die Darstellung der Schwerpunktsimpulse der Fragmente in Dalitz- und Newton-Diagrammen ist es mit dieser Arbeit erstmals gelungen diesen sequentiellen Prozess experimentell eindeutig nachzuweisen. In der weiteren Analyse konnte gezeigt werden, dass über die im System deponierte Energie, welche über die kinetische Energie der Fragmente bestimmt wird, die verschiedenen Reaktionsmechanismen direkt kontrolliert werden können. Speziell bei Energien unterhalb von 20 eV wurde gezeigt, dass es keine Potentialflächen gibt, die über einen direkten bzw. simultanen Aufbruch zu dem Endzustand C+ + O+ + O+ führen. Bei mehratomigen Molekülen erweist sich das Treffen detaillierter Aussagen über mögliche Dissoziationskanäle ohne die genaue Kenntnis der Lage der Potentialflächen und den Übergängen zwischen diesen als äußerst schwierig. Selbst bei genauer Kenntnis der Lage und Form der Potentialflächen, ist es aufgrund der hohen Dichten innerhalb der Übergangsbereiche der Potentialflächen nahezu unmöglich, den Verlauf der Dissoziationskanäle zu verfolgen. Mit dieser Arbeit ist es gelungen, die verschiedenen Reaktionskanäle ohne die Existenz von Energiepotentialflächen eindeutig zu identifizieren. Außerdem konnte gezeigt werden, dass die Energie, die während des Stoßes im Molekül deponiert wird, eine Schlüsselgröße darstellt, mit welcher die Fragmentationskanäle direkt kontrolliert werden können.
This work reports on the study of the projectile x-ray emission in relativistic ion-atom collisions. Excitation of K-shell in He-like uranium ions, electron capture into H-like uranium ions and Simultaneous ionization and excitation of initially He-like uranium ions have been studied using the experimental storage ring at GSI. Information about the population of the excited states for the H- and He-like uranium ions, can be obtained by measuring the angular distribution of the decay radiation. Since the Ly_alpha2 transition is isotropic, the intensities of the Ly_alpha1 and K_alpha transitions were normalized to the Ly_alpha2 line. For the K_alpha1 and K_alpha2 transitions originating from the excitation of the He-like uranium ions, no alignment was observed. In contrast, the Ly_alpha1 radiation from the simultaneous ionization-excitation process of the He-like uranium ions shows a clear alignment. It is shown that the alignment of Ly_alpha1 was obtained by the Alignment parameter A_20. The experimental value leads to the inclusion of a magnetic term in the interaction potential. It is interesting to note that in the case of the Ly_alpha1 emission the small M2 contribution added coherently to the E1 transition amplitudes enhances the anisotropy. The capture process of target electrons into the highly-charged heavy ions was studied using H-like uranium ions at an incident energy of 220 MeV/u, impinging on N2 gas-target. It was shown that, the strongly aligned electrons captured in 2p3/2 level will couple with the available 1s1/2 electron which shows no initial directional preference. The magnetic sub-state population of the 2p3/2 electron will be redistributed according to the coupling rules to the magnetic sub-states of the relevant two-electron states. Consequently, the 1^P1 and 3^P2 states are corresponding to the the strongly aligned 2p3/2 state. This leads to the large anisotropy in the corresponding individual ground state transitions contributing to the K_alpha1 emission. Due to the fact that the 1^P1 --> 1^S0 and 3^P2 --> 1^S0 transitions are experimentally not resolved, a more detailed analysis of the angular dependence of the K_alpha1 radiation is required. From the K_alpha1/K_alpha2 ratio, the current results show that the incoherent addition of the E1 and M2 transition components yield to an almost isotropic emission of the total K_alpha1. In contrast to the radiative electron capture, the experimental results for the K-shell single excitation of He-like uranium ions indicate that only the 1^P1 level contributes to the K_alpha1 transition. For this case, the anisotropy parameter beta_20 was found to be -0.20 + 0.03 which is similar to that one calculated for pure E1 transition. This work also reports on the study of a two-electron process: the simultaneous ionization and excitation occurring in relativistic collisions of heavy highly-charged ions with gaseous targets. The investigation was performed on He-like uranium ions impinging upon xenon gas-target at an incident energy of 220 MeV/u. The measurements have been performed at the ESR gas-target using atomic xenon with a typical area density of 10^12 particles/cm^2. In contrast to the solid state target, the use of gas target offers the advantage of clear separation of the one step two-electron process due to the fact that the probability of two consecutive collision in such thin targets is negligible and the double step processes can be excluded. During the process of simultaneous ionization and excitation in He-like uranium ions, one of the ground-state electrons is promoted into the continuum and the other into the L-subshell states of the projectile. To select this process, the Lyman-series radiation has been measured at various observation angles in coincidence with up-charged projectiles (U^91+). From the yields of the Ly_alpha1 and Ly_alpha2 projectile radiation, the relative cross section for the process of simultaneous ionization and excitation was directly determined. The angle dependent measurement of the radiation yields provide information about the angular distributions of the emitted radiation and permits the determination of the alignment parameter A_{20}. This parameter gives information on the level population and the collision impact parameter. The present results (b^exp = 810 fm) show that the simultaneous ionization and excitation is a process which occurs at small impact parameter.
The HADES (High Acceptance DiElectron Spectrometer) is an experimental
apparatus installed at the heavy-ion synchrotron SIS-18 at GSI, Darmstadt.
The main physics motivation of the HADES experiment is the measurement
of e+e− pairs in the invariant-mass range up to 1 GeV/c2 in heavy-ion collisions
as well as in pion and proton-induced reactions.
The HADES physics program is focused on in-medium properties of the light
vector mesons ρ(770), ω(783) and φ(1020), which decay with a small branching
ratio into dileptons. Dileptons are penetrating probes which allow to study
the in-medium properties of hadrons. However, in heavy-ion collisions, the
measurement of such lepton pairs is difficult because they are rare and have a
very large combinatorial background.
Recently, HADES has been upgraded with new detectors and new electronics
in order to handle higher intensity beams and reactions with heavy nuclei up
to Au.
HADES will continue for a few more years its rich physics program at its
current place at SIS-18 and then move to the upcoming international Facility
for Antiproton and Ion Research (FAIR) accelerator complex. In this context
the physics results presented in this work are important prerequisites for the investigation
of in-medium vector meson properties in p + A and A+A collisions.
This work consists of five chapters. The first chapter introduces the physics
motivation and a review of recent physics results. In the second chapter, the
HADES spectrometer is described and its sub-detectors are presented. Chapter
three deals with the issue of lepton identification and the reconstruction of
the dielectron spectra in p + p collisions is presented. Here, two reactions
are characterized: inclusive and exclusive dilepton production reactions. From
the spectra obtained, the corresponding cross sections are presented with the
respective statistical and systematical errors. A comparison with theoretical
models is included as well. Conclusions are given in chapter four.
The final part of this work is dedicated to the HADES upgrade, whose goal
is among others the achievement of a reliable and fast data acquisition of the
Multiwire Drift Chambers (MDCs). Chapter five presents my contribution to
this successful project during the three years of my stay at GSI.
This thesis investigates the development of early cognition in infancy using neural network models. Fundamental events in visual perception such as caused motion, occlusion, object permanence, tracking of moving objects behind occluders, object unity perception and sequence learning are modeled in a unifying computational framework while staying close to experimental data in developmental psychology of infancy. In the first project, the development of causality and occlusion perception in infancy is modeled using a simple, three-layered, recurrent network trained with error backpropagation to predict future inputs (Elman network). The model unifies two infant studies on causality and occlusion perception. Subsequently, in the second project, the established framework is extended to a larger prediction network that models the development of object unity, object permanence and occlusion perception in infancy. It is shown that these different phenomena can be unified into a single theoretical framework thereby explaining experimental data from 14 infant studies. The framework shows that these developmental phenomena can be explained by accurately representing and predicting statistical regularities in the visual environment. The models assume (1) different neuronal populations processing different motion directions of visual stimuli in the visual cortex of the newborn infant which are supported by neuroscientific evidence and (2) available learning algorithms that are guided by the goal of predicting future events. Specifically, the models demonstrate that no innate force notions, motion analysis modules, common motion detectors, specific perceptual rules or abilities to "reason" about entities which have been widely postulated in the developmental literature are necessary for the explanation of the discussed phenomena. Since the prediction of future events turned out to be fruitful for theoretical explanation of various developmental phenomena and a guideline for learning in infancy, the third model addresses the development of visual expectations themselves. A self-organising, fully recurrent neural network model that forms internal representations of input sequences and maps them onto eye movements is proposed. The reinforcement learning architecture (RLA) of the model learns to perform anticipatory eye movements as observed in a range of infant studies. The model suggests that the goal of maximizing the looking time at interesting stimuli guides infants' looking behavior thereby explaining the occurrence and development of anticipatory eye movements and reaction times. In contrast to classical neural network modelling approaches in the developmental literature, the model uses local learning rules and contains several biologically plausible elements like excitatory and inhibitory spiking neurons, spike-timing dependent plasticity (STDP), intrinsic plasticity (IP) and synaptic scaling. It is also novel from the technical point of view as it uses a dynamic recurrent reservoir shaped by various plasticity mechanisms and combines it with reinforcement learning. The model accounts for twelve experimental studies and predicts among others anticipatory behavior for arbitrary sequences and facilitated reacquisition of already learned sequences. All models emphasize the development of the perception of the discussed phenomena thereby addressing the questions of how and why this developmental change takes place - questions that are difficult to be assessed experimentally. Despite the diversity of the discussed phenomena all three projects rely on the same principle: the prediction of future events. This principle suggests that cognitive development in infancy may largely be guided by building internal models and representations of the visual environment and using those models to predict its future development.
This dissertation connects two independent fields of theoretical neuroscience: on the one hand, the self-organization of topographic connectivity patterns, and on the other hand, invariant object recognition, that is the recognition of objects independently of their various possible retinal representations (for example due to translations or scalings). The topographic representation is used in the presented approach, as a coordinate system, which then allows for the implementation of invariance transformations. Hence this study shows, that it is possible that the brain self-organizes before birth, so that it is able to invariantly recognize objects immediately after birth. Besides the core hypothesis that links prenatal work with object recognition, advancements in both fields themselves are also presented. In the beginning of the thesis, a novel analytically solvable probabilistic generative model for topographic maps is introduced. And at the end of the thesis, a model that integrates classical feature-based ideas with the normalization-based approach is presented. This bilinear model makes use of sparseness as well as slowness to implement "optimal" topographic representations. It is therefore a good candidate for hierarchical processing in the brain and for future research.
In der vorliegenden Dissertation wird die Frage der Vereinheitlichung der Quantentheorie mit der Allgemeinen Relativitätstheorie behandelt, wobei entsprechend dem Titel der Arbeit der Beziehung der Grundbegriffe der beiden Theorien die entscheidende Bedeutung zukommt. Da das Nachdenken über Grundbegriffe in der Physik sehr eng mit philosophischen Fragen verbunden ist, werden zur Behandlung dieser Thematik zunächst in einem Kapitel, das die vier jeweils drei Kapitel umfassenden Teile vorbereitet, die Entwicklung der Theoretischen Physik betreffende wissenschaftstheoretische Betrachtungen sowie einige wesentliche Gedanken aus der Klassischen Philosophie vorgestellt, welche für die weitere Argumentation wichtig sind. Bei letzteren geht es neben einer kurzen Schilderung der Platonischen Ideenlehre in Bezug auf ihre Relevanz für die Physik insbesondere um die Kantische Auffassung von Raum und Zeit als a priori gegebenen Grundformen der Anschauung, deren Bezug zur Evolutionären Erkenntnistheorie ebenfalls thematisiert wird. In den beiden ersten Teilen werden die wesentlichen Inhalte der Allgemeinen Relativitätstheorie und der Quantentheorie vorgestellt, wobei der Deutung der beiden Theorien jeweils ein Kapitel gewidmet wird. In Bezug auf die Allgemeine Relativitätstheorie wird diesbezüglich die Bedeutung der Diffeomorphismeninvarianz herausgestellt und in Bezug auf die Quantentheorie wird zunächst die Grundposition der Kopenhagener Deutung verdeutlicht, die im Mindesten als eine notwendige Bedingung zum Verständnis der Quantentheorie angesehen wird, um anschließend eine Analyse und Interpretation des Messproblems und vor allem entscheidende Argumente für die grundlegende Nichtlokalität der Quantentheorie zu geben. Im dritten Teil der Arbeit wird die seitens Carl Friedrich von Weizsäcker in der zweiten Hälfte des letzten Jahrhunderts entwickelte Quantentheorie der Ur-Alternativen beschrieben, in welcher die universelle Gültigkeit der allgemeinen Quantentheorie begründet und aus ihr die Existenz der in der Natur vorkommenden Entitäten hergeleitet werden soll, auf deren Beschreibung die konkrete Theoretische Physik basiert. Es werden sehr starke Argumente dafür geliefert, dass diese Theorie von den bislang entwickelten Ansätzen zu einer einheitlichen Theorie der Natur, welche die heute bekannte Physik in sich enthält, die vielleicht aussichtsreichste Theorie darstellt und damit die Aussicht bietet, auch für das Problem der Suche nach einer Quantentheorie der Gravitation den richtigen begrifflichen Rahmen zu bilden. Ihre große Glaubwürdigkeit erhält sie durch eine die Klassische Philosophie miteinbeziehende philosophische Analyse der Quantentheorie. Dieses Urteil behält seine Gültigkeit auch dann, wenn die Quantentheorie der Ur-Alternativen aufgrund der ungeheuren Abstraktheit der Begriffsbildung innerhalb der Theorie und der sich hieraus ergebenden mathematischen Schwierigkeiten bisher noch nicht zu einer vollen physikalischen Theorie entwickelt werden konnte. Die alles entscheidende Kernaussage dieser Dissertation besteht darin, dass aus einer begrifflichen Analyse der Quantentheorie und der Allgemeinen Relativitätstheorie mit nahezu zwingender Notwendigkeit zu folgen scheint, dass die physikalische Realität auf fundamentaler Ebene nicht-räumlich ist. Dies bedeutet, dass die These vertreten wird, dass es sich bei dem physikalische Raum, wie er gewöhnlich schlicht vorausgesetzt wird, wenn auch in unterschiedlicher Struktur, in Wahrheit nur um eine Darstellung dahinterstehender dynamischer Verhältnisse nicht-räumlicher Objekte handelt. Diese These stützt sich auf die Diffeomorphismeninvarianz in der Allgemeinen Relativitätstheorie und in noch höherem Maße auf die Nichtlokalität in der Quantentheorie, welche sich wiederum nicht nur in konkreten für die Quantentheorie konstitutiven Phänomenen, sondern dazu parallel ebenso im mathematischen Formalismus der Quantentheorie manifestiert. In Kombination mit der Kantischen Behandlung von Raum und Zeit ergibt sich damit ein kohärentes Bild in Bezug auf die eigentliche Natur des Raumes. Die Quantentheorie der Ur-Alternativen ist diesbezüglich als einzige derzeit existierende Theorie konsequent, indem sie auf der basalen Ebene den Raumbegriff nicht voraussetzt und rein quantentheoretische Objekte als fundamental annimmt, aus deren Zustandsräumen sie die Struktur der Raum-Zeit allerdings zu begründen in der Lage ist. Damit befinden sich diese fundamentalen durch Ur-Alternativen beschriebenen Objekte nicht in einem vorgegebenen Raum, sondern sie konstituieren umgekehrt den Raum. Dies ist eine Tatsache von sehr großer Bedeutung. Im vierten Teil wird schließlich die vorläufige Konsequenz aus diesen Einsichten gezogen. Nach einer kurzen Behandlung der wichtigsten bisherigen Ansätze zu einer quantentheoretischen Beschreibung der Gravitation, wird die Bedeutung der Tatsache, dass die Allgemeine Relativitätstheorie und die Quantentheorie eine relationalistische Raumanschauung nahelegen, nun konkret in Bezug auf die Frage der Vereinheitlichung der beiden Theorien betrachtet. Das bedeutet, dass das Ziel also letztlich darin besteht, einen Ansatz zu einer quantentheoretischen Beschreibung der Gravitation zu finden, bei der so wenig räumliche Struktur wie möglich vorausgesetzt wird. In Kapitel 12 wird diesbezüglich ein von mir entwickelter Ansatz vorgestellt, um zumindest eine Theorie zu formulieren, bei der die metrische Struktur der Raum-Zeit nicht vorausgesetzt sondern in Anlehnung an die Eigenschaften eines fundamentalen Spinorfeldes konstruiert wird, das im Sinne der Heisenbergschen einheitlichen Quantenfeldtheorie die Elementarteilchen einheitlich beschreiben soll. Dieser Ansatz geht bezüglich der Sparsamkeit der Verwendung von a priori vorhandener räumlicher Struktur über die bisherigen Ansätze zu einer Quantentheorie der Gravitation hinaus. Er ist aber dennoch nur als ein erster Schritt zu verstehen. Die konsequente Weiterführung dieses Ansatzes würde in dem Versuch bestehen, eine Verbindung zur von Weizsäckerschen Quantentheorie der Ur-Alternativen herzustellen, die überhaupt keine räumliche Struktur mehr voraussetzt. Hierzu konnten bisher nur aussichtsreiche Grundgedanken formuliert werden. Es wird allerdings basierend auf den in dieser Dissertation dargelegten Argumentationen die Vermutung aufgestellt, dass es im Rahmen der von Weizsäckerschen Quantentheorie der Ur-Alternativen möglich ist, eine konsistente quantentheoretische Beschreibung der Gravitation aufzustellen. In jedem Falle scheint die Quantentheorie der Ur-Alternativen die einzige Theorie zu sein, die aufgrund ihrer rein quantentheoretischen Natur in ihrer Begriffsbildung grundsätzlich genug ist, um eine Aussicht zu bieten, diejenige Realitätsebene zu erfassen, in welcher die Dualität zwischen der Quantentheorie und der Allgemeinen Relativitätstheorie zu einer Einheit gelangt.
Fullerene, Nanoröhren und auch anderen hohlen Strukturen können Atome oder Moleküle in ihrem Inneren einschliessen. In solchen Systemen beeinflussen sich die einschliessenden und eingeschlossenen Strukturen gegenseitig, und es existiert eine Vielzahl unterschiedlicher Effekte: Änderungen der Energieeigenwerte, Änderungen der Elektronenstruktur sowie Ladungsaustausch zwischen den beiden Teilen des Systems. All diese Effekte beeinflussen die Absorbtionsspektren beider Systembestandteile. In dieser Arbeit liegt der Schwerpunkt auf einem dieser Effekte: Dem dynamischen Abschirmungseffekt. Den dynamischen Abschrimungseffekt findet man insbesondere bei solchen Systemen, bei denen die einschliessende Struktur viele delokalisierte Elektronen besitzt. Zu solchen Systemen gehören zum Beispiel endohedrale Komplexe sowie "Nano Peapods" (Nanoröhren mit eingeschlossenen Atomen oder Molekülen). Ursächlich für den dynamischen Abschirmungseffekt ist die Tatsache, dass die Elek- tronen des umschliessenden Käfigs die eingeschlossene Struktur gegen elektromagentische Wellen abschirmen. Mit anderen Worten: Dass das elektrische Feld sowohl innerhalb als auch ausserhalb der einschliessenden Struktur wird vom polarisierenden Feld der einschliessenden Struktur beein°usst. Klassisch betrachtet ist die Photoabsorbtionsrate eines Objektes proportional zu der Intensität eines elektrischen Feldes. Somit unterscheidet sich die Photoabsorbtionsrate (und auch der Wirkungsquerschnitt) der gleichen elektromagnetischen Welle einer Struktur innerhalb eines Einschlusses von der Photoabsorbtionsrate eines freien Atoms oder Moleküls. Der dynamische Abschirmungsfaktor dient als Beschreibung des Verhältnisses dieser beiden Wirkungsfaktoren. Darüber hinnaus können, da die Käfigstruktur viele delokalisierte Elektronen besitzt, Elektronen gemeinsam angeregt werden und somit Plasmons hervorrufen. Wenn sich die Frequenz der anregenden elektromagentischen Strahlung der Resonanzfrequenz dieser Plasmonen annähert, wird das polarisierende Feld besonders gross. Im Endeffekt beobachtet man nahe der Plasmon-Frequenz einen starken Anstieg des Wirkungsquerschnittes der eingeschlossenen Struktur. Der Schwerpunkt in dieser Arbeit liegt auf einer spezifischen Art von System: Endo- hedrale Komplexe. Diese Strukturen wurden mit einem klassichen Ansatz untersucht. Die Fullerene wurden, da sie viele delokalisierte Elektronen besitzen als dielektrische Schalen modelliert, mit der dielektrischen Funktion eines freien Elektronengases. Dabei ist der dynamische Abschrimfaktor durch Auswertung des gesamten elektrischen Feldes am Ort des Atoms im Vergleich zur Stärke des externen elektrischen Feldes definiert. Der dynamische Abschrimungsfaktor wurde für eine Vielzahl unterschiedlicher Situationen untersucht. Im einfachsten Fall, bei dem die Polarisierbarkeit des eingeschlossenen Atoms vernachlässigbar klein ist, ist der dynamische Abschirmfaktor unabhängig von der Position des Atoms innerhalb des Fullerens. Die Veranderung des elektrischen Feldes wird vollständig von der dynamischen Reaktion des Fullerens auf das externe Feld bestimmt. Da das Fulleren von endlicher Dicke ist (definiert duch die räumliche Ausdehnung der Elektronenwolke), besitzt es zwei Oberflächen. Die Wirkung der elektromagnetischen Welle induziert oszillierende Oberflächen-Ladungs-Dichten. Die Oberflächen-Ladungs-Dichten wechselwirken und erzeugen somit zwei Plasmon Eigenmoden: eine symmetrische Mode bei der beide Ladungsdichten in Phase oszillieren und eine antisymmetrische bei denen sie gegen-phasig oszillieren. Der dynamische Abschirmfaktor eines solchen eingeschlossenen Atoms zeigt zwei ausgeprägte Peaks, welche eine Manifestation dieser beiden Oberflächen-Plasmone sind. Die Wechselwirkung zwischen diesen Plasmon-Moden wurde untersucht. Darüber hinnaus wurde der Einfluss der Grösse des Käfigs untersucht; mit Fallbeispielen für C20, C60, C240 und C960 [2, 3]. Im Grenzfall eines unendlich dünnen Fulleren-Käfigs ist nur ein einelnes Oberflächen-Plasmon zu beachten. Als nächstes wurde der Einfluss des eingeschlossenen Atoms untersucht [3{5]. Wenn dessen Polarisierbarkeit gross ist, wird ein reziproker Einfluss des Dipol-Moments des Atoms auf das Fulleren messbar. Dies wurde zunächst unter der Annahme eines zentral angeodneten Atoms für die folgenden drei Fälle untersucht: Ar@C60, Xe@C60 and Mg@C60. Der dynamische Abschirmfaktor verÄanderte sich dabei nur wenig. Der stärkste Einfluss auf das Verhalten des Abschirmfaktors ensteht durch Unstetigkeiten in der Polarisierbarkeit des Atoms nahe dessen Ionisierungs-Schwelle. Die Wahl dieser drei Fallstudien ist durch die quantenmechanischen Berechnungen von [7-9] motiviert. Der Vergleich mit diesen Berechnungen zeigt hohe Übereintismmungen für Ar@C60 und Xe@C60. Allerdings fanden sich auch grosse Unterschiede für Mg@C60, vor allem bei niedriger Photonen-Energie. Das Fulleren besitzt zwei Arten von Valenzelektronen: Die ¼-Elektronen und die stärker gebundenen ¾-Elektronen. Dies führt zum Auftreten zweier Oberflächen-Plasmons in Fullerenen. Dabei ist allgemein bekannt, dass das Buckminster-Fulleren ein Plasmon nahe 8 eV, sowie ein deutlich größeres nahe 20 eV besitzt. Diese sind mit den ¼-Elektronen, respektive den ¾-Elektronen verknüpft (auch wenn ¼-Elektronen zusÄatzlich zu dem ¾-Plasmon beitragen). Aufgrund dieser Tatsache wäre es angemessener, die Valenzelektronen nicht als Ein-, sondern als Zwei-Komponenten-Elektronen-Gas zu behandeln. Um dies miteinzubeziehen, passten wir unser Modell dahingehend an, dass wir das Fulleren als zwei unabhängige kozentrische dielektrische Schalen simulieren. Die Valenzelektronen wurden so auf die zwei Schalen aufgeteilt, dass eine Schlale alle Elektronen enthielt, die Teil des ¼{Plasmons sind, und die andere alle Beteiligten am ¾{Plasmon [4, 5]. Der Vergleich dieses modifizierten Modelles mit den quanten{mechanischen Berechnungen zeigte eine deutlich verbesserte Übereintismmung der Ergebnisse. Alle Merkmale der Berechnungen, vor allem das deutliche Maximum nahe 10 eV bei Mg@C60, konnten reproduziert und damit erklärt werden. Bedingt durch die endliche Dicke der Fulleren-Schale spalten jeder der beiden Plasmonen in jeweils zwei Plasmon Eigenmoden auf. Daher zeigt der dynamische Abschirm-Faktor nun vier Haupt{Eigenschaften welche die vier Plasmon-Moden abbilden. Nichtsdestotrotz zeigen sich immer noch quantitative Unterschiede im Falle von Mg@C60. Fürr Ar@C60 und Xe@C60, bei welchen das ursprÄungliche Modell bereits gute Fits zeigte, werden diese Fits durch die Anpassungen im Modell sogar noch verbessert. Interessanterweise zeigen sich die größten Veränderungen des dynamischen Abschirm-Faktors bei niedrigen Photonen{Energien, also im Bereich des ¼-Plasmons. Betrachtet man den Querschnitt dieses Fulleren Modells, so zeigt der Querschnitt Eigenschaften die den vier Ober°Äachen{Plasmon{Moden des Fullerens zugeordnet werden. Vergleicht man dies mit anderen theoretischen Arbeiten [12] und einer Sammlung verschiedener experimenteller Messungen [10], so zeigt sich, dass alle SchlÄussel{Eigenschaften des Querschnittes in unserem Modell vorhanden sind. Abschlie¼end wurde die Abhängigkeit des dynamische Abschirm-Faktors von der Position des endohedralen Atoms innerhalb des Fullerens anhand zweier Fallstudien, Ar@C60 und Ar@C240 [3, 4], untersucht. Die Ergebnisse zeigen, dass der dynamische Abschirmfaktor relativ unempfindlich gegenüber Veränderung des Positions-Winkels des Atoms ist. Die radiale Position hingegen stellte sich als sehr wichtig heraus. Je mehr sich das Atom der Fulleren-Hülle nähert, desto grösser wird der dynamische Abschirmfaktor. Diese Studien zeigen, dass es notwendig ist, eine Art räumlichen Mittelwertes für den dynamische Abschirmfaktor zu bestimmen, um sichtbare Resultate zu erhalten. Im Rahmen dieser Arbeit wurde daher eine Methode für solch einen Mittelwert entwickelt [3, 4]. Neben der Untersuchung des dynamische Abschirm-Faktors wurde auch ein Vergleich mit experimentellen Messungen erarbeitet. Im Falle von Ce@C82 war die Photon{Energiespanne sehr hoch, weit über der Plasmon-Energie des Fullerens. Das Fulleren sollte daher für eine solche Bestrahlung durchlässig sein, und daher würde man keinen dynamischen Abschirmungs-Effekt finden können. Der Vergleich für Sc3N@C80 ist komplizierter. Da es sich dabei um ein rein klassisches Modell handelt, muss man achtgeben, es nicht mit dem vollständig freien Komplex zu vergleichen, sondern zusätzlich quanten{mechanische Effekte aus Confinements, wie zum Beispiel Elektronen{Transfers, miteinzubeziehen. Zudem ist das aktuelle Modell zu dynamischer Abschirmung nicht für Moleküle, sondern nur für einzelen Atomeentwickelt worden. Ein erster naiver Vergleich, in welchem der Endohedrale Komplex als Pseudo{Atom modelliert wurde, konnte die breite Struktur der experimentellen Ergebnisse nicht wiedergeben. Berechnungen des dynamischen Abschirmfaktors und des daraus resultierenden Querschnittes für ein einzelnes Scandium{Ion zeigte, dass auch räumliches Mitteln nicht ausreicht um die experi-mentellen Beobachtungen erklären zu können. Die Anwesenheit des Fullerens führt zur Öffnung eines neuen Kanals innerhalbdes Auger Prozesses [6, 11] und damit zur Verbreiterung der atomaren Spektrallinienweite. Berücksichtigt man diesen Effekt, so kann die ÄAhnlichkeit zu den experimentellen Ergebnissen deutlich erhöht werden. Allerdings ist es wichtig dabei auch die räumlichen Abhängigkeiten des Effekts, wie auch die der dynamischen Abschirmung, zu beachten. Erste vorläufige Ergebnisse deuten an, dass die beiden genannten Effekte, zumindest teilweise, dabei helfen können, die experimentell gefunden Ergebnisse zu erklären. Unser Modell zur Berechnung des dynamischen Abschirmfaktors liefert eine detaillierte Beschreibung und mögliche Erklärungen der diskutierten Phänomene, welche über die bisherige Arbeiten in der theoretischen Literatur hinausgehen. Die wichtigen Eigenschaften der experimentellen Arbeiten konnten mit dem Modell reproduziert werden, und mit der Verbreiterung der atomaren Spektrallinienweite und der dynamischen Abschirmung konnten wir zwei Effekte als mögliche bisher nicht berücksichtigete Erklärungen für einige dieser Eigenschaften herausarbeiten.
Within this thesis, an experimental study of the photo double ionization (PDI) and the simultaneous ionization-excitation is performed for lithium in different initial states Li (1s22l) (l = s, p). The excess energy of the linearly polarized VUV-light is between 4 and 12 eV above the PDI-threshold. Three forefront technologies are combined: a magneto-optical trap (MOT) for lithium generating an ultra-cold and, by means of optical pumping, a state-prepared target; a reaction microscope (ReMi), enabling the momentum resolved detection of all reaction fragments with high-resolution and the free-electron laser in Hamburg (FLASH), providing an unprecedented brilliant photon beam at favourable time structure to access small cross sections. Close to threshold the total as well as differential PDI cross sections are observed to critically depend on the excitation level and the symmetry of the initial state. For the excited state Li (1s22p) the PDI dynamics strongly depends on the alignment of the 2p-orbital with respect to the VUV-light polarization and, thus, from the population of the magnetic substates (mp = 0, ±1). This alignment sensitivity decreases for increasing excess energy and is completely absent for ionization-excitation. Time-dependent close-coupling calculations are able to reproduce the experimental total cross sections with deviations of at most 30%. All the experimental observations can be consistently understood in terms of the long range electron correlation among the continuum electrons which gives rise to their preferential back-to-back emission. This alignment effect, which is observed here for the first time, allows controlling the PDI dynamics through a purely geometrical modification of the target initial state without changing its internal energy.
A basic introduction to RFQs has been given in the first part of this thesis. The principle and the main ideas of the RFQ have been described and a small summary of different resonator concepts has been given. Two different strategies of designing RFQs have been introduced. The analytic description of the electric fields inside the quadrupole channel has been derived and the limitation of these approaches were shown. The main work of this thesis was the implementation and analysis of a Multigrid Poisson solver to describe the potential and electric field of RFQs which are needed to simulate the particle dynamics accurately. The main two ingredients of a Multigrid Poisson solver are the ability of a Gauß-Seidel iteration method to smooth the error of an approximation within a few iteration steps and the coarse grid principle. The smoothing corresponds to a damping of the high frequency components of the error. After the smoothing, the error term can well be approximated on a coarser grid in which the low frequency components of the error on the fine grid are converted to high frequency errors on the coarse grid which can be damped further with the same Gauß-Seidel method. After implementation, the multigrid Poisson solver was analyzed using two different type of test problems: with and without a charge density. After illustrating the results of the multigrid Poisson solver, a comparison to the field of the old multipole expansion method was made. The multipole expansion method is an accurate representation of the field within the minimum aperture, as limited by cylindrical symmetry. Within these limitations the multigrid Poisson solver and the multipole expansion method agree well. Beyond the limitation the two method give different fields. It was shown that particles leave the region in which the multipole expansion method gives correct fields and that the transmission is affected therefrom as well as the single particle dynamic. The multigridPoisson solver also gives a more realistic description of the field in the beginning of the RFQ, because it takes the tank wall into account, and this effect is shown as well. Closing the analysis of the external field, the transmission and fraction of accelerated particles of the set of 12 RFQs for the two different methods were shown. For RFQs with small apertures and big modulations the two different method give different values for the transmission due to the limitation of the multipole expansion method. The internal space charge fields without images was analyzed at the level of single particle dynamic and compared to the well known SCHEFF routine from LANL, showing major differences for the analyzed particle. For comparing influences on the transmissions of the set of 12 RFQs a third space charge routine (PICNIC) was considered as well. The basic shape of the transmission curve was the same independent of space charge routines, but the absolute values differ a little from routine to routine, with SCHEFF about 2% lower than the other routines. The multigrid Poisson solver and PICNIC agree quite well (less than 1%), but PICNIC has an extremely long running time. The major advantage of the multigrid Poisson solver in calculating space charge effects compared to the other two routines used here is that the Poisson solver can take the effect of image charges on the electrodes into account by just changing the boundaries to have the shape of the vanes whereas all other settings remain unchanged. It was demonstrated that the effect of image charges on the vanes on the space charge field is very big in the region close to the electrodes. Particles in that region will see a stronger transversely defocusing force than without images. The result is that the transmission decreases by as much as 10% which is considerably more than determined by other (inexact) routines before. This is an important result, because knowing about the big effect of image charges on the electrodes it allows it to taken into account while designing the RFQ to increase the performance of the machine. It is also an important factor in resolving the traditional difference observed between the transmission of actual RFQs and the transmission predicted by earlier simulations. In the last chapter of this thesis some experimental work on the MAFF (Munich Accelerator for Fission Fragments) IH-RFQ is described. The machine was assembled in Frankfurt and a beam test stand was built. The shunt impedance of the structure was measured using different techniques, the output energy of the structure were measured and finally its transmission was determined and compared to the beam dynamics simulations of the RFQ. Unfortunately, the transmission measurements were done without exact knowledge of the beam’s emittance. So the comparison to the simulation is somewhat rough, but with a reasonable guess of the emittance a good comparison between the measurement and simulation was obtained.
Das Ziel der vorliegenden Arbeit war der Einbau, die Inbetriebnahme, die Abstimmung und der Test eines Strahlmatchingsystems in eine Zweistrahl-RFQ-Beschleunigerstruktur. Dieses Strahlmatchingsystem wurde entwickelt, um die Beschleunigereinheit des Frankfurter Funneling-Experimentes besser an die nachfolgende HF-Deflektoreinheit anzupassen und um zu zeigen, dass ein Strahlmatching innerhalb der RFQ-Beschleunigerstruktur möglich ist. Des Weiteren wurden die zum Versuch gehörigen Ionenquellen modifiziert, um eine bessere Anpassung der Strahlherstellung an die Beschleunigerstruktur zu erreichen. Die Spannungsverteilung in der Beschleunigerstruktur selbst wurde durch weitergehende Tuningmaßnahmen verbessert, um die Teilchenverluste weiter zu minimieren Mit dem Funnelingexperiment soll experimentell geprüft werden, ob eine Strahlstromerhöhung durch das Zusammenführen mehrerer Ionenstrahlen verschiedener Ionenquellen möglich ist. Solch ein System ist für einige Zukunftsprojekte (HIDIF, SNS-Ausbau, ESS, u.ä.), die große Strahlströme benötigen, die nicht aus nur einer Ionenquelle extrahiert werden können, erforderlich. Das in dieser Arbeit behandelte Strahlmatching ist für das Experiment notwendig, da zu große Teilchenverluste in der Funnelsektion entstanden und somit eine bessere Anpassung des Strahls an den HF-Deflektor erforderlich wurde. Es konnte gezeigt werden, dass die hier verwendete Art der Strahlfokussierung auch in eine komplizierte RFQ-Beschleunigerstruktur integrierbar ist, in der zwei Strahlkanäle auf der gleichen Stützen-Bodenplatten-Konstruktion aufgebaut sind. Die Verlängerung der Endelektroden und die Integration einer Strahlanpassung haben einen positiven Einfluss auf die Transsmission innerhalb des Beschleunigers und verbessern die Transmission durch den Deflektor. Es konnten Energiemessungen und zeitaufgelöste Faradaytassenmessungen der Teilchenbunche sowie zeitaufgelöst Makropulse mit der Faradaytasse gemessen werden. Floureszensschirmmessungen zeigten, dass die beiden Teilchenstrahlen auf eine neue gemeinsame Strahlachse gebogen wurden. Die Energiemessung zeigte, dass die Simulationen mit RFQSIM sehr genau die Endenergie der Teilchen berechnen konnte. Im Strahlkreuzungspunkt hinter dem Zweistrahl-RFQ-Beschleuniger konnten nahezu identische Teilchenbunche erzeugt werden. Diese Teilchenbunche wiesen zudem die in vorherigen Simulationen errechneten Charakteristika auf, in denen eine transversale und eine longitudinale Fokussierung gegenüber dem ungematchten Strahl simuliert wurden. Es konnte auch eine weitere Strahlradiusreduzierung gemessen werden, die auf eine exaktere Justierung der Elektroden zurückzuführen ist. Die Phasenfokussierung konnte verbessert werden, indem die Elektrodenspannung besser an die Strahlmatchingsektion angepasst wurde. Hierzu mussten auch die Einschussparameter der Strahlen in die Beschleuniger angepasst werden, damit die Transmission der Beschleuniger sich nicht verschlechterte. Insgesamt konnte mit den durchgeführten Experimenten erstmals demonstriert werden, dass zwei Strahlen in einem RFQ-Beschleuniger auf einen Punkt hinter dem Beschleuniger angepasst werden können und die Spannungsverteilung in solch einer Struktur durch Tuningmaßnahmen abstimmbar ist. Es konnte erstmals demonstriert werden das über 90% der Teilchen beider Strahlen, bei guten Strahleigenschaften, auf eine neue gemeinsame Strahlachse abgelenkt (gefunnelt) wurden.
The aim of this work is to develop an effective equation of state for QCD, having the correct asymptotic degrees of freedom, to be used as input for dynamical studies of heavy ion collisions. We present an approach for modeling an EoS that respects the symmetries underlying QCD, and includes the correct asymptotic degrees of freedom, i.e. quarks and gluons at high temperature and hadrons in the low-temperature limit. We achieve this by including quarks degrees of freedom and the thermal contribution of the Polyakov loop in a hadronic chiral sigma-omega model. The hadronic part of the model is a nonlinear realization of an sigma-omega model. As the fundamental symmetries of QCD should also be present in its hadronic states such an approach is widely used to describe hadron properties below and around Tc. The quarks are introduced as thermal quasi particles, coupling to the Polyakov loop, while the dynamics of the Polyakov loop are controlled by a potential term which is fitted to reproduce pure gauge lattice data. In this model the sigma field serves a the order parameter for chiral restoration and the Polyakov loop as order parameter for deconfinement. The hadrons are suppressed at high densities by excluded volume corrections. As a next step, we introduce our new HQ model equation of state in a microscopic+macroscopic hybrid approach to heavy ion collisions. This hybrid approach is based on the Ultra-relativistic Quantum Molecular Dynamics (UrQMD) transport approach with an intermediate hydrodynamical evolution for the hot and dense stage of the collision. The present implementation allows to compare pure microscopic transport calculations with hydrodynamic calculations using exactly the same initial conditions and freeze-out procedure. The effects of the change in the underlying dynamics - ideal fluid dynamics vs. non-equilibrium transport theory - are explored. The final pion and proton multiplicities are lower in the hybrid model calculation due to the isentropic hydrodynamic expansion while the yields for strange particles are enhanced due to the local equilibrium in the hydrodynamic evolution. The elliptic and directed flow are shown to be not sensitive to changes in the EoS while the smaller mean free path in the hydrodynamic evolution reflects directly in higher flow results which are consistent with the experimental data. This finding indicates qualitatively that physical mechanisms like viscosity and other non equilibrium effects play an essentially more important role than the EoS when bulk observables like flow are investigated. In the last chapter, results for the thermal production of MEMOs in nucleus-nucleus collisions from a combined micro+macro approach are presented. Multiplicities, rapidity and transverse momentum spectra are predicted for Pb+Pb interaction at different beam energies. The presented excitation functions for various MEMO multiplicities show a clear maximum at the upper FAIR energy regime making this facility the ideal place to study the production of these exotic forms of multistrange objects.
In order to fully understand the new state of matter formed in heavy ion collisions, it is vital to isolate the always present final state hadronic contributions within the primary Quark-Gluon Plasma (QGP) experimental signatures. Previously, the hadronic contributions were determined using the properties of the known mesons and baryons. However, according to Hagedorn, hadrons should follow an exponential mass spectrum, which the known hadrons follow only up to masses of M = 2 GeV. Beyond this point the mass spectrum is flat, which indicates that there are "missing" hadrons, that could potentially contribute significantly to experimental observables. In this thesis I investigate the influence of these "missing" Hagedorn states on various experimental signatures of QGP. Strangeness enhancement is considered a signal for QGP because hadronic interactions (even including multi-mesonic reactions) underpredict the hadronic yields (especially for strange particles) at the Relativistic Heavy Ion Collider, RHIC. One can conclude that the time scales to produce the required amount of hadronic yields are too long to allow for the hadrons to reach chemical equilibrium within the lifetime of a cooling hadronic fireball. Because gluon fusion can quickly produce strange quarks, it has been suggested that the hadrons are born into chemical equilibrium following the Quantum Chromodynamics (QCD) phase transition. However, we show here that the missing Hagedorn states provide extra degrees of freedom that can contribute to fast chemical equilibration times for a hadron gas. We develop a dynamical scheme in which possible Hagedorn states contribute to fast chemical equilibration times of X X pairs (where X = p, K, Lambda, or Omega) inside a hadron gas and just below the critical temperature. Within this scheme, we use master equations and derive various analytical estimates for the chemical equilibration times. Applying a Bjorken picture to the expanding fireball, the hadrons can, indeed, quickly chemically equilibrate for both an initial overpopulation or underpopulation of Hagedorn resonances. We compare the thermodynamic properties of our model to recent lattice results and find that for both critical temperatures, Tc = 176 MeV and Tc = 196 MeV, the hadrons can reach chemical equilibrium on very short time scales. Furthermore the ratios p/pi, K/pi , Lambda/pi, and Omega/pi match experimental values well in our dynamical scenario. The effects of the "missing" Hagedorn states are not limited to the chemical equilibration time. Many believe that the new state of matter formed at RHIC is the closet to a perfect fluid found in nature, which implies that it has a small shear viscosity to entropy density ratio close to the bound derived using the uncertainty principle. Our hadron resonance gas model, including the additional Hagedorn states, is used to obtain an upper bound on the shear viscosity to entropy density ratio, eta/s, of hadronic matter near Tc that is close to 1/(4pi). Furthermore, the large trace anomaly and the small speed of sound near Tc computed within this model agree well with recent lattice calculations. We also comment on the behavior of the bulk viscosity to entropy density ratio of hadronic matter close to the phase transition, which qualitatively has a different behavior close to Tc than a hadron gas model with only the known resonances. We show how the measured particle ratios can be used to provide non-trivial information about Tc of the QCD phase transition. This is obtained by including the effects of highly massive Hagedorn resonances on statistical models, which are generally used to describe hadronic yields. The inclusion of the "missing" Hagedorn states creates a dependence of the thermal fits on the Hagedorn temperature, TH , and leads to a slight overall improvement of thermal fits. We find that for Au+Au collisions at RHIC at sqrt{sN N} = 200 GeV the best square fit measure, chi^2 , occurs at TH = Tc = 176 MeV and produces a chemical freeze-out temperature of 172.6 MeV and a baryon chemical potential of 39.7 MeV.
In this work we study compact stars, i.e. neutron stars, as cosmic laboratories for the nuclear matter. With a mass of around 1 - 3 solar masses and a radius of around 10km, compact stars are very dense and, besides nucleons, can contain exotic matter such as hyperons or quark matter. The KaoS collaboration studied nuclear matter for densities up to 2-3 times saturation density by analysing kaon multiplicities from Au+Au and C+C collisions. The results show that nuclear matter in the corresponding density region is very compressible, with a compressibility of <200MeV. For such soft nuclear equations of state the maximum masses of neutron stars are ca. 1.8 - 1.9 solar masses, whereas the central densities are higher than 5 times nuclear saturation density and therefore point towards a possible phase transition to quark matter. If quark matter would be present in the interior of neutron stars, so-called hybrid stars, it could be produced already during their birth in supernova explosions. To study this we implement a quark matter phase transition in a hadronic equation of state which is used in supernova simulations. Supernova simulations of low and intermediate mass progenitors and two different bag constants show a collapse of the proto neutron star due to the softening of the equations of state in the quark-hadron mixed phase. The stiffening of the equation of state for pure quark matter halts the collapse and leads to the production of a second shock wave. The second shock wave is energetic enough to lead to an explosion of the star and produces a neutrino burst when passing the neutrinospheres. Furthermore, first studies of the longtime cooling of hybrid stars show, that colour superconductivity can significantly influence the cooling behaviour of hybrid stars, if all quarks form Cooper Pairs. For the so-called CSL phase (colour-spin locking) with pairing energies of several MeV, the cooling of the quark phase is suppressed and the hybrid star appears as a pure hadronic star.
Direct photon emission from heavy-ion collisions has been calculated and compared to available experimental data. Three different models have been combined to extract direct photons from different environments in a heavy-ion collision: Thermal photons from partonic and hadronic matter have been extracted from relativistic, non-viscous 3+1-dimensional hydrodynamic calculations. Thermal and non-thermal photons from hadronic interactions have been calculated from relativistic transport theory. The impact of different physics assumptions about the thermalized matter has been studied. In pure transport calculations, a viscous hadron gas is present. This is juxtaposed with ideal gases of hadrons with vacuum properties, hadrons which undergo a chiral and deconfinement phase transition and with a system that has a strong first-order phase transition to a deconfined ideal gas of quarks and gluons in the hybrid model calculations with the various Equations of State. The models used for the determination of photons from both hydrodynamic and transport calculations have been elucidated and their numerical properties tested. The origin of direct photons, itemised by emission stage, emission time, channel and baryon number density, has been investigated for various systems, as have the transverse momentum spectra and elliptic flow patterns of direct photons. The differences of photon emission rates from a thermalized transport box and the hadronic photon emission rates that are used in hydrodynamic calculations are found to be very similar, as are the spectra from calculations of heavy-ion collisions with transport model and hybrid model with hadronic Equation of State. Taking into account the full (vacuum) spectral function of the rho-meson decreases the direct photon emission by approximately 10% at low photon transverse momentum. The numerical investigations show that the parameter with the largest impact on the direct photon spectra is the time at which the hydrodynamic description is started. Its variation shows deviations of one to two orders of magnitude. In the regime that can be considered physical, however, the variation is less than a factor of 3. Other parameters change the direct photon yield by up to approximately 20%. In all systems that have been considered -- heavy-ion collisions at E_lab = 35 AGeV and 158 AGeV, (s_NN)**1/2 = 62.4 GeV, 130 GeV and 200 GeV -- thermal emission from a system with partonic degrees of freedom is greatly enhanced over that from hadronic systems, while the difference between the direct photon yields from a viscous and a non-viscous hadronic system (transport vs. hydrodynamics) is found to be very small. Predictions for direct photon emission in central U+U-collisions at 35 AGeV have been made. Since non-soft photon sources are very much suppressed at this energy, experimental results should very easily be able to distinguish between a medium that is entirely hadronic and a system that undergoes a phase transition from partonic to hadronic matter. In the case of lead-lead collisions at 158 AGeV, the situation is not so clear. In central collisions, the complete direct photon spectra including prompt photons seem to favour hadronic emission sources, while the partonic calculations only slightly overpredict the data. In peripheral collisions at the same energy, the hadronic contribution is more than one order of magnitude smaller than the prompt photon contribution, which fits the available experimental data. A similar picture presents itself at higher energies. At RHIC energies, however, the difference between transport calculations and hadronic hybrid model calculations is largest. Hybrid model calculations with partonic degrees of freedom can describe the experimental results in gold-gold collisions at 200 GeV. The elliptic flow component of direct photon emission is found to be consistently positive at small transverse momenta. This means that the initial photon emission from a non-flowing medium does not completely overshine the emission patterns from later stages. High-pt photons dominantly come from the beginning of a heavy-ion collision and therefore do not carry the directed information of an evolving medium.
This dissertation is devoted to the study of thermodynamics for quantum gauge theories.The poor convergence of quantum field theory at finite temperature has been the main obstacle in the practical applications of thermal QCD for decades. In this dissertation I apply hard-thermal-loop perturbation theory, which is a gauge-invariant reorganization of the conventional perturbative expansion for quantum gauge theories to the thermodynamics of QED and Yang-Mills theory to three-loop order. For the Abelian case, I present a calculation of the free energy of a hot gas of electrons and photons by expanding in a power series in mD/T, mf /T and e2, where mD and mf are the photon and electron thermal masses, respectively, and e is the coupling constant.I demonstrate that the hard-thermal-loop perturbation reorganization improves the convergence of the successive approximations to the QED free energy at large coupling, e ~ 2. For the non-Abelian case, I present a calculation of the free energy of a hot gas of gluons by expanding in a power series in mD/T and g2, where mD is the gluon thermal mass and g is the coupling constant. I show that at three-loop order hard-thermal-loop perturbation theory is compatible with lattice results for the pressure, energy density, and entropy down to temperatures T ~ 2 - 3 Tc. The results suggest that HTLpt provides a systematic framework that can be used to calculate static and dynamic quantities for temperatures relevant at LHC.
Im Zentrum dieser Arbeit stehen die Überstrukturphasen des Yb-Cu-Systems. Als Ausgangspunkt für die Kristallzüchtung wird die kongruent schmelzende Verbindung YbCu4:5 gewählt. Um einen genauen Einblick in das Erstarrungsverhalten dieser Phase zu erhalten, werden zunächst im Bereich zwischen 17.3 und 22.4 at-% Yb eine Reihe von DSC-Messungen durchgeführt. Die Ergebnisse lassen sich nur bedingt mit den in der Literatur veröffentlichten Phasendiagrammen (Moffat [Mo92] bzw. Massalski [Ma90] und Giovannini et al. [Gi08]) vereinbaren. Zwar kann eine kongruent schmelzende Phase der Zusammensetzung YbCu4:5 nachgewiesen werden, die Messungen deuten aber die Existenz zusätzlicher Verbindungen an, die allerdings mit Hilfe der EDX-Analyse nicht weiter spezifiziert werden können. Um diese Phasen genauer zu analysieren, werden Einkristallzüchtungsversuche nach der Bridgman-Methode im Bereich zwischen 19 und 19.2 at-% Yb durchgeführt und mittels Einkristallbeugungsmethoden (SC-XRD und SAED) charakterisiert. Auf diese Weise können neben YbCu4:5 die bisher noch unbekannten berstrukturphasen YbCu4:4 und YbCu4:25 nachgewiesen werden, deren Schmelztemperaturen mittels DSC-Untersuchungen zu 934(2)°C und 931(3)°C bestimmt werden. Die Entdeckung der beiden Verbindungen bestätigt die von Cerný et al. [Ce03] bisher nur theoretisch vorhergesagte Existenz der Überstrukturphasen SECux (x=4.4 und 4.25) für das Yb-Cu-System. Mit Hilfe von Polarisations- und Rasterelektronenmikroskopie und unter Anwendung der Laue-Methode wird das Wachstumsverhalten dieser Überstrukturphasen analysiert. Man beobachtet ein Schichtwachstum, wobei sich die Schichten parallel zur a- und b-Richtung ausbilden und in c-Richtung gestapelt vorliegen. Da eine zuverlässige Unterscheidung der YbCux-Verbindungen nur mit Hilfe von Einkristallbeugungsmethoden gelingt, wird im Rahmen dieser Arbeit untersucht, inwiefern eine Charakterisierung mittels Pulverdiffraktometrie möglich ist. Die Messungen mit Synchrotronstrahlung am ESRF in Grenoble erlauben eine eindeutige Unterscheidung der Überstrukturphasen allerdings nicht. Die Analyse des an das Überstrukturgebiet angrenzenden Zusammensetzungsbereichs von 12.5 bis 17.24 at-% Yb bestätigt die Existenz der Verbindung YbCu6:5, eine kupferärmere Phase der Zusammensetzung YbCu5 kann in den DSC-Experimenten nicht nachgewiesen werden. Die Messungen belegen die Existenz einer Phasenbreite von YbCu6:0+x mit 0 <= x <= 0:5 ist, was im Gegensatz zu dem von Giovannini et al. [Gi08] publizierten Phasendiagramm steht. SC-XRD-Aufnahmen an nach der Bridgman-Methode gezüchteten Einkristallen der Zusammensetzung YbCu6:31(9) untermauern das von Hornstra und Buschow [Ho72] gefundene Strukturmodell. Die Verschiebungen der Atompositionen bedingt durch den im Gegensatz zur YbCu5-Verbindung erhöhten Kupferanteil werden mit Hilfe der gemessenen und berechneten Paarverteilungsfunktion nachvollzogen. Phasendiagrammuntersuchungen und Einkristallzüchtungsergebnisse für weitere SE-Cu-Systeme (SE =Ho, Gd) bestätigen die Existenz der Verbindung HoCu4:5 und erhärten den Verdacht sowohl in diesem als auch in den anderen Systemen noch weitere Überstrukturphasen finden zu können.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
The goal of this project is to develop a framework for a cell that takes in consideration its internal structure, using an agent-based approach. In this framework, a cell was simulated as many sub-particles interacting to each other. This sub-particles can, in principle, represent any internal structure from the cell (organelles, etc). In the model discussed here, two types of sub-particles were used: membrane sub-particles and cytosolic elements. A kinetic and dynamic Delaunay triangulation was used in order to define the neighborhood relations between the sub-particles. However, it was soon noted that the relations defined by the Delaunay triangulation were not suitable to define the interactions between membrane sub-particles. The cell membrane is a lipid bilayer, and does not present any long range interactions between their sub-particles. This means that the membrane particles should not be able to interact in a long range. Instead, their interactions should be confined to the two-dimensional surface supposedly formed by the membrane. A method to select, from the original three-dimensional triangulations, connections restricted to the two-dimensional surface formed by the cell membrane was then developed. The algorithm uses as starting point the three-dimensional Delaunay triangulation involving both internal and membrane sub-particles. From this triangulation, only the subset of connections between membrane sub-particles was considered. Since the cell is full of internal particles, the collection of the membrane particles' connections will resemble the surface to be obtained, even though it will still have many connections that do not belong to the restricted triangulation on the surface. This "thick surface" was called a quasi-surface. The following step was to refine the quasi-surface, cutting out some of the connections so that the ones left made a proper surface triangulation with the membrane points. For that, the quasi-surface was separated in clusters. Clusters are defined as areas on the quasi-surface that are not yet properly triangulated on a two-dimensional surface. Each of the clusters was then re-triangulated independently, using re-triangulation methods also developed during this work. The interactions between cytosolic elements was given by a Lennard-Jones potential, as well as the interactions between cytosolic elements and membrane particles. Between only membrane particles, the interactions were given by an elastic interaction. For each particle, the equation of motion was written. The algorithm chosen to solve the equations of motion was the Verlet algorithm. Since the cytosol can be approximated as a gel, it is reasonable to suppose that the sub-cellular particles are moving in an overdamped environment. Therefore, an overdamped approximation was used for all interactions. Additionally, an adaptive algorithm was used in order to define the size of the time step used in each interaction. After the method to re-triangulate the membrane points was implemented, the time needed to re-triangulate a single cluster was studied, followed by an analysis on how the time needed to re-triangulate each point in a cluster varied with the cluster size. The frequency of appearance for each cluster size was also compared, as this information is necessary to guarantee that the total time needed by to re-triangulate a cell is convergent. At last, the total time spent re-triangulating a surface was plotted, as well as a scaling for the total re-triangulation time with the variation. Even though there is still a lot to be done, the work presented here is an important step on the way to the main goal of this project: to create an agent-based framework that not only allows the simulation of any sub-cellular structure of interest but also provides meaningful interaction relations to particles belonging to the cell membrane.
Statistical physics of power flows on networks with a high share of fluctuating renewable generation
(2010)
Renewable energy sources will play an important role in future generation of electrical energy. This is due to the fact that fossil fuel reserves are limited and because of the waste caused by conventional electricity generation. The most important sources of renewable energy, wind and solar irradiation, exhibit strong temporal fluctuations. This poses new problems for the security of supply. Further, the power flows become a stochastic character so that new methods are required to predict flows within an electrical grid. The main focus of this work is the description of power flows in a electrical transmission network with a high share of renewable generation of electrical energy. To define an appropriate model, it is important to understand the general set-up of a stable system with fluctuating generation. Therefore, generation time series of solar and wind power are compared to load time series for whole Europe and the required balancing or storage capacities analyzed. With these insights, a simple model is proposed to study the power flows. An approximation to the full power flow equations is used and evaluated with Monte-Carlo simulations. Further, approximations to the distributions of power flows along the links are analytically derived. Finally, the results are compared to the power flows calculated from the generation and load data.
In nature, society and technology many disordered systems exist, that show emergent behaviour, where the interactions of numerous microscopic agents result in macroscopic, systemic properties, that may not be present on the microscopic scale. Examples include phase transitions in magnetism and percolation, for example in porous unordered media, biological, and social systems. Also technological systems that are explicitly designed to function without central control instances, like their prime example the Internet, or virtual networks, like the World Wide Web, which is defined by the hyperlinks from one web page to another, exhibit emergent properties. The study of the common network characteristics found in previously seemingly unrelated fields of science and the urge to explain their emergence, form a scientific field in its own right, the science of complex networks. In this field, methodologies from physics, leading to simplification and generalization by abstraction, help to shift the focus from the implementation's details on the microscopic level to the macroscopic, coarse grained system level. By describing the macroscopic properties that emerge from microscopic interactions, statistical physics, in particular stochastic and computational methods, has proven to be a valuable tool in the investigation of such systems. The mathematical framework for the description of networks is graph theory, in hindsight founded by Euler in 1736 and an active area of research since then. In recent years, applied graph theory flourished through the advent of large scale data sets, made accessible by the use of computers. A paradigm for microscopic interactions among entities that locally optimize their behaviour to increase their own benefit is game theory, the mathematical framework of decision finding. With first applications in economics e.g. Neumann (1944), game theory is an approved field of mathematics. However, game theoretic behaviour is also found in natural systems, e.g. populations of the bacterium Escherichia coli, as described by Kerr (2002). In the present work, a combination of graph theory and game theory is used to model the interactions of selfish agents that form networks. Following brief introductions to graph theory and game theory, the present work approaches the interplay of local self-organizing rules with network properties and topology from three perspectives. To investigate the dynamics of topology reshaping, coupling of the so called iterated prisoners' dilemma (IPD) to the network structure is proposed and studied in Chapter 4. In dependence of a free parameter in the payoff matrix, the reorganization dynamics result in various emergent network structures. The resulting topologies exhibit an increase in performance, measured by a variance of closeness, of a factor 1.2 to 1.9, depending in the chosen free parameter. Presented in Chapter 5, the second approach puts the focus on a static network structure and studies the cooperativity of the system, measured by the fixation probability. Heterogeneous strategies to distribute incentives for cooperation among the players are proposed. These strategies allow to enhance the cooperative behaviour, while requiring fewer total investments. Putting the emphasis on communication networks in Chapters 6 and 7, the third approach investigates the use of routing metrics to increase the performance of data packet transport networks. Algorithms for the iterative determination of such metrics are demonstrated and investigated. The most successful of these algorithms, the hybrid metric, is able to increase the throughput capacity of a network by a factor of 7. During the investigation of the iterative weight assignments a simple, static weight assignment, the so called logKiKj metric, is found. In contrast to the algorithmic metrics, it results in vanishing computational costs, yet it is able to increase the performance by a factor of 5.
In the present work, the problem of protein folding is addressed from the point of view of equilibrium thermodynamics. The conformation of a globular protein in solution at common temperatures is quite complicated without any geometrical symmetry, but it is an ordered state in the sense of its biological activity. This complicated conformation of a single protein molecule is destroyed upon increasing the temperature or by the addition of appropriate chemical agents, as is revealed by the loss of its activity and change of the physical properties, and so on. Once the complicated native structures having biological activity are lost, it would be natural to suppose that the native structure could hardly be restored. Nevertheless, pioneers, such as Anson and Mirsky, recognized as early as in 1925 that this was not always the case. If one defines the folded and unfolded states of a protein as two distinct phases of a system, then under the variation of temperature the system is transformed from one phase state into another and vice versa. The process of protein folding is accompanied by the release or absorption of a certain amount of energy, corresponding to the first-oder-type phase transitions in the bulk. Knowing the partition function of the system one can evaluate its energy and heat capacity under different temperatures. This task was performed in this work. The results of the developed statistical mechanics model were compared with the results of molecular dynamic simulations of alanine poylpeptides. In particular, the dependencies on temperature of the total energy of the system and heat capacity were compared for alanine polypeptides consisting of 21, 30, 40, 50 and 100 amino acids. The good correspondence of the results of the theoretical model with the results of molecular dynamics simulations allowed to validate the assumptions made about the system and to establish the accuracy range of the theory. In order to perform the comparison of the results of theoretical model and the molecular dynamics simulations it is necessary to perform the efficient analysis of the results of molecular dynamics simulations. This task was also addressed in the present work. In particular, different ways to obtain dependence of the heat capacity on temperature from molecular dynamics simulations are discussed and the most efficient one is proposed. The present thesis reports the result of molecular dynamic simulations for not only alanine polypeptides by also for valine and leucine polypeptides. In valine and leucine polypeptides, it is also possible to observe the helix↔random coil transitions with the increase of temperature. The current thesis presents a work that starts with the investigation of the fundamental degrees of freedom in polypeptides that are responsible for the conformational transitions. Then this knowledge is applied for the statistical mechanics description of helix↔coil transitions in polypeptides. Finally, the theoretical formalism is generalized for the case of proteins in water environment and the comparison of the results of the statistical mechanics model with the experimental measurements of the heat capacity on temperature dependencies for two globular proteins is performed. The presented formalism is based on fundamental physical properties of the system and provides the possibility to describe the folding↔unfolding transitions quantitatively. The combination of these two facts is the major novelty of the presented approach in comparison to the existing ones. The “transparent” physical nature of the formalism provides a possibility to further apply it to a large variety of systems and processes. For instance, it can be used for investigation of the influence of the mutations in the proteins on their stability. This task is of primary importance for design of novel proteins and drug delivering molecules in medicine. It can provide further insights into the problem of protein aggregation and formation of amyloids. The problem of protein aggregation is closely associated with various illnesses such as Alzheimer and mad cow disease. With certain modifications, the presented theoretical method can be applied to the description of the protein crystallization process, which is important for the determination of the structure of proteins with X-Rays. There many other possible applications of the ideas described in the thesis. For instance, the similar formalism can be developed for the description of melting and unzipping of DNA, growth of nanotubes, formation of fullerenes, etc.
Nanocarbon structures, such as fullerenes and nanotubes, have generated considerable interest and research, due to their unique properties and potential applications. In this thesis, we present a study of the phase transition properties of nanocarbon clusters,in particular, we pay special consideration to fullerenes. The work presented in this thesis is largely theoretical and computational in nature, employing as a tool, molecular dynamics simulations to probe the dynamic stability of fullerenes and associated nanocarbon structures such as graphenes and nanotubes.
Quasi-zweidimensionale organischen Ladungstransfersalze weisen gewisse Analogien zu den Hochtemperatur-Kupratsupraleitern (HTSL) auf. Zu nennen ist einerseits der ähnliche schichtartige Aufbau, wobei sich leitfähige und isolierende Ebenen abwechseln. Zum anderen liegt der antiferromagnetische Grundzustand in direkter Nachbarschaft zur Supraleitung und bei höheren Temperaturen wird ebenfalls die Entstehung einer Pseudo-Energielücke diskutiert. Im Gegensatz zu den HTSL können die elektronischen Eigenschaften der organischen Ladungstransfersalze jedoch leicht durch äußere Parameter wie hydrostatischen bzw. chemischen Druck - die Verwendung verschiedener Anionen X läßt sich in einem verallgemeinerten Phasendiagramm ebenfalls auf die Achse W/U abbilden, siehe Abschn. 4.2 - oder moderate Temperaturen beeinflußt werden. In den quasi-zweidimensionalen K-(BEDT-TTF)2X-Salzen ist bspw. ein moderater Druck p ~ 250 bar ausreichend, um das antiferromagnetisch-isolierende System (X=Cu[N(CN)2]Cl) auf die metallische Seite des Phasendiagramms zu verschieben, wobei dann im Grundzustand Supraleitung auftritt (Tc ~ 12,8 K). Eine Dotierung wie bei den HTSL und die damit einhergehende unerwünschte Unordnung ist nicht notwendig um einen Isolator-Metall-übergang zu induzieren. Demnach sind die experimentellen Anforderungen im Vergleich zu anderen stark korrelierten Elektronensystemen auf relativ einfache Weise zu realisieren. Auch das macht die organischen Ladungstransfersalze zu idealen Modellsystemen, um fundamentale Konzepte der theoretischen Festkörperphysik zu studieren, wovon einige bislang lediglich von akademischem Interesse waren. Erstmalig wird in dieser Arbeit die Fluktuationsspektroskopie als experimentelle Methode angewendet, um die Dynamik des TT-Elektronensystems in den quasi-zweidimensionalen organischen Ladungstransfersalzen K-(BEDT-TTF)2X bei niedrigen Frequenzen zu studieren. Ziel ist es, Informationen über die Temperatur-, Druck- und Magnetfeld-Abhängigkeit der spektralen Leistungsdichte des Widerstandsrauschens und damit über die Dynamik der Ladungsfluktuationen zu gewinnen. Insbesondere in der Nähe korrelationsgetriebener Ordnungsphänomene spielt die Dynamik der Ladungsträger eine entscheidende Rolle. Auch die Kopplung des elektronischen Systems an bestimmte strukturelle Anregungen hat Einfluß auf das Widerstandsrauschen. Zu Beginn wird eine kurze Einführung in die Signalanalyse gegeben und daran anschließend werden verschiedene Arten des Rauschens in Festkörpern dargestellt (Kap. 1). Einige der für diese Arbeit relevanten Ordnungsphänomene werden in Kap. 2 in knapper Form eingeführt, wobei auf die dynamischen Eigenschaften in der Nähe eines Glasübergangs etwas ausführlicher eingegangen wird. Nach der Vorstellung der eingesetzten Meßmethoden, des Versuchsaufbaus und der Probenkontaktierung (Kap. 3) werden die experimentellen Ergebnisse an den K-(BEDT-TTF)2X-Salzen in Kap. 4 ausführlich diskutiert.
Magnetic characteristics of metal organic low-dimensional quantum spin systems at low temperatures
(2010)
In dieser Arbeit wurden neue Klassen von niedrigdimensionalen metallisch-organischen Materialien untersucht, die es ermöglichen interessante quantenkritische Phänomene (quantum critical phenomena, QCP) wie die Bose-Einstein-Kondensation (Bose-Einstein condensation, BEC) der magnetischen Anregung in gekoppelten Spin-Dimer-Systemen, den Berezinskii-Kosterlitz-Thouless Übergang (Berezinskii-Kosterlitz-Thouless transition, BKT) und die Divergenz des magnetokalorischen Effekts (magnetocaloric effect, MCE) in Quanten-Spinsystemen beim Anlegen eines magnetischen Feldes zu beobachten. Die Niedrigdimensionalität der untersuchten Systeme war sowohl für die theoretische Beschreibung, als auch für die experimentelle Beobachtung der Phänomene von großer Bedeutung. Aus theoretischer Sicht eröffnet die Beschäftigung mit diesen Systemen die Möglichkeit, einfache Modelle zu entwickeln, die exakt lösbar sind und erlaubt somit ein qualitatives Verständnis der magnetischen Phänomene. Von experimenteller Seite ist es von größtem Interesse, dass durch das Zusammenspiel von Niedrigdimensionalität, konkurrierenden Wechselwirkungen und starker Quantenfluktuation exotische und aufregende magnetische Phänomene (quantenkritische Phänomene) entstehen, die mit verschiedenen experimentellen Methoden untersucht werden können. Um die intrinsischen Eigenschaften der quantenkritischen Phänomene zu verstehen ist es wichtig, die Phänomene an einfachen und gut kontrollierbaren niedrigdimensionalen Modellsystemen wie ein- oder zweidimensionalen Systemen zu untersuchen. ...
In this thesis, we study the properties of excitations in the systems of interacting fermions. These excitations can be bosonic such as collective modes which we handle in the first part of this thesis or fermionic like quasi particles and quasi holes. One of the important points, to investigate the excitations is their damping which corresponds to their life-time in the system. This thesis consists of two parts, where in both parts, we use the field-theoretical methods to examine the problem.
Kernpunkt dieser Arbeit ist die Untersuchung der Eigenschaften des Vakuums und des Grundzustandes von Kernmaterie anhand eines effektiven Modells. Das Lineare Sigma-Modell mit globaler chiraler U(2)R ×U(2)L-Symmetrie wurde mit (Axial-)Vektormesonen sowie dem chiralen Partner des Nukleons, der mit der Resonanz N(1535) identifiziert wird, erweitert. Die Einführung des chiralen Partners in der Spiegel-Zuordnung ermöglicht die Untersuchung zweier verschiedener Erzeugungsprozesse der Baryonenmasse: durch spontane Symmetriebrechung sowie durch einen chiral invarianten Massenterm, parametrisiert durch m0. Die Parameter des Modells werden durch experimentelle Werte der Zerfallsbreiten von N∗ → Nπ und a1 → πγ und der axialen Kopplungskonstante des Nukleons gN A , sowie durch Lattice-Berechnungen von gN∗ A fixiert. Im Rahmen dieses Modells ergibt sich für den Massenparameter m0 ∼ 500 MeV, was darauf hin deutet, dass ein beträchtlicher Anteil der Baryonenmasse nicht durch das chirale Kondensat erzeugt wird. Das Modell wird anhand des Zerfalls N∗ → Nη sowie s-Wellen-πN-Streulängen a(±) 0 validiert und zeigt gute Übereinstimmung mit dem Experiment. In Kernmaterie wird m0 durch Kondensate anderer skalarer Felder ausgedrückt, z. B. dem Tetraquark-Kondensat. Der Einfluß dieses Kondensates auf dichte Materie wird untersucht. Die Nukleonenmassen hängen stark von den Kondensaten ab und verschwinden, so wie auch die Kondensate selbst, wenn die chirale Symmetrie wieder hergestellt ist.
Lattice simulation of a center symmetric three dimensional effective theory for SU(2) Yang-Mills
(2010)
We present lattice simulations of a center symmetric dimensionally reduced effective field theory for SU(2) Yang Mills which employ thermal Wilson lines and three-dimensional magnetic fields as fundamental degrees of freedom. The action is composed of a gauge invariant kinetic term, spatial gauge fields and a potential for the Wilson line which includes a "fuzzy" bag term to generate non-perturbative fluctuations between Z(2) degenerate ground states. The model is studied in the limit where the gauge fields are set to zero as well as the full model with gauge fields. We confirm that, at moderately weak coupling, the "fuzzy" bag term leads to eigenvalue repulsion in a finite region above the deconfining phase transition which shrinks in the extreme weak-coupling limit. A non-trivial Z(N) symmetric vacuum arises in the confined phase. The effective potential for the Polyakov loop in the theory with gauge fields is extracted from the simulations including all modes of the loop as well as for cooled configurations where the hard modes have been averaged out. The former is found to exhibit a non-analytic contribution while the latter can be described by a mean-field like ansatz with quadratic and quartic terms, plus a Vandermonde potential which depends upon the location within the phase diagram. Other results include the exact location of the phase boundary in the plane spanned by the coupling parameters, correlation lengths of several operators in the magnetic and electric sectors and the spatial string tension. We also present results from simulations of the full 4D Yang-Mills theory and attempt to make a qualitative comparison to the 3D effective theory.
Bei der GSI – Helmholtzzentrum für Schwerionenforschung in Darmstadt wird im Rahmen des HITRAP-Projekts ein linearer Abbremser für schwere, hochgeladene Ionen für atomphysikalische Präzisionsexperimente in Betrieb genommen. Während der Inbetriebnahme wurden transversale Emittanzmessungen mit der Pepperpot- und der Multi-Gradienten-Methode durchgeführt, um die Emittanz des aus dem Experimentierspeicherring (ESR) extrahierten Strahls zu messen. Weiterhin wurde auch die Phasenraumverteilung des auf eine Zwischenenergie von 500keV/u abgebremsten Strahls hinter der IH-Struktur gemessen. Dazu wurden neue Auswertealgorithmen in die Analyse der digitalen Bilder integriert. Die longitudinalen Bunchstrukturmessungen des Strahls am Eintrittspunkt in den Abbremser und die Funktionsweise des Doppel-Drift Bunchers wird gezeigt. Die Konzeption und der Aufbau sowie die erste Inbetriebnahme einer neuartigen Einzelschuss-Pepperpot-Emittanzmessanlage für kleinste Strahlströme und -energien wird beschrieben, die es ermöglichen, den Strahl hinter den Abbremskavitäten zu vermessen. Zusätzlich wurden transversale Strahldynamikrechnungen durchgeführt, welche theoretische Grundlagen zur Inbetriebnahme von HITRAP lieferten. Es wird beschrieben, wie die gesamte Strahllinie vom ESR bis zum Radio-Frequenz Quadrupol nach der erfolgreichen Integration einer Abbremsroutine innerhalb des Softwarepakets COSY Infinity optimiert werden kann.
Vibronic (vibrational-electronic) transition is one of the fundamental processes in molecular physics. Indeed, vibronic transition is essential both in radiative and nonradiative photophysical or photochemical properties of molecules such as absorption, emission, Raman scattering, circular dichroism, electron transfer, internal conversion, etc. A detailed understanding of these transitions in varying systems, especially for (large) biomolecules, is thus of particular interest. Describing vibronic transitions in polyatomic systems with hundreds of atoms is, however, a difficult task due to the large number of coupled degrees of freedom. Even within the relatively crude harmonic approximation, such as for Born-Oppenheimer harmonic potential energy surfaces, the brute-force evaluation of Franck-Condon intensity profiles in a time-independent sum-over-states approach is prohibitive for complex systems owing to the vast number of multi-dimensional Franck-Condon integrals. The main goal of this thesis is to describe a variety of molecular vibronic transitions, with special focus on the development of approaches that are applicable to extended molecular systems. We use various representations of Fermi’s golden rule in frequency, time and phase spaces via coherent states to reduce the computational complexity. Although each representation has benefits and shortcomings in its evaluation, they complement each other. Peak assignment of a spectrum can be made directly after calculation in the frequency domain but this sum-over-states route is usually slow. In contrast, computation is considerably faster in the time domain with Fourier transformation but the peak assignment is not directly available. The representation in phase space does not immediately provide physically-meaningful quantities but it can link frequency and time domains. This has been applied to, herein, for example (non-Condon) absorption spectra of benzene and electron transfer of bacteriochlorophyll in the photosynthetic reaction center at finite temperature. This work is a significant step in the treatment of vibronic structure, allowing for the accurate and efficient treatment of complex systems, and provides a new analysis tool for molecular science.
Im Rahmen dieser Arbeit ist es gelungen, eine weltweit einmalige Messapparatur zu entwickeln, mit der Wasserstoffmolekülionen mittels kurzer Laserpulse ionisiert und die Reaktionsprodukte kinematisch vollständig vermessen werden können. Es wird dazu eine an die Coltrims-Technik angelehnte Detektionsmethode genutzt, bei der sowohl Protonen als auch Elektronen über den vollen Raumwinkel nachgewiesen werden können. Die H2+ -Ionen stammen aus einer Hochfrequenz-Ionenquelle und werden auf 400keV beschleunigt. Die Besetzungshäufigkeit der Vibrationsniveaus entspricht daher der Franck-Condon-Verteilung für den Übergang aus dem Grundzustand des neutralen Wasserstoffmoleküls in den elektronischen Grundzustand des Molekülions: H2 (xPg, ν = 0) → H2+ (1sσg, ν′) Dieser Ionenstrahl wird mit einem 780 nm Laserpuls der Pulslänge 40 fs überlappt. Nach der Reaktion fragmentiert das Molekülion entweder über den Dissoziationskanal H2+ + nhν ⇒ H + H+ oder über eine Ionisation gefolgt von einer Coulomb-Explosion: H2+ + nhν ⇒ H+ + H+ + e−. Die Projektile werden nach einer Driftstrecke von etwa 3 m auf einem Ionendetektor nachgewiesen. Für den Nachweis der Elektronen wurde ein spezielles Spektrometer konzipiert, das eine Unterdrückung ungewollter Elektronen erlaubt und so die Messung der Elektronen ermöglicht. Um Elektronen auszublenden, die vom Laser aus dem Restgas ionisiert werden, ist der Elektronendetektor in Flugrichtung der Ionen versetzt angebracht. Durch die unkonventionelle Ausrichtung des Lasers in einem Winkel von 20◦ relativ zur Flugrichtung der Ionen können vom Laser erzeugte Elektronen nur dann den Elektronendetektor erreichen, wenn sie aus dem bewegten Bezugsystem der Projektile stammen. Diese Unterdrückung macht die Messung der Elektronen erst möglich, hat aber auch eine nachteilige Geometrie der Verteilungen gegenüber den Detektorebenen zur Folge. Durch die Ausnutzung der Projektilgeschwindigkeit ist überdies die Benutzung eines B-Feldes zur Verbesserung der Flugzeitauflösung der Elektronen nicht möglich. Um eine Überlappung des Ionenstrahls mit dem Laserfokus zu erreichen, wurde im Bereich der Reaktionszone ein System zur Visualisierung der Strahlpositionen integriert. Dieses kann überdies für eine Intensitätseichung bei linear polarisiertem Licht verwendet werden. Bei der Reaktion kommt es durch die vergleichsweise lange Pulsdauer schon bei relativ niedrigen Intensitäten zu Dissoziationsprozessen. Das dissoziierende Molekül erreicht noch während der ansteigenden Flanke des Laserpulses auf diese Weise Abstände, bei denen der Prozess der Charge-Resonance-Enhanced-Ionization (CREI) stattfinden kann. Auch die in einem sehr engen Winkelbereich um die Polarisationsrichtung des Lasers liegende Winkelverteilung der gemessenen Protonen deutet darauf hin, dass CREI der dominante Ionisationsprozess ist. Durch die vorausgehende Dissoziation nimmt das Molekül schon vor der Ionisation eine kinetische Energie auf, so dass die gemessene KER-Verteilung einer Summe aus KERDissoziation und KERIonisation darstellt. Ein Vergleich mit den KER-Spektren des Dissoziationsprozesses zeigt, dass die aufgenommene Energie durch Dissoziation zu einem überwiegenden Anteil in einem Bereich von 0, 6 ± 0, 35 eV besitzt, während die Gesamt-KER-Verteilung deutlich höhere Werte bis zu 6 eV aufweist. Dies ermöglicht, aus der gemessenen KER-Verteilung den internuklearen Abstand zum Ionisationszeitpunkt näherungsweise zu bestimmen. Die gemessenen Elektronen weisen, ebenso wie die Protonen, eine scharfe Ausrichtung entlang der Laserpolarisation auf, was durch den Einfluss des Lasers auf dieser Achse nicht verwunderlich ist. Bei zirkularer Polarisation dagegen findet eine Netto-Beschleunigung der Elektronen senkrecht zur Richtung des elektrischen Feldes zum Ionisationszeitpunkt statt, sodass die Messung der Elektronenimpulse eine geeignete Messgröße zur Untersuchung des Ionisationsprozesses darstellt. Auf diese Art konnten Winkelverteilungen der Elektronen bezüglich der internuklearen Achse innerhalb der Polarisationsebene gemessen werden. Abhängig von KER und Elektronenergie konnte dabei eine Verdrehung der Verteilung gegenüber den klassisch erwarteten 90◦ relativ zur internuklearen Achse festgestellt werden. Die Winkelverteilung rotiert dabei mit steigendem KER entgegen des Drehsinns. Dies widerspricht der gängigen Vorstellung einer Tunnelionisation, bei der nur die Beschleunigung des Elektrons im Laserfeld eine Rolle spielt und der Einfluss des Coulomb-Potentials vernachlässigt wird. Für höhere Elektronenergien zeigt sich eine zweite konkurrierende Struktur, die für die höchsten Energien die sonst vorherrschende erste Struktur sogar dominiert. Da sich in den Protonenspektren für linear polarisiertes Licht kein Einfluss einer Ionisationsenkrecht zur Polarisationsrichtung findet, erscheint dies als Grund für die zweite Struktur in den Elektron-Winkelverteilungen als unwahrscheinlich. Eine stichhaltige und gestützte Erklärung gibt es bisher weder für die Rotation der ersten Struktur noch für die Herkunft der zweiten. Dies zeigt deutlich, dass es auch für dieses einfachste Molekülsystem noch einen erheblich Handlungsbedarf sowohl auf theoretischer als auch von experimenteller Seite gibt. Da dieses Experiment den ersten experimentellen Zugang für die direkte Untersuchung der Elektronimpulse bei der Ionisation von H2+ -Ionen in kurzen Laserpulsen darstellt, bietet sich hier die bisher einzige Möglichkeit, dieses Verhalten experimentell zu untersuchen.
Die P-Typ-ATPasen finden sich in allen Domänen des Lebens und stellen die größte Gruppe aktiver Ionentransporter in Zellen dar. Es handelt sich bei den P-Typ-ATPasen um integrale Membranproteine, die eine große Anzahl verschiedenster Ionen aktiv über eine biologische Membran transportieren. Die für diesen Ionentransport notwendige Energie wird durch Bindung und Hydrolyse von Adenosintriphosphat (ATP) und durch Phosphorylierung des Enzyms gewonnen. Diese, im cytoplasmatischen Teil gewonnene Energie, muss für den Ionentransport von der Phosphorylierungsstelle zur räumlich entfernten transmembranen Ionenbindungsstelle übertragen werden, bei dem das Protein einem Reaktionszyklus mit zwei Hauptkonformationszuständen E1 und E2 unterliegt. Zwischen diesen beiden Zuständen finden große strukturelle Änderungen statt, durch die die Ionenaffintät und die Zugänglichkeit der Ionenbindungsstelle reguliert wird. Da dieser Mechanismus der Energiegewinnung für alle Ionenpumpen dieser Art ähnlich ist, wurde die Ca2+-ATPase und die Na+/K+-ATPase als Modellproteine für die Untersuchung molekularer Mechanismen in P-Typ-ATPasen ausgewählt. Im Rahmen der vorliegenden Arbeit soll die Energietransduktion in P-Typ-ATPasen im Allgemeinen und der Protonengegentransport bzw. ein potentieller Protonentransportweg in der Ca2+-ATPase im Speziellen untersucht werden. Die beiden oben genannten Mechanismen sollen mittels computergestützter Methoden analysiert werden. Vor allem die Ca2+-ATPase ist prädestiniert für computergestützte Untersuchungen, da für diese sehr viele hochaufgelöste Röntgenstrukturdaten vorliegen, wenn auch bisher aufgrund der Größe und Komplexität des Systems nur sehr wenige theoretische Arbeiten durchgeführt wurden. Um den Energietransduktionsmechanismus in P-Typ-ATPasen zu untersuchen, wurde mittels Elektrostatik-Rechnungen der Einfluss eines elektrischen Feldes auf die verschiedenen Transmembranhelices untersucht. Dazu wurde ein Simulationssystem entwickelt, welches aus einem molekularen Kondensator besteht, der im Modell das Anlegen eines homogenen elektrischen Feldes über den Transmembranbereich simuliert. Da es sich bei dem Energietransduktionsmechanismus um einen dynamischen Prozess handelt, wurden die Elektrostatik-Rechnungen um Molekulardynamik-Simulationen erweitert. Mit diesen kann die konformelle Dynamik der P-Typ-ATPasen während der Energietransduktion in die Elektrostatik-Rechnungen einbezogen werden. Aus Spannungsklemmen-Fluorometrie-Experimenten, bei denen eine Spannung über eine Membran angelegt wird, kann geschlossen werden, dass die Helix M5 für die Energietransduktion verantwortlich ist. Mit den in dieser Arbeit durchgeführten Elektrostatik-Rechnungen konnte für verschiedene Enzymzustände der Ca2+-ATPase und für die Na+/K+-ATPase gezeigt werden, dass die Helix M5 die größten Konformeränderungen aufgrund des elektrischen Feldes aufweist. Durch die Erweiterung der Elektrostatik-Rechnungen um die Methode der Molekulardynamik-Simulation konnte zusätzlich die elektrische Feldstärke reduziert werden. Auch dabei zeigte sich, dass auf der Helix M5 die meisten Rotameränderungen durch das elektrische Feld induziert werden. Die aus Experimenten vermutete Rolle der Helix M5 als wichtiges Energietransduktionselement ließ sich mit diesen Simulationsrechnungen bestätigen. Um einen möglichen Protonenweg durch den Transmembranbereich der Ca2+-ATPase aufzuklären, wurden explizite Wassermoleküle in sechs verschiedene Enzymzustände der Ca2+-ATPase eingefügt. Aus Experimenten ist bekannt, dass in der Ca2+-ATPase ein Protonengegentransport stattfindet. Deshalb wurden für verschiedene Enzymzustände der Ca2+-ATPase mittels Elektrostatik-Rechnungen die Protonierungen der eingefügten Wassermoleküle sowie der titrierbaren Aminosäuren bestimmt. Aus den Ergebnissen dieser Rechnungen kann geschlossen werden, dass es sich bei dem Protonentransfer nicht um einen linearen Transport der Protonen handelt. Die Untersuchungen zeigen einen mehrstufigen Prozess, an dem Protonen in verschiedenen Transmembranbereichen der Ca2+-ATPase beteiligt sind. Anhand der berechneten Protonierungszustände der eingefügten Wassermoleküle und der pK-Werte der Aminosäuren im Transmembranbereich konnte weiterhin ein möglicher Protonenweg identifiziert werden.
Nonequilibrium phase transitions in chiral fluid dynamics including dissipation and fluctuation
(2011)
Chiral fluid dynamics combines the fluid dynamic expansion of a hot and dense plasma created in a heavy-ion collision with the explicit propagation of fluctuations at the chiral phase transition of quantum chromodynamics. From systems in equilibrium long-range fluctuations are expected at a conjectured critical point. Heavy-ion collisions are, however, finite in size and time and very dynamic. It is thus likely that nonequilibrium effects diminish the signal of a critical point. They can, however, stimulate phenomena at a first order phase transitions, like nucleation and spinodal decomposition. Both of phase transition scenarios are investigated in this work. Based on the linear sigma model with constituent quarks a consistent quantum field theoretical approach using the two-particle irreducible effective action is developed to derive both, the local equilibrium properties of the expanding quark fluid and the damping and noise terms in the Langevin equation of the order parameter of the phase transition, the sigma field. Within this formalism it is possible to obtain a conserved energy-momentum tensor of the coupled system. It describes the energy dissipation from the sigma field to the heat bath during relaxation. Within this model we investigate nonequilibrium phenomena in a scenario with a critical point and a first order phase transition. We observe long relaxation times at the phase transition, phase coexistence at the first order phase transition and critical slowing down at the critical point. We find a substantial supercooling in a first order phase transition in our model and due to the energy-momentum exchange also reheating is present. While at the critical point the correlation length increases slightly we find an enhanced intensity of nonequilibrium fluctuations at the first order phase transition, which leads to an increased production of sigma mesons.
Im Rahmen des Programms zur Intensitätserhöhung am Universal Linear Accelerator UNILAC für das Element Uran hat sich die Forderung nach einer Ionenquelle ergeben, die einen intensiven, hochbrillianten Ionenstrahl aus vierfach geladenen Uranionen bereitstellen kann. Ziel war es, im Zusammenspiel von Ionenquelle, Nachbeschleunigungssystem und Niederenergiestrahlführung einen Strahlstrom von mindestens 15 emA U4+ am Eingang des RFQ-Beschleunigers bereitzustellen. Die vorliegende Arbeit befaßt sich mit den Optimierungen und den experimentellen Untersuchungen an der Vakuumbogenionenquelle VARIS für den Uranbetrieb, welche schließlich ihre Leistungsfähigkeit an der Beschleunigeranlage der GSI erfolgreich unter Beweis gestellt hat. Der erste Teil dieser Arbeit widmet sich der Theorie der Vakuumbogenentladung unter besonderer Berücksichtigung der Erzeugung von U4+. Die Generierung von U4+ erfolgt dabei zu einem Teil im dichten Kathodenspotplasma, wo das Ionisationspotential von 31 auf 21 eV herabgesetzt ist, U4+ also bei vergleichsweise niedrigen Elektronenenergien erzeugt werden kann. Der U4+-Anteil beträgt jedoch nur 30 %. Die Erzeugung eines höheren Anteils an U4+ ist geknüpft an zusätzlich Ionisationsvorgänge im expandierenden Zwischenelektrodenplasma, für welches eine neuartige Theorie (MHD Ansatz) angegeben werden konnte. Für die Vakuumbogenentladung im axialen Magnetfeld konnte eine Erhöhung der Elektronentemperatur vorhersagt werden, die für eine höhere Ionisationsrate für U4+ verantwortlich ist. Für die Elektronentemperatur wurde bei einer magnetischen Flußdichte von 40 mT ein Wert von 10 eV vorhergesagt, welcher experimentell bestätigt werden konnte. Zieht man zudem die berechneten Wirkungsquerschnitte für die Ein- und Mehrfachionisation heran, so konnte aus den Wirkungsquerschnitten vorausgesagt werden, daß für die Produktion eines hohen Anteils an U4+ eine Elektronenenergie von zirka 50 eV für die Generierung von U4+ aus U3+ erforderlich ist. Im weiteren wurde ausgeführt, wie ein Extraktionssystem ausgelegt sein muß, welches den Forderungen nach einem Gesamtstrom von 140 mA entspricht oder diesen übertrifft. Das Erreichen dieses Stroms ist im Einlochextraktionssystem mit Schwierigkeiten verbunden (große Emissionsfläche, langes Extraktionssystem, Extraktionsspannung zirka 180 kV). Aus diesen Gründen ist die Entscheidung zugunsten eines Extraktionssystem mit 13 Öffnungen mit einem Durchmesser von jeweils 3 mm gefallen. Die Gesamtemissionsfläche aller Aperturen liegt bei 0,92 cm2. Zur Bestimmung der Strahlformierung einer Öffnung im Extraktionssystem ist das Strahlsimulationsprogramm KOBRA3INP unter Berücksichtigung einer experimentell gut zugänglichen Feldstärke von 11 kV/mm bei einem Aspektverhältnis von 0,5 genutzt worden. Es ergab sich ein minimaler Divergenzwinkel von etwa 55 mrad, die unnormierte effektive Emittanz geht mit steigender Stromdichte asymptotisch einem Wert von 65p mm mrad entgegen. Für das Extraktionssystem (13 Öffnungen) kann die unnormierte effektive Emittanz zu 610p mm mrad abgeschätzt werden. Die Stromdichte, welche der Plasmagenerator bereitstellen muß, beträgt etwa 1600 A/m2. Die Extraktionsspannung liegt bei 32 kV, welche, ebenso wie die Stromdichte, experimentell erreicht wurde. Bei den experimentellen Untersuchungen wurde zunächst untersucht, inwieweit die Impedanz des Vakuumbogenplasmas gesteigert werden kann. Ziel war es, eine möglichst hohe Plasmaimpedanz und damit eine hohe Bogenspannung zu erhalten, wodurch die erreichbare Elektronenenergie vergrößert wird (Regelung der Bogenspannung durch die Plasmaimpedanz). Es ist gezeigt worden, daß die Impedanz vor allem durch eine geeignete Magnetfeldkonfiguration erhöht werden kann (axiales Feld). Ebenso sind die Geometrie der Ionenquelle (Abstand Kathode-Anode 15 mm, Anodenöffnung 15 mm) und die verwendeten Materialien (Anode aus Edelstahl, kleiner Sputterkoeffizient und Sekundärelektronenaus97 löse) entscheidend, wobei zugunsten eines zuverlässigen Zündverhaltens der Ionenquelle die Entscheidung für eine Anodenöffnung von 15 mm statt 25 mm gefallen ist. So erreicht man für eine magnetische Flußdichte von 120 mT bei einem Bogenstrom von 700 A eine Bogenspannung von 54 V, wodurch die Erzeugung bis zu sechsfach geladenen Uranionen möglich wird. Um grundlegende Eigenschaften des Vakuumbogenplasmas zu bestimmen und das theoretische Modell zur Erzeugung von U4+ zu überprüfen, wurden die Ionen- und Elektronenenergieverteilung im Plasma gemessen ...
This work deals with the use of dielectrics with high permeability, so-called high-k dielectrics in organic thin-film field-effect transistors (FETs). The central part was the preparation of the high-k dielectric and its implementation in transistors, in which organic semiconductors were used as active layer. A field-effect transistor can be used to measure the charge carrier mobility. Employing high-k dielectrics the carrier concentration in the active layer can be greatly increased. In this way, high charge carrier concentrations in organic layers can be achieved without chemical doping. As high-k dielectric strontium titanate (STO) was selected. It is also available as a niobium-doped and therefore conducting substrate material. Thus, one has an ideal substrate for the growth of the dielectric layer in conjunction with a substrate which acts as gate electrode. As the organic semiconductor the small molecules pentacene and copper phthalocyanine (CuPc) were sublimated, as electrical contacts gold was used. As a key part of this work an ultra high vacuum chamber system was constructed for in situ preparation of field effect transistors. For the deposition of the organic thin films a molecular beam deposition chamber was built, including a manipulator and effusion cells as evaporation sources. For the preparation of the dielectric a sputtering chamber was set-up. Another chamber was used in conjunction with an effusion cell for the deposition of the gold contacts. For the structured deposition of the different layers in the devices a shadow mask system was implemented. Movable masks could be positioned by means of a wobble stick onto the sample carriers. The system thus allowed for the use of masks in all chambers. The different thin films required in the transistor structure were first individually prepared and characterized. For the characterization primarily X-ray diffraction and optical microscopy were used. The growth of pentacene was analyzed on aplha-AlO substrates. With X-ray diffraction the (00l) reflections of the thin film phase were observed. In growth studies of CuPc aplha-AlO and STO substrates were used. With X-ray diffraction the aplha-phase was detected. With increasing substrate temperature an increase in crystallinity, but also an increase in surface roughness was observed. The sputtering of STO as a high-k dielectric was studied and optimized. Simultaneously, a high deposition rate, a smooth film surface and good crystallinity of the layer were required. As the most important parameters the substrate temperature, pressure and sputtering power were identified. Argon and oxygen were employed as sputtering gases, as substrate MgO was used. The films showed in comparison to crystalline STO a distortion to larger lattice constants. The degree of distortion decreased with increasing chamber pressure, on the other hand, deposition rate decreased with increasing chamber pressure as well. By combining the individual deposition processes FETs in bottom-gate geometry were prepared. The first step was always sputtering of the STO dielectric on niobium-doped STO substrates. Subsequently, the electrodes and the organic layer were deposited. For comparison transistors on silicon substrates with silicon dioxide (SiO2) as the dielectric were prepared. To study the transistor properties a measurement setup was build. A dielectric constant of about 190 for the STO in the transistors was achieved. The transistors with CuPc as active layer showed p-type conduction behavior. The transistors with STO as dielectric had a much stronger response than those with SiO2. They reached mobilities of 2E-4 cm2/Vs at very low applied voltages of 3V. It could thus be demonstrated that STO is suitable as a dielectric for organic FETs, and that through the use of high-k dielectrics high charge carrier densities can be achieved.
Ziel der durchgeführten Experimente dieser Arbeit war es, den Versuch zu unternehmen, Cooper-Paare als Träger des supraleitenden Stroms direkt mit Hilfe des Photoelektrischen Effektes nachzuweisen. Die Methode der koinzidenten Photoelektronenspektroskopie zielt dabei auf den Nachweis von zwei kohärent emittierten Elektronen durch die Wechselwirkung mit einem Photon ab. Da elektrostatische Analysatoren typischerweise nur einen sehr kleinen Raumwinkel erfassen, was mit sehr geringen Koinzidenzraten einhergeht, ist im Zusammenhang mit dieser Arbeit ein Flugzeitprojektionssystem entwickelt worden, welches nahezu den gesamten Raumwinkel auf einem ortsauflösenden Detektor abbildet. Die zur Messung erforderliche gepulste Lichtquelle in Form von spezieller Synchrotronstrahlung ist so schwach eingestellt worden, daß nur vereinzelt Photonen auf die Probe gelangen konnten. Spektroskopiert wurde neben Testmessungen an Silberschichten sowohl ein Blei-Einkristall als Vertreter der klassischen BCS-Supraleiter als auch einkristallines Bi2Sr2CaCu2O8 aus der Gattung der Hochtemperatursupraleiter. Mit Anregungsenergien bis 40 eV konnte gezeigt werden, daß hinreichend glatte und saubere Oberflächen in der supraleitenden Phase innerhalb des Auflösevermögens von ungefähr 0.5 eV keine erkennbaren, signifikanten Unterschiede im Vergleich zur normalleitenden Phase aufweisen. Neben diesen Untersuchungen ist weiterhin ausführlich die einfache Photoemission an den verschiedenen Proben und insbesondere im Falle des Bleikristalls behandelt, da hier keine vergleichbaren Resultate bekannt sind. Dabei wird der gesamte Impulsraum besprochen und die Fermi-Fläche als dreidimensionales Modell erstellt, mit dessen Hilfe die Meßergebnisse diskutiert werden. In den theoretischen Beschreibungen sind verschiedene Modelle zur Cooper-Paar-Emission vorgestellt, wobei beispielsweise dem Impulsaustausch mit dem Kristall eine besondere Rolle beigemessen wird, da dieser bei direkten Anregungen nur über diskrete Gittervektoren erfolgen kann.
Für das Helmholtzzentrum für Schwerionenforschung (GSI), in Darmstadt, wurde ein neuer RFQ zur Beschleunigung schwerer Ionen für den Hochladungsinjektor (HLI) entwickelt. Dieser RFQ hat den bereits vorhandenen ersetzt und soll, für die Anpassung des HLI an die neue 28 GHz-ECR-Ionenquelle, den Duty-cycle von 25 % auf 100 % erhöhen, um superschwere Ionen zu erzeugen und die Experimente mit schweren Ionen zu versorgen. Der RFQ hat die Aufgabe schwere, hochgeladene Ionen von 4 keV/u auf 300 keV/u zu beschleunigen. Wichtige Eigenschaften sind ein hoher Strahlstrom, eine hohe Strahl-Transmission, eine kleine Strahlemittanz und eine geringe transversale Emittanzzunahme. Die Erhöhung der Injektionsenergie von 2,5 keV/u auf 4 keV/u ermöglicht eine Verkleinerung des Konvergenzwinkels. Der Aufbau des 4-Rod-RFQs für den HLI ist Thema der vorliegenden Arbeit. Die Auslegung des HLI-RFQs bezieht sich auf ein festgelegtes max. Masse zu Ladungsverhältnis von A/q = 6, bei einer Betriebsfrequenz von 108,408 MHz. Die Ionen sollen bei einem Strahlstrom von 5 mA von 4 keV/u auf 300 keV/u beschleunigt werden. Durch die spezielle teilchendynamische Auslegung konnte die Länge des Tanks von vorher 3 m auf jetzt 2 m verkürzt werden. Dies begünstigt den CW-Betrieb der Struktur. Durch den CW-Betrieb hat man eine hohe Leistungsaufnahme, dies erfordert eine besondere teilchendynamische und hochfrequenztechnische Auslegung der RFQ-Struktur und eine effiziente Kühlung. Zur Simulation der Hochfrequenzeigenschaften wurde ein Modell des RFQ mit dem Programm Microwave Studio (MWS) erstellt. Die Simulationen ergaben einen nur 2 m langen RFQ mit sehr hoher Transmission > 95%. Nach den entsprechenden Simulationsrechnungen bezüglich der Teilchendynamik und der Hochfrequenzeigenschaften wurde der RFQ aufgebaut. Der zeitaufwändige Aufbau lässt sich in drei Abschnitte einteilen. Die Elektroden wurden präzise ausgemessen. Danach wurden Stützen, Elektroden und Tuningplatten an der Bodenplatte montiert und in den Tank eingesetzt. Im Tank wurden die Elektroden justiert, die zuerst außerhalb vermessen wurden. Die korrekte Position der Elektroden zur Referenzfläche wurde berechnet und mit Hilfe eines Faro-Gage im Tank eingemessen. Die maximale Abweichung der Elektrodenposition konnte auf 0,03 mm reduziert werden. Nach der mechanischen Einrichtung folgte die HF-Anpassung des Resonators. Durch das Erhöhen der Tuningplattenpositionen zwischen den Stützen konnte die Resonanzfrequenz von 90,8 MHz auf 108,4 MHz erhöht werden. Als nächstes wurde die Spannungsverteilung im Tank gemessen und mit Hilfe der Tuningplatten konnte sie so eingestellt werden, dass die maximale Abweichung zur mittleren Elektrodenspannung bei nur ± 2% liegt. Zur weiteren Hochfrequenzabstimmung wurde die Wirkung zweier Tauchkolben mit einem Durchmesser von 75 mm untersucht. Die Tauchkolben ermöglichen eine Anpassung der Frequenz im Bereich von 1,4 MHz. Sie sollen die möglichen Frequenzverschiebungen durch beispielsweise thermische Effekte, auf Grund des HF-Betriebs, regulieren. Für die Hochfrequenzabstimmung wurde eine Ankoppelschleife gefertigt und angepasst. Die Güte des Resonators betrug Q0 = 3100, bei einem RP-Wert RP = 100 kΩm, d.h. die zur Versorgung stehende HF-Leistung (50 kW im CW-Betrieb) reicht aus. An der GSI wurde nach dem Transport eine Kontrolle der Elektroden vorgenommen, danach wurde der RFQ erst einzeln, danach als komplette HLI Einheit getestet. Dazu wurden verschiedene Pulsmessungen und Emittanzmessungen mit Argon 7+ und Argon 8+ durchgeführt. Bei der ersten Strahlinbetriebnahme wurden die Transmission, die Ionenenergie und die Emittanz mit verschiedenen Ionen gemessen. Die ersten Tests des HLI-RFQ waren sehr vielversprechend. In den Tests war zu sehen, dass die vorgenommenen Arbeiten, wie Justage und HF-Abstimmung der Resonanzstruktur, erfolgreich waren. Danach wurde der Strahlbetrieb mit Calcium, bei einer Leistung von 50 kW, durchgeführt. Die gemessene Transmission bei einer Spannung von 43 kV lag bei 70 %. Im Mai 2010 gab es eine 14Stickstoff2+ -Strahlzeit mit einer gepulsten Leistung von N = 90 kW. Danach wurde Anpassungstests mit verschiedenen Schwerionen durchgeführt. Im November 2010 wurden neue Tuningplatten mit einer besseren Stützenkontaktierung sowie einer besseren Kühlung eingebaut. Die Elektroden wurden nach diesen Maßnahmen auf ± 0,04 mm einjustiert. Die Flatness liegt bei ± 2,1 %, die Güte beträgt Q0 = 3300. Der RFQ wurde in die Beamline eingebaut und geht im Januar 2011 in Betrieb.
In der vorliegenden Arbeit wird die Ionisation von Stickstoff- und Sauerstoff-Molekülen in starken, nicht-resonanten Laserlicht-Pulsen untersucht. Die dreidimensionalen Impulsvektoren der freigesetzten Elektronen und Ionen wurden mittels eines sogenannten COLTRIMS Spektrometers vermessen. Das Hauptaugenmerk galt dem Kanal der Einfachionisation, der ein stabiles Molekülion ($N_2^+$ / $O_2^+$) erzeugt. Da in diesem Fall keine Dissoziation des Ions stattfindet, kann nicht aus der Flugrichtung ionischer Fragmente auf die Ausrichtung der Molekülachse geschlossen werden. Die Abhängigkeit des Prozesses vom Winkel zwischen der Molekülachse und der Polarisationsrichtung des ionisierenden Lichtes ist nur dann zugänglich, wenn die Ausrichtung der Molekülachsen vordem Zeitpunkt der Ionisation aktiv kontrolliert werden kann. Hierzu wurde die Technik der nichtadiabatischen Molekülausrichtung'' (non-adiabatic molecular alignment'') [1] angewandt. Ein erster, mäßig intensiver Lichtpuls bewirkte die Ausrichtung der Molekülachsen im Laborsystem. Sodann wurden die ausgerichteten Moleküle von einem zweiten, hochintensiven Puls ionisiert. In einem ersten Experiment wurden Elektronen-Impulsverteilungen für zwei verschiedene Molekülausrichtungen bestimmt. Ein Vergleich der Verteilungen brachte zwei wichtige Ergebnisse: 1) Im Bereich niedriger Elektronen-Impulse senkrecht zur Polarisationsrichtung des ionisierenden Lichtpulses wird der Fingerabdruck'' des ionisierten Molekülorbitals sichtbar. 2) Bei höheren Impulsen zeigten sich Strukturen, die als Doppelspalt-Interferenz interpretiert werden können. Ein ionisiertes Elektron propagiert im oszillierenden elektrischen Feld des Laser-Pulses. Von diesem kann es auf das Ion hin zurück beschleunigt werden und dort streuen [2]. Wir betrachten den Fall elastischer Rückstreuung''. In erster Näherung wirken die Bestandteile des diatomaren Molekülions wie ein Doppelspalt, an dem die streuende Elektronen-Welle gebeugt wird. In einem zweiten, dem ersten sehr ähnlichen Experiment wurde die Molekülausrichtungs-Richtung in kleinen Schritten variiert. Sowohl der Effekt der Elektronenbeugung am Ion, als auch - mit Einschränkungen - die Abbildung des ionisierten Orbitals wurde erneut beobachtet. Letztere ist durch eine Projektion des Orbitals in den Impulsraum senkrecht zur Laser-Polarisationsrichtung bestimmt [3,4]. Die Messung der Strukturen unter verschiedenen Molekül-Ausrichtungen im zweiten Experiment entspricht daher der Aufnahme verschiedener Projektionen des Orbitals. Der so gewonnene Datensatz sollte prinzipiell eine Rekonstruktion der dreidimensionalen Elektronen-Dichteverteilung des ionisierten Molekülorbitals mittels eines Tomographie-Algorithmus ermöglichen. Entsprechende Entwicklungen sind bei Kooperationspartnern im Gange. Die beobachtete Beugung des rückgestreuten Elektrons ermöglicht den Rückschluss auf die Positionen der Kerne im Molekülion. Es besteht die Hoffnung, dass sich in Zukunft detailliertere Informationen über das streuende Potential jenseits des einfachen Doppelspalt-Modells gewinnen lassen. Rückstreuung höherenergetischer Elektronen sollte hingegen eine verbesserte Ortsauflösung ermöglichen. Beide Informationen - Ionisiertes Orbital und Beugungsbild des Ions - werden simultan in ein- und derselben Messung gewonnen. Die zeitliche Auflösung wird durch rein optische Parameter (Licht-Wellenlänge, Pulslänge) determiniert. Sie kann mittels ultrakurzer, phasenstabiler Laserlicht-Pulse in den Bereich einer Femtosekunde oder darunter verbessert werden. [1] Stapelfeldt et al., Rev. Mod. Phys. 75, 543-557 (2003). doi:10.1103/RevModPhys.75.543 [2] Corkum, Phys. Rev. Lett. 71, 1994-1997 (1993). doi:10.1103/PhysRevLett.71.1994 [3] Spanner et al., J. Phys. B 37, L243-L250 (2004). doi:10.1088/0953-4075/37/12/L02 [4] Ivanov et al., J. Mod. Opt. 52, 165 (2005). doi:10.1080/0950034042000275360
Organische Materialien haben bis zur Mitte des 20. Jahrhunderts hinsichtlich ihrer elektronischen Eigenschaften keine besondere Aufmerksamkeit auf sich gezogen. Größeres Interesse an diesen Materialien entstand erst durch die Entdeckung einer ungewöhnlich hohen elektrischen Leitfähigkeit des organischen Perylen-Bromin Ladungstransfer-Komplexes durch Inokuchi et al. im Jahr 1954. Diese neue Klasse von Materialien besteht typischerweise aus Donor- und Akzeptor-Molekülen, die in einer bestimmten Stöchiometrie aneinander gebunden sind. Elektrische Ladung wird zwischen den Donor- und Akzeptor-Molekülen transferiert. Um diesen Prozess zu beschreiben, entwickelte Robert Mulliken in den 60er Jahren ein theoretisches Gerüst. Abhängig von der Anordnung der Moleküle und transferierten elektrischen Ladung kann der Ladungstransfer-Komplex (oder Salz) ein Isolator, ein Halbleiter, ein Metall oder sogar ein Supraleiter sein. Noch mehr Aufmerksamkeit erhielten Ladungstransfer-Materialien mit der Entdeckung des ersten quasi-eindimensionalen organischen Metalls TTF-TCNQ (tetrathiafulvalene-tetracyanoquinodimethane) im Jahr 1973. ...
This thesis deals with the simulation, optimization and realization of quasi-optical scanning systems for active THz cameras. Active THz cameras are sensitive in the THz regime of the electromagnetic spectrum and are suitable for the detection of metal objects such as weapons behind clothing or fabrics (maybe for security applications) or material investigation. An advantage of active THz-systems is the possibility to measure the phase of the THz-radiation and thus to reconstruct the surface topography of the objects under test. Due to the coherent illumination and the required system parameters (like image field size, working distance and lateral resolution) the optical systems (in the THz region often called quasi-optical systems) must be optimized. Specifically, the active illumination systems require highly optimized quasioptical systems to achieve a good image quality. Since currently no suitable multi-pixel detectors are available, the object has to be scanned in one or two dimensions in order to cover a full field of view. This further reinforces the occurring aberrations. The dissertation covers, alongside the underlying theory, the simulation, optimisation and realisation of three different active THz systems. The subdivision of the chapters is as follows: Chapter 1 deals with a motivation. Chapter 2 develops the underlying theory and it is demonstrated that the geometrical optics is an adequate and powerful description of the image field optimization. It also addresses the developed analytic on-axis and the off-axis image field optimization routine. Chapter 3, 4 and 5 are about the basis of various active THz cameras, each presented a major system aspect. Chapter 3 shows how active THz-cameras with very high system dynamics range can be realised. Within this chapter it could although be demonstrated how very high depth resolution can be achieved due to the coherent and active illumination and how high refresh rate can be implemented. Chapter 4 shows how absolute distance data of the objects under test can be obtained. Therefore it is possible to reconstruct the entire object topography up to a fraction of the wavelength. Chapter 5 shows how off-axis quasi-optical systems must be optimized. It is also shown how the illumination geometry of the active THz systems must be changed to allow for real-time frame rates. The developed widened multi-directional lighting approach also fixes the still existing problem of phase ambiguity of the single phase measurement. Within this chapter, the world’s first active real-time camera with very high frame rates around 10 Hz is presented. This could be only realized with the highly optimised quasioptical system and the multi-directional lighting approach. The paper concludes with a summary and an outlook for future work. Within the outlook some results regarding the simulation of synthetic aperture radar systems and metamaterials are shown.
Towards a THz Bloch laser
(2011)
The realisation of tunable THz laser sources working at room temperature would give
rise to further applications in this range of the electromagnetic spectrum. The THz
Bloch laser could therefore become the basis for a technological breakthrough. Beside
this practical relevance, the physics of the gain mechanism has been investigated
theoretically for a long time and the experimental implementation of a self-starting
laser still has not been achieved.
At the beginning of this thesis the basic principles of Bloch oscillations and the
related Bloch gain are described. The need of a superlattice structure to make Bloch
oscillations possible in a semiconductor material is discussed. In this context, the effect
of negative differential resistance and its influence on the field distribution due to Gunn
domains is explained. The latter lead to an inhomogeneous field which may suppress
the Bloch gain mechanism. The Krömer criterion is introduced and the concept of
field-pinning layers to improve the field homogeneity is deduced. Finally, the design of
the laser material is shown and different types of laser waveguides are compared.
In chapter 3 detailed recipes for the processing of samples are given. Different types of
contacts (ohmic and Schottky), the wafer bonding process required for double-metal
lasers and the application of different photoresists for different purposes are described.
An explanation of the formation of waveguides due to dry etching, wet etching
and ion implantation follows. Dry etching is an established technique in the field
of microstructure processing but the challenge of etching about 20 μm has led to
problems. The high etching depth also makes wet etching difficult but this method
could be improved due to a hard bake of the photoresist. The protection of critical
areas on the surface of the samples with photoresist during ion implantation was
increased by optimising the spin coating process. However, a full implantation of the
active layer between the waveguides was not achieved which was the reason for the
development of the hybrid technology. Here a prior wet etching of about 10 μm is
performed and the rest of the material is implanted.
The experimental setup is shown in chapter 4. An alternative method for the electrical
contacting with the help of a copper bar is introduced. This improves the current
distribution and the risk of an electrical breakdown during the measurements could
therefore be lowered. Devices for THz beam guidance and spectroscopic measurements
are shown and the method of biasing the samples with pulses below 100 ns and
determining the effective voltage applied to the sample is depicted. These short pulses
are required to prevent the samples heating up drastically due to high power.
Chapter 5 contains the current-voltage characterisation of several structures including
I-V-samples, Bloch laser samples and a quantum cascade laser. Different contacts
(ohmic and Schottky) and different techniques for the formation of the ridges have
been used in the processing of these samples (performed at the University of Frankfurt
in all cases) and their influence on the I-V-dependence is discussed. The properties of
the THz emission of the quantum cascade laser are in good agreement with published
results from lasers processed with the same material. Another important result of
this chapter is that the Bloch laser samples show unstable behaviour compared to the
quantum cascade structure even with short pulses (of about 10 ns) where the risk of an
electrical breakdown or the building of filaments is low. THz radiation emitted from
one of the Bloch laser samples could not be observed.
Two aspects that may have prevented the Bloch laser to emit are discussed in
chapter 6. The saturation of the gain for higher amplitudes of the THz wave is
investigated in single mode and multiple mode operation (the latter could occur due
to the Bloch gain being expected to be broadband). In both cases it is shown that
the saturation effect would limit the output power only to values clearly above the
detection limit. In the subsequent section the distribution of the electric field is
simulated with SILVACO software. Structures with transit layer lengths above the
Krömer criterion are compared with structures which include field-pinning layers. It is
shown that the latter are useful to avoid propagating Gunn domains as they build up
in similar structures without field-pinning layers. Nevertheless, the electric field inside
the superlattice regions is not stable. Beside spatial inhomogeneities also temporal
variations of the field magnitude are observed. The lack of a suitable field distribution
is expected to be the main reason for the samples not to work.
Das Antiprotonen-Experiment PANDA an der zukünftigen Beschleunigeranlage FAIR wird unter anderem Charmonium-Zustände mit einer bis dato unerreichten Genauigkeit messen können. Um dieses Ziel zu erreichen, wird eine sehr gute Teilchenidentifikationsfähigkeit verlangt. Eine gute Trennung zwischen Pionen und Kaonen wird durch den Einsatz eines Cherenkovdetektors erreicht. Die Leistungsfähigkeit eines DIRC hängt von dessen Radiatorgüte ab. Um die Qualität der Radiatorstäbe spezifizieren zu können, wurde im Rahmen dieser Doktorarbeit eine optische Messapparatur entwickelt. Dieser Aufbau erlaubt es die Transmission sowie die Oberflächenrauheit der Stäbe zu messen. Es wurden mehrere Radiatorstäbe aus synthetischem Quarzglas und Acrylglas untersucht. Die Messgenauigkeit bei hochqualitativen Stäben liegt für die Transmissionsmessung bei etwa 1 Promille und für die Rauheit bei 1-2 Angström. Die Messergebnisse bei verschiedenen Wellenlängen zeigen eine gute Übereinstimmung mit der skalaren Streutheorie, die den Zusammenhang zwischen Reflexionskoeffizienten und Rauheit beschreibt. Bei einer Strahlzeit an der GSI mit einem 2 GeV Protonenstrahl wurde ein erster Prototyp für den Barrel-DIRC mit einem Stab aus synthetischem Quarzglas als Radiator getestet. Durch Variation des Einfallswinkels und der Position des Protonenstrahls auf dem Radiator konnten Cherenkovringe eindeutig nachgewiesen werden. Zudem wurde der Cherenkovwinkel und die Einzelphotonauflösung in guter Übereinstimmung mit dem Erwartetem und der Simulation bestimmt.
Within the present work, photodissociation reactions on 100Mo, 93Mo and 92Mo isotopes were studied by means of the Coulomb dissociation method at the LAND setup at GSI. Experimental data on these isotopes are important to explain the problem of the underproduction of the lighter p-nuclei - 92; 94Mo - within the models of the p-process nucleosynthesis. The reaction rates used in the nucleosynthesis calculations are usually obtained within the framework of the statistical model. In order to verify the model predictions and reduce the uncertainties, experimental measurements of the reaction cross sections are required. In particular, the data on (γ,n) reactions are of interest, since these reactions were shown to dominate the p-process flow in the molybdenum mass region.
As a result of the analysis of the present experiment, integrated Coulomb excitation cross sections of the 100Mo(γ,n), 100Mo(γ,2n), 93Mo(γ,n) and 92Mo(γ,n) reactions were determined. The measurement of the 93Mo isotope is particularly important, since this nucleus is unstable, and the corresponding cross section has not been measured before.
It should be emphasized that Coulomb dissociation is a unique tool to study photoninduced reactions on unstable nuclei, which is especially relevant in the context of nucleosynthesis network calculations. However, because of to the complexity of the data analysis procedure and a number of model assumptions that are required in order to extract the Coulomb excitation cross section from the data, one of the main aspects of this thesis was to verify the method by comparing the results with the previously published data obtained with real photon beams. Integrated cross sections of the 100Mo(γ,n) and 100Mo(γ,2n) reactions were directly compared to the data by Beil et al., obtained at Saclay with photons from positron annihilation, while an indirect comparison could be performed with a recent photoactivation measurement by Erhard and co-workers. A reasonable agreement was observed for the 1n channel: a scaling factor of 0.8 ± 0.1 between our result and Beil et al. data is consistent with the scaling factor of 0.89±0.09 reported by Erhard et al. between their data and Beil et al. data. Both results are in agreement with the scaling factor of 0.85 ± 0.03 recommended by Berman et al. for the data measured at Saclay on nuclei in the respective mass region. A somewhat lower factor of 0.61 ± 0.09 between the present data and Beil et al. data was obtained for the 2n channel. The discrepancy might be explained by both the substantial efficiency correction that has to be applied to the LAND data in the two-neutron case, as well as by an insufficiently accurate assumption that the Saclay neutron detector efficiency is energy- and multiplicity- independent.
A second important topic of the present thesis is the investigation of the efficiency of the CsI gamma detector. The calorimetric information that it delivers is essential to reconstruct the energy-differential cross section from the present measurement. The data taken with the gamma calibration sources shortly after the experiment were used for the investigation. In addition, a test experiment in refined conditions was conducted within the framework of this thesis. Numerous GEANT3 simulations of the detector were performed in order to understand various aspects of its performance. As a result, the efficiency of the detector was determined to be approximately a factor of 2 lower than the efficiency expected from the simulation. This result is consistent with several independent investigations, which were performed using different methods. At the same time, a remarkable agreement between the simulated and experimental data was achieved under assumption that the inefficiency of the detector is explained by the loss of data from a number of crystals, which are randomly chosen in each event according to their averaged performance ratio (the ”on-off” effect). The reasons for the observed malfunction are yet not fully clear. Regardless of the exact reason, in the present conditions a deconvolution of the measured data from the CsI response is not possible. Consequently, within the framework of this thesis, the results are presented in terms of integrated cross sections. A search for alternative methods of data interpretation, allowing to extract energy-differential information out of the available data, in currently ongoing.
In the more recent experiments at the LAND setup, where the Crystal Ball gamma detector was used as a calorimeter, the reconstruction of the energy-differential cross section with a reasonable resolution was already shown to be feasible. It means that, even considering the uncertainties of the present experiment of the order of 10%, the uncertainties of the statistical model predictions, which are on average estimated to be within a factor of 1.5-2, can already be constrained.
The analysis of the present experiment is still in progress. As a next step, Coulomb excitation cross section for 94Mo will be obtained. The 94Mo(γ,n) reaction cannot be studied by photoactivation, since the life time of the daughter nucleus is too long (4000 y). At the same time, this reaction plays a key role in the p-process nucleosynthesis.
The future of the LAND setup - the R3B setup1 at FAIR2 - will take advantage of a three orders of magnitude higher intensity of the radioactive beams [85], as well as of a completely new detector system. High-resolution measurements of the energy-differential cross sections will be possible for exotic nuclei, which were never accessible in the laboratory before. Such measurements will open great opportunities for nuclear astrophysics, allowing to obtain high-quality experimental data even for regions of the nuclear chart where the statistical model calculations are not applicable.
The study of meson production in proton-proton collisions in the energy range
up to one GeV above the production threshold provides valuable information about
the nature of the nucleon-nucleon interaction. Theoretical models describe the interaction
between nucleons via the exchange of mesons. In such models, different
mechanisms contribute to the production of the mesons in nucleon-nucleon collisions.
The measurement of total and differential production cross sections provide information
which can help in determining the magnitude of the various mechanisms.
Moreover, such cross section information serves as an input to the transport calculations
which describe e.g. the production of e+e− pairs in proton- and pion-induced
reactions as well as in heavy ion collisions.
In this thesis, the production of ω and η mesons in proton-proton collisions at 3.5
GeV beam energy was studied using the High Acceptance DiElectron Spectrometer
(HADES) installed at the Schwerionensynchrotron (SIS 18) at the Helmholtzzenturm
f¨ur Schwerionenforschung in Darmstadt.
About 80 000 ω mesons and 35 000 η mesons were reconstructed. Total production
cross sections of both mesons were determined. Furthermore, the collected statistics
allowed for extracting angular distributions of both mesons as well as performing
Dalitz plot studies.
The ω and η mesons were reconstructed via their decay into three pions (π+π−π0)
in the exclusive reaction pp −→ ppπ+π−π0. The charged particles were identified
via their characteristic energy loss, via the measurement of their time of flight and
momentum, or using kinematics.
The neutral pion was reconstructed using the missing mass method. A kinematic
fit was applied to improve the resolution and to select events in which a π0 was
produced.
The correction of measured yields for the effects of spectrometer acceptance was done
as a function of four variables (two invariant masses and two angles). Systematic
studies of the acceptance for different input distributions were performed.
The measured yields were normalized to the number of measured events of elastic
scattering. Systematic errors due to the methods of the data analysis and the
background subtraction were investigated.
Production angular distributions of ω and η mesons were measured. Both mesons
exhibit a slightly anisotropic angular distribution.
The Dalitz plot of ω meson production shows indications of resonant production.
However, the deviation of the distribution from the one expected by phase space
simulations is not large.
The Dalitz plot of η meson production shows a signal of the production via the
N(1535) resonance, The contribution of N(1535) to the production was quantified
to be about 47%. The angular distribution of η mesons does not show significant
differences between resonant and non resonant production.
The total production cross section of ω mesons in the reaction pp −→ ppω was
determined to be 106.5 ± 0.9 (stat) ± 7.9 (sys) [μb] where stat indicates statistical
error and sys indicates systematic error, while that of η mesons was determined to
be 136.9 ± 0.9 (stat) ± 10.1 (sys) [μb] in the reaction pp −→ ppη
Ziel der durchgeführten Experimente war es, die Zerfallsmechanismen Van-der-Waals gebundener Argon- und Neon Di- und Trimere in intensiven Laserfeldern zu untersuchen, um mehr über den Einfluss der schwachen Van-der-Waals Bindung auf die Dynamik des Ionisationsprozesses zu erfahren. Da Dimere aufgrund ihrer elektronischen Struktur sehr stark zwei separaten benachbarten Atomen gleichen, vereinen sie atomare und molekulare Eigenschaften in sich und ihre Untersuchung verspricht ein tieferes Verständnis der Wechselwirkungsmechanismen in starken Laserfeldern. Die Verwendung der Impulsspektroskopie Methode COLTRIMS ermöglichte die koinzidente Messung aller beim Aufbruch entstandener ionischer Fragmente sowie eines elektronischen Impulsvektors. Für die beidseitige Einfachionisation des Argon Dimers, konnten bei der gewählten Intensität (etwa 3.3E14W/cm2) drei unterschiedliche Ionisationsprozesse identifiziert werden, von denen zwei zu einer überraschend hohen kinetischen Gesamtenergie der Ionen führen. Aufgrund der Messung der Winkelverteilung der ionischen Fragmente und eines der emittierten Elektronen für lineare und zirkulare Polarisation gelang es, die den drei Prozessen zugrunde liegende Dynamik im Laserfeld zu entschlüsseln. Der dominierende Zerfallskanal stellt demzufolge eine schnelle sequentielle Doppelionisation des Argon Dimers dar, die noch am Gleichgewichtsabstand des Dimers stattfindet. Für den zweithäufigsten Ionisationsprozess ergaben sich zwei mögliche Erklärungsansätze: Entweder wird das Dimer zunächst einseitig doppelionisiert, so dass es auf einer attraktiven Potentialkurve zusammenläuft, bevor es zu einem späteren Zeitpunkt – wenn das Laserfeld bereits abgeklungen ist – durch eine Umverteilung seiner Ladungen in einer Coulomb Explosion fragmentiert, oder das Dimer wird bei einer beidseitigen Tunnelionisation zugleich angeregt, so dass die Coulomb Explosion von einer Potentialkurve erfolgt, die wesentlich steiler als 1/R verläuft. Der schwächste Zerfallskanal, der sich durch die höchste Gesamtenergie auszeichnet, ist auf eine "Frustrated Triple Tunnel Ionization" zurückzuführen, bei der ein hoch angeregter Rydberg Zustand erzeugt wird. Bei der Untersuchung des Neon Dimers konnte bei der gewählten Intensität (etwa 6.3E14W/cm2) nur die sequentielle beidseitige Einfachionisation identifiziert werden, obwohl die Daten Hinweise auf einen weitern Ionisationsprozess mit sehr geringer Statistik aufweisen. Zudem wurde in dieser Arbeit nach der Methode des Coulomb-Explosion-Imaging aus den in Koinzidenz gemessenen Impulsvektoren aller einfachgeladenen ionischen Fragmente eines Aufbruchs die geometrische Struktur der Cluster im Orts-und Impulsraum rekonstruiert. Die ermittelte Grundzustandswellenfunktion des Argon und Neon Dimers zeigt eine gute Übereinstimmung mit quantenmechanischen Berechnungen. Für das Argon und Neon Trimer konnten aus den gemessenen Impulsvektoren mittels einer numerischen Simulation die Bindungswinkel im Ortsraum bestimmt werden, so dass erstmals gezeigt werden konnte, dass diese Trimere gleichseitige Dreieckskonfigurationen aufweisen. Vergleiche mit theoretischen Berechnungen zeigen für die breite Winkelverteilung des Neon Trimers eine hervorragende Übereinstimmung, während die gemessene Winkelverteilung des Argon Trimers etwas breiter als die berechnete ist.
Dynamics of chaotic strings
(2011)
The main topic of this thesis is the investigation of dynamical properties of coupled Tchebycheff map networks. At every node of the network the dynamics is given by the iteration of a Tchebycheff map, which shows strongest possible chaotic behaviour. By applying a coupling between the various individual dynamics along the links of the network, a rich structure of complex dynamical patterns emerges. Accordingly, coupled chaotic map networks provide prototypical models for studying the interplay between local dynamics, network structure, and the emergent global dynamics. An exciting application of coupled Tchebycheff map lattices in quantum field theory has been proposed Beck in Spatio-temporal chaos and vacuum fluctuations of quantized fields' (2002). In this so-called chaotic string model, the coupled map lattice dynamics generates the noise needed for the Parisi-Wu approach of stochastic quantization. The remarkable obversation is that the respective dynamics seems to reproduce distinguished numerical values of coupling constants that coincide with those observed in the standard model of particle physic. The results of this thesis give insights into the chaotic string model and its network generalization from a dynamical point of view. This leads to a deeper understanding of the dynamics, which is essential for a critical discussion of possible physical embeddings. Apart from this specific application to particle physics, the investigated concepts like synchronization or a most random behaviour of the dynamics are of general interest for dynamical system theory and the science of complex networks. As a first approach, discrete symmetry transformations of the model are studied. These transformations are formulated in a general way in order to be also applicable to similar dynamics on bipartite network structures. An observable of main interest in the chaotic string model is the interaction energy. In Spatio-temporal chaos and vacuum fluctuations of quantized fields' (2002) it has been observed that certain chaotic string couplings, corresponding to a vanishing interaction energy, coincide with coupling constants of the standard model of elementary particle physics. Since the interaction energy is basically a spatial correlation measure, an interpretation of the respective dynamical states in terms of a most random behaviour is tempting. In order to distinguish certain states as most random', or evoke another dynamical principle, a deeper understanding of the dynamics essential. In the present thesis the dynamics is studied numerically via Lyapunov measures, spatial correlations, and ergodic properties. It is shown that the zeros of the interaction energy are distinguished only with respect to this specific observable, but not by a more general dynamical principle. The original chaotic string model is defined on a one-dimensional lattice (ring-network) as the underlying network topology. This thesis studies a modification of the model based on the introduction of tunable disorder. The effects of inhomogeneous coupling weights as well as small-world perturbations of the ring-network structure on the interaction energy are discussed. Synchronization properties of the chaotic string model and its network generalization are studied in later chapters of this thesis. The analysis is based on the master stability formalism, which relates the stability of the synchronized state to the spectral properties of the network. Apart from complete synchronization, where the dynamics at all nodes of the network coincide, also two-cluster synchronization on bipartite networks is studied. For both types of synchronization it is shown that depending on the type of coupling the synchronized dynamics can display chaotic as well as periodic or quasi-periodic behaviour. The semi-analytical calculations reveal that the respective synchronized states are often stable for a wide range of coupling values even for the ring-network, although the respective basins of attraction may inhabit only a small fraction of the phase space. To provide analytical results in closed form, for complete synchronization the stability of all fixed points and period-2 orbits of all chaotic string networks are determined analytically. The master stability formalism allows to treat the ring-network of the chaotic string model as a special case, but the results are valid for coupled Tchebycheff maps on arbitrary networks. For two-cluster synchronization on bipartite networks, selected fixed points and period-2 orbits are analyzed.
Nanotechnology is a rapidly developing branch of science, which is focused on the study of phenomena at the nanometer scale, in particular related to the possibilities of matter manipulation. One of the main goals of nanotechnology is the development of controlled, reproducible, and industrially transposable nanostructured materials.
The conventional technique of thin-film growth by deposition of atoms, small atomic clusters and molecules on surfaces is the general method, which is often used in nanotechnology for production of new materials. Recent experiments show, that patterns with different morphology can be formed in the course of nanoparticles deposition process on a surface. In this context, predicting of the final architecture of the growing materials is a fundamental problem worth studying.
Another factor, which plays an important role in industrial applications of new materials, is the question of post-growth stability of deposited structures. The understanding of the post-growth relaxation processes would give a possibility to estimate the lifetime of the deposited material depending on the conditions at which the material was fabricated. Controllable post-growth manipulations with the architecture of deposited structures opens new path for engineering of nanostructured materials.
The task of this thesis is to advance understanding mechanisms of formation and post-growth evolution of nanostructured materials fabricated by atomic clusters deposition on a surface. In order to achieve this goal the following main problems were addressed:
1. The properties of isolated clusters can significantly differ from those of analogous clusters occurring on a solid surface. The difference is caused by the interaction between the cluster and the solid. Therefore, the understanding of structural and dynamical properties of an atomic cluster on a surface is a topic of intense interest from the scientific and technological point of view. In the thesis, stability, energy, and geometry of an atomic cluster on a solid surface were studied using a liquid drop approach which takes into account the cluster-solid interaction. Geometries of the deposited clusters are compared with those of isolated clusters and the differences are discussed.
2. The formation scenarios of patterns on a surface in the course of the process of cluster deposition depend strongly on the dynamics of deposited clusters. Therefore, an important step towards predicting pattern morphology is to study dynamics of a single cluster on a surface. The process of cluster diffusion on a surface was modeled with the use of classical molecular dynamics technique, and the diffusion coefficients for the silver nanoclusters were obtained from the analysis of trajectories of the clusters. The dependence of the diffusion coefficient on the system’s temperature and cluster-surface interaction was established. The results of the calculations are compared with the available experimental results for the diffusion coefficient of silver clusters on graphite surface.
3. The methods of classical molecular dynamics cannot be used for modeling the self-assembly processes of atomic clusters on a surface, because these processes occur on the minutes timescale, what would require an unachievable computer resource for the simulation. Based on the results of molecular dynamics simulations for a single cluster on a surface a Monte-Carlo based approach has been developed to describe the dynamics of the self-assembly of nanoparticles on a surface. This method accounts for the free particle diffusion on a surface, aggregation into islands and detachment from these islands. The developed method is allowed to study pattern formation of structures up to thousands nm, as well as the stability of these structures. Developed method was implemented in MBN Explorer computer package.
4. The process of the pattern formation on a surface was modeled for several different scenarios. Based on the analysis of results of simulations was suggested a criterion, which can be used to distinguish between different patterns formed on a surface, for example: between fractals or compact islands.This criteria can be used to predict the final morphology of a growing structure.
5. The post-growth evolution of patterns on a surface was also analyzed. In particular, attention in the thesis is payed to a systematical theoretical analysis of the post-growth processes occurring in nanofractals on a surface. The time evolution of fractal morphology in the course of the post-growth relaxation was analyzed, the results of these calculations were compared with experimental data available for the post-growth relaxation of silver cluster fractals on graphite substrate.
All the aforementioned problems are discussed in details in the thesis.
The miniaturization of electronics is reaching its limits. Structures necessary to build integrated circuits from semiconductors are shrinking and could reach the size of only a few atoms within the next few years. It will be at the latest at this point in time that the physics of nanostructures gains importance in our every day life. This thesis deals with the physics of quantum impurity models. All models of this class exhibit an identical structure: the simple and small impurity only has few degrees of freedom. It can be built out of a small number of atoms or a single molecule, for example. In the simplest case it can be described by a single spin degree of freedom, in many quantum impurity models, it can be treated exactly. The complexity of the description arises from its coupling to a large number of fermionic or bosonic degrees of freedom (large meaning that we have to deal with particle numbers of the order of 10^{23}). An exact treatment thus remains impossible. At the same time, physical effects which arise in quantum impurity systems often cannot be described within a perturbative theory, since multiple energy scales may play an important role. One example for such an effect is the Kondo effect, where the free magnetic moment of the impurity is screened by a "cloud" of fermionic particles of the quantum bath.
The Kondo effect is only one example for the rich physics stemming from correlation effects in many body systems. Quantum impurity models, and the oftentimes related Kondo effect, have regained the attention of experimental and theoretical physicists since the advent of quantum dots, which are sometimes also referred to as as artificial atoms. Quantum dots offer a unprecedented control and tunability of many system parameters. Hence, they constitute a nice "playground" for fundamental research, while being promising candidates for building blocks of future technological devices as well.
Recently Loss' and DiVincenzo's p roposal of a quantum computing scheme based on spins in quantum dots, increased the efforts of experimentalists to coherently manipulate and read out the spins of quantum dots one by one. In this context two topics are of paramount importance for future quantum information processing: since decoherence times have to be large enough to allow for good error correction schemes, understanding the loss of phase coherence in quantum impurity systems is a prerequisite for quantum computation in these systems. Nonequilibrium phenomena in quantum impurity systems also have to be understood, before one may gain control of manipulating quantum bits.
As a first step towards more complicated nonequilibrium situations, the reaction of a system to a quantum quench, i.e. a sudden change of external fields or other parameters of the system can be investigated. We give an introduction to a powerful numerical method used in this field of research, the numerical renormalization group method, and apply this method and its recent enhancements to various quantum impurity systems.
The main part of this thesis may be structured in the following way:
- Ferromagnetic Kondo Model,
- Spin-Dynamics in the Anisotropic Kondo and the Spin-Boson Model,
- Two Ising-coupled Spins in a Bosonic Bath,
- Decoherence in an Aharanov-Bohm Interferometer.
In dieser Arbeit wurden Verfahren zur Identifikation hirnelektrischer Aktivität mit Zellularen Nichtlinearen Netzwerken (CNN), im Besonderen Reaktions-Diffusions-Netzwerken, entwickelt und untersucht. Mit Hilfe der eingeführten Methoden wurden Langzeitaufzeichnungen hirnelektrischer Aktivität bei Epilepsie analysiert und mittels eines automatisierten Verfahrens ermittelt, inwieweit sich mögliche Voranfallszustände vom anfallsfreien Zustand im statistischen Sinne trennen lassen.
Zunächst wurde ein Überblick über CNN gegeben und deren Beschreibung durch Systeme gekoppelter Differentialgleichungen dargestellt. Weiterhin wurden die Möglichkeiten der Informationsverarbeitung mit CNN durch Ausnutzung von Gleichgewichtszuständen oder der vollständigen raum-zeitlichen Dynamik der Netzwerke diskutiert. Zusätzlich wurde die Klasse der Reaktions-Diffusions-Netzwerke (RD-CNN) eingeführt. Für die Repräsentation der hierbei benötigten weitgehend allgemeinen nichtlinearen Zellkopplungsvorschriften wurden polynomiale Gewichtsfunktionen vorgeschlagen. Mit einer Darstellung der Theorie der Lokalen Aktivität wurden notwendige Bedingungen für emergentes Verhalten in RD-CNN angegeben. Die statistische Bewertung von Vorhersagemodellen wurde aus theoretischer Sicht beleuchtet. Mit der Receiver Operating Characteristic (ROC) wurde eine Analysemethode zur Beurteilung der Vorhersagekraft des zeitlichen Verlaufs von Kenngrößen bezüglich bevorstehender epileptischer Anfälle vorgestellt.
Als nächstes wurden Überlegungen zur numerischen Simulation von CNN und deren flexible und erweiterbare programmtechnische Umsetzung entwickelt. Die daraus resultierende und im Rahmen dieser Arbeit entstandene objektorientierte Simulationsumgebung FORCE++ wurde konzeptionell und im Hinblick auf die Softwarearchitektur vorgestellt.
Die Verfahren zur numerischen Simulation wurden auf die Problemstellung der Systemidentifikation mit CNN angewandt. Dazu wurden Netzwerke derart bestimmt, dass deren Zellausgangswerte entsprechende Signalwerte des beobachteten, zu identifizierenden Systems approximieren.
Da die Parameter der zu bestimmenden CNN im vorliegenden Fall der Untersuchung hirnelektrischer Aktivität nicht bekannt sind und nicht direkt abgeleitet werden können, wurden überwachte Lernverfahren zur Bestimmung der Netzwerke eingesetzt. Hierbei wurden Lernverfahren verschiedener Klassen für die Identifikation mit CNN mit polynomialen Gewichtsfunktionen untersucht. Die Leistungsfähigkeit des vorgestellten Identifikationsverfahrens wurde anhand bekannter Systeme einer genauen Betrachtung unterzogen. Dabei wurde festgestellt, dass die betrachteten Systeme mit hoher Genauigkeit durch CNN repräsentiert werden konnten. Exemplarisch wurde das Parametergebiet lokaler Aktivität für ein RD-CNN berechnet und durch numerische Simulationen die Ausbildung von Mustern innerhalb des Netzwerkes nachgewiesen.
Nach einem einleitenden Überblick über die medizinischen Hintergründe von Epilepsie und der Erfassung hirnelektrischer Aktivität wurde eine vergleichende Übersicht über den Stand veröffentlichter Studien zur Vorhersage epileptischer Anfälle gegeben. Für die Anwendung des hier vorgestellten Identifikationsverfahrens zur Analyse hirnelektrischer Aktivität wurde zunächst die Genauigkeit der Approximation kurzer, als quasi-stationär betrachteter Abschnitte, von EEG-Signalen untersucht. Durch gezielte Erhöhung der Komplexität herangezogener Netzwerke konnte hier die Genauigkeit der Repräsentation von EEG-Signalverläufen deutlich verbessert werden. Dabei wurde zudem die Verallgemeinerungsfähigkeit der ermittelten Netzwerke untersucht, wobei festgestellt wurde, dass auch solche Signalwerte mit guter Genauigkeit approximiert werden, die nicht im Identifikationsverfahren durch die überwachte Parameteroptimierung berücksichtigt waren. Um speziell den Einfluss der Information aus der Korrelation benachbarter Elektrodensignale zu untersuchen, wurde ein Verfahren zur multivariaten Prädiktion mit Discrete Time CNN (DT-CNN) entwickelt.
Hierbei werden durch ein CNN Signalwerte der betrachteten Elektrode aus vergangenen, korrelierten Signalwerten von Nachbarelektroden geschätzt. Für diese Aufgabenstellung konnte eine Methode zur Bestimmung der Netzwerkparameter im optimalen Sinn, alleine aus den statistischen Eigenschaften der Elektrodensignale angegeben werden. Dadurch gelang eine erhebliche Reduzierung der Rechenkomplexität, die eine umfangreiche Untersuchung intrakranieller Langzeitableitungen ermöglichte.
Zur Analyse von Langzeitaufzeichnungen mit dem RD-CNN Identifikationsverfahren, wurden die numerischen Berechnungen zur Simulation von CNN mit FORCE++ auf einem durchsatz-orientierten Hochleistungs-Rechnernetzwerk durchgeführt. Mit den so gewonnen Ergebnissen konnten vergleichende Analysen vorgenommen werden. Zudem wurden Untersuchungen zum Vorliegen lokaler Aktivität in den ermittelten RD-CNN durchgeführt.
Die bei den beschriebenen Verfahren extrahierten Kenngrößen hirnelektrischer Aktivität wurden durch ein automatisiertes Verfahren auf ihre Vorhersagekraft für epileptische Anfälle bewertet. Dabei wurde untersucht, inwieweit der anfallsfreie Zustand und ein angenommener Voranfallszustand durch die jeweils betrachtete Kenngröße im statistischen Sinn diskriminiert werden kann. Durch parallele Analysen mit Anfallszeitsurrogaten wurden hierzu ergänzende Signifikanztests durchgeführt.
Nach Auswertung von mehrtägigen Hirnstromsignalen verschiedener Patienten konnte festgestellt werden, dass mit den in dieser Arbeit entwickelten Verfahren Kenngrößen hirnelektrischer Aktivität bestimmt werden konnten, welche offenbar die Identifikation potentieller Voranfallszustände ermöglichen.
Auch wenn für eine breite medizinische Anwendung die Spezifität und Sensitivität noch weiter verbessert werden muss, so können doch die erzielten Ergebnisse einen wesentlichen Schritt hin zu einer implantierbaren, CNN-basierten Plattform zur Erkennung und Verhinderung epileptischer Anfälle darstellen. Die Berechnungen für das Identifikationsverfahren mit RD-CNN könnten dabei durch zukünftige, spezialisierte schaltungstechnische Realisierungen für mehrschichtige CNN mit polynomialen Gewichtsfunktionen eine erhebliche Beschleunigung erfahren.