Refine
Year of publication
Document Type
- Article (1919)
- Preprint (1308)
- Doctoral Thesis (596)
- Conference Proceeding (249)
- diplomthesis (100)
- Bachelor Thesis (75)
- Master's Thesis (61)
- Contribution to a Periodical (46)
- Diploma Thesis (34)
- Book (33)
Keywords
- Kollisionen schwerer Ionen (47)
- heavy ion collisions (44)
- LHC (25)
- Quark-Gluon-Plasma (25)
- Heavy Ion Experiments (20)
- equation of state (19)
- quark-gluon plasma (19)
- BESIII (17)
- Relativistic heavy-ion collisions (16)
- heavy-ion collisions (16)
Institute
- Physik (4516) (remove)
Understanding the dynamics of recurrent neural networks is crucial for explaining how the brain processes information. In the neocortex, a range of different plasticity mechanisms are shaping recurrent networks into effective information processing circuits that learn appropriate representations for time-varying sensory stimuli. However, it has been difficult to mimic these abilities in artificial neural network models. Here we introduce SORN, a self-organizing recurrent network. It combines three distinct forms of local plasticity to learn spatio-temporal patterns in its input while maintaining its dynamics in a healthy regime suitable for learning. The SORN learns to encode information in the form of trajectories through its high-dimensional state space reminiscent of recent biological findings on cortical coding. All three forms of plasticity are shown to be essential for the network's success. Keywords: synaptic plasticity, intrinsic plasticity, recurrent neural networks, reservoir computing, time series prediction
In this paper we discuss experimental evidence related to the structure and origin of the bosonic spectral function alpha 2F (omega) in high-temperature superconducting (HTSC) cuprates at and near optimal doping. Global properties of alpha 2F (omega), such as number and positions of peaks, are extracted by combining optics, neutron scattering, ARPES and tunnelling measurements. These methods give evidence for strong electron-phonon interaction (EPI) with 1<lambda ep <~ 3.5 in cuprates near optimal doping. We clarify how these results are in favor of the modified Migdal-Eliashberg (ME) theory for HTSC cuprates near optimal doping. In Section 2 we discuss theoretical ingredients—such as strong EPI, strong correlations—which are necessary to explain the mechanism of d-wave pairing in optimally doped cuprates. These comprise the ME theory for EPI in strongly correlated systems which give rise to the forward scattering peak. The latter is supported by the long-range part of EPI due to the weakly screened Madelung interaction in the ionic-metallic structure of layered HTSC cuprates. In this approach EPI is responsible for the strength of pairing while the residual Coulomb interaction and spin fluctuations trigger the d-wave pairing.
In this proceeding the emergence of a composite, adjoint-scalar field as an average over (trivial holonomy) calorons and anti-calorons is reviewed. This composite field acts as a background field to the dynamics of perturbative gluons, to which it is coupled via an effective, gauge invariant Lagrangian valid for temperatures above the deconfinement phase transition. Moreover a Higgs mechanism is induced by the composite field: two gluons acquire a quasi-particle thermal mass. On the phenomenological side the composite field acts as a bag pressure which shows a linear dependence on the temperature. As a result the linear rise with temperature of the trace anomaly is obtained and is compared to recent lattice studies.
In the present work, the problem of protein folding is addressed from the point of view of equilibrium thermodynamics. The conformation of a globular protein in solution at common temperatures is quite complicated without any geometrical symmetry, but it is an ordered state in the sense of its biological activity. This complicated conformation of a single protein molecule is destroyed upon increasing the temperature or by the addition of appropriate chemical agents, as is revealed by the loss of its activity and change of the physical properties, and so on. Once the complicated native structures having biological activity are lost, it would be natural to suppose that the native structure could hardly be restored. Nevertheless, pioneers, such as Anson and Mirsky, recognized as early as in 1925 that this was not always the case. If one defines the folded and unfolded states of a protein as two distinct phases of a system, then under the variation of temperature the system is transformed from one phase state into another and vice versa. The process of protein folding is accompanied by the release or absorption of a certain amount of energy, corresponding to the first-oder-type phase transitions in the bulk. Knowing the partition function of the system one can evaluate its energy and heat capacity under different temperatures. This task was performed in this work. The results of the developed statistical mechanics model were compared with the results of molecular dynamic simulations of alanine poylpeptides. In particular, the dependencies on temperature of the total energy of the system and heat capacity were compared for alanine polypeptides consisting of 21, 30, 40, 50 and 100 amino acids. The good correspondence of the results of the theoretical model with the results of molecular dynamics simulations allowed to validate the assumptions made about the system and to establish the accuracy range of the theory. In order to perform the comparison of the results of theoretical model and the molecular dynamics simulations it is necessary to perform the efficient analysis of the results of molecular dynamics simulations. This task was also addressed in the present work. In particular, different ways to obtain dependence of the heat capacity on temperature from molecular dynamics simulations are discussed and the most efficient one is proposed. The present thesis reports the result of molecular dynamic simulations for not only alanine polypeptides by also for valine and leucine polypeptides. In valine and leucine polypeptides, it is also possible to observe the helix↔random coil transitions with the increase of temperature. The current thesis presents a work that starts with the investigation of the fundamental degrees of freedom in polypeptides that are responsible for the conformational transitions. Then this knowledge is applied for the statistical mechanics description of helix↔coil transitions in polypeptides. Finally, the theoretical formalism is generalized for the case of proteins in water environment and the comparison of the results of the statistical mechanics model with the experimental measurements of the heat capacity on temperature dependencies for two globular proteins is performed. The presented formalism is based on fundamental physical properties of the system and provides the possibility to describe the folding↔unfolding transitions quantitatively. The combination of these two facts is the major novelty of the presented approach in comparison to the existing ones. The “transparent” physical nature of the formalism provides a possibility to further apply it to a large variety of systems and processes. For instance, it can be used for investigation of the influence of the mutations in the proteins on their stability. This task is of primary importance for design of novel proteins and drug delivering molecules in medicine. It can provide further insights into the problem of protein aggregation and formation of amyloids. The problem of protein aggregation is closely associated with various illnesses such as Alzheimer and mad cow disease. With certain modifications, the presented theoretical method can be applied to the description of the protein crystallization process, which is important for the determination of the structure of proteins with X-Rays. There many other possible applications of the ideas described in the thesis. For instance, the similar formalism can be developed for the description of melting and unzipping of DNA, growth of nanotubes, formation of fullerenes, etc.
Short-term memory requires the coordination of sub-processes like encoding, retention, retrieval and comparison of stored material to subsequent input. Neuronal oscillations have an inherent time structure, can effectively coordinate synaptic integration of large neuron populations and could therefore organize and integrate distributed sub-processes in time and space. We observed field potential oscillations (14–95 Hz) in ventral prefrontal cortex of monkeys performing a visual memory task. Stimulus-selective and performance-dependent oscillations occurred simultaneously at 65–95 Hz and 14–50 Hz, the latter being phase-locked throughout memory maintenance. We propose that prefrontal oscillatory activity may be instrumental for the dynamical integration of local and global neuronal processes underlying short-term memory.
Untersuchung der Konformation und Dynamik von RNA mit Hilfe fluoreszierender Farbstoffmoleküle
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung der konformationellen und elektronischen Eigenschaften sowie der Dynamik verschiedener RNA-Systeme. Zur Durchführung dieser Experimente wurde zusätzlich zu bereits vorhandenen statischen und zeitaufgelösten Absorptionsspektrometern im Rahmen dieser Arbeit eine Apparatur zur Messung von Fluoreszenzlebensdauern entwickelt, die durch die integrative Verwendung zweier verschiedener, etablierter Technologien (TCSPC und Aufkonvertierung) über einen weiten Zeitbereich von 9 Größenordnungen (100 fs - 0,1 ms) operiert. Mit diesem Aufbau konnten neben den RNA-Studien wichtige Beiträge zum Verständnis der Isomerisierung eines Retinalproteins, des Transportprozess des Membrantransportproteins TbSMR und der im Infraroten liegenden Fluoreszenz des Radikalkations von Astaxanthin gewonnen werden. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Untersuchung verschiedener RNA-Systeme: So werden die optischen Eigenschaften einer 1-Ethinylpyren-modifzierten RNA-Adeninbase allein und in RNA-Strängen eingebunden untersucht. Statische Fluoreszenzmessungen zeigen einen ausgeprägten Ladungstransfercharakter des Chromophors und eine generell große Wechselwirkung zwischen Ethinylpyren und Adenin, die in einer substanziellen Änderung der optischen Eigenschaften des Pyrens resultiert. Die Untersuchung der schnellen Photodynamik von Pyrenadenin zeigt zudem eine Verringerung der Lebensdauer von Pyren um etwa 2 Größenordnungen. Pyrenadenin zeigt sowohl Fluoreszenz eines neutralen (100-200 ps), als auch eines energetisch tiefer liegenden Ladungstransferzustands (1-2 ns). Die Formationszeit des Ladungstransferzustandes fällt mit steigender Polarität des Lösemittels. Eingebunden in Modell-RNA-Stränge ist Fluoreszenzquantenausbeute des Chromophors ein deutlicher Indikator für seine Interkalation. Nur in der stabileren Umgebung von GC-Basenpaaren ist das Pyren in der Lage, sich dauerhaft innerhalb des Duplex aufzuhalten, während in einer flexibleren AU-Umgebung eine Position außerhalb des RNA-Duplex präferiert wird. Transiente Absorptionsmessungen zeigen, dass die Photophysik des in RNA eingebundenen Pyrenadenins nur kleine Variationen im Vergleich zur Photophysik des Labels allein aufweist. Die deutliche Abnahme der Quantenausbeute des interkalierten Chromophors geht hauptsächlich auf Kosten der langlebigeren Ladungstransferfluoreszenz, so dass interkaliertes Pyren insgesamt schneller in den Grundzustand zurückkehrt als nicht interkaliertes. Mit Hilfe eines doppelt modifizierten Duplex, bei dem sich jeweils ein Farbstoff an einem der beiden Stränge befindet, kann nachgewiesen werden, dass aufgrund von Exzimerwechselwirkungen eine Verschiebung des Fluoreszenzmaximums von 35 nm auftritt. Kurzzeitspektroskopische Messungen zeigen Signale, die als Superposition von Monomeren und Exzimeren interpretiert werden können, wobei die Lebensdauer des letzteren mit 18,5 ns die der Monomerkomponente um ein Vielfaches übertrifft. Ein weiterer Teil dieser Arbeit beschäftigt sich mit einer Studie zur Bindung des fluoreszenten Liganden Tetrazyklin an das Tetrazyklin bindende Aptamer. Hier wird auf Basis verschiedener Mutanten mit Hilfe des TCSPC eine Analyse der Stabilität der Bindetasche sowie mit der Stopped-Flow-Methode eine Beobachtung des Bindungsprozesses durchgeführt. Insgesamt folgt die Bindung des Tetrazyklins an das Aptamer einer zweistufigen Kinetik, deren zweiter Schritt irreversibel ist. Die Bindung läuft, verglichen mit anderen Aptameren, sehr schnell ab. Während die Mutationen von A13 und A50,die direkte Kontakte zum Substrat bilden, nur einen leichten Einfluss auf beide Bindungsschritte ausüben, führt eine Mutation der für die Präformation verantwortlichen Base A9 zu einer Verlangsamung des Bindungsprozesses um mehr als einen Faktor 20 durch eine immens gesteigerten Rückreaktionsrate des ersten Bindungsschritts. Hieraus lässt sich schließen, dass bei fehlender Präformation des Aptamers nur wenige Tetrazyklinmoleküle ein für vollständige Bindung geeignetes Aptamer vorfinden. Die Bindung an A13 und A50 geschieht bereits im ersten Schritt des Bindungsprozesses. Ferner konnte anhand von Lebensdauermessungen gezeigt werden, dass nach dem Wildtyp die Mutante A9G die stabilste Bindetasche aufwies. Das Fehlen eines direkten Kontaktes wirkt sich deutlich stärker aus. Insbesondere führt die Abwesenheit der Fixierung des Gegenions durch A50 zu der instabilsten Bindetasche. Wie in dieser Arbeit gezeigt wird, ist die zeitaufgelöste optische Spektroskopie insbesondere in Verbindung mit fluoreszierenden Molekülen ein ausgezeichnetes Mittel zur Beobachtung von Struktur und Dynamik von RNA. Die Empfindlichkeit von Fluoreszenz auf die Veränderung der Umgebung des Chromophors erlaubt es, Konformationsdynamik und elektronische Konfigurationen in Echtzeit zu beobachten.
In this work we investigate phenomenological aspects of an anisotropic quark-gluon plasma. In the first part of this thesis, we formulate phenomenologicalmodels that take into account the momentumspace anisotropy of the system developed during the expansion of the fireball at early-times. By including the proper-time dependence of the parton hard momentum scale, phard(), and the plasma anisotropy parameter, Xi, the proposed models allow us to interpolate from 0+1 pre-equilibrated expansion at early-times to 0+1 ideal hydrodynamics at late times. We study dilepton production as a valuable observable to experimentally determine the isotropization time of the system as well as the degree of anisotropy developed at early-times. We generalize our interpolating models to include the rapidity dependence of phard and consider its impact on forward dileptons. Next, we discuss how to constrain the onset of hydrodynamics by demanding two requirements of the solutions to the equations of motion of viscous hydrodynamics. We show this explicitly for 0+1 dimensional 2nd-order conformal viscous hydrodynamics and find that the initial conditions are non-trivially constrained. Finally, we demonstrate how to match the initial conditions for 0+1 dimensional viscous hydrodynamics from pre-equilibrated expansion. We analyze the dependence of the entropy production on the pre-equilibrium phase and discuss limitations of the standard definitions of the non-equilibrium entropy in kinetic theory.
Clathrates are candidate materials for thermoelectric applications because of a number of unique properties. The clathrate I phases in the Ba-Ni-Ge ternary system allow controlled variation of the charge carrier concentration by adjusting the Ni content. Depending on the Ni content, the physical properties vary from metal-like to insulator-like and show a transition from p-type to n-type conduction. Here we present first results on the characterization of millimeter-sized single crystals grown by the Bridgman technique. Single crystals with a composition of Ba8Ni3.5Ge42.1h0.4 show metallic behavior (dp/dT > 0) albeit with high resistivity at room temperature [p (300 K) = 1 mOhm cm]. The charge carrier concentration at 300 K, as determined from Hall-effect measurements, is 2.3 e-/unit cell. The dimensionless thermoelectric figure of merit estimated at 680 K is ZT ~ 0.2. Keywords Clathrates - thermoelectric material - intermetallic compound - nickel
In this thesis we have studied the physics of different ultracold Bose-Fermi mixtures in optical lattices, as well as spin 1=2 fermions in a harmonic trap. To study these systems we generalized dynamical mean-field theory for a mixture of fermions and bosons, as well as for an inhomogeneous environment. Generalized dynamical mean-field theory (GDMFT) is a method that describes a mixture of fermions and bosons. This method consists of Gutzwiller mean-field for the bosons, and dynamical mean-field theory for the fermions, which are coupled on-site by the Bose-Fermi density-density interaction and possibly a Feshbach term which converts a pair of up and down fermions into a molecule, i.e. a boson. We derived the self-consistency equations and showed that this method is well-controlled in the limit of high lattice coordination number z. We develop real-space dynamical mean-field theory for studying systems in an inhomogeneous environment, e.g. in a harmonic trap. The crucial difference compared to standard DMFT is that we are taking into account that different sites are not equivalent to each other and thus take into account the inhomogeneity of the system. Different sites are coupled by the real-space Dyson equation. ...
Die vorliegende Arbeit bietet zunächst einen weiteren Beweis für die Existenz des neutralen Heliumdimers. Darüber hinaus konnten zwei verschiedene Prozesse identifiziert werden, über die die Absorbtion eines Photons zur Ionisation beider Atome des Dimers über sehr große Abstände führen kann. Oberhalb einer Photonenenergie von 65,4 eV konnte ein ICD Prozess beobachtet werden, der über Photoionisation mit gleichzeitiger Anregung von einem der beiden Atome realisiert wird. Bei 77,86 eV konnte ICD über elektronisch angeregte Zustände bis n=6 nachgewiesen werden. In der KER-Verteilung konnten zudem Strukturen gefunden werden, die auf Vibrationsanregungen im Zwischenzustand des Dimer-Ions schließen lassen. Eine vollständig quantenmechanische Rechnung von Sisourat et al. konnte dies schließlich hervorragend bestätigen. Es konnte also ein direkter Blick auf die Vibrationswellenfunktionen des Systems erlangt werden. In anderen Systemen ist dies in der Regel nicht möglich, da sich alle Zustände üblicherweise zu einer strukturlosen Verteilung überlagern. Weiterhin konnte gezeigt werden, dass sich die Winkelverteilungen von ICD- und Photoelektronen in verschiedenen Bereichen des KER mitunter stark voneinander unterscheiden. Dies konnte auf die unterschiedliche Besetzung von verschiedenen Potentialkurven zurückgeführt werden. Unterhalb der Photonenenergieschwelle zur Anregung und Ionisation eines Heliumatoms konnte ein weiterer, zweistufiger Ionisationsmechanismus gefunden werden. Hier wird zunächst durch Photoionisation ein Elektron aus einem der beiden Atome im Dimer freigesetzt. Dieses Photoelektron kann nun am neutralen Atom gestreut werden und dabei ausreichend viel Energie übertragen, um dieses ebenfalls zu ionisieren. Es konnte gezeigt werden, dass der Prozess einer Abhängigkeit von der Polarisation der Synchrotronstrahlung unterliegt, die man für Photoionisation erwarten würde. Die Energie- und Winkelverteilungen der Elektronen konnten daher mit vorangegangenen Elektronenstoß-Experimenten verglichen werden. Die gute Übereinstimmung mit diesen Daten rechtfertigt eine anschauliche Sichtweise des Prozesses als Analogon zum klassischen Billiard-Stoß. Der Two-Step-Prozess wurde bisher zwar schon in vielen Systemen als theoretisches Modell zur Doppelionisation beschrieben, allerdings konnten die einzelnen Unterprozesse bisher nicht gesondert gemessen werden. Die großen Abstände im Heliumdimer ermöglichen erstmals eine deutliche Trennung in Photoionisation an einem Atom und Elektronenstoß (e,2e) am Nachbaratom. Der Two-Step-Prozess konnte außerdem dazu verwendet werden, die ungewöhnliche Grundzustandswellenfunktion des Heliumdimers zu experimentell zu bestätigen. Eine Analyse des gemessenen KER konnte dabei deutliche Abweichungen zu einer klassischen Theorie aufzeigen. Erst eine vollständig quantenmechanische Rechnung des Übergangs von Sisourat et al. konnte die Messdaten beschreiben.
Nanocarbon structures, such as fullerenes and nanotubes, have generated considerable interest and research, due to their unique properties and potential applications. In this thesis, we present a study of the phase transition properties of nanocarbon clusters,in particular, we pay special consideration to fullerenes. The work presented in this thesis is largely theoretical and computational in nature, employing as a tool, molecular dynamics simulations to probe the dynamic stability of fullerenes and associated nanocarbon structures such as graphenes and nanotubes.
This work reports on the study of the projectile x-ray emission in relativistic ion-atom collisions. Excitation of K-shell in He-like uranium ions, electron capture into H-like uranium ions and Simultaneous ionization and excitation of initially He-like uranium ions have been studied using the experimental storage ring at GSI. Information about the population of the excited states for the H- and He-like uranium ions, can be obtained by measuring the angular distribution of the decay radiation. Since the Ly_alpha2 transition is isotropic, the intensities of the Ly_alpha1 and K_alpha transitions were normalized to the Ly_alpha2 line. For the K_alpha1 and K_alpha2 transitions originating from the excitation of the He-like uranium ions, no alignment was observed. In contrast, the Ly_alpha1 radiation from the simultaneous ionization-excitation process of the He-like uranium ions shows a clear alignment. It is shown that the alignment of Ly_alpha1 was obtained by the Alignment parameter A_20. The experimental value leads to the inclusion of a magnetic term in the interaction potential. It is interesting to note that in the case of the Ly_alpha1 emission the small M2 contribution added coherently to the E1 transition amplitudes enhances the anisotropy. The capture process of target electrons into the highly-charged heavy ions was studied using H-like uranium ions at an incident energy of 220 MeV/u, impinging on N2 gas-target. It was shown that, the strongly aligned electrons captured in 2p3/2 level will couple with the available 1s1/2 electron which shows no initial directional preference. The magnetic sub-state population of the 2p3/2 electron will be redistributed according to the coupling rules to the magnetic sub-states of the relevant two-electron states. Consequently, the 1^P1 and 3^P2 states are corresponding to the the strongly aligned 2p3/2 state. This leads to the large anisotropy in the corresponding individual ground state transitions contributing to the K_alpha1 emission. Due to the fact that the 1^P1 --> 1^S0 and 3^P2 --> 1^S0 transitions are experimentally not resolved, a more detailed analysis of the angular dependence of the K_alpha1 radiation is required. From the K_alpha1/K_alpha2 ratio, the current results show that the incoherent addition of the E1 and M2 transition components yield to an almost isotropic emission of the total K_alpha1. In contrast to the radiative electron capture, the experimental results for the K-shell single excitation of He-like uranium ions indicate that only the 1^P1 level contributes to the K_alpha1 transition. For this case, the anisotropy parameter beta_20 was found to be -0.20 + 0.03 which is similar to that one calculated for pure E1 transition. This work also reports on the study of a two-electron process: the simultaneous ionization and excitation occurring in relativistic collisions of heavy highly-charged ions with gaseous targets. The investigation was performed on He-like uranium ions impinging upon xenon gas-target at an incident energy of 220 MeV/u. The measurements have been performed at the ESR gas-target using atomic xenon with a typical area density of 10^12 particles/cm^2. In contrast to the solid state target, the use of gas target offers the advantage of clear separation of the one step two-electron process due to the fact that the probability of two consecutive collision in such thin targets is negligible and the double step processes can be excluded. During the process of simultaneous ionization and excitation in He-like uranium ions, one of the ground-state electrons is promoted into the continuum and the other into the L-subshell states of the projectile. To select this process, the Lyman-series radiation has been measured at various observation angles in coincidence with up-charged projectiles (U^91+). From the yields of the Ly_alpha1 and Ly_alpha2 projectile radiation, the relative cross section for the process of simultaneous ionization and excitation was directly determined. The angle dependent measurement of the radiation yields provide information about the angular distributions of the emitted radiation and permits the determination of the alignment parameter A_{20}. This parameter gives information on the level population and the collision impact parameter. The present results (b^exp = 810 fm) show that the simultaneous ionization and excitation is a process which occurs at small impact parameter.
Mit der vorliegenden Arbeit wurden zu ersten Mal die seit mehreren Jahren vorhergesagten dynamischen Aufbruchsmechanismen - der direkte, der sequentielle und der asynchrone Zerfall - in mehratomigen Molekülen kinematisch vollständig untersucht. Experimentell wurde hierfür ein Kohlenstoffdioxid-(CO2)-Molekül in langsamen Ion-Molekül Stößen dreifach ionisiert, indem die Elektronen des Targets von den langsamen, hochgeladenen Projektilionen (Ar8+-Ionen) eingefangen wurden. Die Untersuchung des Zerfalls des CO2-Ions in die einfach geladenen ionischen Fragmente C+ + O+ + O+ zeigte, dass bei diesem Zerfall das Projektilion vornehmlich einen positiven Ladungszustand von q = 6 und nicht den zunächst erwarteten Ladungszustand q = 5 aufweist. Dies ist darauf zurückzuführen, dass die eingefangenen Elektronen oftmals elektronisch hoch angeregte Zustände im Projektil populieren und demnach im weiteren Verlauf über Autoionisationsprozesse dieses auch wieder verlassen können. Ähnliche Autoionisationsprozesse können auch im Target ablaufen, treten dort jedoch mit einer geringeren Wahrscheinlichkeit auf, da der Wirkungsquerschnitt für Autoionisationsprozesse im Target um einen Faktor 1,3 kleiner ist als für Autoionisationen im Projektil. Zusätzlich zeigte die Untersuchung der Stoßdynamik, dass der dreifache Elektroneneinfang primär bei einer parallelen Orientierung der Molekülachse zur Projektilstrahlachse auftritt. Eine weitere Abhängigkeit der Stoßdynamik zum Beispiel vom Stoßparameter beziehungsweise vom Streuwinkel konnte nicht beobachtet werden. Durch die koinzidente Messung aller vier Reaktionsteilchen konnte der Kanal Ar8+ + CO2 --> Ar6+ + C+ + O+ + O+ eindeutig bestimmt werden und die Reaktionsdynamik des CO2-Ions nach dem Stoß analysiert werden. Dabei tritt deutlich der direkte Aufbruch hervor, bei welchem die drei einfach geladenen Ionen sich rein aufgrund ihrer Coulombkräfte voneinander abstoßen. Bei einer solchen Coulombexplosion bleibt dem Molekülion kaum Zeit, um eine molekulare Schwingung zu vollführen. Neben diesem schnellen Zerfall konnten aber auch jene Zerfälle beobachtet werden, bei denen das Molekülion zuerst molekular schwingt und dann zu einem späteren Zeitpunkt in die ionischen Fragmente zerfällt. Dieser letztere Zerfallsprozess gehört zu den sogenannten asynchronen Zerfallsmechanismen. Er stellt einen Zwischenprozess zwischen dem reinen 1-Stufen-Prozess wie dem direkten Aufbruch und dem reinen 2-Stufen-Prozess dar. Bei solchen sequentiellen 2-Stufen Prozessen fragmentiert das CO2-Molekül im ersten Schritt in ein O+- und ein CO2+-Ion. Im zweiten Schritt dissoziiert dann das CO2+-Fragment, nachdem es nahezu keine Wirkung der Coulombkräfte des ersten Sauerstoffions mehr spürt, in ein C+- und ein O+-Ion. Durch die Darstellung der Schwerpunktsimpulse der Fragmente in Dalitz- und Newton-Diagrammen ist es mit dieser Arbeit erstmals gelungen diesen sequentiellen Prozess experimentell eindeutig nachzuweisen. In der weiteren Analyse konnte gezeigt werden, dass über die im System deponierte Energie, welche über die kinetische Energie der Fragmente bestimmt wird, die verschiedenen Reaktionsmechanismen direkt kontrolliert werden können. Speziell bei Energien unterhalb von 20 eV wurde gezeigt, dass es keine Potentialflächen gibt, die über einen direkten bzw. simultanen Aufbruch zu dem Endzustand C+ + O+ + O+ führen. Bei mehratomigen Molekülen erweist sich das Treffen detaillierter Aussagen über mögliche Dissoziationskanäle ohne die genaue Kenntnis der Lage der Potentialflächen und den Übergängen zwischen diesen als äußerst schwierig. Selbst bei genauer Kenntnis der Lage und Form der Potentialflächen, ist es aufgrund der hohen Dichten innerhalb der Übergangsbereiche der Potentialflächen nahezu unmöglich, den Verlauf der Dissoziationskanäle zu verfolgen. Mit dieser Arbeit ist es gelungen, die verschiedenen Reaktionskanäle ohne die Existenz von Energiepotentialflächen eindeutig zu identifizieren. Außerdem konnte gezeigt werden, dass die Energie, die während des Stoßes im Molekül deponiert wird, eine Schlüsselgröße darstellt, mit welcher die Fragmentationskanäle direkt kontrolliert werden können.
Lattice simulation of a center symmetric three dimensional effective theory for SU(2) Yang-Mills
(2010)
We present lattice simulations of a center symmetric dimensionally reduced effective field theory for SU(2) Yang Mills which employ thermal Wilson lines and three-dimensional magnetic fields as fundamental degrees of freedom. The action is composed of a gauge invariant kinetic term, spatial gauge fields and a potential for the Wilson line which includes a "fuzzy" bag term to generate non-perturbative fluctuations between Z(2) degenerate ground states. The model is studied in the limit where the gauge fields are set to zero as well as the full model with gauge fields. We confirm that, at moderately weak coupling, the "fuzzy" bag term leads to eigenvalue repulsion in a finite region above the deconfining phase transition which shrinks in the extreme weak-coupling limit. A non-trivial Z(N) symmetric vacuum arises in the confined phase. The effective potential for the Polyakov loop in the theory with gauge fields is extracted from the simulations including all modes of the loop as well as for cooled configurations where the hard modes have been averaged out. The former is found to exhibit a non-analytic contribution while the latter can be described by a mean-field like ansatz with quadratic and quartic terms, plus a Vandermonde potential which depends upon the location within the phase diagram. Other results include the exact location of the phase boundary in the plane spanned by the coupling parameters, correlation lengths of several operators in the magnetic and electric sectors and the spatial string tension. We also present results from simulations of the full 4D Yang-Mills theory and attempt to make a qualitative comparison to the 3D effective theory.
Bei der GSI – Helmholtzzentrum für Schwerionenforschung in Darmstadt wird im Rahmen des HITRAP-Projekts ein linearer Abbremser für schwere, hochgeladene Ionen für atomphysikalische Präzisionsexperimente in Betrieb genommen. Während der Inbetriebnahme wurden transversale Emittanzmessungen mit der Pepperpot- und der Multi-Gradienten-Methode durchgeführt, um die Emittanz des aus dem Experimentierspeicherring (ESR) extrahierten Strahls zu messen. Weiterhin wurde auch die Phasenraumverteilung des auf eine Zwischenenergie von 500keV/u abgebremsten Strahls hinter der IH-Struktur gemessen. Dazu wurden neue Auswertealgorithmen in die Analyse der digitalen Bilder integriert. Die longitudinalen Bunchstrukturmessungen des Strahls am Eintrittspunkt in den Abbremser und die Funktionsweise des Doppel-Drift Bunchers wird gezeigt. Die Konzeption und der Aufbau sowie die erste Inbetriebnahme einer neuartigen Einzelschuss-Pepperpot-Emittanzmessanlage für kleinste Strahlströme und -energien wird beschrieben, die es ermöglichen, den Strahl hinter den Abbremskavitäten zu vermessen. Zusätzlich wurden transversale Strahldynamikrechnungen durchgeführt, welche theoretische Grundlagen zur Inbetriebnahme von HITRAP lieferten. Es wird beschrieben, wie die gesamte Strahllinie vom ESR bis zum Radio-Frequenz Quadrupol nach der erfolgreichen Integration einer Abbremsroutine innerhalb des Softwarepakets COSY Infinity optimiert werden kann.
Im Zentrum dieser Arbeit stehen die Überstrukturphasen des Yb-Cu-Systems. Als Ausgangspunkt für die Kristallzüchtung wird die kongruent schmelzende Verbindung YbCu4:5 gewählt. Um einen genauen Einblick in das Erstarrungsverhalten dieser Phase zu erhalten, werden zunächst im Bereich zwischen 17.3 und 22.4 at-% Yb eine Reihe von DSC-Messungen durchgeführt. Die Ergebnisse lassen sich nur bedingt mit den in der Literatur veröffentlichten Phasendiagrammen (Moffat [Mo92] bzw. Massalski [Ma90] und Giovannini et al. [Gi08]) vereinbaren. Zwar kann eine kongruent schmelzende Phase der Zusammensetzung YbCu4:5 nachgewiesen werden, die Messungen deuten aber die Existenz zusätzlicher Verbindungen an, die allerdings mit Hilfe der EDX-Analyse nicht weiter spezifiziert werden können. Um diese Phasen genauer zu analysieren, werden Einkristallzüchtungsversuche nach der Bridgman-Methode im Bereich zwischen 19 und 19.2 at-% Yb durchgeführt und mittels Einkristallbeugungsmethoden (SC-XRD und SAED) charakterisiert. Auf diese Weise können neben YbCu4:5 die bisher noch unbekannten berstrukturphasen YbCu4:4 und YbCu4:25 nachgewiesen werden, deren Schmelztemperaturen mittels DSC-Untersuchungen zu 934(2)°C und 931(3)°C bestimmt werden. Die Entdeckung der beiden Verbindungen bestätigt die von Cerný et al. [Ce03] bisher nur theoretisch vorhergesagte Existenz der Überstrukturphasen SECux (x=4.4 und 4.25) für das Yb-Cu-System. Mit Hilfe von Polarisations- und Rasterelektronenmikroskopie und unter Anwendung der Laue-Methode wird das Wachstumsverhalten dieser Überstrukturphasen analysiert. Man beobachtet ein Schichtwachstum, wobei sich die Schichten parallel zur a- und b-Richtung ausbilden und in c-Richtung gestapelt vorliegen. Da eine zuverlässige Unterscheidung der YbCux-Verbindungen nur mit Hilfe von Einkristallbeugungsmethoden gelingt, wird im Rahmen dieser Arbeit untersucht, inwiefern eine Charakterisierung mittels Pulverdiffraktometrie möglich ist. Die Messungen mit Synchrotronstrahlung am ESRF in Grenoble erlauben eine eindeutige Unterscheidung der Überstrukturphasen allerdings nicht. Die Analyse des an das Überstrukturgebiet angrenzenden Zusammensetzungsbereichs von 12.5 bis 17.24 at-% Yb bestätigt die Existenz der Verbindung YbCu6:5, eine kupferärmere Phase der Zusammensetzung YbCu5 kann in den DSC-Experimenten nicht nachgewiesen werden. Die Messungen belegen die Existenz einer Phasenbreite von YbCu6:0+x mit 0 <= x <= 0:5 ist, was im Gegensatz zu dem von Giovannini et al. [Gi08] publizierten Phasendiagramm steht. SC-XRD-Aufnahmen an nach der Bridgman-Methode gezüchteten Einkristallen der Zusammensetzung YbCu6:31(9) untermauern das von Hornstra und Buschow [Ho72] gefundene Strukturmodell. Die Verschiebungen der Atompositionen bedingt durch den im Gegensatz zur YbCu5-Verbindung erhöhten Kupferanteil werden mit Hilfe der gemessenen und berechneten Paarverteilungsfunktion nachvollzogen. Phasendiagrammuntersuchungen und Einkristallzüchtungsergebnisse für weitere SE-Cu-Systeme (SE =Ho, Gd) bestätigen die Existenz der Verbindung HoCu4:5 und erhärten den Verdacht sowohl in diesem als auch in den anderen Systemen noch weitere Überstrukturphasen finden zu können.
In this thesis, we study the properties of excitations in the systems of interacting fermions. These excitations can be bosonic such as collective modes which we handle in the first part of this thesis or fermionic like quasi particles and quasi holes. One of the important points, to investigate the excitations is their damping which corresponds to their life-time in the system. This thesis consists of two parts, where in both parts, we use the field-theoretical methods to examine the problem.
Event-by-event fluctuations of the particle yield ratios in heavy-ion collisions at 20 - 158 AGeV
(2010)
Non-statistical event-by-event fluctuations are considered as an important signal for the critical endpoint of the QCD phase diagram. Event-by-event fluctuations of different observables are thus investigated in detail in current experiments but are also an important observable to be studied at the future CBM experiment at FAIR. In this work we present the energy and centrality dependence of event-by-event fluctuations of particle yield ratios measured by the NA49 experiment in Pb+Pb collisions at 20 - 158 AGeV. Systematic studies of the influence of the dE/dx resolution on the particle identification and the centrality bin size were performed. Results can be compared to event-by-event fluctuations measured by NA49 for different observables such as <pt> or the mean charged particle multiplicity. Main results of these studies are an increase of absolute value of the dynamical particle ratio fluctuations with decreasing centrality for all considered ratios, saturation of the K/Pi and K/p ratio fluctuations for peripheral Pb + Pb collisions at 158A GeV and scaling of the energy and centrality dependences of the p/Pi ratio fluctuations with NpNPi. The measured energy and centrality dependences of the K/Pi and K/p ratio fluctuations scale with NK in a different way. The saturation of the mentioned ratios fluctuations was attributed to the development of pronounced spike at zero in the eventwise ratio distributions, which, as was shown by Monte Carlo simulations, influence the measured fluctuations in the very peripheral Pb + Pb collisions at 158A GeV. In future, the CBM experiment at FAIR will investigate the intermediate region of the QCD phase diagram in great detail searching for the first order phase transition line and the expected critical endpoint. It is therefore important to closely investigate its sensitivity towards particle ratio fluctuations in Au+Au collisions at 10-45 AGeV beam energy. Detailed simulation studies will be presented. As an outcome of these feasibility studies we conclude that the CBM experiment will be able to provide high quality data on the subject of the event-by-event flucutations of particle yield ratios with sensitivity in the order of 1%.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
Wir haben Aussagen über das Eigenwertspektrum der freien Schwingungegleichung für einen Hohlraum B gesucht, welche unabhängig von der Gestalt des Hohlraumes nur von Gestaltparametern abhängen, die als Integrale über B bzw. über dessen Oberfläche ... Eigenschaften von ganz B darstellen, ohne die lokale Struktur der Oberfläche ... zu enthalten. An drei Testkörpern sehr verschiedener Gestalt (die Gestaltparameter waren ebenfalls verschieden), nämlich Würfel, Kugel und Zylinder, haben wir die Hypothese bestätigt, daß der mittlere Verlauf der Größen "Anzahl N und Summe E aller Eigenwerte unterhalb einer willkürlich vorgegebenen Schranke ER" in Abhängigkeit von der Wahl dieser Schranke i.w. gestaltunabhängig ist. Für den Quader lassen sich im Falle asymptotisch großer ER explizite Ausdrücke für N und E angeben, die für alle drei Testkörper nicht nur den mittleren Verlauf von N und E bei kleinen (endlichen) ER in zweiter Näherung (in Potenzen von Ef exp -1/2) richtig wiedergaben, sondern auch als numerische Näherung dss mittleren Verlaufs von N bzw. E brauchbar waren (relative Kleinheit des Restgliedes). Die mathematische Vermutung, daß sich für aS, große Ef eben diese expliziten Ausdrücke für N bzw. E' als gestaltunabhängig erweisen, soll in einer weiteren Arbeit behandelt werden. Das Ergebnis dieser Arbeit ist überall dort anwendbar, wo Eigenschaften des Spektrums der freien Schwingungsgleichung mit Randbedingungen benötigt werden, die sich aus N. bzw. E ableiten lassen; also vor allem in der Akustik (Zahl der Obertöne eines Hohlraumes unterhalb einer vorgegebenen Frequenz), in der Theorie der Hohlleiter usw. In dieser Arbeit haben wir die Anwendung auf ein einfaches Atomkernmodell betrachtet, das Fermigas-Modell. Es beschreibt den Kern als freies ideales in einem Hohlraum von Kerngestalt befindliches Fermigas. Dann bedeutet N die Teilchenzahl und E die Gesamtenergie des Systems. Ef ist die Fermigrenzenergie und es ist (Ef exp 3/2 /6*Pi*Pi) die Sättigungsdichte im Innern des Systems. Der Koeffizient des zweiten Termes des expliziten (aS.) Ausdrucks für E kann dann als Oberflächenspannung gedeutet werden. Die spezifische Hodell-Oberflächenspannung läßt sich in Abhängigkeit von dem Gestaltparametern und der Siittigungsdichte des Atomkernes schreiben. Nach Einsetzen der empirischen Werte erhalten wir numerisch einen Wert, der nur um 20% vom empirisch aus der v. Weizsäckerformel bekannten Wert für die spez. Oberflächenspannung abwich, obgleich das Modell nur eine äußerst einfache Näherung der Kernstruktur sein kann. Daher gelangten wir zu der Überzeugung, daß der Oberflächenanteil der Bindungsenergie wesentlich ein kinetischer Effekt ist.
Im Rahmen dieser Diplomarbeit wurde eine Detektor-Sonde entwickelt, um Strahlprofile eines Ionenstrahls entlang der gekrümmten, geometrischen Achse eines Toroidsektormagneten zu messen. Bei der Konstruktion der Sonde musste die zuverlässige Messwerterfassung im Vakuum und innerhalb magnetischer Felder von bis zu 0,6 T berücksichtigt werden. Im theoretischen Teil werden die Theorie zum Strahltransport in den verwendeten Bauteilen, sowie die Funktionsweise eines Phosphor-Schirms (P20) dargelegt. Im experimentellen Teil wird die bewegliche Sonde, der verwendete Versuchsaufbau, sowie die Messungen und deren Auswertung näher beschrieben. Im abschließenden Fazit wird auch auf Alternativen zu der verwendeten Messmethode und deren Vor- und Nachteile eingegangen.
ALICE (A Large Ion Collider Experiment), is the dedicated heavy-ion experiment at the Large Hadron Collider (LHC) at CERN. It is optimised to reconstruct and identify the particles created in a lead-lead collision with a centre of mass energy of 5.5TeV. The main tracking detector is a large-volume time-projection chamber (TPC). With an active volume of about 88m^3 and a total readout area of 32.5m^2 it is the most challenging TPC ever build. A central electrode divides the 5m long detector into two drift regions. Each readout side is subdivided into 18 inner and 18 outer multi-wire proportional read-out chambers. The readout area is subdivide into 557568 pads, where each pad is read out by and electronics chanin. A complex calibration is needed in order to reach the design position-resolution of the reconstructed particle tracks of about 200um. One part of the calibration lies in understanding the electronic-response. The work at hand presents results of the pedestal and noise behaviour of the front-end electronics (FEE), measurements of the pulse-shaping properties of the FEE using results obtained with a calibration pulser and measurements performed with the laser-calibration system. The data concerned were taken during two phases of the TPC commissioning. First measurements were performed in the clean room where the TPC was built. After the TPC was moved underground and built into the experiment, a second round of commissioning took place. Noise measurements in the clean room revealed a very large fraction of pads with noise values larger than the design specifications. The unexpected high noise values could be explained by the 'ground bounce' effect. Two modifications helped to reduce this effect: A desynchronisation in the the start of the readout of groups of channels and a modification in the grounding scheme of the FEE. Further noise measurements were carried out after the TPC has been moved to the experimental area underground. Here even a larger fraction of channels showed too large noise values. This could be traced back to a common mode current injected by the electronics power supplies. To study the shaping properties of the FEE a calibration pulser was used. To generate signals in the FEE a pulse is injected to the cathode wires of the read-out chambers. Due to manufacturing tolerances slight channel-by-channel variations of the shaping properties are expected. This effects the determination of the arrival time as well as the measured integral signal of the induced charge and has to be corrected. The measured arrival time variations follow a Gaussian distribution with a width (sigma) of 6.2ns. This corresponds to an error of the cluster position of about 170um. The charge variations are on the level of 2.8%. In order to reach the intrinsic resolution on the measurement of the specific energy loss of the particles (6%) those variations have to be taken into account. The photons of the laser-calibration system are energetic enough to emit photo electrons off metallic surfaces. Most interesting for the detector calibration are photo electrons from the central electrode. The laser light is intense enough to get a signal in all readout channels of the TPC. Since the central electrode is a smooth surface, differences in the arrival time between sectors reveal mechanical displacements of the readout sectors and can be used to correct for this effect. In addition the measurements can be used to determine the electron drift velocity in the TPC gas. The drift velocity measurements have shown a vertical as well as a radial gradient. The first can be explained by the temperature gradient, which naturally builds up in the 5m high detector. The second gradient is most probably caused by a relative conical deformation of the readout plane and the central electrode.
Quantum entanglement plays a basic role in quantum information science. The creation of entanglement between qubits is of fundamental importance for further computation processing like quantum computation, quantum cryptography, quantum teleportation, quantum computers… We present here a symmetric electron-electron scattering experiment to determine the experimental parameters which are necessary to produce a source of entangled electrons. In this Moeller scattering experiment the electrons differ from each other only by their spin direction. At these conditions a spin entanglement of the scattered electrons is expected. To demonstrate the spin entanglement, a single particle resolved spin measurement of the electrons has to be performed. A high ratio of measured coincidences compare to random could be demonstrated. It is shown, that this ratio is related to an experiment depended nearly constant efficiency for the coincidence detection. In order to proof the spin entanglement, the goal is to measure the final polarization state of the electrons at different scattering directions to observe a spin anti correlation between these spin states of the Moeller electrons. The usual method to determine the electron polarization is based on an asymmetric scattering experiment with a high Z target. This scattering may yield an asymmetry due to a different spin-orbit coupling of the electrons. The main problem of polarized electron studies at keV-particle energy is the low efficiency of usual spin polarimeters. This low efficiency impedes or prevents electron spin resolved coincidence measurements because of necessarily induced random coincidences. To enhance the efficiency of the spin detection, a new compact mini-Mott spin analyzer has been developed. Due to a compact small size of this analyzer, a higher efficiency is obtained now, which is a prerequisite to the electron spin resolved coincidence measurements. Till date, the asymmetry measurement have been performed where one Mott analyzer rotated by an angle around the axis. The reducing asymmetry is in agreement with a prediction of quantum mechanic; however, the large systematic errors of the measurement have been estimated. As a next step for investigation of spin entanglement it is planned to increase the overall efficiency of the experiment by having higher initial energy and minimize error of the measurement by applying new kind of detectors.
Energy and environment are two major concerns in the 21st century. At present, the energy required for the daily life still mainly relies on the traditional fossil fuel resources, but the caused air pollution problem and greenhouse effect have seriously threatened the sustainable development of mankind. Another adopted energy source which can provide a large fraction of electricity for the world is the nuclear fission reaction. However, the increasing high-radioactive spent nuclear fuels, which half-lives are usually >1 million years, are becoming the hidden perils to the earth. A great advance in accelerator physics and technology opens an opportunity to solve this dilemma between man and nature, because powerful accelerator-based neutron sources can play important roles for clean nuclear power production, for example: - The Accelerator-Driven System (ADS) can serve as an easy control of a sub-critical fission reactor so that the nuclear fuels will be burnt more completely and safely. - The EUROTRANS project launched by EU is investigating another application of the ADS technology to reduce the radiotoxicity and the volume of the existing nuclear waste greatly and quickly in a transmutation way. - The developing international IFMIF plant will be used to test and qualify reactor materials for future fusion power stations, which can produce much cleaner nuclear electricity more efficiently than the fission ones. Therefore, the R&D of high-power driver linacs (HPDL) is of a worldwide importance. As the proverb said, "everything is hard at the beginning", the front end is the most difficult part for realizing an HPDL machine. Based on the RFQ and H-type DTL structures, this dissertation is dedicated to study the beam dynamics in the presence of significantly strong space-charge effects while accelerating intense hardon beams in the low- and medium-beta-region. Besides the 5mA/30mA, 17MeV proton injector (RFQ+DTL) and the 125mA, 40MeV deuteron DTL of the above-mentioned EUROTRANS and IFMIF facilities, a 200mA, 700keV proton RFQ has been also intensively studied for a small-scale but ultra-intense neutron source FRANZ planned at Frankfurt University. The most remarkable properties of the FRANZ RFQ and the IFMIF DTL are the design beam intensities, 200mA and 125mA, which are the record values for the proton and deuteron linacs, respectively. Though the design intensities for the two development stages, XT-ADS (5mA) and EFIT (30mA), of the EUROTRANS injector are well within the capability of the modern RF linac technology, the special design concept for an easy upgrade from XT-ADS to EFIT brings unusual challenges to realize a linac layout which allows flexible operation with different beam intensities. To design the 200mA FRANZ RFQ and the two-intensity EUROTRANS RFQ, the classic LANL (Los Alamos National Laboratory) Four-Section Procedure, which was developed by neglecting the space-charge forces, is not sufficient anymore. Abandoning the unreasonable constant- B (constant-transverse-focusing-strength) law and the resulting inefficient evolution manners of dynamics parameters adopted by the LANL method, a new design approach so-called "BABBLE", which can provide a "Balanced and Accelerated Beam Bunching at Low Energy", has been developed for intense beams. Being consistent with the beam-development process including space-charge effects, the main features of the "BABBLE" strategy (see Pages 55-58) are: 1) At the entrance, the synchronous phase is kept at = phi s = -90° while a gradual increase in the electrode modulation is started so that the input beam can firstly get a symmetrical and soft bunching within a full-360° phase acceptance. 2) In the following main bunching section, B is increasing to balance the stronger and stronger transverse defocusing effects induced by the decreasing bunch size so that the bunching speed can be fast and safely increased. 3) When the real acceleration starts, the quickly increased beam velocity will naturally weaken the transverse defocusing effects, so B is accordingly falling down to avoid longitudinal emittance growths and to allow larger bore apertures. Taking advantage of the gentle initial bunching and the accelerated main bunching under balanced forces enabled by the "BABBLE" strategy, a 2m-long RFQ with beam transmission in excess of 98% and low emittance growths has been designed for FRANZ, and a 4.3m-long RFQ with almost no beam losses and flat emittance evolutions at both 5mA and 30mA has been designed for EUROTRANS. All design results have proven that the "BABBLE" strategy is a general design approach leading to an efficient and robust RFQ with good beam quality in a wide intensity-range from 0mA to 200mA (even higher). To design the IFMIF DTL and the injector DTL part of the EUROTRANS driver linac, which have been foreseen as the first real applications of the novel superconducting CH-DTL structure, intensive attempts have been made to fulfill the design goals under the new conditions, e.g. long drift spaces, SC transverse focusing elements and high accelerating gradients. For the IFMIF DTL, the preliminary IAP design has been considerably improved with respect to the linac layout as well as the beam dynamics. By reserving sufficient drift spaces for the cryosystem, diagnostic devices, tuner and steerer, introducing SC solenoid lenses and adjusting the Linac Design for Intense Hadron Beams accelerating gradients and accordingly other configurations of the cavities (see Pages 78-80), a more realistic, reliable and efficient linac system has been designed. On the other hand, the specifications and positions of the transverse focusing elements (see Pages 81-82) as well as the phase- and energy-differences between the bunch-center particle and the synchronous particle at the beginning of the phi s=0° sections have been totally redesigned (see Pages 83-84) resulting in good beam performances in both radial and longitudinal planes. For the EUROTRANS injector DTL, in addition to the above-mentioned procedures, extra optimization concepts to coordinate the beam dynamics between two intensities, such as employing short adjustable rebunching cavities with phi s = -90° (see Page 116), have been applied. ...
Breitbandige Beamforming-Algorithmen zur Erfassung von Audiosignalen mit kompakten Mikrofon-Arrays
(2009)
Mikrofon-Arrays erlauben die selektive Erfassung und Trennung von Audiosignalen aus einer akustischen Umgebung. Typische Anwendungen sind z.B. die Ortung einzelner Schallquellen, die räumliche Kartierung eines Schallfeldes ("akustische Kamera") oder der gerichtete Empfang einer bestimmten Schallquelle bei gleichzeitiger Unterdrückung von Umgebungs- oder Störschallen. Vielkanalige Verfahren und Filter, die sich dieser Aufgabe widmen, werden als Beamforming bzw. Beamformer bezeichnet. In dieser Dissertation werden bekannte und eigene Beamforming-Ansätze im Hinblick auf ihre Eignung für die hochwertige Übertragung von Audiosignalen untersucht. Diese erfordert neben einer möglichst großen Abdeckung des relevanten Frequenzbereichs (Breitbandigkeit) auch die Frequenzunabhängigkeit der Richtcharakteristik, um spektrale Verzerrungen zu vermeiden. Es wird ein Algorithmus vorgestellt, der diese Anforderungen mit sehr kompakten Arrays erfüllt. Eine klassische Möglichkeit, eine frequenzinvariante Charakteristik (Beampattern) mithilfe eines Delay-and-Sum-Beamformers zu erhalten, ist eine frequenzabhängige Gewichtung der Mikrofone, welche die effektive Apertur des Arrays proportional zur Schallwellenlänge einstellt. Diese Methode funktioniert jedoch nur bei Wellenlängen, die kleiner sind als die Ausdehnung des Arrays, und erfordert bei Frequenzen unter 100Hz Arrays von mehreren Metern Größe. Ein gänzlich anderes Verhalten zeigen differentielle Mikrofonarrays, welche Differenzen aus Signalen benachbarter Mikrofone bilden: In Kombination mit Integratorfiltern erzeugen sie Beampattern, die auch bei sehr kleinen Frequenzen, d.h. bei Wellenlängen, die groß gegen das Array sind, unverändert bleiben (sog. Superdirektivität). Aus diesem Prinzip wurde in dieser Arbeit das Konzept des Multipol-Beamformers entwickelt, der ein gegebenes Soll-Beampattern durch eine Reihenentwicklung nach Sinus- und Kosinusfunktionen (zweidimensionaler Fall) oder Kugelflächenfunktionen (dreidimensionaler Fall) approximiert. Der Multipol-Beamformer erzielt eine hervorragende Richtwirkung bei kleinen Frequenzen, ist jedoch nur über einen sehr begrenzten Bereich frequenzinvariant und erweist sich insbesondere in drei Raumdimensionen als analytisch aufwändig. Flexibler und in zwei wie in drei Raumdimensionen gleichermaßen einfach in der Formulierung ist demgegenüber das in der Literatur zu findende Verfahren des modalen Subraum-Beamformings (Modal Subspace Decomposition, MSD). Dieser Ansatz bestimmt zu einer beliebigen Sensorgeometrie einen Satz orthogonaler Eigen-Beampattern, die dann zu einer Reihenentwicklung des Soll-Beampatterns herangezogen werden. Ähnlich dem erwähnten Delay-and-Sum-Beamformer jedoch erfordert auch dieser Ansatz bei großen Wellenlängen entsprechend groß dimensionierte Arrays und ist nicht superdirektiv. In dieser Arbeit wurde deshalb eine eigene, neue Ausprägung des MSD-Algorithmus formuliert, welche die Superdirektivität des Multipol-Beamformers mit der Flexibilität und Einfachheit des MSD-Verfahrens vereint. Diese als "superdirektives MSD-Beamforming" bezeichnete Methode besitzt - wie das bereits bekannte MSD-Verfahren auch - die interessante Eigenschaft, daß die Eigen-Beampattern für ein frei zu wählendes Entwurfs-Frequenzband berechnet werden, so daß das Verhalten des Beamformers über ein ganzes Frequenzintervall kontrolliert werden kann. Dies eröffnet auch die Möglichkeit eines sehr breitbandigen Beamformings durch Kombination mehrerer Beamformer, die individuell auf benachbarte Frequenzbänder abgestimmt werden. Mit beispielsweise einem hexagonalen Array von nur 6cm Durchmesser und sieben Mikrofonen erreicht der superdirektive Ansatz so ca. 20-30dB Störabstand über einen Frequenzbereich von 100Hz bis 6kHz, was für Sprache eine sehr hohe Übertragungsqualität darstellt. Zur experimentellen Verifikation der untersuchten Algorithmen wurde im Rahmen dieser Arbeit eine vielkanalige Echtzeit-Signalverarbeitungsumgebung unter Windows XP erstellt, welche die Erfassung, Verarbeitung, Analyse und Ausgabe vielkanaliger Audio-Daten erlaubt. Auch eine Simulation idealer Freifeldmessungen an Mikrofonarrays ist damit möglich, indem die Ausbreitung des Schalls von der Schallquelle zu den Mikrofonen durch zeitdiskrete Fractional-Delay-Filter simuliert wird. Dieser Filtertypus wurden im Rahmen dieser Arbeit ebenfalls eingehend untersucht: Für zwei aus der Literatur bekannte Entwurfsverfahren wurden Erweiterungen gefunden, die bei gleicher Filterordnung eine höhere nutzbare Bandbreite erzielen. Für Messungen an realen Arrays wurde die Akustik-Messkammer des Instituts durch zusätzliche Dämmauskleidung für Freifeld-Messungen nutzbar gemacht. Die Messergebnisse belegen, daß die untersuchten Algorithmen in der Praxis erwartungsgemäß funktionieren und daß der gefundene superdirektive MSD-Algorithmus mit sehr kompakten Arrays eine gute breitbandige Erfassung und Trennung von Audiosignalen ermöglicht.
Zahlreiche physikalische Prozesse, wie Bremsstrahlung, Synchrotronstrahlung oder Radiative Rekombination verursachen die Emission linear hochpolarisierter Röntgenstrahlung. Dennoch wird technisch nutzbare hochpolarisierte Röntgenstrahlung derzeit fast ausschließlich von einigen wenigen hochspezialisierten Synchrotronlichtquellen oder Freie Elektronen Lasern zur Verfügung gestellt. In der vorliegenden Arbeit wurde der Radiative Einfang in die K-Schale von nacktem Xenon verwendet, um erstmals eine Quelle einstellbarer, monoenergetischer sowie hochpolarisierter Röntgenstrahlung (97%) in einer Speicherringumgebung zu realisieren. Zum Nachweis der Polarisation der Strahlung wurde erstmals auch ein neuartiger orts-, zeit- und energieauflösender Si(Li) Streifendetektor als Röntgenpolarimeter eingesetzt, mit dem die Beschränkungen traditioneller Compton - Polarimeter umgangen werden können. Der gemessene Grad hoher linearer Polarisation, der mit den Vorhersagen durch die Theorie übereinstimmt, ist durchaus bemerkenswert, da die hochpolarisierte Röntgensstrahlung in einem Stoßprozess zwischen einem unpolarisierten Ionenstrahl und einem unpolarisierten Gasjet zustande kam. Dies bedeutet, dass der Radiative Elektroneneinfang ein ideales Werkzeug darstellt, um hochpolarisierte, energetisch frei wählbare Röntgenstrahlung in einer Speicherringumgebung zu erzeugen. Die Entwicklung der neuen 2D Detektortechnologie eröffnet auch Möglichkeiten zur experimentellen Untersuchung der Details atomphysikalischer Vorgänge. So konnte im Rahmen dieser Arbeit durch die Kombination des verwendeten Detektors und der Beschleunigereinrichtung der GSI erstmals experimentell die lineare Polarisation der Strahlung des Radiativen Elektroneneinfangs in die energetisch partiell aufgelösten L-Unterschalen von nacktem Uran bestimmt werden. Zudem wurden neue und präzisere Werte für die Polarisation der Einfangstrahlung in die K-Schalen von nacktem und wasserstoffähnlichem Uran gemessen. Die theoretischen Vorhersagen zeigten eine starke Sensitivität von Messungen linearer Polarisation der bei dem Radiativen Elektroneneinfang emittierten Strahlung auf den Einfluss der insbesondere bei Schwerionen - Atom - Stößen zu berücksichtigenden höheren Ordnungen der Multipolentwicklung. Während die Effekte bei der Messung von Winkelverteilungen des Radiativen Elektroneneinfangs gerade bei den kleineren Winkeln im Bezug auf die Ionenstrahlachse im Laborsystem vergleichsweise gering ausfallen, ist hier ein sehr ausgeprägter Effekt der Depolarisation zu beobachten. Hier liegt der wesentliche Unterschied zwischen den in dieser Arbeit vorgestellten Messungen der linearen Polarisation der Strahlung des Radiativen Einfangs in Xenon sowie in Uran. Das Auftreten der starken Depolarisation veranschaulicht die starke Abhängigkeit der Polarisationscharakteristik des REC-Prozesses von der Kernladungszahl des Projektils. Abschließend sei der Schritt zu der erstmals für diese Arbeit verwendeten Messtechnik mit einem hochaufgelösten Streifendetektor hervorgehoben. Im Gegensatz zu früheren Polarisationsmessungen mit grob dimensionierten Pixeldetektoren waren zu der Gewinnung der hier vorgestellten Messungen praktisch keinerlei zusätzliche Annahmen oder Simulationen zu der Interpretation der gewonnenen Winkelverteilungen notwendig. So konnte mit dem System bereits während des Experimentes eine erste Abschätzung der linearen Polarisation der beobachteten Strahlung durchgeführt werden. Diese Tatsache wird es in naher Zukunft ermöglichen, das für die niederenergetische Röntgenstrahlung weitgehend neue ”Fenster” polarimetrischer Messungen für weitere atomphysikalische Prozesse zu öffnen.
In den Neurowissenschaften führt die Erforschung des vegetativen Nervensystem (VNS) immer noch ein Schattendasein. Einer der wichtigsten Teile des VNS, der Hirnstamm, ist dabei besonders schlecht erforscht, obwohl er die Steuerzentren für Herzschlag, Blutdruckregulation, Atmung, Verdauung, und viele weitere lebenswichtige Funktionen beherbergt. Ein wichtiger Grund für diesen Umstand ist, dass die funktionelle Kernspintomographie (fMRT) sich in ihrer bisherigen Form nur bedingt für Messungen im Hirnstamm eignet. Ziel dieser Arbeit war es daher, neue Ansätze zur fMRT-Messung vegetativer Zentren im menschlichen Hirnstamm zu entwickeln. Nach einer Einführung in die Neuroanatomie sowie die physikalischen und physiologischen Grundlagen der strukturellen und funktionellen MRT werden im mittleren Teil der Arbeit die Entwicklung sowie der Test neuer Ansätze zur Hirnstamm-fMRT beschrieben. Dabei untersucht der Autor zunächst, welche grundlegenden Probleme einer konventionellen fMRT-Messung im Hirnstamm entgegenstehen. Es stellt sich heraus, dass alle hirnstamm-spezifischen Störquellen direkt oder indirekt auf den Herzschlag zurückzuführen sind. Aus den vorhandenen Ansätzen zur Korrektur solcher Störungen wird die Herzschlag-Taktung ausgewählt. Bei diesem Verfahren erfolgt die Aufnahme der fMRT-Bilder zeitlich gekoppelt an dem Herzschlag des Probanden, um sämtliche kardiogenen Rauschquellen zu unterdrücken. Anstelle des häufig verwendeten, aber statistisch problematischen Guimaraes-Verfahrens zur Korrektur der durch die Herzfrequenzvariabilität bedingten Schwankungen des MR-Signals wird in der vorliegenden Arbeit der die sog. Dual-Echo-Bildgebung verwendet. Dabei wird die konventionelle EPI-Sequenz (echo-planar imaging) dahingehend erweitert, dass pro Bild anstelle eines Echos zwei aufgenommen werden. Durch Quotientenbildung der beiden Bilder kann so der fluktuierende Teil des Signals entfernt werden. Beim Vergleich verschiedener Varianten der Quotientenbildung stellt sich ein neu entwickelter, exponentieller Ansatz als überlegen heraus. Danach werden die Auswirkungen verschiedener Methoden der Bewegungskorrektur und Schichtorientierung verglichen, um das Optimum für Messungen im Hirnstamm zu ermitteln. Nach Tests des neuen Verfahrens an verschiedenen fMRT-Datensätzen werden Empfehlungen für die Kombination der verschiedenen Parameter gegeben. Es zeigt sich, dass die Standardabweichung der fMRT-Bilder mit der neuen Methode im unteren Hirnstamm um 13% - 33% reduziert werden kann. Ein Sensitivitätstest an motorischen Hirnstammkernen, welche durch ein motorisches Paradigma aktiviert werden, zeigt, dass die jeweiligen Kerne in 85% - 95% der Fälle eindeutig identifiziert werden können. Im dritten Teil der Arbeit erfolgt die Anwendung der neuen Methode auf die Messung von Aktivierungen vegetativer Zentren. Hier wird als unkonventionellen Stimulus des vegetativen Nervensystems die Akupunktur verwendet. Dies geschieht u.a. mit der Zielsetzung, zur Aufdeckung des noch immer unbekannten Wirkmechanismus dieser Therapieform beizutragen. Als Akupunkturpunkt wird Pc6 am Handgelenk gewählt, da die Studienlage eindeutig dessen Effektivität bei der Behandlung von Übelkeit und Erbrechen sowie eine Beeinflussung der Magen-Peristaltik zeigt und die neuralen Zentren hierfür größtenteils im Hirnstamm lokalisiert sind. Der Autor stellt daher die Hypothese auf, dass die Akupunkturwirkung in diesem Fall über den Vagusnerv und dessen Hirnstammkern, den Nucleus dorsalis nervi vagi, vermittelt wird. Vor der Überprüfung dieser Hypothese erfolgt zunächst eine Methodenkritik der bisherigen Akupunktur-fMRT-Forschung. Anhand einer Gruppe von Studien, welche über Aktivierungen der Sehrinde bei Akupunktur visuell relevanter Punkte berichten, weist der Autor eine Reihe methodischer Probleme nach. Anhand einer eigenen Studie kann er mittels Independent Component Analysis (ICA) zeigen, dass die von den bisherigen Studien berichteten, visuellen Aktivierungen höchstwahrscheinlich nicht auf die Wirkung der Akupunktur zurückzuführen sind. Um einige der Probleme dieser Studien zu umgehen, entwickelt der Autor ein neues psychophysikalisches Verfahren, bei dem die Probanden während der Akupunktur kontinuierlich die Stärke der Nadelempfindung („DeQi“) auf einer visuellen Analogskala bewerten. Mit Hilfe dieses Verfahrens gelingt schließlich der Nachweis einer Hirnstamm-Aktivierung unter Akupunktur-Stimulation, deren Lokalisation mit der des Nucleus dorsalis nervi vagi vereinbar ist. Dies bestätigt die ursprüngliche Hypothese und zeigt gleichzeitig die Eignung des neuen Verfahrens für die Bildgebung vegetativer Hirnstammzentren.
Den Geheimnissen der Materie auf der Spur : neue Denkfabrik für physikalische Grundlagenforschung
(2009)
Bei Darmstadt entsteht FAIR, eines der größten internationalen Forschungszentren für Physik. Durch das von der Landesregierung geförderte Exzellenzzentrum »HIC for FAIR« erhält die Forschung in Hessen die einmalige Chance, sich direkt an globaler Spitzenforschung zu beteiligen: auf der Suche nach den letzten Geheimnissen der Materie.
In this thesis, we studied the single impurity Anderson model and developed a new and fast impurity solver for the dynamical mean field theory (DMFT). Using this new impurity solver, we studied the Hubbard model and periodic Anderson model for various parameters. This work is motivated by the fact that the dynamical mean field theory is widely used for the studies of strongly correlated systems, and the most frequently used methods, e.g. the quantum Monte-Carlo method (QMC), and the exact digonalization method are much CPU time consuming and usually limited by the available computers. Therefore, a fast and reliable impurity solver is needed. This new impurity solver was explored based on the equation-of-motion method (also called Green's function and decoupling method in some literature). Using the retarded Green's function, we first derived the equations of motion of Green's functions. Then, we employed a decoupling scheme to close the equations. By solving self-consistently the obtained closed set of integral equations, we obtained the single particle Green's function for the single impurity Anderson model. After that, the single impurity Anderson model was solved along with self-consistency conditions within the framework of DMFT. In this work, we studied and compared two decoupling schemes. Moreover, we also derived possible higher order approximations which will be tested in future work. Besides the theoretical work, we tested the method in numerical calculations. The integral equations are first solved by iterative methods with linear mixing and Broyden mixing, respectively. However, these two methods are not sufficient for finding the self-consistent solutions of the DMFT equations because converged results are difficult to obtain. Moreover, the computing speed of the two methods is also not satisfactory. Especially the iterative method with linear mixing costs always a lot of CPU time due to the required small mixing. Hence, we developed a new method, which is a combination of genetic algorithm and iterative method. This new method converges very fast and removes artifacts appearing in the results from the iterative method with linear and Broyden mixing. It can directly operate on the real axis, where no numerical error from the high frequency tail corrections and the analytical continuation is introduced. In addition, our new technique strongly improves the precision of the numerical results by removing the broadening. With this newly developed impurity solver and numerical technique, we studied the single impurity Anderson model, the single band Hubbard model and the periodic Anderson model with arbitrary spin and orbital degeneracy N on the real axis. For the single impurity Anderson model, the spectral functions are calculated for the infinite and finite Coulomb interaction strength. We also studied the spectral functions in dependence of the parameters of impurity position and hybridization. For the Hubbard model, we studied the bandwidth control and filling control Mott metal-insulator transition for spin and orbital degeneracy N = 2. It gives qualitatively the critical value of Coulomb interaction strength for the Mott metal-insulator transition, and the spectral functions which are comparable to those obtained in QMC and numerical renormalization group methods. We also studied the quasiparticle weight and the self-energy in metallic states. The latter shows almost Fermi liquid behavior. At last we calculated the densities of states for the Hubbard model with arbitrary spin and orbital degeneracy N. The periodic Anderson model (PAM) is also studied as another important lattice model. It was solved for various combinations of parameters: the Coulomb interaction strength, the impurity position, the center position of the conduction band, the hybridization, the spin and orbital degeneracy. The PAM results represents the physics of impurities in a metal. In short, our method works for the Hubbard model and the periodic Anderson model in a large range of parameters, and gives good results. Therefore, our impurity solver could be very useful in calculations within LDA+DMFT. Finally, we also made a preliminary investigation of the multi-band system based on the success in single band case. We first studied the two-band system in a simplified treatment by neglecting the interaction between the two bands through the bath. This has given promising numerical results for the two-band Hubbard model. Moreover, we have studied theoretically the two-band system with mean field approximation and Hubbard-I approximation in dealing with the higher order cross Green's functions which are related to both the two bands. In the mean field approximation, we even generalized the two-band system to arbitrary M=N/2 band system. Potential improvement can be carried out on the basis of this work.
The current thesis is devoted to a systematic study of fluctuations and correlations in heavy-ion collisions, which might be considered as probes for the phase transition and the critical point in the phase diagram, within the Hadron-String- Dynamics (HSD) microscopic transport approach. This is a powerful tool to study nucleus-nucleus collisions and allows to completely simulate experimental collisions on an event-by-event basis. Thus, the transport model has been used to study fluctuations and correlations including the influence of experimental acceptance as well as centrality, system size and collision energy. The comparison to experimental data can separate the effects induced by a phase transition since there is no phase transition in the HSD version used here. Firstly the centrality dependence of multiplicity fluctuations has been studied. Different centrality selections have been performed in the analysis in correspondence to the experimental situation. For the fixed target experiment NA49 events with fixed numbers of the projectile participants have been studied while in the collider experiment PHENIX centrality classes of events have been defined by the multiplicity in certain phase space region. A decrease of participant number fluctuations (and thus volume fluctuations) in more central collisions for both experiments has been obtained. Another area of this work addresses to transport model calculations of multiplicity fluctuations in nucleus-nucleus collisions as a function of colliding energy and system size. This study is in full correspondence to the experimental program of the NA61 Collaboration at the SPS. Central C+C, S+S, In+In, and Pb+Pb nuclear collisions at Elab = 10, 20, 30, 40, 80, 158 AGeV have been investigated. The expected enhanced fluctuations - attributed to the critical point and phase transition - can be observed experimentally on top of a monotonic and smooth ‘hadronic background’. These findings should be helpful for the optimal choice of collision systems and collision energies for the experimental search of the QCD critical point. Other observables are fluctuations of ratios of hadrons (e.g. pions, kaons, protons, etc.) which are not so much affected by volume fluctuations. In particular HSD results for the kaon-to-pion ratio fluctuations, which has been regarded as promising observable for a long time, are presented from low SPS energies up to high energies at RHIC. In addition to the HSD calculations statistical model is also used in terms of microcanonical, canonical and grand canonical ensembles. Further a study of the system size event-by-event fluctuations causing rapidity forward-backward correlations in relativistic heavy-ion collisions is presented. The HSD simulations reveal strong forward-backward correlations and reproduce the main qualitative features of the STAR data in A+A collisions at RHIC energies. It has been shown that strong forward-backward correlations arise due to an averaging over many different events that belong to one centrality bin. An optimization of the experimental selection of centrality classes is presented, which is relevant for the program of the NA61 collaboration at CERN, the low-energy program at RHIC, as well as future experiments at FAIR.
Kaon and pion production in centrality selected minimum bias Pb+Pb collisions at 40 and 158A GeV
(2009)
Results on charged kaon and negatively charged pion production and spectra for centrality selected Pb+Pb mininimum bias events at 40 and 158A GeV have been presented in this thesis. All analysis are based on data taken by the NA49 experiment at the accelerator Super Proton Synchrotron (SPS) at the European Organization for Nuclear Research (CERN) in Geneva, Switzerland. The kaon results are based on an analysis of the mean energy loss <dE/dx> of the charged particles traversing the detector gas of the time projection chambers (TPCs). The pion results are from an analysis of all negatively charged particles h- corrected for contributions from particle decays and secondary interactions. For the dE/dx analysis of charged kaons, main TPC tracks with a total momentum between 4 and 50 GeV have been analyzed in logarithmic momentum log(p) and transverse momentum pt bins. The resulting dE/dx spectra have been fitted by the sum of 5 Gaussians, one for each main particle type (electrons, pions, kaons, protons, deuterons). The amplitude of the Gaussian used for the kaon part of the spectra has been corrected for efficiency and acceptance and the binning has been transformed to rapidity y and transverse momentum pt bins. The multiplicity dN/dy of the single rapidity bins has been derived by summing the measured range of the transverse momentum spectra and an extrapolation to full coverage with a single exponential function fitted to the measured range. The results have been combined with the mid-rapidity measurements from the time-of-flight detectors and a double Gaussian fit to the dN/dy spectra has been used for extrapolation to rapidity outside of the acceptance of the dE/dx analysis. For the h- analysis of negatively charged pions, all negatively charged tracks have been analyzed. The background from secondary reactions, particle decays, and gamma-conversions has been corrected with the VENUS event generator. The results were also corrected for efficiency and acceptance and the pt spectra were analyzed and extrapolated where necessary to derive the mean yield per rapidity bin dN/dy. The mean multiplicity <pi-> has been derived by summing up the measured dN/dy and extrapolating the rapidity spectrum with a double Gaussian fit to 4pi coverage. The results have been discussed in detail and compared to various model calculations. Microscopical models like URQMD and HSD do not describe the full complexity of Pb+Pb collisions. Especially the production of the positively charged kaons, which carry the major part of strange quarks, cannot be consistently reproduced by the model calculations. Centrality selected minimum bias Pb+Pb collisions can be described as a mixture of a high-density region of multiply colliding nucleons (core) and practically independent nucleon-nucleon collisions (corona). This leads to a smooth evolution from peripheral to central collisions. A more detailed approach derives the ensemble volume from a percolation of elementary clusters. In the percolation model all clusters are formed from coalescing strings that are assumed to decay statistically with the volume dependence of canonical strangeness suppression. The percolation model describes the measured data for top SPS and RHIC energies. At 40A GeV, the system size dependence of the relative strangeness production starts to evolve from the saturation seen at higher energies from peripheral events onwards towards a linear dependence at SIS and AGS. This change of the dependence on system size occurs in the energy region of the observed maximum of the K+ to pi ratio for central Pb+Pb collisions. Future measurements with heavy ion beam energies around this maximum at RHIC and FAIR as well as the upgraded NA49 successor experiment NA61 will further improve our understanding of quark matter and its reflection in modern heavy ion physics and theories.
In dieser Arbeit wurden zwei Systeme der biologischen Energiewandlung mit verschiedenen spektroskopischen Methoden untersucht und es wurden neue Erkenntnisse über die Funktion und Aktivierung der Proteine Proteorhodopsin und RuBisCO gewonnen. Zusätzlich konnte eine neue methodische Herangehensweise zur Untersuchung von Carboxylierungsreaktionen etabliert werden. Dieser Ansatz bietet in Zukunft breite Anwendungsmöglichkeiten zur Studie dieser biologisch so bedeutenden Reaktionsklasse. Mit Hilfe der Infrarotspektroskopie und vor allem durch den Einsatz von Tieftemperaturmessungen konnte der bisher kontrovers diskutierte Photozyklus von Proteorhodopsin (PR) eingehend charakterisiert werden. Jenseits des gut verstandenen aktiven Transports bei pH 9,0 wurde vor allem der pH 5,1 Photozyklus untersucht. Erstmals konnte auch in Infrarotspektren das M-Intermediat bei pH 5,1 nachgewiesen werden. Dieses Intermediat ist von entscheidender Bedeutung für den aktiven Transport über die Zellmembran und seine Existenz wurde bisher vielfach angezweifelt. Zudem konnte Glu-108 als ein möglicher Protonenakzeptor des Photozyklus bei pH 5,1 identifiziert werden. Durch einen pH-Indikator ließ sich der Nachweis erbringen, dass auch im sauren pH-Bereich Protonen freigesetzt werden. Damit steht fest, dass ein aktiver Protonentransport bei pH 5,1 möglich ist. Zusammen mit Informationen zu protonierbaren Aminosäureseitenketten (vornehmlich Asp und Glu) lässt sich zudem mit Einschränkungen die These unterstützen, dass PR ober- und unterhalb des pKa-Werts von Asp-97 in verschiedene Richtungen Protonen pumpt. Damit ergibt sich ein differenziertes Bild für den pH-abhängigen Photozyklus von PR mit drei pH-Bereichen (pH 9,0, 8,5 bis 5,5 und 5,1) in denen PR unterschiedliche Protonentransportwege zeigt. Als weiteres biologischen System wurde RuBisCO genauer untersucht. Im Fokus der Arbeit war dabei die Aktivierung durch die Bildung eines Lysin-Carbamats im aktiven Zentrum. Obwohl RuBisCO das am häufigsten vorkommende Enzym unseres Planeten ist, in der Kohlenstofffixierung eine bedeutende Rolle spielt und obwohl mehrere Dutzend Kristallstrukturen existieren, gibt es noch immer genügend offene Fragen zur Aktivierung. Mit Hilfe eines Käfig-CO2 konnte die Carbamatbildung im Enzym direkt verfolgt und der Einfluss von Magnesiumionen auf die Aktivierung beobachtet werden. Damit ließ sich ganz klar ausschließen, dass Magnesium bereits für die Carbamatbildung erforderlich ist. Die Koordination von Mg2+ ist erst für die Endiol-Bildung im weiteren Reaktionszyklus essentiell. Zusätzlich wurde gezeigt, dass Azid eine Inhibierung des Enzyms durch die Konkurrenz mit CO2 um die Bindungsstelle auslöst, allerdings verdrängt CO2 das Azidion im Laufe der Zeit. Mit den Ergebnissen für RuBisCO konnte klar gezeigt werden, dass die Kombination aus Käfig-CO2 und Rapid-Scan IR-Spektroskopie ein völlig neues Feld für die Untersuchung von Carboxylierungsreaktionen eröffnet. Gerade die offenen Fragen zu Biotin bindenden Carboxylasen bieten ein breites Anwendungsgebiet für diese Methodik.
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
Starting from the first observation of the halo phenomenon 20 years ago, more and more neutron-rich light nuclei were observed. The study of unstable nuclear systems beyond the dripline is a relatively new branch of nuclear physics. In the present work, the results of an experiment at GSI (Darmstadt) with relativistic beams of the halo nuclei 8He, 11Li and 14Be with energies of 240, 280 and 305 MeV/nucleon, respectively, impinging on a liquid hydrogen target are discussed. Neutron/proton knockout reactions lead to the formation of unbound systems, followed by their immediate decay. The experimental setup, consisting of the neutron detector LAND, the dipole spectrometer ALADIN and different types of tracking detectors, allows the reconstruction of the momentum vectors of all reaction products measured in coincidence. The properties of unbound nuclei are investigated by reconstructing the relative-energy spectra as well as by studying the angular correlations between the reaction products. The observed systems are 9He, 10He, 10Li, 12Li and 13Li. The isotopes 12Li and 13Li are observed for the first time. They are produced in the 1H(14Be, 2pn)12Li and 1H(14Be, 2p)13Li knockout reactions. The obtained relative-energy spectrum of 12Li is described as a single virtual s-state with a scattering length of as = -22;13.7(1.6) fm. The spectrum of 13Li is interpreted as a resonance at an energy of Er = 1.47(13) MeV and a width of Gamma ~ 2 MeV superimposed on a broad correlated background distribution. The isotope 10Li is observed after one-neutron knockout from the halo nucleus 11Li. The obtained relative-energy spectrum is described by a low-lying virtual s-state with a scattering length as = -22.4(4.8) fm and a p-wave resonance with Er = 0.566(14) MeV and Gamma = 0.548(30) MeV, in agreement with previous experiments. The observation of the nucleus 8He in coincidence with one or two neutrons, as a result of proton knockout from 11Li, allows to reconstruct the relative-energy spectra for the heavy helium isotopes, 9He and 10He. The low-energy part of the 9He spectrum is described by a virtual s-state with a scattering length as = -3.16(78) fm. In addition, two resonance states with l 6= 0 at energies of 1.33(8) and 2.4 MeV are observed. For the 10He spectrum, two interpretations are possible. It can be interpreted as a superposition of a narrow resonance at 1.42(10) MeV and a broad correlated background distribution. Alternatively, the spectrum is being well described by two resonances at energies of 1.54(11) and 3.99(26) MeV. Additionally, three-body energy and angular correlations in 10He and 13Li nuclei at the region of the ground state (0 < ECnn < 3 MeV) are studied, providing information about structure of these unbound nuclear systems.
This thesis is devoted to the developement of a classical model for the study of the energetics and stability of carbon nanotubes. The motivation behind such a model stems from the fact that production of nanotubes in a well-controlled manner requires a detailed understanding of their energetics. In order to study this different theoretical approaches are possible, ranging from the computationally expensive quantum mechanical first principle methods to the relatively simple classical models. A wisely developed classical model has the advantage that it could be used for systems of any possible size while still producing reasonable results. The model developed in this thesis is based on the well-known liquid drop model without the volume term and hence we call it liquid surface model. Based on the assumption that the energy of a nanotube can be expressed in terms of its geometrical parameters like surface area, curvature and shape of the edge, liquid surface model is able to predict the binding energy of nanotubes of any chirality once the total energy and the chiral indices of it are known. The model is suggested for open end and capped nanotubes and it is shown that the energy of capped nanotubes is determined by five physical parameters, while for the open end nanotubes three parameters are sufficient. The parameters of the liquid surface model are determined from the calculations performed with the use of empirical Tersoff and Brenner potentials and the accuracy of the model is analysed. It is shown that the liquid surface model can predict the binding energy per atom for capped nanotubes with relative error below 0.3% from that calculated using Brenner potential, corresponding to the absolute energy difference being less than 0.01 eV. The influence of the catalytic nanoparticle on top of which a nanotube grows, on the nanotube energetics is also discussed. It is demonstrated that the presence of catalytic nanoparticle changes the binding energy per atom in such a way that if the interaction of a nanotube with the catalytic nanoparticle is weak then attachment of an additional atom to a nanotube is an energetically favourable process, while if the catalytic nanoparticle nanotube interaction is strong , it becomes energetically more favourable for the nanotube to collapse. The suggested model gives important insights in the energetics and stability of nanotubes of different chiralities and is an important step towards the understanding of nanotube growth process. Young modulus and curvature constant are calculated for single-wall carbon nanotubes from the paremeters of the liquid surface model and demonstrated that the obtained values are in agreement with the values reported earlier both theoretically and experimentally. The calculated Young modulus and the curvature constant were used to conclude about the accuracy of the Tersoff and Brenner potentials. Since the parameters of the liquid surface model are obtained from the Tersoff and Brenner potential calculations, the agreement of elastic properties derived from these parameters corresponds to the fact that both potentials are capable of describing the elastic properties of nanotubes. Finally, the thesis discuss the possible extension of the model to various systems of interest.
This thesis investigates the jet-medium interactions in a Quark-Gluon Plasma using a hydrodynamical model. Such a Quark-Gluon Plasma represents a very early stage of our universe and is assumed to be created in heavy-ion collisions. Its properties are subject of current research. Since the comparison of measured data to model calculations suggests that the Quark-Gluon Plasma behaves like a nearly perfect liquid, the medium created in a heavy-ion collision can be described applying hydrodynamical simulations. One of the crucial questions in this context is if highly energetic particles (so-called jets), which are produced at the beginning of the collision and traverse the formed medium, may lead to the creation of a Mach cone. Such a Mach cone is always expected to develop if a jet moves with a velocity larger than the speed of sound relative to the medium. In that case, the measured angular particle distributions are supposed to exhibit a characteristic structure allowing for direct conclusions about the Equation of State and in particular about the speed of sound of the medium. Several different scenarios of jet energy loss are examined (the exact form of which is not known from first principles) and different mechanisms of energy and momentum loss are analyzed, ranging from weak interactions (based on calculations from perturbative Quantum Chromodynamics, pQCD) to strong interactions (formulated using the Anti-de-Sitter/Conformal Field Theory Correspondence, AdS/CFT). Though they result in different angular particle correlations which could in principle allow to distinguish the underlying processes (if it becomes possible to analyze single-jet events), it is shown that the characteristic structure observed in experimental data can be obtained due to the different contributions of several possible jet trajectories through an expanding medium. Such a structure cannot directly be connected to the Equation of State. In this context, the impact of a strong flow created behind the jet is examined which is common to almost all jet deposition scenarios. Besides that, the transport equations for dissipative hydrodynamics are discussed which are fundamental for any numerical computation of viscous effects in a Quark-Gluon Plasma.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
The surface tension sigma and the surface density thickness t of nuclear matter have been calculated in the Fermi-gas model, the nucleons moving in a self-made shell model potential with a realistic slope and velocity dependence ( parameters alpha and beta ). One gets the experimental values for sigma and t with alpha and beta agreeing with earlier data.
Theoretical studies in the shell model have led to the conclusion that the shape dependence of the liquid-drop part of the semi-empirical mass formula of the Weizsaecker-Bethe type should contain terms proportional to the volume, the surface, and the mean-total curvature of the surface of the drop, respectively. Now the surface tension beta_e and the curvature tension gamma_e are fitted to the experimentally known fission barriers of 35 nuclei. Furthermore, the parameters of the liquid-drop part of the mass formula are roughly fitted to the ground-state masses of about 600 beta-stable nuclei. For the elementary radius r_e, the value 1.123 fm ( determined by Elton ) is used. As a result, gamma_e should be in the range 6-8 MeV, with the value 6.8 MeV being the most probable, thus beta_e=17.85 MeV. For sufficiently large values of the curvature tension ( e.g. gamma_e=13.4 MeV ), a small double-hump fission barrier occurs in the region of Ra.
Die Reform der Lehrerausbildung spielt in der aktuellen bildungspolitischen Diskussion eine wichtige Rolle. In der Auseinandersetzung um fachdidaktische Ausbildungsstandards und Kerncurricula werden von den Studierenden, neben fachlichen Fähigkeiten, Reflexions-, Kommunikations- und unterrichtsbezogene Handlungskompetenzen gefordert. In der Physik-lehrerausbildung der universitären Phase müssen Lernumgebungen zur Schulung dieser Kom-petenzen häufig erst noch geschaffen werden. Aus diesem Grund wird seit dem Wintersemester 2002/03 der Universität Frankfurt/M. eine Seminarreihe mit dem Charakter einer Lernwerkstatt angeboten, in der die Studierenden selbstorganisiert Unterrichtsmaterialien entwickeln. Von den Zielen, der Durchführung und den Ergebnissen dieses Projekts wird berichtet und ein Seminarkonzept in Kombination mit den schulpraktischen Studien vorgestellt.
We compare away-side hadron correlations with respect to tagged heavy quark jets computed within a weakly coupled pQCD and a strongly coupled AdS/CFT model. While both models feature similar far zone Mach and diffusion wakes, the far zone stress features are shown to be too weak to survive thermal broadening at hadron freeze-out. Observable away-side conical correlations are dominated by the jet-induced transverse flow in near zone “Neck” region, which differs significantly for both models. Unlike in AdS/CFT, the induced transverse flow in the Neck zone is too weak in pQCD to produce conical correlations after Cooper-Frye freeze-out. The observation of conical correlations violating Mach’s law would favor the strongly-coupled AdS/CFT string drag dynamics, while their absence would favor weakly-coupled pQCD-based hydrodynamics.
Malignant neoplasms are one of the top causes of death in all developed countries around the world and account for almost one quarter of all deaths. An individual cell based computational model with strong connections to the experimental data through lattice free, newtonian interaction could be used to validate experimental results and eventually make predictions guiding further experiments. This model was build as a part of the thesis and shall be extended to the modelling of the effects of ionic radition on the vascularised tumour as a possible treatment for inoperable tumours.
A novel experimental approach for studying exotic transitions in few-electron high-Z ions was developed. In this approach, few-electron ions with selectively produced single K-shell holes are used for the investigation of the transition modes that follow the decay of the excited ions. The feasibility of the developed approach was confirmed by an experimental study of the production of low-lying excited states in He-like uranium, produced by K-shell ionization of initially Li-like species. It was found that K-shell ionization is a very selective process that leads to the production of only two excited states, namely the 1s2s 21S0 and 1s2s 23S1. This high level of selectivity stays undisturbed by the rearrangement processes. These experimental findings can be explained using perturbation theory and an independent-particle model, and are a result of the very different impact parameter dependencies of K-shell ionization and L- intrashell excitation. The L-shell electron can be assumed to stay passive in the collision, whereas the K-shell electron is ionized. It was stressed that the current result might directly be applied to accurate studies of the two-photon decay in He-like ions. Up to now, the experimental challenge in conventional 2E1 experiments has been the photon-photon coincidence technique, which is required to separate the true 2E1 events from the x-ray background associated with single photon transitions. In contrast, by exploiting K-shell ionization, the spectral distribution of the two-photon decay could be obtained simply by a measurement of the photon emission, using only a single x-ray detector in coincidence with projectile ionization. One further particular advantage arises from the fact that the 1s2p 3P0 state is not populated, and does not contribute to the continuum distribution of the two-photon emission. At high Z, this state also undergoes a two-photon E1M1 decay, which would be indistinguishable from the 2E1 decay of the 1s2s 1S0. The first measurement of the two-photon energy distribution from the decay of 1s2s 1S0 level in He-like tin was performed by adopting the technique developed in this thesis. In this technique, excited He-like heavy ions were formed by K-shell ionization of initially Li-like species in collisions with a low-Z gas target, and x-ray spectra following the decay of the He-like ions were measured in coincidence with the up-charged tin ions. The observed intense production of the 2E1 transitions, and a very high level of selectivity, make this process particularly suited for the study of the two-photon continuum, and thus for a detailed investigation of the structure of high-Z He-like systems. The method allowed for a background-free measurement of the distribution of the two-photon decay (21S0 -> 11S0) in He-like tin. The measured distribution could also be discriminated from that of other He-like ions, and confirmed, for the first time, the fully relativistic calculations. In addition, the feasibility of the method was confirmed by studying another exotic transition, namely the two-electron one-photon transition (TEOP) in Li-like high-Z ions. An experimental investigation of the radiative decay modes of the 1s2s2 state in Li-like heavy ions has been started. In the first dedicated beam time at the ESR, selective population of this state via K-shell ionization of initially Be-like species was achieved. The x-rays produced in this process were measured by a multitude of x-ray detectors, each placed under different observation angles with respect to the ion beam direction. The spectra associated with projectile electron loss consist (in all cases) of one single x-ray transition, which was attributed to the TEOP decay to the 1s2 2p1/2 level, possibly contaminated by the M1 decay to the 1s22s. Thus it was proven that, by adopting the developed approach, one can indeed produce the desired initial state. This makes this method perfectly suited for studies of TEOP transitions in high-Z systems. An extension of this study, by the inclusion of an electron spectrometer, would also allow for measurements of the autoionization channel, which would provide complete information on the various decay modes of the 1s2s2 state.
The study of the electromagnetic structure of hadrons plays an important role in understanding the nature of matter. In particular the emission of lepton pairs out of the hot and dense collision zone in heavy-ion reactions is a promising probe to investigate in-medium properties of hadrons and in general the properties of matter under such extreme conditions. The first experimental observation of an enhanced di-electron yield in the invariant-mass region 0:3 - 0:7 GeV/c2 in p+Be collisions at 4:9 GeV/u beam energy [2] was announced by the DLS collaboration [1]. Recent results of the HADES collaboration show a moderate enhancement above n Dalitz decay contributions for 12C+12C at 1 and 2 GeV/u [3, 4] confirming the DLS results. There are several theoretical explanations of this observation, most of them focusing on possible in-medium modifications of the properties of vector mesons. At low beam energies the question whether the observed excess is related to any in-medium effects remains open because of uncertainties in the description of elementary di-electron sources. In this work the di-electron production in p+p and d+p reactions at a kinetic beam energy of 1:25 GeV/u measured by the HADES spectrometer is discussed. At Ekin = 1:25 GeV/u, i.e. below the n meson production threshold in proton-proton reactions, the delta Dalitz decay is expected to be the most abundant source above the pi 0 Dalitz decay region. The observed large difference in di-electron production in p+p and d+p collisions suggests that di-electron production in the d+p system is dominated by the n+p interaction. In order to separate delta Dalitz decays and np bremsstrahlung the di-electron yield observed in p+p and n+p reactions, both measured at the same beam energy, has been compared. The main interest here is the investigation of iso-spin effects in baryonic resonance excitations and the off-shell production of vector mesons [5]. We indeed observe a large difference in di-electron production in p+p and n+p reactions. Results of these studies will be compared to recent calculations. We will also present our experimentally defined cocktail for heavy-ion data. At much higher beam energies experimental results of the CERES [6] and NA60 [7] collaborations also show an enhancement in the invariant mass region 0:3 - 0:7 GeV/c2, in principle similar to the situation in DLS. A strong excess of lepton pairs observed by recent high energy heavy-ion dilepton experiments hint to a strong influence of baryons, however no data exist at highly compressed baryonic matter, achievable in heavy-ion collisions from 8 - 45 GeV/u beam energy. These conditions would allow to study the expected restoration of chiral symmetry by measuring in-medium modifications of hadronic properties, an experimental program which is foreseen by the future CBM experiment at FAIR. The experimental challenge is to suppress the large physical background on the one hand and to provide a clean identification of electrons on the other hand. In this work, strategies to reduce the combinatorial background in electron pair measurements with the CBM detector are discussed. The main goal is to study the feasibility of effectively reducing combinatorial background with the currently foreseen experimental setup, which does not provide electron identification in front of the magnetic field.
In der vorliegenden Arbeit wird ein schnelles Choppersystem für einen hochintensiven niederenergetischen Protonenstrahl untersucht. Das Choppersystem wird in der Niedrigenergiesektion (LEBT) der Frankfurter Neutronenquelle FRANZ eingesetzt. Der Treiberstrahl hat dort eine Energie von 120 keV und eine Intensität von bis zu 200 mA Protonen. Gefordert ist die Erzeugung eines gepulsten Strahls mit einem 50 bis 100 ns langen Pulsplateau und einer Wiederholrate von 250 kHz. Nach der Diskussion verschiedener Chopperkonzepte wird der Einsatz eines Kickersystems vorgeschlagen. Magnetische und elektrische Kicker werden im Hinblick auf Geometrie, Ablenkfelder, Strahldynamik, Emittanzwachstum, Leistungsbedarf sowie Betrieb im Schwingungs- oder im Pulsmodus untersucht. Die Realisierung des Choppersystems wird mit Hilfe von numerischen Simulationen und Vorexperimenten geprüft. Ein eigens dazu entwickelter Particle-in-cell (PIC)-Code wird vorgestellt. Er erlaubt die Simulation von Vielteilchen-Prozessen in zeitabhängigen Kickerfeldern unter Berücksichtigung der Effekte der Sekundärelektronen. Die Vorexperimente für die Ansteuerung des Kickers werden präsentiert. Für den magnetischen Kicker wurde eine niederinduktive Testspule und für den elektrischen Kicker ein Transformator bestehend aus einem nanokristallinen Ringbandkern aufgebaut. Abschließend werden die beiden Systeme miteinander verglichen. Ein magnetischer Kicker ist auch bei hohen Strahlintensitäten weniger anfällig für Strahlverluste und kann ohne die Gefahr von Spannungsdurchschlägen betrieben werden. Bei den geforderten hohen Wiederholraten ist jedoch der Leistungsbedarf nicht annehmbar, so dass im Ausblick die Weiterentwicklung eines elektrischen Kickersystems vorgeschlagen wird.