Refine
Year of publication
- 2009 (67) (remove)
Document Type
- Doctoral Thesis (31)
- Article (10)
- Conference Proceeding (7)
- Diploma Thesis (5)
- diplomthesis (5)
- Bachelor Thesis (4)
- Book (2)
- Part of Periodical (2)
- Review (1)
Has Fulltext
- yes (67)
Is part of the Bibliography
- no (67)
Keywords
- Theoretische Physik (3)
- Chirale Symmetrie (2)
- Quark-Gluon-Plasma (2)
- Relativistische Hydrodynamik (2)
- Schwerionenstoß (2)
- Strahldynamik (2)
- relativistic hydrodynamics (2)
- ATR-Spektroskopie (1)
- Abstandsinformation (1)
- Akupunktur (1)
Institute
- Physik (67) (remove)
Energy and environment are two major concerns in the 21st century. At present, the energy required for the daily life still mainly relies on the traditional fossil fuel resources, but the caused air pollution problem and greenhouse effect have seriously threatened the sustainable development of mankind. Another adopted energy source which can provide a large fraction of electricity for the world is the nuclear fission reaction. However, the increasing high-radioactive spent nuclear fuels, which half-lives are usually >1 million years, are becoming the hidden perils to the earth. A great advance in accelerator physics and technology opens an opportunity to solve this dilemma between man and nature, because powerful accelerator-based neutron sources can play important roles for clean nuclear power production, for example: - The Accelerator-Driven System (ADS) can serve as an easy control of a sub-critical fission reactor so that the nuclear fuels will be burnt more completely and safely. - The EUROTRANS project launched by EU is investigating another application of the ADS technology to reduce the radiotoxicity and the volume of the existing nuclear waste greatly and quickly in a transmutation way. - The developing international IFMIF plant will be used to test and qualify reactor materials for future fusion power stations, which can produce much cleaner nuclear electricity more efficiently than the fission ones. Therefore, the R&D of high-power driver linacs (HPDL) is of a worldwide importance. As the proverb said, "everything is hard at the beginning", the front end is the most difficult part for realizing an HPDL machine. Based on the RFQ and H-type DTL structures, this dissertation is dedicated to study the beam dynamics in the presence of significantly strong space-charge effects while accelerating intense hardon beams in the low- and medium-beta-region. Besides the 5mA/30mA, 17MeV proton injector (RFQ+DTL) and the 125mA, 40MeV deuteron DTL of the above-mentioned EUROTRANS and IFMIF facilities, a 200mA, 700keV proton RFQ has been also intensively studied for a small-scale but ultra-intense neutron source FRANZ planned at Frankfurt University. The most remarkable properties of the FRANZ RFQ and the IFMIF DTL are the design beam intensities, 200mA and 125mA, which are the record values for the proton and deuteron linacs, respectively. Though the design intensities for the two development stages, XT-ADS (5mA) and EFIT (30mA), of the EUROTRANS injector are well within the capability of the modern RF linac technology, the special design concept for an easy upgrade from XT-ADS to EFIT brings unusual challenges to realize a linac layout which allows flexible operation with different beam intensities. To design the 200mA FRANZ RFQ and the two-intensity EUROTRANS RFQ, the classic LANL (Los Alamos National Laboratory) Four-Section Procedure, which was developed by neglecting the space-charge forces, is not sufficient anymore. Abandoning the unreasonable constant- B (constant-transverse-focusing-strength) law and the resulting inefficient evolution manners of dynamics parameters adopted by the LANL method, a new design approach so-called "BABBLE", which can provide a "Balanced and Accelerated Beam Bunching at Low Energy", has been developed for intense beams. Being consistent with the beam-development process including space-charge effects, the main features of the "BABBLE" strategy (see Pages 55-58) are: 1) At the entrance, the synchronous phase is kept at = phi s = -90° while a gradual increase in the electrode modulation is started so that the input beam can firstly get a symmetrical and soft bunching within a full-360° phase acceptance. 2) In the following main bunching section, B is increasing to balance the stronger and stronger transverse defocusing effects induced by the decreasing bunch size so that the bunching speed can be fast and safely increased. 3) When the real acceleration starts, the quickly increased beam velocity will naturally weaken the transverse defocusing effects, so B is accordingly falling down to avoid longitudinal emittance growths and to allow larger bore apertures. Taking advantage of the gentle initial bunching and the accelerated main bunching under balanced forces enabled by the "BABBLE" strategy, a 2m-long RFQ with beam transmission in excess of 98% and low emittance growths has been designed for FRANZ, and a 4.3m-long RFQ with almost no beam losses and flat emittance evolutions at both 5mA and 30mA has been designed for EUROTRANS. All design results have proven that the "BABBLE" strategy is a general design approach leading to an efficient and robust RFQ with good beam quality in a wide intensity-range from 0mA to 200mA (even higher). To design the IFMIF DTL and the injector DTL part of the EUROTRANS driver linac, which have been foreseen as the first real applications of the novel superconducting CH-DTL structure, intensive attempts have been made to fulfill the design goals under the new conditions, e.g. long drift spaces, SC transverse focusing elements and high accelerating gradients. For the IFMIF DTL, the preliminary IAP design has been considerably improved with respect to the linac layout as well as the beam dynamics. By reserving sufficient drift spaces for the cryosystem, diagnostic devices, tuner and steerer, introducing SC solenoid lenses and adjusting the Linac Design for Intense Hadron Beams accelerating gradients and accordingly other configurations of the cavities (see Pages 78-80), a more realistic, reliable and efficient linac system has been designed. On the other hand, the specifications and positions of the transverse focusing elements (see Pages 81-82) as well as the phase- and energy-differences between the bunch-center particle and the synchronous particle at the beginning of the phi s=0° sections have been totally redesigned (see Pages 83-84) resulting in good beam performances in both radial and longitudinal planes. For the EUROTRANS injector DTL, in addition to the above-mentioned procedures, extra optimization concepts to coordinate the beam dynamics between two intensities, such as employing short adjustable rebunching cavities with phi s = -90° (see Page 116), have been applied. ...
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
In this thesis we have studied the physics of different ultracold Bose-Fermi mixtures in optical lattices, as well as spin 1=2 fermions in a harmonic trap. To study these systems we generalized dynamical mean-field theory for a mixture of fermions and bosons, as well as for an inhomogeneous environment. Generalized dynamical mean-field theory (GDMFT) is a method that describes a mixture of fermions and bosons. This method consists of Gutzwiller mean-field for the bosons, and dynamical mean-field theory for the fermions, which are coupled on-site by the Bose-Fermi density-density interaction and possibly a Feshbach term which converts a pair of up and down fermions into a molecule, i.e. a boson. We derived the self-consistency equations and showed that this method is well-controlled in the limit of high lattice coordination number z. We develop real-space dynamical mean-field theory for studying systems in an inhomogeneous environment, e.g. in a harmonic trap. The crucial difference compared to standard DMFT is that we are taking into account that different sites are not equivalent to each other and thus take into account the inhomogeneity of the system. Different sites are coupled by the real-space Dyson equation. ...
Es wurde eine neue Routine zur Berechnung der Raumladungskräfte basierend auf einer schnellen Fourier-Transformation entwickelt und in das Teilchensimulationsprogramm LORASR integriert. Dadurch werden einzelne oder bis zu mehreren 100 Simulationen im Batch-Modus mit je 1 Million Makroteilchen und akzeptablen Rechenzeiten ermöglicht. Die neue Raumladungsroutine wurde im Rahmen der Europäischen „High Intensity Pulsed Proton Injectors” (HIPPI) Kollaboration erfolgreich validiert. Dabei wurden verschiedene statische Vergleichstests der Poisson-Solver und schließlich Vergleichsrechnungen entlang des Alvarez-Beschleunigerabschnittes des GSI UNILAC durchgeführt. Darüber hinaus wurden Werkzeuge zum Aufprägen und zur Analyse von Maschinenfehlern entwickelt. Diese wurden erstmals für Fehlertoleranzstudien an der IH-Kavität des Heidelberger Therapiebeschleunigers, am Protonen-Linearbeschleuniger für das FAIR Projekt in Darmstadt sowie am Vorschlag eines supraleitenden CH-Beschleunigers für die “International Fusion Materials Irradiation Facility” (IFMIF) eingesetzt.
Induced charge computation
(2009)
One of the main aspects of statistical mechanics is that the properties of a thermodynamics state point do not depend on the choice of the statistical ensemble. It breaks down for small systems e.g. single molecules. Hence, the choice of the statistical ensemble is crucial for the interpretation of single molecule experiments, where the outcome of measurements depends on which variables or control parameters, are held fixed and which ones are allowed to fluctuate. Following this principle, this thesis investigates the thermodynamics of a single polymer pulling experiments within two different statistical ensembles. The scaling of the conjugate chain ensembles, the fixed end-to-end vector (Helmholtz) and the fixed applied force (Gibbs), are studied in depth. This thesis further investigates the ensemble equivalence for different force regimes and polymer-chain contour lengths. Using coarse-grained molecular dynamic simulations, i.e. Langevin dynamics, the simulations were found to complement the theoretical predictions for the scaling of ensemble difference of Gaussian chains in different force-regimes, giving special attention to the zero force regime. After constructing Helmholtz and Gibbs conjugate ensembles for a Gaussian chain, two different data sets of thermodynamic states on the force-extension plane, i.e. force-extension curves, were generated. The ensemble difference is computed for different polymer-chain lengths by using force-extension curves. The scaling of the ensemble difference versus relative polymer-chain length under different force regimes has been derived from the simulation data and compared to theoretical predictions. The results demonstrate that the Gaussian chain in the zero force limit generates nonequivalent ensembles, regardless of its equilibrium bond length and polymer-chain contour length. Moreover, if polymers are charged in confinement, coarse-graining is problematic, owing to dielectric interfaces. Hence, the effect of dielectric interfaces must be taken into account when describing physical systems such as ionic channels or biopolymers inside nanopores. It is shown that the effect of dielectrics is crucial for the dynamics of a biopolymer or an ion inside a nanopore. In the simulations, the feasibility of an efficient and accurate computation of electrostatic interactions in the presence of an arbitrarily shaped dielectric domain is challenging. Several solutions for this problem have been previously proposed in the literature such as a density functional approach, or transforming problem at hand into an algebraic problem ( Induced Charge Computation (ICC) ) and boundary element methods. Even though the essential concept is the same, which is to replace the dielectric interface with a polarization charge density, these approaches have been analyzed and the ICC algorithm has been implemented. A new superior boundary element method has been devised utilizing the force computation via the Particle-Particle Particle-Mesh (P3M) method for periodic geometries (ICCP3M). This method has been compared to the ICC algorithm, the algebraic solutions, and to density functional approaches. Extensive numerical tests against analytically tractable geometries have confirmed the correctness and applicability of developed and implemented algorithms, demonstrating that the ICCP3M is the fastest and the most versatile algorithm. Further optimization issues are also discussed in obtaining accurate induced charge densities. The potential of mean force (PMF) of DNA modelled on a coarsed-grain level inside a nanopore is investigated with and without the inclusion of dielectric effects. Despite the simplicity of the model, the dramatic effect of dielectric inclusions is clearly seen in the observed force profile.
We apply a coupled transport-hydrodynamics model to discuss the production of multi-strange meta-stable objects in Pb + Pb reactions at the FAIR facility. In addition to making predictions for yields of these particles we are able to calculate particle dependent rapidity and momentum distributions. We argue that the FAIR energy regime is the optimal place to search for multi-strange baryonic object (due to the high baryon density, favoring a distillation of strangeness). Additionally, we show results for strangeness and baryon density fluctuations. Using the UrQMD model we calculate the strangeness separation in phase space which might lead to an enhanced production of MEMOs compared to models that assume global thermalization.
The physics of interacting bosons in the phase with broken symmetry is determined by the presence of the condensate and is very different from the physics in the symmetric phase. The Functional Renormalization Group (FRG) represents a powerful investigation method which allows the description of symmetry breaking with high efficiency. In the present thesis we apply FRG for studying the physics of two different models in the broken symmetry phase. In the first part of this thesis we consider the classical O(1)-model close to the critical point of the second order phase transition. Employing a truncation scheme based on the relevance of coupling parameters we study the behavior of the RG-flow which is shown to be influenced by competition between two characteristic lengths of the system. We also calculate the momentum dependent self-energy and study its dependence on both length scales. In the second part we apply the FRG-formalism to systems of interacting bosons in the phase with spontaneously broken U(1)-symmetry in arbitrary spatial dimensions at zero temperature. We use a truncation scheme based on a new non-local potential approximation which satisfy both exact relations postulated by Hugenholtz and Pines, and Nepomnyashchy and Nepomnyashchy. We study the RG-flow of the model, discuss different scaling regimes, calculate the single-particle spectral density function of interacting bosons and extract both damping of quasi-particles and spectrum of elementary excitations from the latter.
Orts- und zeitaufgelöste Elektronendichte eines gepulsten induktiv gekoppelten Entladungsplasmas
(2009)
In der vorliegenden Bachelorarbeit wurde ein Modell für die räumlich und zeitlich aufgelöste Elektronendichteverteilung in einem gepulsten induktiv gekoppelten Plasma erstellt. Experimentell war es, bedingt durch den gepulsten Betrieb und die Wahl der Diagnostikmethode im Experiment „Prometheus“, nur möglich über die Zeit und den Ort gemittelte Elektronendichten zu messen.
Um nun den räumlichen Verlauf der Elektronendichte zu bestimmen, wurde die räumliche Elektronendichteverteilung durch eine ambipolare homogene Diffusion beschrieben. Die daraus resultierende Differentialgleichung wurde mithilfe von sphärischen Koordinaten unter Annahme von Azimutal- und Polarwinkelsymmetrie gelöst.
Der zeitliche Elektronendichteverlauf wurde durch die, für diesen Elektronendichtebereich gültige, Proportionalität zwischen elektrischer Leistung im Plasma und Elektronendichte berechnet. Die elektrische Leistung und deren zeitlicher Verlauf im Plasma ließ sich über ein Photodiodensignal im experimentellen Aufbau ermitteln.
Das so ermittelte Modell wurde auf die gemessenen integrierten Elektronendichten des Experiments „Prometheus“ angewendet. Durch das Modell ließ sich eine Aussage über die tatsächliche maximale Elektronendichte innerhalb des Entladungspulses treffen.