Refine
Year of publication
Document Type
- Article (1872)
- Preprint (1250)
- Doctoral Thesis (593)
- Conference Proceeding (248)
- diplomthesis (101)
- Bachelor Thesis (75)
- Master's Thesis (61)
- Contribution to a Periodical (46)
- Book (33)
- Diploma Thesis (33)
Keywords
- Kollisionen schwerer Ionen (47)
- heavy ion collisions (44)
- LHC (25)
- Quark-Gluon-Plasma (25)
- Heavy Ion Experiments (20)
- equation of state (19)
- quark-gluon plasma (19)
- Relativistic heavy-ion collisions (16)
- QCD (15)
- QGP (15)
Institute
- Physik (4407) (remove)
In den Neurowissenschaften führt die Erforschung des vegetativen Nervensystem (VNS) immer noch ein Schattendasein. Einer der wichtigsten Teile des VNS, der Hirnstamm, ist dabei besonders schlecht erforscht, obwohl er die Steuerzentren für Herzschlag, Blutdruckregulation, Atmung, Verdauung, und viele weitere lebenswichtige Funktionen beherbergt. Ein wichtiger Grund für diesen Umstand ist, dass die funktionelle Kernspintomographie (fMRT) sich in ihrer bisherigen Form nur bedingt für Messungen im Hirnstamm eignet. Ziel dieser Arbeit war es daher, neue Ansätze zur fMRT-Messung vegetativer Zentren im menschlichen Hirnstamm zu entwickeln. Nach einer Einführung in die Neuroanatomie sowie die physikalischen und physiologischen Grundlagen der strukturellen und funktionellen MRT werden im mittleren Teil der Arbeit die Entwicklung sowie der Test neuer Ansätze zur Hirnstamm-fMRT beschrieben. Dabei untersucht der Autor zunächst, welche grundlegenden Probleme einer konventionellen fMRT-Messung im Hirnstamm entgegenstehen. Es stellt sich heraus, dass alle hirnstamm-spezifischen Störquellen direkt oder indirekt auf den Herzschlag zurückzuführen sind. Aus den vorhandenen Ansätzen zur Korrektur solcher Störungen wird die Herzschlag-Taktung ausgewählt. Bei diesem Verfahren erfolgt die Aufnahme der fMRT-Bilder zeitlich gekoppelt an dem Herzschlag des Probanden, um sämtliche kardiogenen Rauschquellen zu unterdrücken. Anstelle des häufig verwendeten, aber statistisch problematischen Guimaraes-Verfahrens zur Korrektur der durch die Herzfrequenzvariabilität bedingten Schwankungen des MR-Signals wird in der vorliegenden Arbeit der die sog. Dual-Echo-Bildgebung verwendet. Dabei wird die konventionelle EPI-Sequenz (echo-planar imaging) dahingehend erweitert, dass pro Bild anstelle eines Echos zwei aufgenommen werden. Durch Quotientenbildung der beiden Bilder kann so der fluktuierende Teil des Signals entfernt werden. Beim Vergleich verschiedener Varianten der Quotientenbildung stellt sich ein neu entwickelter, exponentieller Ansatz als überlegen heraus. Danach werden die Auswirkungen verschiedener Methoden der Bewegungskorrektur und Schichtorientierung verglichen, um das Optimum für Messungen im Hirnstamm zu ermitteln. Nach Tests des neuen Verfahrens an verschiedenen fMRT-Datensätzen werden Empfehlungen für die Kombination der verschiedenen Parameter gegeben. Es zeigt sich, dass die Standardabweichung der fMRT-Bilder mit der neuen Methode im unteren Hirnstamm um 13% - 33% reduziert werden kann. Ein Sensitivitätstest an motorischen Hirnstammkernen, welche durch ein motorisches Paradigma aktiviert werden, zeigt, dass die jeweiligen Kerne in 85% - 95% der Fälle eindeutig identifiziert werden können. Im dritten Teil der Arbeit erfolgt die Anwendung der neuen Methode auf die Messung von Aktivierungen vegetativer Zentren. Hier wird als unkonventionellen Stimulus des vegetativen Nervensystems die Akupunktur verwendet. Dies geschieht u.a. mit der Zielsetzung, zur Aufdeckung des noch immer unbekannten Wirkmechanismus dieser Therapieform beizutragen. Als Akupunkturpunkt wird Pc6 am Handgelenk gewählt, da die Studienlage eindeutig dessen Effektivität bei der Behandlung von Übelkeit und Erbrechen sowie eine Beeinflussung der Magen-Peristaltik zeigt und die neuralen Zentren hierfür größtenteils im Hirnstamm lokalisiert sind. Der Autor stellt daher die Hypothese auf, dass die Akupunkturwirkung in diesem Fall über den Vagusnerv und dessen Hirnstammkern, den Nucleus dorsalis nervi vagi, vermittelt wird. Vor der Überprüfung dieser Hypothese erfolgt zunächst eine Methodenkritik der bisherigen Akupunktur-fMRT-Forschung. Anhand einer Gruppe von Studien, welche über Aktivierungen der Sehrinde bei Akupunktur visuell relevanter Punkte berichten, weist der Autor eine Reihe methodischer Probleme nach. Anhand einer eigenen Studie kann er mittels Independent Component Analysis (ICA) zeigen, dass die von den bisherigen Studien berichteten, visuellen Aktivierungen höchstwahrscheinlich nicht auf die Wirkung der Akupunktur zurückzuführen sind. Um einige der Probleme dieser Studien zu umgehen, entwickelt der Autor ein neues psychophysikalisches Verfahren, bei dem die Probanden während der Akupunktur kontinuierlich die Stärke der Nadelempfindung („DeQi“) auf einer visuellen Analogskala bewerten. Mit Hilfe dieses Verfahrens gelingt schließlich der Nachweis einer Hirnstamm-Aktivierung unter Akupunktur-Stimulation, deren Lokalisation mit der des Nucleus dorsalis nervi vagi vereinbar ist. Dies bestätigt die ursprüngliche Hypothese und zeigt gleichzeitig die Eignung des neuen Verfahrens für die Bildgebung vegetativer Hirnstammzentren.
Den Geheimnissen der Materie auf der Spur : neue Denkfabrik für physikalische Grundlagenforschung
(2009)
Bei Darmstadt entsteht FAIR, eines der größten internationalen Forschungszentren für Physik. Durch das von der Landesregierung geförderte Exzellenzzentrum »HIC for FAIR« erhält die Forschung in Hessen die einmalige Chance, sich direkt an globaler Spitzenforschung zu beteiligen: auf der Suche nach den letzten Geheimnissen der Materie.
In this thesis, we studied the single impurity Anderson model and developed a new and fast impurity solver for the dynamical mean field theory (DMFT). Using this new impurity solver, we studied the Hubbard model and periodic Anderson model for various parameters. This work is motivated by the fact that the dynamical mean field theory is widely used for the studies of strongly correlated systems, and the most frequently used methods, e.g. the quantum Monte-Carlo method (QMC), and the exact digonalization method are much CPU time consuming and usually limited by the available computers. Therefore, a fast and reliable impurity solver is needed. This new impurity solver was explored based on the equation-of-motion method (also called Green's function and decoupling method in some literature). Using the retarded Green's function, we first derived the equations of motion of Green's functions. Then, we employed a decoupling scheme to close the equations. By solving self-consistently the obtained closed set of integral equations, we obtained the single particle Green's function for the single impurity Anderson model. After that, the single impurity Anderson model was solved along with self-consistency conditions within the framework of DMFT. In this work, we studied and compared two decoupling schemes. Moreover, we also derived possible higher order approximations which will be tested in future work. Besides the theoretical work, we tested the method in numerical calculations. The integral equations are first solved by iterative methods with linear mixing and Broyden mixing, respectively. However, these two methods are not sufficient for finding the self-consistent solutions of the DMFT equations because converged results are difficult to obtain. Moreover, the computing speed of the two methods is also not satisfactory. Especially the iterative method with linear mixing costs always a lot of CPU time due to the required small mixing. Hence, we developed a new method, which is a combination of genetic algorithm and iterative method. This new method converges very fast and removes artifacts appearing in the results from the iterative method with linear and Broyden mixing. It can directly operate on the real axis, where no numerical error from the high frequency tail corrections and the analytical continuation is introduced. In addition, our new technique strongly improves the precision of the numerical results by removing the broadening. With this newly developed impurity solver and numerical technique, we studied the single impurity Anderson model, the single band Hubbard model and the periodic Anderson model with arbitrary spin and orbital degeneracy N on the real axis. For the single impurity Anderson model, the spectral functions are calculated for the infinite and finite Coulomb interaction strength. We also studied the spectral functions in dependence of the parameters of impurity position and hybridization. For the Hubbard model, we studied the bandwidth control and filling control Mott metal-insulator transition for spin and orbital degeneracy N = 2. It gives qualitatively the critical value of Coulomb interaction strength for the Mott metal-insulator transition, and the spectral functions which are comparable to those obtained in QMC and numerical renormalization group methods. We also studied the quasiparticle weight and the self-energy in metallic states. The latter shows almost Fermi liquid behavior. At last we calculated the densities of states for the Hubbard model with arbitrary spin and orbital degeneracy N. The periodic Anderson model (PAM) is also studied as another important lattice model. It was solved for various combinations of parameters: the Coulomb interaction strength, the impurity position, the center position of the conduction band, the hybridization, the spin and orbital degeneracy. The PAM results represents the physics of impurities in a metal. In short, our method works for the Hubbard model and the periodic Anderson model in a large range of parameters, and gives good results. Therefore, our impurity solver could be very useful in calculations within LDA+DMFT. Finally, we also made a preliminary investigation of the multi-band system based on the success in single band case. We first studied the two-band system in a simplified treatment by neglecting the interaction between the two bands through the bath. This has given promising numerical results for the two-band Hubbard model. Moreover, we have studied theoretically the two-band system with mean field approximation and Hubbard-I approximation in dealing with the higher order cross Green's functions which are related to both the two bands. In the mean field approximation, we even generalized the two-band system to arbitrary M=N/2 band system. Potential improvement can be carried out on the basis of this work.
The current thesis is devoted to a systematic study of fluctuations and correlations in heavy-ion collisions, which might be considered as probes for the phase transition and the critical point in the phase diagram, within the Hadron-String- Dynamics (HSD) microscopic transport approach. This is a powerful tool to study nucleus-nucleus collisions and allows to completely simulate experimental collisions on an event-by-event basis. Thus, the transport model has been used to study fluctuations and correlations including the influence of experimental acceptance as well as centrality, system size and collision energy. The comparison to experimental data can separate the effects induced by a phase transition since there is no phase transition in the HSD version used here. Firstly the centrality dependence of multiplicity fluctuations has been studied. Different centrality selections have been performed in the analysis in correspondence to the experimental situation. For the fixed target experiment NA49 events with fixed numbers of the projectile participants have been studied while in the collider experiment PHENIX centrality classes of events have been defined by the multiplicity in certain phase space region. A decrease of participant number fluctuations (and thus volume fluctuations) in more central collisions for both experiments has been obtained. Another area of this work addresses to transport model calculations of multiplicity fluctuations in nucleus-nucleus collisions as a function of colliding energy and system size. This study is in full correspondence to the experimental program of the NA61 Collaboration at the SPS. Central C+C, S+S, In+In, and Pb+Pb nuclear collisions at Elab = 10, 20, 30, 40, 80, 158 AGeV have been investigated. The expected enhanced fluctuations - attributed to the critical point and phase transition - can be observed experimentally on top of a monotonic and smooth ‘hadronic background’. These findings should be helpful for the optimal choice of collision systems and collision energies for the experimental search of the QCD critical point. Other observables are fluctuations of ratios of hadrons (e.g. pions, kaons, protons, etc.) which are not so much affected by volume fluctuations. In particular HSD results for the kaon-to-pion ratio fluctuations, which has been regarded as promising observable for a long time, are presented from low SPS energies up to high energies at RHIC. In addition to the HSD calculations statistical model is also used in terms of microcanonical, canonical and grand canonical ensembles. Further a study of the system size event-by-event fluctuations causing rapidity forward-backward correlations in relativistic heavy-ion collisions is presented. The HSD simulations reveal strong forward-backward correlations and reproduce the main qualitative features of the STAR data in A+A collisions at RHIC energies. It has been shown that strong forward-backward correlations arise due to an averaging over many different events that belong to one centrality bin. An optimization of the experimental selection of centrality classes is presented, which is relevant for the program of the NA61 collaboration at CERN, the low-energy program at RHIC, as well as future experiments at FAIR.
Kaon and pion production in centrality selected minimum bias Pb+Pb collisions at 40 and 158A GeV
(2009)
Results on charged kaon and negatively charged pion production and spectra for centrality selected Pb+Pb mininimum bias events at 40 and 158A GeV have been presented in this thesis. All analysis are based on data taken by the NA49 experiment at the accelerator Super Proton Synchrotron (SPS) at the European Organization for Nuclear Research (CERN) in Geneva, Switzerland. The kaon results are based on an analysis of the mean energy loss <dE/dx> of the charged particles traversing the detector gas of the time projection chambers (TPCs). The pion results are from an analysis of all negatively charged particles h- corrected for contributions from particle decays and secondary interactions. For the dE/dx analysis of charged kaons, main TPC tracks with a total momentum between 4 and 50 GeV have been analyzed in logarithmic momentum log(p) and transverse momentum pt bins. The resulting dE/dx spectra have been fitted by the sum of 5 Gaussians, one for each main particle type (electrons, pions, kaons, protons, deuterons). The amplitude of the Gaussian used for the kaon part of the spectra has been corrected for efficiency and acceptance and the binning has been transformed to rapidity y and transverse momentum pt bins. The multiplicity dN/dy of the single rapidity bins has been derived by summing the measured range of the transverse momentum spectra and an extrapolation to full coverage with a single exponential function fitted to the measured range. The results have been combined with the mid-rapidity measurements from the time-of-flight detectors and a double Gaussian fit to the dN/dy spectra has been used for extrapolation to rapidity outside of the acceptance of the dE/dx analysis. For the h- analysis of negatively charged pions, all negatively charged tracks have been analyzed. The background from secondary reactions, particle decays, and gamma-conversions has been corrected with the VENUS event generator. The results were also corrected for efficiency and acceptance and the pt spectra were analyzed and extrapolated where necessary to derive the mean yield per rapidity bin dN/dy. The mean multiplicity <pi-> has been derived by summing up the measured dN/dy and extrapolating the rapidity spectrum with a double Gaussian fit to 4pi coverage. The results have been discussed in detail and compared to various model calculations. Microscopical models like URQMD and HSD do not describe the full complexity of Pb+Pb collisions. Especially the production of the positively charged kaons, which carry the major part of strange quarks, cannot be consistently reproduced by the model calculations. Centrality selected minimum bias Pb+Pb collisions can be described as a mixture of a high-density region of multiply colliding nucleons (core) and practically independent nucleon-nucleon collisions (corona). This leads to a smooth evolution from peripheral to central collisions. A more detailed approach derives the ensemble volume from a percolation of elementary clusters. In the percolation model all clusters are formed from coalescing strings that are assumed to decay statistically with the volume dependence of canonical strangeness suppression. The percolation model describes the measured data for top SPS and RHIC energies. At 40A GeV, the system size dependence of the relative strangeness production starts to evolve from the saturation seen at higher energies from peripheral events onwards towards a linear dependence at SIS and AGS. This change of the dependence on system size occurs in the energy region of the observed maximum of the K+ to pi ratio for central Pb+Pb collisions. Future measurements with heavy ion beam energies around this maximum at RHIC and FAIR as well as the upgraded NA49 successor experiment NA61 will further improve our understanding of quark matter and its reflection in modern heavy ion physics and theories.
In dieser Arbeit wurden zwei Systeme der biologischen Energiewandlung mit verschiedenen spektroskopischen Methoden untersucht und es wurden neue Erkenntnisse über die Funktion und Aktivierung der Proteine Proteorhodopsin und RuBisCO gewonnen. Zusätzlich konnte eine neue methodische Herangehensweise zur Untersuchung von Carboxylierungsreaktionen etabliert werden. Dieser Ansatz bietet in Zukunft breite Anwendungsmöglichkeiten zur Studie dieser biologisch so bedeutenden Reaktionsklasse. Mit Hilfe der Infrarotspektroskopie und vor allem durch den Einsatz von Tieftemperaturmessungen konnte der bisher kontrovers diskutierte Photozyklus von Proteorhodopsin (PR) eingehend charakterisiert werden. Jenseits des gut verstandenen aktiven Transports bei pH 9,0 wurde vor allem der pH 5,1 Photozyklus untersucht. Erstmals konnte auch in Infrarotspektren das M-Intermediat bei pH 5,1 nachgewiesen werden. Dieses Intermediat ist von entscheidender Bedeutung für den aktiven Transport über die Zellmembran und seine Existenz wurde bisher vielfach angezweifelt. Zudem konnte Glu-108 als ein möglicher Protonenakzeptor des Photozyklus bei pH 5,1 identifiziert werden. Durch einen pH-Indikator ließ sich der Nachweis erbringen, dass auch im sauren pH-Bereich Protonen freigesetzt werden. Damit steht fest, dass ein aktiver Protonentransport bei pH 5,1 möglich ist. Zusammen mit Informationen zu protonierbaren Aminosäureseitenketten (vornehmlich Asp und Glu) lässt sich zudem mit Einschränkungen die These unterstützen, dass PR ober- und unterhalb des pKa-Werts von Asp-97 in verschiedene Richtungen Protonen pumpt. Damit ergibt sich ein differenziertes Bild für den pH-abhängigen Photozyklus von PR mit drei pH-Bereichen (pH 9,0, 8,5 bis 5,5 und 5,1) in denen PR unterschiedliche Protonentransportwege zeigt. Als weiteres biologischen System wurde RuBisCO genauer untersucht. Im Fokus der Arbeit war dabei die Aktivierung durch die Bildung eines Lysin-Carbamats im aktiven Zentrum. Obwohl RuBisCO das am häufigsten vorkommende Enzym unseres Planeten ist, in der Kohlenstofffixierung eine bedeutende Rolle spielt und obwohl mehrere Dutzend Kristallstrukturen existieren, gibt es noch immer genügend offene Fragen zur Aktivierung. Mit Hilfe eines Käfig-CO2 konnte die Carbamatbildung im Enzym direkt verfolgt und der Einfluss von Magnesiumionen auf die Aktivierung beobachtet werden. Damit ließ sich ganz klar ausschließen, dass Magnesium bereits für die Carbamatbildung erforderlich ist. Die Koordination von Mg2+ ist erst für die Endiol-Bildung im weiteren Reaktionszyklus essentiell. Zusätzlich wurde gezeigt, dass Azid eine Inhibierung des Enzyms durch die Konkurrenz mit CO2 um die Bindungsstelle auslöst, allerdings verdrängt CO2 das Azidion im Laufe der Zeit. Mit den Ergebnissen für RuBisCO konnte klar gezeigt werden, dass die Kombination aus Käfig-CO2 und Rapid-Scan IR-Spektroskopie ein völlig neues Feld für die Untersuchung von Carboxylierungsreaktionen eröffnet. Gerade die offenen Fragen zu Biotin bindenden Carboxylasen bieten ein breites Anwendungsgebiet für diese Methodik.
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
Starting from the first observation of the halo phenomenon 20 years ago, more and more neutron-rich light nuclei were observed. The study of unstable nuclear systems beyond the dripline is a relatively new branch of nuclear physics. In the present work, the results of an experiment at GSI (Darmstadt) with relativistic beams of the halo nuclei 8He, 11Li and 14Be with energies of 240, 280 and 305 MeV/nucleon, respectively, impinging on a liquid hydrogen target are discussed. Neutron/proton knockout reactions lead to the formation of unbound systems, followed by their immediate decay. The experimental setup, consisting of the neutron detector LAND, the dipole spectrometer ALADIN and different types of tracking detectors, allows the reconstruction of the momentum vectors of all reaction products measured in coincidence. The properties of unbound nuclei are investigated by reconstructing the relative-energy spectra as well as by studying the angular correlations between the reaction products. The observed systems are 9He, 10He, 10Li, 12Li and 13Li. The isotopes 12Li and 13Li are observed for the first time. They are produced in the 1H(14Be, 2pn)12Li and 1H(14Be, 2p)13Li knockout reactions. The obtained relative-energy spectrum of 12Li is described as a single virtual s-state with a scattering length of as = -22;13.7(1.6) fm. The spectrum of 13Li is interpreted as a resonance at an energy of Er = 1.47(13) MeV and a width of Gamma ~ 2 MeV superimposed on a broad correlated background distribution. The isotope 10Li is observed after one-neutron knockout from the halo nucleus 11Li. The obtained relative-energy spectrum is described by a low-lying virtual s-state with a scattering length as = -22.4(4.8) fm and a p-wave resonance with Er = 0.566(14) MeV and Gamma = 0.548(30) MeV, in agreement with previous experiments. The observation of the nucleus 8He in coincidence with one or two neutrons, as a result of proton knockout from 11Li, allows to reconstruct the relative-energy spectra for the heavy helium isotopes, 9He and 10He. The low-energy part of the 9He spectrum is described by a virtual s-state with a scattering length as = -3.16(78) fm. In addition, two resonance states with l 6= 0 at energies of 1.33(8) and 2.4 MeV are observed. For the 10He spectrum, two interpretations are possible. It can be interpreted as a superposition of a narrow resonance at 1.42(10) MeV and a broad correlated background distribution. Alternatively, the spectrum is being well described by two resonances at energies of 1.54(11) and 3.99(26) MeV. Additionally, three-body energy and angular correlations in 10He and 13Li nuclei at the region of the ground state (0 < ECnn < 3 MeV) are studied, providing information about structure of these unbound nuclear systems.
This thesis is devoted to the developement of a classical model for the study of the energetics and stability of carbon nanotubes. The motivation behind such a model stems from the fact that production of nanotubes in a well-controlled manner requires a detailed understanding of their energetics. In order to study this different theoretical approaches are possible, ranging from the computationally expensive quantum mechanical first principle methods to the relatively simple classical models. A wisely developed classical model has the advantage that it could be used for systems of any possible size while still producing reasonable results. The model developed in this thesis is based on the well-known liquid drop model without the volume term and hence we call it liquid surface model. Based on the assumption that the energy of a nanotube can be expressed in terms of its geometrical parameters like surface area, curvature and shape of the edge, liquid surface model is able to predict the binding energy of nanotubes of any chirality once the total energy and the chiral indices of it are known. The model is suggested for open end and capped nanotubes and it is shown that the energy of capped nanotubes is determined by five physical parameters, while for the open end nanotubes three parameters are sufficient. The parameters of the liquid surface model are determined from the calculations performed with the use of empirical Tersoff and Brenner potentials and the accuracy of the model is analysed. It is shown that the liquid surface model can predict the binding energy per atom for capped nanotubes with relative error below 0.3% from that calculated using Brenner potential, corresponding to the absolute energy difference being less than 0.01 eV. The influence of the catalytic nanoparticle on top of which a nanotube grows, on the nanotube energetics is also discussed. It is demonstrated that the presence of catalytic nanoparticle changes the binding energy per atom in such a way that if the interaction of a nanotube with the catalytic nanoparticle is weak then attachment of an additional atom to a nanotube is an energetically favourable process, while if the catalytic nanoparticle nanotube interaction is strong , it becomes energetically more favourable for the nanotube to collapse. The suggested model gives important insights in the energetics and stability of nanotubes of different chiralities and is an important step towards the understanding of nanotube growth process. Young modulus and curvature constant are calculated for single-wall carbon nanotubes from the paremeters of the liquid surface model and demonstrated that the obtained values are in agreement with the values reported earlier both theoretically and experimentally. The calculated Young modulus and the curvature constant were used to conclude about the accuracy of the Tersoff and Brenner potentials. Since the parameters of the liquid surface model are obtained from the Tersoff and Brenner potential calculations, the agreement of elastic properties derived from these parameters corresponds to the fact that both potentials are capable of describing the elastic properties of nanotubes. Finally, the thesis discuss the possible extension of the model to various systems of interest.
This thesis investigates the jet-medium interactions in a Quark-Gluon Plasma using a hydrodynamical model. Such a Quark-Gluon Plasma represents a very early stage of our universe and is assumed to be created in heavy-ion collisions. Its properties are subject of current research. Since the comparison of measured data to model calculations suggests that the Quark-Gluon Plasma behaves like a nearly perfect liquid, the medium created in a heavy-ion collision can be described applying hydrodynamical simulations. One of the crucial questions in this context is if highly energetic particles (so-called jets), which are produced at the beginning of the collision and traverse the formed medium, may lead to the creation of a Mach cone. Such a Mach cone is always expected to develop if a jet moves with a velocity larger than the speed of sound relative to the medium. In that case, the measured angular particle distributions are supposed to exhibit a characteristic structure allowing for direct conclusions about the Equation of State and in particular about the speed of sound of the medium. Several different scenarios of jet energy loss are examined (the exact form of which is not known from first principles) and different mechanisms of energy and momentum loss are analyzed, ranging from weak interactions (based on calculations from perturbative Quantum Chromodynamics, pQCD) to strong interactions (formulated using the Anti-de-Sitter/Conformal Field Theory Correspondence, AdS/CFT). Though they result in different angular particle correlations which could in principle allow to distinguish the underlying processes (if it becomes possible to analyze single-jet events), it is shown that the characteristic structure observed in experimental data can be obtained due to the different contributions of several possible jet trajectories through an expanding medium. Such a structure cannot directly be connected to the Equation of State. In this context, the impact of a strong flow created behind the jet is examined which is common to almost all jet deposition scenarios. Besides that, the transport equations for dissipative hydrodynamics are discussed which are fundamental for any numerical computation of viscous effects in a Quark-Gluon Plasma.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
The surface tension sigma and the surface density thickness t of nuclear matter have been calculated in the Fermi-gas model, the nucleons moving in a self-made shell model potential with a realistic slope and velocity dependence ( parameters alpha and beta ). One gets the experimental values for sigma and t with alpha and beta agreeing with earlier data.
Theoretical studies in the shell model have led to the conclusion that the shape dependence of the liquid-drop part of the semi-empirical mass formula of the Weizsaecker-Bethe type should contain terms proportional to the volume, the surface, and the mean-total curvature of the surface of the drop, respectively. Now the surface tension beta_e and the curvature tension gamma_e are fitted to the experimentally known fission barriers of 35 nuclei. Furthermore, the parameters of the liquid-drop part of the mass formula are roughly fitted to the ground-state masses of about 600 beta-stable nuclei. For the elementary radius r_e, the value 1.123 fm ( determined by Elton ) is used. As a result, gamma_e should be in the range 6-8 MeV, with the value 6.8 MeV being the most probable, thus beta_e=17.85 MeV. For sufficiently large values of the curvature tension ( e.g. gamma_e=13.4 MeV ), a small double-hump fission barrier occurs in the region of Ra.
Die Reform der Lehrerausbildung spielt in der aktuellen bildungspolitischen Diskussion eine wichtige Rolle. In der Auseinandersetzung um fachdidaktische Ausbildungsstandards und Kerncurricula werden von den Studierenden, neben fachlichen Fähigkeiten, Reflexions-, Kommunikations- und unterrichtsbezogene Handlungskompetenzen gefordert. In der Physik-lehrerausbildung der universitären Phase müssen Lernumgebungen zur Schulung dieser Kom-petenzen häufig erst noch geschaffen werden. Aus diesem Grund wird seit dem Wintersemester 2002/03 der Universität Frankfurt/M. eine Seminarreihe mit dem Charakter einer Lernwerkstatt angeboten, in der die Studierenden selbstorganisiert Unterrichtsmaterialien entwickeln. Von den Zielen, der Durchführung und den Ergebnissen dieses Projekts wird berichtet und ein Seminarkonzept in Kombination mit den schulpraktischen Studien vorgestellt.
We compare away-side hadron correlations with respect to tagged heavy quark jets computed within a weakly coupled pQCD and a strongly coupled AdS/CFT model. While both models feature similar far zone Mach and diffusion wakes, the far zone stress features are shown to be too weak to survive thermal broadening at hadron freeze-out. Observable away-side conical correlations are dominated by the jet-induced transverse flow in near zone “Neck” region, which differs significantly for both models. Unlike in AdS/CFT, the induced transverse flow in the Neck zone is too weak in pQCD to produce conical correlations after Cooper-Frye freeze-out. The observation of conical correlations violating Mach’s law would favor the strongly-coupled AdS/CFT string drag dynamics, while their absence would favor weakly-coupled pQCD-based hydrodynamics.
Malignant neoplasms are one of the top causes of death in all developed countries around the world and account for almost one quarter of all deaths. An individual cell based computational model with strong connections to the experimental data through lattice free, newtonian interaction could be used to validate experimental results and eventually make predictions guiding further experiments. This model was build as a part of the thesis and shall be extended to the modelling of the effects of ionic radition on the vascularised tumour as a possible treatment for inoperable tumours.
A novel experimental approach for studying exotic transitions in few-electron high-Z ions was developed. In this approach, few-electron ions with selectively produced single K-shell holes are used for the investigation of the transition modes that follow the decay of the excited ions. The feasibility of the developed approach was confirmed by an experimental study of the production of low-lying excited states in He-like uranium, produced by K-shell ionization of initially Li-like species. It was found that K-shell ionization is a very selective process that leads to the production of only two excited states, namely the 1s2s 21S0 and 1s2s 23S1. This high level of selectivity stays undisturbed by the rearrangement processes. These experimental findings can be explained using perturbation theory and an independent-particle model, and are a result of the very different impact parameter dependencies of K-shell ionization and L- intrashell excitation. The L-shell electron can be assumed to stay passive in the collision, whereas the K-shell electron is ionized. It was stressed that the current result might directly be applied to accurate studies of the two-photon decay in He-like ions. Up to now, the experimental challenge in conventional 2E1 experiments has been the photon-photon coincidence technique, which is required to separate the true 2E1 events from the x-ray background associated with single photon transitions. In contrast, by exploiting K-shell ionization, the spectral distribution of the two-photon decay could be obtained simply by a measurement of the photon emission, using only a single x-ray detector in coincidence with projectile ionization. One further particular advantage arises from the fact that the 1s2p 3P0 state is not populated, and does not contribute to the continuum distribution of the two-photon emission. At high Z, this state also undergoes a two-photon E1M1 decay, which would be indistinguishable from the 2E1 decay of the 1s2s 1S0. The first measurement of the two-photon energy distribution from the decay of 1s2s 1S0 level in He-like tin was performed by adopting the technique developed in this thesis. In this technique, excited He-like heavy ions were formed by K-shell ionization of initially Li-like species in collisions with a low-Z gas target, and x-ray spectra following the decay of the He-like ions were measured in coincidence with the up-charged tin ions. The observed intense production of the 2E1 transitions, and a very high level of selectivity, make this process particularly suited for the study of the two-photon continuum, and thus for a detailed investigation of the structure of high-Z He-like systems. The method allowed for a background-free measurement of the distribution of the two-photon decay (21S0 -> 11S0) in He-like tin. The measured distribution could also be discriminated from that of other He-like ions, and confirmed, for the first time, the fully relativistic calculations. In addition, the feasibility of the method was confirmed by studying another exotic transition, namely the two-electron one-photon transition (TEOP) in Li-like high-Z ions. An experimental investigation of the radiative decay modes of the 1s2s2 state in Li-like heavy ions has been started. In the first dedicated beam time at the ESR, selective population of this state via K-shell ionization of initially Be-like species was achieved. The x-rays produced in this process were measured by a multitude of x-ray detectors, each placed under different observation angles with respect to the ion beam direction. The spectra associated with projectile electron loss consist (in all cases) of one single x-ray transition, which was attributed to the TEOP decay to the 1s2 2p1/2 level, possibly contaminated by the M1 decay to the 1s22s. Thus it was proven that, by adopting the developed approach, one can indeed produce the desired initial state. This makes this method perfectly suited for studies of TEOP transitions in high-Z systems. An extension of this study, by the inclusion of an electron spectrometer, would also allow for measurements of the autoionization channel, which would provide complete information on the various decay modes of the 1s2s2 state.
The study of the electromagnetic structure of hadrons plays an important role in understanding the nature of matter. In particular the emission of lepton pairs out of the hot and dense collision zone in heavy-ion reactions is a promising probe to investigate in-medium properties of hadrons and in general the properties of matter under such extreme conditions. The first experimental observation of an enhanced di-electron yield in the invariant-mass region 0:3 - 0:7 GeV/c2 in p+Be collisions at 4:9 GeV/u beam energy [2] was announced by the DLS collaboration [1]. Recent results of the HADES collaboration show a moderate enhancement above n Dalitz decay contributions for 12C+12C at 1 and 2 GeV/u [3, 4] confirming the DLS results. There are several theoretical explanations of this observation, most of them focusing on possible in-medium modifications of the properties of vector mesons. At low beam energies the question whether the observed excess is related to any in-medium effects remains open because of uncertainties in the description of elementary di-electron sources. In this work the di-electron production in p+p and d+p reactions at a kinetic beam energy of 1:25 GeV/u measured by the HADES spectrometer is discussed. At Ekin = 1:25 GeV/u, i.e. below the n meson production threshold in proton-proton reactions, the delta Dalitz decay is expected to be the most abundant source above the pi 0 Dalitz decay region. The observed large difference in di-electron production in p+p and d+p collisions suggests that di-electron production in the d+p system is dominated by the n+p interaction. In order to separate delta Dalitz decays and np bremsstrahlung the di-electron yield observed in p+p and n+p reactions, both measured at the same beam energy, has been compared. The main interest here is the investigation of iso-spin effects in baryonic resonance excitations and the off-shell production of vector mesons [5]. We indeed observe a large difference in di-electron production in p+p and n+p reactions. Results of these studies will be compared to recent calculations. We will also present our experimentally defined cocktail for heavy-ion data. At much higher beam energies experimental results of the CERES [6] and NA60 [7] collaborations also show an enhancement in the invariant mass region 0:3 - 0:7 GeV/c2, in principle similar to the situation in DLS. A strong excess of lepton pairs observed by recent high energy heavy-ion dilepton experiments hint to a strong influence of baryons, however no data exist at highly compressed baryonic matter, achievable in heavy-ion collisions from 8 - 45 GeV/u beam energy. These conditions would allow to study the expected restoration of chiral symmetry by measuring in-medium modifications of hadronic properties, an experimental program which is foreseen by the future CBM experiment at FAIR. The experimental challenge is to suppress the large physical background on the one hand and to provide a clean identification of electrons on the other hand. In this work, strategies to reduce the combinatorial background in electron pair measurements with the CBM detector are discussed. The main goal is to study the feasibility of effectively reducing combinatorial background with the currently foreseen experimental setup, which does not provide electron identification in front of the magnetic field.
In der vorliegenden Arbeit wird ein schnelles Choppersystem für einen hochintensiven niederenergetischen Protonenstrahl untersucht. Das Choppersystem wird in der Niedrigenergiesektion (LEBT) der Frankfurter Neutronenquelle FRANZ eingesetzt. Der Treiberstrahl hat dort eine Energie von 120 keV und eine Intensität von bis zu 200 mA Protonen. Gefordert ist die Erzeugung eines gepulsten Strahls mit einem 50 bis 100 ns langen Pulsplateau und einer Wiederholrate von 250 kHz. Nach der Diskussion verschiedener Chopperkonzepte wird der Einsatz eines Kickersystems vorgeschlagen. Magnetische und elektrische Kicker werden im Hinblick auf Geometrie, Ablenkfelder, Strahldynamik, Emittanzwachstum, Leistungsbedarf sowie Betrieb im Schwingungs- oder im Pulsmodus untersucht. Die Realisierung des Choppersystems wird mit Hilfe von numerischen Simulationen und Vorexperimenten geprüft. Ein eigens dazu entwickelter Particle-in-cell (PIC)-Code wird vorgestellt. Er erlaubt die Simulation von Vielteilchen-Prozessen in zeitabhängigen Kickerfeldern unter Berücksichtigung der Effekte der Sekundärelektronen. Die Vorexperimente für die Ansteuerung des Kickers werden präsentiert. Für den magnetischen Kicker wurde eine niederinduktive Testspule und für den elektrischen Kicker ein Transformator bestehend aus einem nanokristallinen Ringbandkern aufgebaut. Abschließend werden die beiden Systeme miteinander verglichen. Ein magnetischer Kicker ist auch bei hohen Strahlintensitäten weniger anfällig für Strahlverluste und kann ohne die Gefahr von Spannungsdurchschlägen betrieben werden. Bei den geforderten hohen Wiederholraten ist jedoch der Leistungsbedarf nicht annehmbar, so dass im Ausblick die Weiterentwicklung eines elektrischen Kickersystems vorgeschlagen wird.
Background: In this interdisciplinary project, the biological effects of heavy ions are compared to those of X-rays using tissue slice culture preparations from rodents and humans. Advantages of this biological model are the conservation of an organotypic environment and the independency from genetic immortalization strategies used to generate cell lines. Its open access allows easy treatment and observation via live-imaging microscopy. Materials and methods: Rat brains and human brain tumor tissue are cut into 300 micro m thick tissue slices. These slices are cultivated using a membrane-based culture system and kept in an incubator at 37°C until treatment. The slices are treated with X-rays at the radiation facility of the University Hospital in Frankfurt at doses of up to 40 Gy. The heavy ion irradiations were performed at the UNILAC facility at GSI with different ions of 11.4 A MeV and fluences ranging from 0.5–10 x 106 particles/cm². Using 3D-confocal microscopy, cell-death and immune cell activation of the irradiated slices are analyzed. Planning of the irradiation experiments is done with simulation programs developed at GSI and FIAS. Results: After receiving a single application of either X-rays or heavy ions, slices were kept in culture for up to 9d post irradiation. DNA damage was visualized using gamma H2AXstaining. Here, a dose-dependent increase and time-dependent decrease could clearly be observed for the X-ray irradiation. Slices irradiated with heavy ions showed less gamma H2AX-positive cells distributed evenly throughout the slice, even though particles were calculated to penetrate only 90–100 micro m into the slice. Conclusions: Single irradiations of brain tissue, even at high doses of 40 Gy, will result neither in tissue damage visible on a macroscopic level nor necrosis. This is in line with the view that the brain is highly radio-resistant. However, DNA damage can be detected very well in tissue slices using gamma H2AX-immuno staining. Thus, slice cultures are an excellent tool to study radiation-induced damage and repair mechanisms in living tissues.
Recent results of the NA49 collaboration are presented. Transverse mass spectra as well as total multiplicities of identified particles are discussed. The study of their evolution from AGS over SPS to the highest RHIC energy reveals a couple of interesting features. These include a sudden change in the energy dependence of the mt-spectra and of the yields of strange hadrons around 30A GeV. Additionally, new results on particle production at high-pt for Pb+Pb collsions at 158A GeV, as well as on the v2 of L, are discussed.
We study the line shapes of radiative φ-decays with a direct coupling of the φ meson to the f0(980) and a0(980) scalar mesons. The latter couple via derivative interactions to π0π0 and π0η, respectively. Although the kaon-loop mechanism is usually regarded as the dominant mechanism in radiative φ decays, here we test a different possibility: we set the kaon-loop to zero and we fit the theoretical curves to the data by retaining only the direct coupling. Remarkably, satisfactory fits can be achieved, mainly due to the effects of derivative interactions of scalar with pseudoscalar mesons.
There is little doubt that Quantumchromodynamics (QCD) is the theory which describes strong interaction physics. Lattice gauge simulations of QCD predict that in the m,T plane there is a line where a transition from confined hadronic matter to deconfined quarks takes place. The transition is either a cross over (at low m) or of first order (at high m). It is the goal of the present and future heavy ion experiment at RHIC and FAIR to study this phase transition at different locations in the m,T plane and to explore the properties of the deconfined phase. It is the purpose of this contribution to discuss some of the observables which are considered as useful for this purpose.
The mechanism by which the enzyme pyruvate decarboxylase from yeast is activated allosterically has been elucidated. A total of seven three-dimensional structures of the enzyme, of enzyme variants or of enzyme complexes from two yeast species (three of them reported here for the first time) provide detailed atomic resolution snapshots along the activation coordinate. The prime event is the covalent binding of the substrate pyruvate to the side chain of cysteine 221, thus forming a thiohemiketal. This reaction causes the shift of a neighbouring amino acid, which eventually leads to the rigidification of two otherwise flexible loops, where one of the loops provides two histidine residues necessary to complete the enzymatically competent active site architecture. The structural data are complemented and supported by kinetic investigations and binding studies and provide a consistent picture of the structural changes, which occur upon enzyme activation.
In this work we study the properties of quarkonium states in a quark-gluon plasma which, due to expansion and non-zero viscosity, exhibits a local anisotropy in momentum space. We determine the hard-loop resummed gluon propagator in an anisotropic QCD plasma in general linear gauges and define a potential between heavy quarks from the Fourier transform of its static limit. This potential which arises due to one-gluon exchange describes the force between a quark and anti-quark at short distances. It is closer to the vacuum potential as compared to the isotropic Debye screened potential which indicates the reduced screening in an anisotropic QCD plasma. In addition, angular dependence appears in the potential; we find that there is stronger attraction on distance scales on the order of the inverse Debye mass for quark pairs aligned along the direction of anisotropy than for transverse alignment. The potential at long distances, however, is non-perturbative and modeled as a QCD string which is screened at the same scale as the Coulomb field. At asymptotic separation the potential energy is non-zero and inversely proportional to the temperature. With a phenomenological potential model which incorporates the different behaviors at short and long distances, we solve the three-dimensional Schrödinger equation. Our numerical results show that quarkonium binding is stronger at non-vanishing viscosity and expansion rate, and that the anisotropy leads to polarization of the P-wave states. Furthermore, we determine viscosity corrections to the imaginary part of the heavyquark potential in the weak-coupling hard-loop approximation. The imaginary part is found to be smaller (in magnitude) than at vanishing viscosity. This implies a smaller decay width of quarkonium bound states in an anisotropic plasma.
Poster presentation: The brain is autonomously active and this self-sustained neural activity is in general modulated, but not driven, by the sensory input data stream [1,2]. Traditionally one has regarded this eigendynamics as resulting from inter-modular recurrent neural activity [3]. Understanding the basic modules for cognitive computation is, in this view, the primary focus of research and the overall neural dynamics would be determined by the the topology of the intermodular pathways. Here we examine an alternative point of view, asking whether certain aspects of the neural eigendynamics have a central functional role for overall cognitive computation [4,5]. Transiently stable neural activity is regularly observed on the cognitive time-scale of 80–100 ms, with indications that neural competition [6] plays an important role in the selection of the transiently stable neural ensembles [7], also denoted winning coalitions [8]. We report on a theory approach which implements these two principles, transient-state dynamics and neural competition, in terms of an associative neural network with clique encoding [9]. A cognitive system [10] with a non-trivial internal eigendynamics has two seemingly contrasting tasks to fulfill. The internal processes need to be regular and not chaotic on one side, but sensitive to the afferent sensory stimuli on the other side. We show, that these two contrasting demands can be reconciled within our approach based on competitive transient-state dynamics, when allowing the sensory stimuli to modulate the competition for the next winning coalition. By testing the system with the bars problem, we find an emerging cognitive capability. Only based on the two basic architectural principles, neural competition and transient-state dynamics, with no explicit algorithmic encoding, the system performs on its own a non-linear independent component analysis of input data stream. The system has rudimentary biological features. All learning is local Hebbian-style, unsupervised and online. It exhibits an ever-ongoing eigendynamics and at no time is the state or the value of synaptic strengths reset or the system restarted; there is no separation between training and performance. We believe that this kind of approach – cognitive computation with autonomously active neural networks – to be an emerging field, relevant both for system neuroscience and synthetic cognitive systems.
In this thesis we report on the high pressure synthesis, crystal growth, structural characterisation and magnetic properties of the cubic vanadate pyrochlores A2V2O7 (with A = Y, Er and Dy). We have found that high pressure is requisite for the stabilization of the selected compounds. For this purpose, a multianvil high pressure apparatus was built in our laboratory and a new multianvil inset (i.e., a ceramic pressure medium and the interior parts) was developed. The multianvil press is based on a hydraulic press with a maximum force of 7.73 MN (corresponds to 788 tons), a Walker type module and a specially designed hydraulic and electric control. Pressure calibration of the multianvil setup was performed by high pressure fixed points (i.e. solid-solid transformation of Bi I-II (2.55 GPa) and Bi II-III (3.15 GPa)). A maximum pressure of 6 GPa was attained using hardened metal anvils (tungsten carbide) with truncation edge length (TEL) of 14 mm and a sample volume of ~ 70 mm3. Heating of the sample in our current multianvil setup (TEL = 14 mm) was achieved by resistive heating of a graphite furnace. Temperatures up to 1500 °C could be obtained at pressures up to 6 GPa. By systematic variation of the synthesis conditions (for instance the operation temperature or the choice of the crucible material) under high pressure and taking into account the well known ternary compounds, when accessing the phase diagram, the cubic vanadate pyrochlores A2V2O7 (with A = Y, Er and Dy) were synthesized successfully. It was found that the oxygen partial pressure is crucial for the formation of the desired pyrochlore phase. Gas-tight platinum crucibles were used as container material for the synthesis of the vanadate pyrochlores. We have investigated, that pressures of the order of 5.0 GPa and temperatures of approximately 1200 °C are necessary for the stabilization of the monophasic samples of the vanadate pyrochlores. Lu2V2O7 could be synthesized under ambient pressure conditions and is used in our studies for comparison purposes. A special graphite furnace was developed for the high pressure crystal growth of the vanadate pyrochlores. For the first time, A2V2O7 (with A = Y, Er and Dy) single crystals with a maximum size of 0.4 mm were grown by using the grain growth method at high pressure and high temperature conditions. The samples (i.e., powders and single crystals) were characterised by single crystal Xray diffraction, X-ray powder diffraction method, Laue method and scanning electron microscopy (SEM). Complementary to the X-ray diffraction methods, infrared absorsoption spectroscopy was used to distinguish between the fluorite and pyrochlore structure. It has been shown that all samples crystallize in a well-ordered cubic structure with the space group F d 3m. The vanadium (+4) content in the samples was determined by oxidative weight gain in air using a thermogravimetric (TG) balance. A structural phase transformation of cubic to tetragonal was observed by differential thermal analysis (DTA) in conjunction with high temperature diffractometry. The magnetic characterisation of the vanadate pyrochlores A2V2O7 (Y, Lu, Er and Dy) was performed by Katarina Removic-Langer in the laboratory of Prof. Dr. M. Lang. All materials studied are ferromagnetic. The ferromagnetic critical temperatures are between 70 and 73 K. In case of Er2V2O7 and Dy2V2O7 an additional increase in the magnetization was observed below 20 K. The increase in the magnetization below 20 K exhibited by Er2V2O7 and Dy2V2O7 originates from the interactions between the two magnetic sublattices (i.e., the rare earth- and the vanadium sublattice).
The paper will focus on the early texts of Galileo Galilei (1613~1623) and Daniel Bernoulli (1738) as examples of pure combinatorical analysis and perspectively considerations within the mathematical discipline of probability theory. It is argued that Bernoulli's approach needed to be developed further in order to achieve a successful and satisfactory theory of risk. In modern economy the need for a proper definition of a notion of risk is seen and currently discussed within the frame of ISO standards. But as already mentioned this interest is mainly owed to the governmental demands of the Basel II and Solvency standards and therefore an external demand. On the other hand an intrinsic understanding of the meaning of risk, as could be provided by a conclusive theory, could lead to a better success in modelling various risks and help to achieve better prognosis.
In the framework of this thesis the intense low energy ion beam transport was investigated. Especially, the beam transport in toroidal magnetic field configurations was discussed, as it may allow the accumulation of high intensive beams in the future. One of the specific tasks is to design an injection system that can be used for the proposed low energy accumulator ring. This thesis regarding beam transport investigations is related to the larger research fields, storage rings used in accelerator physics and non-neutral plasmas. The proposal of building a storage ring with longitudinal guiding magnetic fields was made. Due to natural transversal focussing in magnetic fields it is possible to accumulate very intense charged particle beams, a subject of interest within the physics community. A simulation code (TBT) was written to describe the particle motion in curved segments. Particle in Cell techniques were utilized to simulate a multi particle dynamics. This code allows the user to generate different particle distributions as input parameter. A possibility of reading an external data file was made available so that a measured distribution can be used to compare simulation results with measured ones. A second order cloud in cell method was used to calculate charge density and in turn to solve Poisson’s equation. The circular toroidal coordinate system was used. The drift motion and gyrating motion was proved to be consistent with analytical values. Further simulations were performed to study the self field effects on beam transport. The experiments with single toroidal segments find niche in the work. The experiments were performed to compare the simulation results and gain practical experience. The toroidal segment has similar dimensions (major axis R = 1:3 m, minor axis r = 0:1 m, arc angle 30°) as for a full scale ring design. The main difference lies in the magnetic field strength. The available segments can be operated at room temperature producing 0:6T on axis maximum magnetic field, while for the storage ring design this value is in the range of 5T. The preparatory experiments consisted of building and characterization of the ion source in a first step. Along with the momentum spectrometer and emittance scanner the beam properties were studied. Low mass ion beams He+ and mixed p, H2+, H3+ beams were analyzed. The proton beam consisting of a 48% H+ fraction was extracted regularly and used for further experiments. A moderate beam energy of 10 keV was chosen as operational energy for which 3.08 mA proton beam current was measured. In the second stage, beams were transported through a solenoid and the phase space distribution was measured as a function of the magnetic field for different beam energies. The phase-space as distributions measured in a first stage were simulated backward and then again forward transported through the solenoid. The simulated results were then compared with the measured distribution. The LINTRA transport program was used. The phase-space distribution was further simulated for transport experiments in a toroidal magnetic field. The experiments with a single toroidal segment give basic results necessary to compare the results between transport code (TBT) and measurements. The optical diagnostic provides measurements which can be well compared with the simulated results. A digital camera with a magnetic shield was used to record images in jpeg file format. A subroutine was written to analyze an image file to give the intensity distribution of a given image file. The integrated profile in vertical and horizontal direction was used to calculate the vertical drift and the beam size. The simulated values were in good agreement with the measured ones. The injection system needs most care. The transport program that was used to simulate the beam in the toroid was also used to design the injection system. The injection system with its special field configurations was designed to perform experiments with room temperature segments. The main point to tackle was to smoothly bring the charged particles generated outside the trap into the acceptance of the ring. The designed system consists of two sources, one representing a ring beam and the other one the injection beam. While simulations showed a clear way, how to inject the particle beam via a well positioned solenoid and in combination with a transverse electric field element causing an ExB drift into the main ring acceptance. After construction of these injection elements it will be very important to measure the robustness of such a system with respect to the beam stability- especially of the injection channel.
The bulk viscosity of several quark matter phases is calculated. It is found that the effect of color superconductivity is not trivial, it may suppress, or enhance the bulk viscosity depending on the critical temperature and the temperature at which the bulk viscosity is calculated. Also, is it found that the effect of neutrino-emitting Urca processes cannot be neglected in the consideration of the bulk viscosity of strange quark matter. The results for the bulk viscosity of strange quark matter are used to calculate the r-mode instability window of quark stars with several possible phases. It is shown that each possible phase has a different structure for the r-mode instability window.
Ein wesentliches Ziel der Physik mit schweren Ionen ist die Untersuchung der Zustände von Kernmaterie bei hohen Dichten bzw. Temperaturen. Solche Zustände lassen sich durch Kollisionen von hochenergetischen schweren Ionen in Teilchenbeschleunigern wie dem Super Proton Synchrotron SPS am Europäischen Kernforschungszentrum CERN in Genf erzeugen und untersuchen. Die vorliegende Arbeit beschäftigt sich mit der Analyse des Einflusses des in einer solchen Kollision erzeugten Mediums auf hochenergetische Teilchen, welche dieses Medium durchqueren. Hierzu werden Korrelationen zwischen Teilchen mit hohem Transversalimpuls pt als Funktion der Zentralität der Kollisionen und der Ladung der beteiligten Teilchen untersucht. Ziel ist es, hierdurch eine experimentelle Grundlage für die theoretische Beschreibung der Eigenschaften des Mediums in solchen Kollisionen bereitzustellen. ...
The production of quarkonia, the bound state of an heavy quark with its anti-particle, has for a long time been seen as a key process to understand the properties of nuclear matter in a relativistic heavy-ion collision. This thesis presents studies on the production of quarkonia in heavy-ion collisions at the new Large Hadron collider (LHC). The focus is set on the decay of J/Psi and Upsilon-states into their di-electronic decay channel, measured within the central detectors of the ALICE detector.
The physics of interacting bosons in the phase with broken symmetry is determined by the presence of the condensate and is very different from the physics in the symmetric phase. The Functional Renormalization Group (FRG) represents a powerful investigation method which allows the description of symmetry breaking with high efficiency. In the present thesis we apply FRG for studying the physics of two different models in the broken symmetry phase. In the first part of this thesis we consider the classical O(1)-model close to the critical point of the second order phase transition. Employing a truncation scheme based on the relevance of coupling parameters we study the behavior of the RG-flow which is shown to be influenced by competition between two characteristic lengths of the system. We also calculate the momentum dependent self-energy and study its dependence on both length scales. In the second part we apply the FRG-formalism to systems of interacting bosons in the phase with spontaneously broken U(1)-symmetry in arbitrary spatial dimensions at zero temperature. We use a truncation scheme based on a new non-local potential approximation which satisfy both exact relations postulated by Hugenholtz and Pines, and Nepomnyashchy and Nepomnyashchy. We study the RG-flow of the model, discuss different scaling regimes, calculate the single-particle spectral density function of interacting bosons and extract both damping of quasi-particles and spectrum of elementary excitations from the latter.
In der vorliegenden Arbeit wurde die 1s Photoionisation von Neondimeren mit einer Photonenenergie von 10 eV über der 1s Schwelle von Neon durchgeführt. Das Ziel dieser Messung war die Beantwortung der seit vielen Jahren diskutierten Frage nach der Lokalisierung oder Delokalisierung von Vakanzen in homonuklearen diatomaren Systemen am Beispiel des Neondimers. Können die Vakanzen also einem Atom des Dimers zugeordnet werden oder sind sie über beide Atome verteilt? Bezüglich dieser Frage wurden sowohl die in der Photoionisation direkt entstandenen 1s Vakanzen als auch die aus der Relaxation durch einen interatomic Coulombic decay (ICD) resultierenden Vakanzen in der Valenzschale des Neondimers untersucht. Als Observable dienten dabei die Elektronen-Winkelverteilungen im dimerfesten Koordinatensystem, wobei eine bezüglich der ‘rechten’ und der ‘linken’ Seite des homonuklearen diatomaren Moleküls auftretende Asymmetrie in der Winkelverteilung eindeutig eine Lokalisierung der Vakanz indiziert. Dies lässt sich damit begründen, dass die Elektronenwellen im Fall einer delokalisierten Vakanz durch die symmetrisierten Wellenfunktionen beschrieben werden, welche sich aus der kohärenten Überlagerung der lokalisierten Wellenfunktionen ergeben. Die resultierende Winkelverteilung der Elektronen um die Dimerachse ist somit symmetrisch. Im Fall einer lokalisierten Vakanz wird die Elektronenwelle dagegen durch die ‘rechts’ oder ‘links’ lokalisierten Wellenfunktionen, welche aus der kohärenten Überlagerung der symmetrisierten Wellenfunktionen gebildet werden, beschrieben, so dass abhängig von der Elektronenwellenlänge Asymmetrien in der Elektronen-Winkelverteilung auftreten können. Die Möglichkeit, eine eventuelle Asymmetrie in der Winkelverteilung um die Dimerachse zu beobachten ist allerdings nur dann gegeben, wenn die beiden Seiten des Dimers im Anschluss an die Reaktion unterscheidbar sind, d.h. der Ursprung des emittierten Elektrons feststellbar ist, da sich sonst der Fall einer ‘links’ lokalisierten Vakanz mit dem Fall einer ‘rechts’ lokalisierten Vakanz kohärent überlagert. Die Unterscheidung konnte in der vorliegenden Messung anhand der aus einigen Relaxationen hervorgehenden unterschiedlichen Ladungen der ionischen Fragmente des Neondimers durchgeführt werden. Insgesamt wurden im Anschluss an die 1s Photoionisation von Ne2 mit einer Rate von 3:1 der symmetrische Ladungsaufbruch Ne1+ + Ne1+ und der für die Untersuchung der Winkelverteilungen relevante asymmetrische Ladungsaufbruch Ne2+ + Ne1+ des Neondimers beobachtet. Alle in diesen beiden Ladungsaufbrüchen resultierenden intra- und interatomaren Relaxationsprozesse sowie ihre Raten wurden im Rahmen dieser Arbeit identifiziert und analysiert. Der dominante Zerfallskanal des symmetrischen Ladungsaufbruchs resultierte dabei aus dem im Anschluss an einen KL2,3L2,3 stattfindenden Radiative Charge Transfer, bei welchem unter Aussendung eines Photons ein Ladungsaustausch zwischen den Neonionen des Dimers stattfindet. Der dominante Zerfallskanal des asymmetrischen Ladungsaufbruchs wurde durch den im Anschluss an einen KL1L2,3 stattfindenden ICD bestimmt. Bei diesem in Clustern auftretenden Relaxationsprozess wird die Innerschalenvakanz aus Atom 1 durch ein Valenzelektron aus Atom 1 aufgefüllt. Sobald die Relaxationsenergie dabei nicht ausreicht, um, wie beim Augerzerfall, ein weiteres Valenzelektron aus Atom 1 zu ionisieren, wird die Energie mittels eines virtuellen Photons zum neutralen Nachbaratom des Dimers transferiert, und aus diesem wird ein Elektron, das ICD-Elektron, emittiert. Zur experimentellen Untersuchung der verschiedenen Zerfälle wurde die COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Technik verwendet. Bei dieser Impulsspektroskopie werden die Fragmente mit einer Raumwinkelakzeptanz von 4pi mit Hilfe eines elektrischen und eines magnetischen Feldes auf die ortsauflösenden Detektoren geführt, und ihre Flugzeiten und Auftrefforte werden gemessen. Die COLTRIMS-Technik zeichnet sich dabei dadurch aus, dass eine koinzidente Messung der Elektronen und Ionen möglich ist, wodurch die Fragmente eines Reaktionsereignisses einander zugeordnet werden können. Innerhalb der Reaktionsereignisse fragmentierte das Neondimer im Anschluss an die Relaxation in beiden Ladungsaufbrüchen Ne1+ + Ne1+ und Ne2+ + Ne1+ unter 180° in einer Coulombexplosion. Somit spiegelten die Richtungen der Relativimpulse der Ionen im Rahmen der ‘Axial-Recoil-Approximation’ die Position der Dimerachse zum Zeitpunkt der Reaktion wider, und aus den Impulsen der Elektronen konnten die Emissionsrichtungen der Elektronen bezüglich der Dimerachse abgeleitet werden. In dieser Arbeit wurde mit der beschriebenen Messtechnik eine deutliche Asymmetrie in der Winkelverteilung der 1s Photoelektronen sowie der 2p ICD-Elektronen um die Dimerachse beobachtet. Die gemessene Winkelverteilung der 1s Photoelektronen wies dabei eine qualitativ sehr gute Übereinstimmung mit einer innerhalb einer Hartree-Fock-Rechnung erhaltenen Winkelverteilung für eine vollständig lokalisierte 1s Vakanz im Neondimer auf. Für die Winkelverteilungen der ICD-Elektronen existieren bis heute noch keine theoretischen Vorhersagen. Mit den Ergebnissen der vorliegenden Arbeit konnte somit gezeigt werden, dass entgegen den heute gängigen Theorien zur Beschreibung des Neondimers sowohl die Vakanzen der innersten Schale als auch die Vakanzen der Valenzschale des Neondimers als lokalisiert beschrieben werden müssen.
Es wurde eine neue Routine zur Berechnung der Raumladungskräfte basierend auf einer schnellen Fourier-Transformation entwickelt und in das Teilchensimulationsprogramm LORASR integriert. Dadurch werden einzelne oder bis zu mehreren 100 Simulationen im Batch-Modus mit je 1 Million Makroteilchen und akzeptablen Rechenzeiten ermöglicht. Die neue Raumladungsroutine wurde im Rahmen der Europäischen „High Intensity Pulsed Proton Injectors” (HIPPI) Kollaboration erfolgreich validiert. Dabei wurden verschiedene statische Vergleichstests der Poisson-Solver und schließlich Vergleichsrechnungen entlang des Alvarez-Beschleunigerabschnittes des GSI UNILAC durchgeführt. Darüber hinaus wurden Werkzeuge zum Aufprägen und zur Analyse von Maschinenfehlern entwickelt. Diese wurden erstmals für Fehlertoleranzstudien an der IH-Kavität des Heidelberger Therapiebeschleunigers, am Protonen-Linearbeschleuniger für das FAIR Projekt in Darmstadt sowie am Vorschlag eines supraleitenden CH-Beschleunigers für die “International Fusion Materials Irradiation Facility” (IFMIF) eingesetzt.
In this work the preparation of organic donor-acceptor thin films was studied. A chamber for organic molecular beam deposition was designed and integrated into an existing deposition system for metallic thin films. Furthermore, the deposition system was extended by a load-lock with integrated bake-out function, a chamber for the deposition of metallic contacts via stencil mask technique and a sputtering chamber. For the sublimation of the organic compounds several effusion cells were designed. The evaporation characteristic and the temperature profile within the cells was studied. Additionally, a simulation program was developed, which calculates the evaporation characteristics of different cell types. The following processes were integrated: evaporation of particles, migration on the cell walls and collisions in the gas phase. It is also possible to consider a temperature gradient within the cell. All processes can be studied separately and their relative strength can be varied. To verify the simulation results several evaporation experiments with different cell types were employed. The thickness profile of the prepared thin films was measured position-dependently. The results are in good agreement with the simulation. Furthermore, the simulation program was extended to the field of electron beam induced deposition (EBID). The second part of this work deals with the preparation and characterization of organic thin films. The focus hereby lies on the charge transfer salt (BEDT-TTF)(TCNQ), which has three known structure variants. Thin films were prepared by different methods of co-evaporation and were studied with optical microscopy, X-ray diffraction and energy dispersive X-ray spectroscopy (EDX).The formation of the monoclinic phase of (BEDT-TTF)(TCNQ) could be shown. As a last part tunnel structures were prepared as first thin film devices and measured in a He4 cryostat.
This work presents the study on the suitability of single-crystal CVD diamond for particle-detection systems in present and future hadron physics experiments. Different characterization methods of the electrical and the structural properties were applied to gain a deeper understanding of the crystal quality and the charge transport properties of this novel semiconductor material. First measurements regarding the radiation tolerance of diamond were performed with sensors heavily irradiated with protons and neutrons. Finally, detector prototypes were fabricated and successfully tested in various experiments as time detectors for minimum ionizing particles as well as for spectroscopy of heavy ions at the energy ranges available at the SIS and the UNILAC facilities of GSI. ...
Induced charge computation
(2009)
One of the main aspects of statistical mechanics is that the properties of a thermodynamics state point do not depend on the choice of the statistical ensemble. It breaks down for small systems e.g. single molecules. Hence, the choice of the statistical ensemble is crucial for the interpretation of single molecule experiments, where the outcome of measurements depends on which variables or control parameters, are held fixed and which ones are allowed to fluctuate. Following this principle, this thesis investigates the thermodynamics of a single polymer pulling experiments within two different statistical ensembles. The scaling of the conjugate chain ensembles, the fixed end-to-end vector (Helmholtz) and the fixed applied force (Gibbs), are studied in depth. This thesis further investigates the ensemble equivalence for different force regimes and polymer-chain contour lengths. Using coarse-grained molecular dynamic simulations, i.e. Langevin dynamics, the simulations were found to complement the theoretical predictions for the scaling of ensemble difference of Gaussian chains in different force-regimes, giving special attention to the zero force regime. After constructing Helmholtz and Gibbs conjugate ensembles for a Gaussian chain, two different data sets of thermodynamic states on the force-extension plane, i.e. force-extension curves, were generated. The ensemble difference is computed for different polymer-chain lengths by using force-extension curves. The scaling of the ensemble difference versus relative polymer-chain length under different force regimes has been derived from the simulation data and compared to theoretical predictions. The results demonstrate that the Gaussian chain in the zero force limit generates nonequivalent ensembles, regardless of its equilibrium bond length and polymer-chain contour length. Moreover, if polymers are charged in confinement, coarse-graining is problematic, owing to dielectric interfaces. Hence, the effect of dielectric interfaces must be taken into account when describing physical systems such as ionic channels or biopolymers inside nanopores. It is shown that the effect of dielectrics is crucial for the dynamics of a biopolymer or an ion inside a nanopore. In the simulations, the feasibility of an efficient and accurate computation of electrostatic interactions in the presence of an arbitrarily shaped dielectric domain is challenging. Several solutions for this problem have been previously proposed in the literature such as a density functional approach, or transforming problem at hand into an algebraic problem ( Induced Charge Computation (ICC) ) and boundary element methods. Even though the essential concept is the same, which is to replace the dielectric interface with a polarization charge density, these approaches have been analyzed and the ICC algorithm has been implemented. A new superior boundary element method has been devised utilizing the force computation via the Particle-Particle Particle-Mesh (P3M) method for periodic geometries (ICCP3M). This method has been compared to the ICC algorithm, the algebraic solutions, and to density functional approaches. Extensive numerical tests against analytically tractable geometries have confirmed the correctness and applicability of developed and implemented algorithms, demonstrating that the ICCP3M is the fastest and the most versatile algorithm. Further optimization issues are also discussed in obtaining accurate induced charge densities. The potential of mean force (PMF) of DNA modelled on a coarsed-grain level inside a nanopore is investigated with and without the inclusion of dielectric effects. Despite the simplicity of the model, the dramatic effect of dielectric inclusions is clearly seen in the observed force profile.
Neutron stars are very dense objects. One teaspoon of their material would have a mass of five billion tons. Their gravitational force is so strong that if an object were to fall from just one meter high it would hit the surface of the respective neutron star at two thousand kilometers per second. In such dense bodies, different particles from the ones present in atomic nuclei, the nucleons, can exist. These particles can be hyperons, that contain non-zero strangeness, or broader resonances. There can also be different states of matter inside neutron stars, such as meson condensates and if the density is height enough to deconfine the nucleons, quark matter. As new degrees of freedom appear in the system, different aspects of matter have to be taken into account. The most important of them being the restoration of the chiral symmetry. This symmetry is spontaneously broken, which is a fact related to the presence of a condensate of scalar quark-antiquark pairs, that for this reason is called chiral condensate. This condensate is present at low densities and even in vacuum. It is important to remember at this point that the modern concept of vacuum is far away from emptiness. It is full of virtual particles that are constantly created and annihilated, being their existence allowed by the uncertainty principle. At very high temperature/density, when the composite particles are dissolved into constituents, the chiral consensate vanishes and the chiral symmetry is restored. To explain how and when chiral symmetry is restored in neutron stars we use a model called non-linear sigma model. This is an effective quantum relativistic model that was developed in order to describe systems of hadrons interacting via meson exchange. The model was constructed from symmetry relations, which allow it to be chiral invariant. The first consequence of this invariance is that there are no bare mass terms in the lagrangian density, causing all, or most of the particles masses to come from the interactions with the medium. There are still other interesting features in neutron stars that cannot be found anywhere else in nature. One of them is the high isospin asymmetry. In a normal nucleus, the amount of protons and neutrons is more or less the same. In a neutron star the amount of neutrons is much higher than the protons. The resulting extra energy (called Fermi energy) increases the energy of the system, allowing the star to support more mass against gravitational collapse. As a consequence of that in early stages of the neutron star evolution, when there are still many trapped neutrinos, the proton fraction is higher than in later stages and consequently the maximum mass that the star can support against gravity is smaller. This, between many other features, shows how the microscopic phenomena of the star can reflect into the macroscopic properties. Another important property of neutron stars is charge neutrality. It is a required assumption for stability in neutron stars, but there are others. One example is chemical equilibrium. It means that the number of particles from each kind is not conserved, but they are created and annihilated through specific reactions that happen at the same rate in both directions. Although to calculate microscopic physics of neutron stars the space-time of special relativity, the Minkowski space, can be used, this is not true for the global properties of the star. In this case general relativity has to be used. The solution of Einstein's equations simplified to static, spherical and isotropic stars correspond to the configurations in which the star is in hydrostatic equilibrium. That means that the internal pressure, coming mainly from the Fermi energy of the neutrons, balances the gravity avoiding the collapse. When rotation is included the star becomes more stable, and consequently, can be more massive. The movement also makes it non-spherical, what requires the metric of the star to also be a function of the polar coordinate. Another important feature that has to be taken into account is the dragging of the local inertial frame. It generates centrifugal forces that are not originated in interactions with other bodies, but from the non-rotation of the frame of reference within which observations are made. These modifications are introduced through the Hartle's approximation that solves the problem by applying perturbation theory. In the mean field approximation, the couplings as well as the parameters of the non-linear sigma model are calibrated to reproduce massive neutron stars. The introduction of new degrees of freedom decreases the maximum mass allowed for the neutron star, as they soften the equation of state. In practice, the only baryons present in the star besides the nucleons are the Lambda and Sigma-, in the case in which the baryon octet is included, and Lambda and Delta-,0,+,++, in the case in which the baryon decuplet is included. The leptons are included to ensure charge neutrality. We choose to proceed our calculations including the baryon octet but not the decuplet, in order to avoid uncertainties in the couplings. The couplings of the hyperons were fitted to the depth of their potentials in nuclei. In this case the chiral symmetry restoration can be observed through the behavior of the related order parameter. The symmetry begins to be restored inside neutron stars and the transition is a smooth crossover. Different stages of the neutron star cooling are reproduced taking into account trapped neutrinos, finite temperature and entropy. Finite-temperature calculations include the heat bath of hadronic quasiparticles within the grand canonical potential of the system. Different schemes are considered, with constant temperature, metric dependent temperature and constant entropy. The neutrino chemical potential is introduced by fixing the lepton number in the system, that also controls the amount of electrons and protons (for charge neutrality). The balance between these two features is delicate and influenced mainly by the baryon number conservation. Isolated stars have a fixed number of baryons, which creates a link between different stages of the cooling. The maximum masses allowed in each stage of the cooling process, the one with high entropy and trapped neutrinos, the deleptonized one with high entropy, and the cold one in beta equilibrium. The cooling process is also influenced by constraints related to the rotation of the star. When rotation is included the star becomes more stable, and consequently, can be more massive. The movement also deforms it, requiring the metric of the star to include modifications that are introduced through the use of perturbation theory. The analysis of the first stages of the neutron star, when it is called proto-neutron star, gives certain constraints on the possible rotation frequencies in the colder stages. Instability windows are calculated in which the star can be stable during certain stages but collapses into black holes during the cooling process. In the last part of the work the hadronic SU(3) model is extended to include quark degrees of freedom. A new effective potential to the order parameter for deconfinement, the Polyakov loop, makes the connection between the physics at low chemical potential and hight temperature of the QCD phase diagram with the height chemical potential and low temperature part. This is done through the introduction of a chemical potential dependency on the already temperature dependent potential. Analyzing the effect of both order parameters, the chiral condensate and the Polyakov loop, we can drawn a phase diagram for symmetric as well as for star matter. The diagram contains a crossover region as well as a first order phase transition line. The new couplings and parameters of the model are chosen mainly to fit lattice QCD, including the position of the critical point. Finally, this matter containing different degrees of freedom (depending on which phase of the diagram we are) is used to calculate hybrid star properties.
We explain how fluctuations of ratios can constrain and falsify the statistical model of particle production in heavy ion collisions, using K/p fluctuations as an example. We define an observable capable of determining which statistical model, if any, governs freeze-out in ultrarelativistic heavy ion collisions. We calculate this observable for K/p fluctuations, and show that it should be the same for RHIC and LHC energies, as well as independent of centrality, if the Grand-Canonical statistical model is an appropriate description and chemical equilibrium applies. We describe variations of this scaling for deviations from this scenario, such as light quark chemical non-equilibrium, strange quark over-saturation and local conservation (canonical ensemble) for strange quarks. We also introduce a similar observable capable, together with the published K*/K measurement, of ascertaining if an interacting hadron gas phase governs the system between thermal and chemical freeze-out, and of ascertaining its duration and impact on hadronic chemistry.
In this thesis the first fully integrated Boltzmann+hydrodynamics approach to relativistic heavy ion reactions has been developed. After a short introduction that motivates the study of heavy ion reactions as the tool to get insights about the QCD phase diagram, the most important theoretical approaches to describe the system are reviewed. To model the dynamical evolution of the collective system assuming local thermal equilibrium ideal hydrodynamics seems to be a good tool. Nowadays, the development of either viscous hydrodynamic codes or hybrid approaches is favoured. For the microscopic description of the hadronic as well as the partonic stage of the evolution transport approaches have beeen successfully applied, since they generate the full phse-space dynamics of all the particles. The hadron-string transport approach that this work is based on is the Ultra-relativistic Quantum Molecular Dynamics (UrQMD) approach. It constitutes an effective solution of the relativistic Boltzmann equation and is restricted to binary collisions of the propagated hadrons. Therefore, the Boltzmann equation and the basic assumptions of this model are introduced. Furthermore, predictions for the charged particle multiplicities at LHC energies are made. The next step is the development of a new framework to calculate the baryon number density in a transport approach. Time evolutions of the net baryon number and the quark density have been calculated at AGS, SPS and RHIC energies and the new approach leads to reasonable results over the whole energy range. Studies of phase diagram trajectories using hydrodynamics are performed as a first move into the direction of the development of the hybrid approach. The hybrid approach that has been developed as the main part of this thesis is based on the UrQMD transport approach with an intermediate hydrodynamical evolution for the hot and dense stage of the collision. The initial energy and baryon number density distributions are not smooth and not symmetric in any direction and the initial velocity profiles are non-trivial since they are generated by the non-equilibrium transport approach. The fulll (3+1) dimensional ideal relativistic one fluid dynamics evolution is solved using the SHASTA algorithm. For the present work, three different equations of state have been used, namely a hadron gas equation of state without a QGP phase transition, a chiral EoS and a bag model EoS including a strong first order phase transition. For the freeze-out transition from hydrodynamics to the cascade calculation two different set-ups are employed. Either an in the computational frame isochronous freeze-out or an gradual freeze-out that mimics an iso-eigentime criterion. The particle vectors are generated by Monte Carlo methods according to the Cooper-Frye formula and UrQMD takes care of the final decoupling procedure of the particles. The parameter dependences of the model are investigated and the time evolution of different quantities is explored. The final pion and proton multiplicities are lower in the hybrid model calculation due to the isentropic hydrodynamic expansion while the yields for strange particles are enhanced due to the local equilibrium in the hydrodynamic evolution. The elliptic flow values at SPS energies are shown to be in line with an ideal hydrodynamic evolution if a proper initial state is used and the final freeze-out proceeds gradually. The hybrid model calculation is able to reproduce the experimentally measured integrated as well as transverse momentum dependent $v_2$ values for charged particles. The multiplicity and mean transverse mass excitation function is calculated for pions, protons and kaons in the energy range from $E_{\rm lab}=2-160A~$GeV. It is observed that the different freeze-out procedures have almost as much influence on the mean transverse mass excitation function as the equation of state. The experimentally observed step-like behaviour of the mean transverse mass excitation function is only reproduced, if a first order phase transition with a large latent heat is applied or the EoS is effectively softened due to non-equilibrium effects in the hadronic transport calculation. The HBT correlation of the negatively charged pion source created in central Pb+Pb collisions at SPS energies are investigated with the hybrid model. It has been found that the latent heat influences the emission of particles visibly and hence the HBT radii of the pion source. The final hadronic interactions after the hydrodynamic freeze-out are very important for the HBT correlation since a large amount of collisions and decays still takes place during this period.
Zellulare Nichtlineare Netzwerke (CNN) wurden 1988 von Chua und Yang (Chua und Yang, 1988) eingeführt. Diese Netzwerke sind dadurch gekennzeichnet, dass eine Zelle, die die kleinste Einheit eines CNN darstellt, nur mit Zellen innerhalb einer bestimmten Umgebung verbunden ist. üblicherweise sind Art und Stärke der Wechselwirkung zwischen zwei Zellen eines CNN translationsinvariant, d.h. sie hängen nur von der relativen Lage beider Zellen zueinander ab. Im Vordergrund aktueller Arbeiten stehen auf derartigen Netzwerken basierende schaltungstechnische Realisierungen mit bis zu 176x144 Zellen, die eine direkte Verbindung zu zweidimensionalen optischen Sensor-Anordnungen aufweisen. Über einen separaten Speicherbereich können die Zellkopplungen eines Netzwerks verändert werden, wodurch eine adaptive Verarbeitung von mehrdimensionalen Sensorsignalen ermöglicht wird. Das kürzlich vorgestellte so genannte EyeRis System (Anafocus Ltd.) enthält zusätzlich noch einen Standardprozessor und stellt (bei einer Größe vergleichbar mit der einer Kreditkarte) daher ein vollständiges superschnelles System zur Informationsverarbeitung dar. In diesem Beitrag sollen, nach einem kurzen Überblick über die Eigenschaften von CNN, aktuelle Realisierungen und exemplarisch eine neuere eigene Anwendung vorgestellt und besprochen werden.
We calculate low-energymeson decay processes and pion-pion scattering lengths in a two-flavour linear sigma model with global chiral symmetry, exploring the scenario in which the scalar mesons f0(600) and a0(980) are assumed to be ¯qq states.
We argue that Clustering in heavy ion collisions could be the missing element in resolving the socalled HBT puzzle, and briefly discuss the different physical situations where clustering could be present. We then propose a method by which clustering in heavy ion collisions could be detectedin a model-independent way.
This study addresses the structure-function relationships of three essential membrane proteins: Porin from Paracoccus denitrificans, Porin OmpG from Eschericia coli and BetP from Corynobacterium glutamicum using Fourier transform infrared (FT-IR) spectroscopy and Attenuated Total Reflection (ATR) techniques. The structure of porin from P. denitrificans is known for more than a decade; however, the mechanism for loss of functionality together with the monomerization was not clear. In this study we have addressed the role of lipids for the functionality of porin using FT-IR. OmpF porin was found to interact with the lipid molecules via the aromatic girdles surrounding the protein for functionality. In this study, molecular bonds and groups of the lipids were established as reporter groups probing at different depths of the bilayer in order to understand the interaction partner of the aromatic girdles of porins. Monomerization of the trimeric assembly of OmpF porin reconstituted in lipids is induced by increasing the temperature. Porin (OmpF) was found to be extremely stable: The secondary structure of the protein was unaltered up to the temperature-induced main transition, around 80-90 °C, above which it is denatured. However, the interaction of the aromatic girdle with the lipid molecules exhibited distinct changes at much lower temperature values (40 - 50°) where, according to the previous functional studies, monomerization and the loss of function occurs. The results are compared with OmpG porin from E.coli, for which the functional unit is a monomer. The aromatic girdle-lipid interaction was monitored by the tyrosine aromatic ring C=C vibrational mode, a universal marker for the protein stability and interaction. We have also found that the aromatic girdles of porins are interacting with the interfacial region of the lipid bilayer instead of lipid headgroups. Lipid-protein interaction was found to be not only essential for the structural stability, but also for the functionality of OmpF porin. We have also studied the structural properties of OmpG from E.coli. The structure of OmpG at two pH values has been resolved using X-ray crystallography and the channel has been proposed to attain different states at different pH values as closed (pH < 5.5) and open (pH >7.5). This study, using IR spectroscopy, revealed that the pH-induced opening and closing of the channel is reflected by the frequency shifts of the ? sheet structure. OmpG has more rigid ? barrel properties upon opening of the channel. IR spectral analysis revealed multiple ? sheet signals with different hydrogen bond strengths. This enabled us to monitor the formation of hydrogen bridges between the extracellular loops upon opening of the channel. The conclusion that OmpG porin having two states at different pH values was also confirmed by the three mutants where the role of the histidine pair (H231 & H261) and loop 6 has been addressed. Temperature-profiling of the wild type (WT) protein and the mutants did not show pH dependent structural stability differences in detergent solution. However, the WT protein was found to be more stable in the open form in 2D crystals than the closed form. Reconstitution into lipids has increased the transition temperature value by ~20 °C in the closed state and ~25 °C in the open state. Therefore we conclude that the open and closed state of OmpG has structural stability differences that are only revealed in the lipid environment. A comparison of the transition temperature values of OmpG WT and the mutants suggested that the hydrogen bond network among S218-H231-H261-D267, together with the formation of 12 residue-long ?-sheet contributes to the structural stability of the open channel. In the process of closing and opening of the channel, the globular structure of the protein remains mainly unchanged, while there are changes in the side chain moieties. In addition to the role of the histidine pair and the loop L6, in situ opening/closing experiments showed that the negatively charged amino acids, i.e. Asp and Glu, and Arg residues also play an active role; possibly by interacting with each other inside the pore lumen. Therefore it could be concluded that the closure of the channel at acidic pH values is not only via closing the channel entrance by loop 6, but also via changing the electric potential inside the lumen due to the different states of charged amino acids in order to effectively block the gateway. BetP from C.glutamicum attains an active and inactive state in order to adjust its glycine betaine uptake rate to the osmotic conditions that the cell encounters. The structure of BetP is not yet available. The WT protein exhibited structural differences in the presence of excess K+, which is one of the activation conditions. In 2D crystals, increasing the ionic strength to 700 mM K+ was shown to induce changes in the ?-helical moiety with contributions from the ester groups and one Tyr residue using ATR-FTIR. An increase in ionic strength to 220 mM K+ was found to be the threshold value of potassium concentration ([K+]) where the protein exhibits structural alterations in detergent solution. The determined [K+] values are in good agreement with the previous functional studies. However, there are differences in the activation profile of BetP in 2D crystals and in detergent solution, which points out that the lipids are involved in the conformational transition from the inactive to the active state and their absence can lead to different structural properties. BetP WT was found to have ~65% alpha-helix, ~25% random coil and ~10% turn structure in detergent solution. In the presence of excess K+, the WT protein is found to adapt more unordered structure. Secondary structure analysis of the mutants revealed that both the N- and C-terminus are in ?-helical conformation. Reconstitution of WT protein in 2D crystals increased the main transition (denaturation) temperature value from ~62 °C to ~85 °C, a clear indication that the protein is more stable in lipid environment. Temperature-profiling of the two forms of the WT protein revealed that the structural breakdown is preceeded by monomerization of the trimeric assembly. Comparing the two forms of the WT protein and the mutant BetA, we conclude that the oligomeric status is stabilized via the interactions among hydrophilic regions involving the N terminus. H/D exchange and activation with excess K+ in D2O-buffer revealed that activation of the protein involves the interaction of Arg and Asp/Glu residues in the cytoplasmic region of the protein. BetP WT and the two mutants tested, i.e. BetA and BetP?C45, showed differences in protein packing upon activation. The WT protein and BetP?C45 mutant also show changes in the hydrogen bonding properties of turns. Since BetA does not show such a property in activation, we conclude that the N-terminus interacts with the loops in the inactive state via the interaction of charged amino acids for the WT protein and that this interaction is altered during the activation. It could be argued that the protein packing is affected via the changes in turns upon activation. We also have found experimental evidence that one Tyr residue has different orientations in the active and inactive state of BetP. Based on the previous functional studies, it could be one of the five Tyr residues in the cytoplasmic region of the protein (in loop 3, 6, 7 or C-terminus). The mutant BetP?C45, on the other hand, showed fewer differences between the active and inactive state conditions and based on the H/D exchange rates, the mutant shows the properties of an active WT protein, proving that the C-terminal truncation impairs the conformational transition between the active and inactive states.
The characterization of microscopic properties in correlated low-dimensional materials is a challenging problem due to the effects of dimensionality and the interplay between the many different lattice and electronic degrees of freedom. Competition between these factors gives rise to interesting and exotic magnetic phenomena. An understanding of how these phenomena are driven by these degrees of freedom can be used for rational design of new materials, to control and manipulate these degrees of freedom in order to obtain desired properties. In this work, we study these effects in materials with small exchange interaction between the magnetic ions such as metal-organic and inorganic dilute compounds. We overcome the dfficulties in studying these kind of materials by combining classical and quantum mechanical ab initio methods and many-body theory methods in an effective theoretical approach. To treat metal-organic compounds we elaborate a novel two-step methodology which allows one to include quantum effects while reducing the computational cost. We show that our approach is an effective procedure, leading at each step, to additional insights into the essential features of the phenomena and materials under study. Our investigation is divided into two parts, the first one concerning the exploration of the fundamental physical properties of novel Cu(II) hydroquinone-based compounds. We have studied two representatives of this family, a polymeric system Cu(II)-2,5-bis(pyrazol-1-yl)-1,4-dihydroxybenzene (CuCCP) and a coupled system Cu2S2F6N8O12 (TK91). The second part concerns the study of magnetic phenomena associated with the interplay between different energy scales and dimensionality in zero-, one- and two-dimensional compounds. In the zero-dimensional case, we have performed a comprehensive study of Cu4OCl6L4 with L=diallylcyanamide=NC-N-(CH2-CH=CH2)2 (Cu4OCl6daca4). Interpretations of the magnetic properties for this tetrameric compound have been controversial and inconsistent. From our studies, we conclude that the common models usually applied to this and other representatives in the same family of cluster systems fail to provide a consistent description of their low temperature magnetic properties and we thus postulate that in such systems it is necessary to take into account quantum fluctuations due to possible frustrated behavior. In the one-dimensional case, we studied polymeric Fe(II)-triazole compounds, which are of special relevance due to the possibility of inducing a spin transition between low and high spin state by applying a external perturbation. A long standing problem has been a satisfactory microscopic explanation of this large cooperative phenomenon. A lack of X-ray data has been one mitigating reason for the absence of microscopic studies. In this work, we present a novel approach to the understanding of the microscopic mechanism of spin crossover in such systems and show that in these kind of compounds magnetic exchange between high spin Fe(II) centers plays an important role. The correct description of the underlying physics in many materials is often hindered by the presence of anisotropies. To illustrate this difficulty, we have studied a two dimensional dilute compound K2V3O8 which exhibits an unusual spin reorientation effect when applying magnetic fields. While this effect can be understood when considering anisotropies in the system, it is not sufficient to reproduce experimental observations. Based on our studies of the electronic and magnetic properties in this system, we predict an extra exchange interaction and the presence of an additional magnetic moment at the non-magnetic V site. This sheds a new light into the controversial recent experimental data for the magnetic properties of this material.
Diese Arbeit beschreibt wie mit physikalischen Methoden die Glukosekonzentration gemessen werden kann. Die Infrarot-Spektroskopie bietet eine Möglichkeit da die Energie der meisten Molekülschwingungen Photonenenergien im infraroten Spektralbereich entspricht. Hier zeigen Glukosemoleküle charakteristische Absorptionsspektren, die mit spektroskopischen Methoden gemessen werden. Um nicht invasiv zu messen, wurde eine photoakustische Messmethode gewählt. Die Grundidee ist, dass die durch Licht angeregten Moleküle ihre Anregungsenergie teilweise in Form von Wärme abgeben. Da die anregende Strahlung intensitätsmoduliert ist, wird auch die Wärmeentwicklung periodisch verlaufen wodurch periodische Volumenänderungen hervorgerufen werden, die eine Druckwelle erzeugen, die sich durch empfindliche Mikrofone oder Schallwandler erfassen lässt. So kann im MIR auf Grund der hohen Spezifizität, der Glukosegehalt mit sehr hoher Genauigkeit bestimmt werden. Die Wellenlänge der Glukoseabsorptionsbanden im MIR Bereich sind im Wesentlichen gekoppelte C=O Streck- und O–H Biegeschwingungen. Im MIR-Bereich zeigen Spektren zwischen 8,3µm bis 11,1µm fünf glukoserelevanten Banden. Der photoakustische Effekt wird durch die Rosencwaig-Gersho Theorie beschrieben. Die Absorption des Lichtes in der Probe bewirkt eine Temperaturerhöhung, die als Wärme an Umgebung abgegeben wird. Da das eingestrahlte Licht gepulst ist, wird auch die Wärme periodisch abgegeben. Durch die Absorption eines Laserpulses in der Haut entsteht ein Temperaturgradient, die abhängig vom Absorptionskoeffizienten und der Glukosekonzentration ist. Der führt zu einer Diffusion von Wärme im Absorptionsvolumen. Die Hautoberfläche und damit eine dünne Luftschicht über der Hautoberfläche werden durch die Diffusionswärme periodisch mit der Modulationsfrequenz der Laser aufgeheizt, was als Druckschwankungen in Messkammer mit Mikrofon detektiert wird. Im Mitteinfrarot geben Quantenkaskadenlaser die beste Lichtquelle, wegen ihre gute Strahlqualität und hohe optische Leistung. Die verwendete photoakustische(PA) Resonanzzelle ist nach dem Prinzip des Helmholtz-Resonators konzipiert. Der Vorteil des Verstärkungsverhaltens einer resonanten PA-Zelle kann unter Umständen durch Verwendung Volumenreduzierten und mit empfindlichen Mikrofonen ausgestatteten nicht-resonanten PA-Zelle erreicht werde. Zum Erfassung der PA Signale wird eine Kombination aus einen Analog-Digital Wandlerkarte verwendet, die eine gemeinsame Zeitbasis mit der synchronen Lasersteuerung und der Datenerfassung liefert und phasenechte Fourieranalyse der photoakustischen Signale ermöglicht. Es wurde ein Modellsystem entwickelt um photoakustischen Glukosemessungen in vitro zu testen. Dieses „Phantommodell“ besteht aus einer dünnen Polymermembran befestigt in eine Gefäß von nur paar ml Volumen die mit verschiedenen Glukosekonzentrationen gefüllt wurde. Die modulierte Laserstrahlung passiert die Messzelle und dringt durch die Folie in die wässerige Glukoselösung ein. Das Folienmaterial und Dicke wurde so gewählt, dass keineAbsorption im verwendeten MIR-Bereich entsteht. Als Lösung für die jeweiligen Glukosekonzentrationen wurde ein Wasser-Albumin Gemisch verwendet mit einen 10%igen Albuminanteil, die verwendet wurde, um den Proteingehalt der Haut zu imitieren und zu zeigen, dass Eiweiß keinen Störeinfluss im Glukosefingerprintbereich hat. Messungen wurden bei steigenden und fallenden Glukosekonzentration durchgeführt damit gezeigt könnte, dass das Messsignal in der PA- Zelle nicht von der Lufterwärmung in der Zelle stammt, sondern vom PA-Signale der Glukose. Die Glukoseschwankungen in der extrazellulären Flüssigkeit der Epidermis spiegeln die Glukoseschwankungen im Blut gut wider, bei einer Messung am Arm entsteht eine Verzögerung von paar Minuten. Im Daumenballenbereich findet aufgrund der guten Durchblutung ein schneller Austausch der Glukosekonzentration der von uns gemessenen interstitiellen Flüssigkeit mit der Blutzuckerkonzentration statt. Deshalb wurden die in-vivo Messungen am Daumenballen durchgeführt. Das Stratum spinosum ist für uns von Bedeutung, da dies das interstitielle Wasser enthält, in dem der Glukosegehalt mit dem Glukosegehalt im Blut gut übereinstimmt. Die photoakustische Messmethode wird nicht-invasiv durchgeführt. Probanden wird Zucker verabreichet und danach in Abständen von 5 Minuten der Blutzucker konventionell bestimmt und gleichzeitig mittels der photoakustischen Messung am Daumenballen durchgeführt. Mit diesen Daten kann die Korrelation zwischen beiden Methoden bestimmt werden. In vielen in vivo Messreihen zeigen sich bereits in direkter Korrelation zu invasiv genommenen Blutzuckerwerten Korrelationskoeffizienten bis zu R=0,8 und eine damit deutliche Evidenz für einen glukoserelevanten Effekt. Trotz der versprechenden Ergebnisse wird deutlich, dass weitere Entwicklungen notwendig sind, damit das System zu einer direkten Konkurrenz zu der vorhandenen invasiven Meßsystemen werden kann.
The current performance of a 4π barium fluoride gamma detector consisting of 41 modules is evaluated. It will be used to measure neutron capture events in different samples that are exposed to a neutron beam that is expected to contain up to 10^7 neutrons/(cm^2 sec). The capture cross-sections acquired in this experiment will be relevant to a multitude of different areas, for example to s-process studies, or accelerator-driven systems. The detector array was re-mounted after having been moved from Karlsruhe to Frankfurt and in the course of this process, the detector modules have been checked for their current detection properties. Every module consists of a BaF2 crystal, a photomultiplier tube connected to the crystal by sillicon oil and a voltage divider to drive the PMT, so each of them is already an individual gamma detector. Using Cobalt-60 and Caesium-137 test sources the energy resolution and - more importantly - the time resolution of every module has been determined; the results are presented in this work and compared to previous data taken at the time the detector was built initially in the mid-1980s.
Gegenstand dieser Arbeit ist die Entwicklung, der Aufbau und die Charakterisierung sowie Messung einer anwendungsspezifischen integrierten Schaltung (engl.: Application Specific Integrated Circuit, ASIC). Sie dient der Auslese der im elektromagnetischen Kalorimeter des PANDA-Experiments eingesetzten Lawinenfotodioden. Jeder Auslesekanal beinhaltet in der Eingangsstufe einen ladungsempfindlichen Vorverstärker, gefolgt von einem Pulsformer sowie zwei Ausgangstreibern. Am Beginn der Entwicklung steht die Machbarkeitsstudie einer integrierten Ausleseelektronik, welche die anspruchsvollen Anforderungen des PANDA-Experiments erfüllt. Aus rauschtheoretischen Untersuchungen resultieren erste Entwurfsparameter für die Schaltung, die mit Hilfe umfangreicher Simulationen verbessert und ergänzt werden. Die technische Umsetzung der Schaltung erfolgt in einem 0,35 Micrometer-CMOS-Prozess der Firma Austria Mikrosysteme. Die Charakterisierung der integrierten Ausleseelektronik ergibt bei einer Umgebungstemperatur von T = - 20° C eine Shapingzeit des Signalpulses von tr = (124 ± 2) ns. Mit dem äquivalenten Rauschwert von ENC = (4456 ± 35) e- und einer maximal möglichen Eingangsladung von 7,84 pC folgt ein dynamischer Bereich von über 10 000. Der ratenunabhängige Leistungsbedarf eines einzelnen Auslesekanals beträgt P = (52, 4 ± 0, 2)mW. Damit erfüllt der in dieser Arbeit beschriebene ASIC Prototyp alle Anforderungen, die vom Experiment an die Ausleseelektronik gestellt werden.
The interplay of charmonium production and suppression in In+In and Pb+Pb reactions at 158 AGeV and in Au+Au reactions at sqrt(s)=200 GeV is investigated with the HSD transport approach within the hadronic comover model' and the QGP melting scenario'. The results for the J/Psi suppression and the Psi' to J/Psi ratio are compared to the recent data of the NA50, NA60, and PHENIX Collaborations. We find that, at 158 AGeV, the comover absorption model performs better than the scenario of abrupt threshold melting. However, neither interaction with hadrons alone nor simple color screening satisfactory describes the data at sqrt(s)=200 GeV. A deconfined phase is clearly reached at RHIC, but a theory having the relevant degrees of freedom in this regime (strongly interacting quarks/gluons) is needed to study its transport properties.
Motiviert durch aktuelle atomphysikalische Fragestellungen zur Struktur und Dynamik der Materie im Bereich hochgeladener Schwerionen entstand der Bedarf zur Weiterentwicklung bestehender und zur Entwicklung neuartiger ortsauflösender Detektorsysteme. Die Untersuchung der Struktur ist hauptsächlich durch die hochauflösende spektroskopische Vermessung einzelner Energieniveaus der atomaren Hülle bestimmt und liefert grundlegende Einblicke in den atomaren Aufbau. Dabei stellen diese Resultate gerade bei schweren hochgeladenen Ionen eine exzellente Testmöglichkeit der QED in extrem starken Feldern dar. Die Dynamik der Materie zeigt sich in der Teilchendynamik (hier der Atomhülle) in extrem starken und extrem kurzen elektromagnetischen Feldern, wie sie bei Ion-Atom-Stößen auftreten. Beobachtet werden können hier vor allem Teilchen und Photonen-Polarisationsphänomene. Solche Polarisationseffekte sind jedoch nicht auf das Gebiet der atomaren Hülle beschränkt. Als ein Beispiel sei die Untersuchung laserbeschleunigter Teilchen genannt. Hier kann die Polarimetrie von Röntgenstrahlung, die durch Thomson-Streuung optischer Photonen an den zuvor auf relativistische Geschwindigkeiten beschleunigten Teilchen erzeugt wird, Aufschluß über die Natur des Beschleunigungsprozesses geben. Einblick in die lineare Polarisation der Röntgenphotonen im für unsere Arbeit interessanten Energiebereich von einigen 10 keV bis einigen 100 keV können mit Compton-Polarimetern gewonnen werden. Kommerziell sind Detektorsysteme, die eine ausreichende Granularität in Kombination mit hinreichender Detektordicke besitzen, um hohe Nachweiseffizienzen zu erreichen, jedoch nicht verfügbar. Im Rahmen der vorgelegten Arbeit, die sich mit Techniken der hochaufgelösten Röntgenspektroskopie und der Röntgenpolarimetrie an hochgeladenen Schwerionen befasst, wurden vielfältige Arbeiten an und mit orts-, zeit- und energieauflösenden planaren Ge(i)-Detektorsystemen durchgeführt. Wesentliches Ziel der Arbeit war es, ein zweidimensional ortsauflösendes planares Halbleiterdetektorsystem, das für den Einsatz im Kristallspektrometer FOCAL und als Compton-Polarimeter angepasst ist, bereitzustellen. Hierzu wurde ein 2D-µ-Streifendetektorsystem aufgebaut, das eine Ortsauflösung von 250µm, bzw. 1167µm in orthogonaler Richtung, bei einer Detektordicke von 11mm und eine Energieauflösung von etwa 2 keV für jeden einzelnen Streifen bei 60 keV Photonenenergie gewährleistet. Durch Messungen an der Synchrotronquelle ESRF, Grenoble (Frankreich), wurde die Eignung des Systems als bildgebendes Element im FOCAL Kristallspektrometer bei einer Photonenenergie von 60 keV und als Compton-Polarimeter bei einer Photonenenergie von 210 keV untersucht. Der große Vorteil in FOCAL ein ortsauflösendes Detektorsystem einzusetzen, liegt darin, dass alle interessanten Beugungswinkel simultan beobachtet werden können. Im herkömmlichen Ansatz würde man mit einer einfachen Diode und einem Kollimator den Bereich abfahren. Wegen der geringen Ereignisrate und dem hohen Untergrund ist dies jedoch nicht praktikabel. Herkömmliche Systeme wie CCD oder Gasdetektoren haben nicht die nötige Effizienz oder eine zu hohe Dunkelrate. Zur Untersuchung der für FOCAL wichtigen Eigenschaften wurden mehrere Positionen auf dem Detektor bei niedriger Energie mit einem fein kollimierten Photonenstrahl (50 x 50 µm2) gescannt. Neben der guten Energieauflösung des Detektorsystems von durchschnittlich 2.2 keV bei 60 keV, zeigen die Ergebnisse das homogene Verhalten der Detektoreffizienz, welche essentiell für den spektographischen Einsatz in FOCAL ist. Es konnten keine Hinweise auf messbare Ladungsverluste im Bereich des aktiven Detektorvolumens festgestellt werden. Ebenso konnte die Multiplizität (Anzahl der Streifen einer Detektorseite, die auf ein Ereignis reagieren), mit der ein Photon nachgewiesen wird, eindeutig mit der Strukturierung der Kontakte auf der Kristalloberfläche in Verbindung gebracht werden. Es stellte sich heraus, dass die Ereignisse der Multiplizität zwei dazu verwendet werden können um Ortsauflösungen deutlich unterhalb einer Streifenbreite zu erreichen. Diese Methode kann jedoch nur auf eine größere Anzahl von Ereignissen angewendet werden, nicht jedoch auf einzelne Ereignisse. Um das 2D-Ge(i)-µ-Streifendetektorsystem auf seine Eignung als Compton-Polarimeter zu testen, wurden Daten mit einem nahezu vollständig linear polarisierten Photonenstrahl (98% linear polarisiert) bei einer Energie von 210 keV aufgenommen. Die Daten zeigen die erwartete Dipol-ähnliche Asymmetrie im Ortsbild und dienen als Kalibrationsgrundlage zur Interpretation zukünftiger Experimente zur Polarimetrie in diesem Energiebereich. Parallel hierzu wurde an Simulationsprogrammen auf Basis der etablierten Monte Carlo Software EGS4 gearbeitet. Hiermit wurden Vorhersagen bezüglich des Nachweisverhaltens des Detektors auf linear polarisierte Röntgenstahlung gemacht. Ferner wurde für ein 4x4-Pixel-Polarimeter, das bei der ersten Bestimmung der linearen Polarisation der K-REC Strahlung von U92+ am Speichering ESR der GSI eingesetzt wurde, im Rahmen der Datenanalyse mit den auf EGS4-basierenden Programmen die Detektoreffizienz für linear polarisierte Strahlung einer bestimmten Energie simuliert. Mit diesen Simulationsergebnissen konnten die selbstentwickelten Methoden zur Korrektur der Nachweiswahrscheinlichkeit eines Compton-Ereignisses als Funktion des Wechselwirkungspunkts innerhalb des Detektorkristalls und der Energie erfolgreich verifiziert werden. Die detektorbezogenen Resultate dieser Arbeit fanden ihre erste Anwendung in der FOCAL-Spektrometer Strahlzeit 2006, deren genaue Beschreibung jedoch über den Umfang dieser Arbeit hinausgeht. Ebenso flossen die Erfahrungen, die mit den Detektorsystemen, im speziellen dem 2D-Ge(i)-µ-Streifendetektor, gemacht wurden in die Realisierung eines Si(Li)-Detektors mit 32+32 Streifen zur Compton-Polarimetrie bei niedrigeren Energien (ab 60 keV) ein, der gegenwärtig in ersten Experimenten am ESR eingesetzt wird.
Im Rahmen dieser Arbeit sind Experimente zur Bestimmung der 1s Lamb-Verschiebung in wasserstoffartigen Schwerionen und zur Bestimmung des Innerschalenübergangs 2 3P2 --> 2 3S1 in heliumartigen Schwerionen durchgeführt worden. Diese Untersuchungen sind interessant, da es sich hierbei um die Überprüfung der Quantenelektrodynamik im Bereich sehr starker Coulombfelder handelt. Neben den reinen QED-Effekten spielen in diesen schweren Systemen auch relativistische Effekte eine immer bedeutendere Rolle. Es ist erstmals gelungen, eine direkte Messung des Innerschalenübergangs 2 3P2 --> 2 3S1 in einem schweren Z-System durchzuführen. Während in bisherigen Experimenten lediglich leichtere Ionen bis zu einer Kernladungszahl Z = 54 untersucht wurden, sind wir mit unserem Experiment an U90+-Ionen in den Bereich schwerer Systeme vorgedrungen. Zur Energiebestimmung sind am Gastarget des Experimentier-speicherrings (ESR) ein Kristallspektrometer unter einem Beobachtungswinkel von 90° und ein einfacher planarer Germaniumdetektor unter einem Winkel von 35° aufgebaut worden. Das Kristallspektrometer ermöglicht eine hohe Energieauflösung, während der Germaniumdetektor einen breiten Energiebereich abdeckt und somit eine eindeutige Identifizierung der Übergänge ermöglicht. Ein Fit des aufgenommenen Energiespektrums mit einer Simulation zeigt, wie gut die theoretischen Vorhersagen die Übergangsdynamik in diesem Zwei-Elektronen-System beschreiben. Der Innerschalenübergang kann eindeutig von benachbarten Übergängen unterschieden werden. Mit dem Kristallspektro-meter ergibt sich eine Übergangsenergie von 4510,31 ± 0,51 eV, mit dem Germanium-detektor 4509,6 ± 1,5 eV. Beide stimmen gut mit den theoretischen Vorhersagen überein. Durch den geringen Fehler von 0,51 eV stellt diese Messung auch im Vergleich mit den vorhergehenden Experimenten in leichten Systemen eine der genauesten Messungen des Innerschalenübergangs in He-artigen Ionen dar. Zusätzlich dazu kann die Differenz der Innerschalenübergangsenergie von Li-artigem und He-artigem Uran ermittelt werden: 50,94 ± 0,45 eV. Mit dieser Genauigkeit ist unser Experiment empfindlich auf die Zwei-Elektronen-QED und ermöglicht erstmal eine experimentelle Überprüfung dieses Beitrags, der von Kozhedub et al. mit 1,18 eV angegeben wird. Zur Untersuchung der 1s Lamb-Verschiebung von wasserstoffartigen Schwerionen sind bereits eine Vielzahl an Experimenten durchgeführt worden, mit einer maximalen Genauigkeit von 4,6 eV. Die theoretische Auswertung von Korrekturtermen höherer Ordnung erfordert jedoch neue experimentelle Methoden, mit denen sich Genauigkeiten auf dem Niveau von 1 eV und besser erzielen lassen. Dazu hat es ein Nachfolge-experiment zur bisher genauesten Messung der 1s Lamb-Verschiebung in U91+ und des Zwei-Elektronen-Beitrags zum Grundzustand in U90+ am Elektronenkühler gegeben. Hierzu ist das Experiment bei einer niedrigeren Strahlenergie durchgeführt worden. Dabei hat sich allerdings gezeigt, Ionenstrahlen mit einer Energie unterhalb von 20MeV/u besitzen zu kurze Lebensdauern, da bei den niedrigeren Energien die Rekombinationsverluste mit dem Restgas sehr hoch werden und der Ionenstrahl aus technischen Gründen noch einmal umgebuncht werden muss, wobei zusätzlich Zeit und Intensität verloren gehen. Als weiterer Schritt auf dem Weg zu höherer Präzision ist eine Kombination aus einem hochauflösenden Kristallspektrometer (FOCAL) und einem neuartigen orts- und energieauflösenden 2dimensionalen Germaniumdetektor getestet worden. Mit diesem Detektor ist es möglich, mehrere Reflexe gleichzeitig zu messen und somit die Effizienz des Experimentes deutlich zu steigern. Allerdings ist die maximale Energieauflösung bisher über die 250 µm Streifenbreite des Detektors definiert, das entspricht etwas weniger als 200 eV. Tests mit Kalibrationsquellen und das Verfahren des Detektors entlang der Dispersionsachse haben jedoch gezeigt, dass eine Auflösung kleiner als ein Streifen erreichbar ist. Dadurch soll eine Genauigkeit von 1 eV erreicht werden. Die Bewegung der Detektoren, die bei der letzten Strahlzeit einen erheblichen systematischen Fehler verursacht hat, kann mit neuen Detektorplattformen und kontinuierlicher Stickstofffüllung deutlich reduziert werden. Bei den alternativen Methoden Mikrokalorimeter und Absorptionskantenspektroskopie scheinen Mikrokalorimeter eine vielversprechend Entwicklung zu sein, da sie sowohl eine hohe Energieauflösung bieten als auch einen breiten Energiebereich abdecken. Dagegen beinhaltet die Absorptionskantenspektroskopie im Vergleich zu den anderen Methoden zu große systematische Fehler. Aus den Ergebnissen des Experimentes zum Innerschalenübergang und des FOCAL-Commissioning-Experimentes zeigt sich, wie erfolgsversprechend der Einsatz von Kristallspektrometern auf dem Weg zu neuen hochpräzisen Experimenten ist.
Schon seit längerer Zeit wird die Verwendung sogenannter Gabor-Plasmalinsen, in denen ein einkomponentiges also Nichtneutrales Plasma eingeschlossen wird, zur Fokussierung von Teilchenstrahlen untersucht. Um eine gute Fokussierqualität zu erreichen, wird ein hoher Füllgrad der Linse, sowie ein lineares elektrisches Feld benötigt. Während die Gabor-Plasmalinse innerhalb ihres Arbeitsbereiches, in dem das Plasma als thermalisiert angenommen wird, gute Abbildungseigenschaften aufweist, kommt es außerhalb der Arbeitsfunktion der Raumladungslinse zu einem starken Verlust der Strahlqualität. Die Gabor-Plasmalinse dient als Instrument, doch um ihre Anwendung zu optimieren, müssen die wesentlichen Prozesse in Nichtneutralen Plasmen verstanden werden. In der vorliegenden Arbeit wurden Diagnosemethoden zur Bestimmung der Plasmaparameter eines Nichtneutralen Plasmas untersucht, deren Anwendung sich im Bereich der elektrisch neutralen Plasmen bewährt haben. Es wurden desweiteren neue Methoden entwickelt, um die wichtigen Parameter wie Elektronendichte und Elektronentemperatur bestimmen zu können. Die Ergebnisse der Messungen werden numerischen Simulationen vergleichend gegenübergestellt.
In the field of strongly correlated electron systems, there is a long standing discussion on whether lattice degrees of freedom play a role for several physical phenomena, among them the Mott MI transition and charge-ordering transition. Charge-transfer salts of the ..-(BEDT-TTF)2X and (TMTCF)2X families have been revealed as model systemss for the study of the latter phenomena. The (TMTCF)2X salts have been recognized as model systems for studying correlation effects in 1D, while the (BEDT-TTF)-based materials for such studies in 2D. In this work, high-resolution dilatometry experiments were performed in order to address these issues. The main results obtained are summarized below. ...
Bei intelligenten Sensoren soll die Aufnahme von Signalen und deren, zumindest teilweise durchgeführte, Verarbeitung mit einer einzigen Anordnung erfolgen. Dazu steht häufig eine elektronische Schaltung zur Verfügung, die allerdings zur Einhaltung von Echtzeitbedingungen nur für eine relativ einfache Signalverarbeitung verwendet werden kann. Einen möglichen Ausweg bildet die Verwendung parallel arbeitender Rechnersysteme. In dieser Hinsicht sind programmierbare Schaltungen mit z.B. optischen Sensor-Anordnungen besonders interessant, die auf Zellularen Nichtlinearen Netzwerken basieren. Derartige miniaturisierte Systeme eröffnen aufgrund ihrer zellularen Architektur neue Möglichkeiten zur Signalverarbeitung mit einem Leistungsvermögen, das im Bereich von Tera-Operationen pro Sekunde liegt. Für viele aktuelle Problemstellungen wäre es von Vorteil, wenn diese zellularen Systeme eigenständig Parameteradaptionen durchführen könnten. Eingangssignale, die beispielsweise über die vorhandenen optischen Sensoren aufgenommen werden, führten dann zu einer Neuberechnung bzw. Anpassung der Netzwerksparameter. Aufgrund der beachtlichen Leistungsfähigkeit solcher Schaltungen wäre damit die Möglichkeit gegeben, eine adaptive Signalverarbeitung bei zeitlich veränderlichen Problemen vorzunehmen. In diesem Beitrag wird die Implementierung und Analyse von Lernverfahren auf dem EyeRIS™ System, das einen zellularen Prozessor ACE16kv2™ mit 128×128 Zellen enthält, zur adaptiven Parameterbestimmung betrachtet. Anhand verschiedener Problemstellungen aus dem Bereich der Bildverarbeitung werden unterschiedliche Lernverfahren verglichen und deren Leistungsfähigkeit untersucht.
Electron tomography was used to investigate membrane proteins in a variety of contexts. A high-angle tilt holder, suitable for electron tomography was designed, constructed and characterised. 2D crystals of membrane proteins, NhaA and YidC, were examined as a resolution test, and a method established for determining planarity of crystals. A model for specific gold binding to NhaA crystals was also presented. ATP synthase, a membrane protein complex in mitochondria, were imaged in a frozen hydrated state. They were found to form ribbons of dimers at highly curved regions of the membrane. Dimers from bovine heart and rat liver were excised from the tomographic volumes and averaged. Based on the location of the dimers in the mitochondrion, a model was established whereby ATP synthase, a molecular motor driven by the proton motive force, benefits from the high curvature that it induces in the membrane. Whole yeast mitochondria, imaged by electron cryo-tomography, also contained long ribbons of dimeric ATP synthase. Multiple copies of an unknown membrane protein complex were visualised by electron cryo-tomography, excised and averaged. A general method for the identification of unknown proteins was presented to deal with this inevitable issue, as native tissues and organelles are imaged, and the structures of complexes determined in situ.
Nach einer kurzen Einführung in die Theorie der Volterra-Systeme wurden in dieser Arbeit zunächst Verfahren zur Bestimmung von Volterra-Kernen als Kenngrößen für Volterra-Systeme zur Modellierung nichtlinearer Systeme analysiert. Im Vordergrund stand zunächst ein Verfahren basierend auf der Messung der Kreuzkumulanten-Spektren höherer Ordnung von Ein- und Ausgangssignal eines nichtlinearen Systems, wobei als Systemanregung ein stationärer, mittelwertfreier Gaußscher Zufallsprozeß angenommen wurde. Die Analyse der untersuchten Differenzengleichung zeigt, daß zur präzisen Bestimmung der Kernfunktionen bis zur dritten Systemordnung mehr als eine Million Ein- und Ausgangswerte notwendig sind. Vergleichend dazu wurde der Volterra-RLSAlgorithmus betrachtet, der eine rechenzeiteffiziente Bestimmung der Volterra-Kerne zuläßt und kein bestimmtes Eingangssignal erfordert. Beim Volterra-RLS-Algorithmus wurde zunächst die zur Bestimmung derartiger Systemkenngrößen erforderliche Anzahl der Ein- und Ausgangswerte festgestellt. Hierbei wurde u.a. auch ein gedämpftes Pendel als Modellsystem betrachtet. Die Ergebnisse zeigen, daß eine genaue Bestimmung der Volterra-Kerne mit dem Volterra-RLS-Algorithmus schon anhand von etwa 1500 Ein- und Ausgangswerten möglich ist. Anschließend wurde eine spezielle Klasse von Volterra-Systemen, die in lineare Teilsysteme zerlegbar sind, untersucht. Der Volterra-Kern eines solchen Systems, das ausschließlich aus linearen, zeitinvarianten Systemen aufgebaut ist, kann bei Kenntnis von deren Impulsantworten direkt bestimmt werden. Ihre Struktur führt zu einer deutlich verminderten Rechenkomplexität bei der Berechnung der Systemantwort des dargestellten Volterra-Systems. Wie in der Arbeit gezeigt, reichen für eine präzise Messung der Volterra-Kerne, die mit einem Gradientenverfahren bestimmt wurden, bei diesen Systemen bereits ungefähr 1000 Ausgangswerte aus. Außerdem ist die Realisierung eines Systems höherer Ordnung aus Systemen niedrigerer Ordnung relativ einfach möglich. Bei umfangreichen Untersuchungen wurde eine Identifikation nichtlinearer Systeme mit unterschiedlich ausgeprägten Nichtlinearitäten vorgenommen. Als Beispiel ist in dieser Arbeit der Fall diskutiert, bei dem Lösungen der Duffing-Gleichung herangezogen wurden. Dabei wurden Volterra-Systeme bis zur fünften Ordnung zugrundegelegt; eine präzise Approximation gelang in allen Fällen. Schließlich wurde noch festgestellt, inwieweit die Möglichkeit besteht, nach einer Bestimmung, d.h. anhand eines numerisch vorliegenden Kerns, daraus Systemparameter zu extrahieren. Dazu wurde eine spezielle OTA-C Integratorschaltung betrachtet; als Eingangssignale wurden Ein- und Zweitonsignale verwendet und anschließend die Bestimmung der Kerne homogener Systeme vorgenommen. Anhand dieser Resultate konnten der Widerstand R0 und die Kapazität C des OTA-C Integrators mit hoher Genauigkeit ermittelt werden. Die Untersuchungen haben gezeigt, daß eine Identifikation mit den aus linearen Systemen implementierten Volterra-Systemen zu geringeren relativen, mittleren quadratischen Fehlern führt als bei Verwendung der aus der allgemeinen Definition hervorgehenden Systeme. Neben der Verringerung der Rechenkomplexität konnte somit auch eine erhöhte Approximationsgüte festgestellt werden. Aufgrund dieses Befundes wurden derartige Volterra-Systeme für die besondere Fragestellung zur Epilepsieforschung eingesetzt, zu denen diese Arbeit beitragen sollte. Die Prädiktion von EEG-Signalen bei Epilepsie stand dabei im Vordergrund der Betrachtungen. Als erstes wurde der Prädiktionsgewinn sowohl in Abhängigkeit von der Systemordnung als auch in Abhängigkeit von der System- und Filterlänge ermittelt. Im Hinblick auf eine Realisierung in der Praxis wurde die Filterlänge nur zwischen L = 2 bis L = 10 variiert. Diese Untersuchungen haben gezeigt, daß Messungen dabei mit größerer Filterlänge als L = 4 zu keinen weiteren nennenswerten Verbesserungen der Resultate führten. Nach erfolgter Prädiktion wurde der zeitliche Verlauf des Prädiktionsgewinns auf Veränderungen vor oder zu Beginn eines epileptischen Anfalls untersucht. Die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme zweiter und dritter Ordnung zeigen keine signifikanten Veränderungen vor einem Anfall. Demgegenüber lassen die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme erster Ordnung und der inhomogenen Systeme dritter Ordnung zu Beginn eines Anfalls einen deutlichen Anstieg erkennen. Weiterhin deuten diese Ergebnisse daraufhin, daß eine genauere Lokalisierung des fokalen Bereichs basierend auf dem Prädiktionsgewinn möglich erscheint. Zu weiteren Untersuchungen wurden die Kerne der Systeme herangezogen und der zeitliche Verlauf des sogenannten nichtlinearen Anteils dm(i) näher betrachtet. Diese Ergebnisse lassen keine signifikanten Änderungen erkennen. Dementgegen stehen die Resultate für Langzeitregistrierungen von EEG-Signalen. Bei einer Analyse der zu einer längerenMeßreihe gehörigen Daten eines 19-jährigen männlichen Patienten wurde festgestellt, daß der Prädiktionsgewinnmeistens kurz vor den epileptischen Anfällen unter denMittelwert des anfallsfreien Zustands abfällt. Änderungen der Kurvenverläufe des Prädiktionsgewinns kurz vor epileptischen Anfällen weisen erkennbar spezifische Merkmale auf, die möglicherweise als Vorboten eines epileptischen Anfalls angesehen werden könnten
Pluto is a Monte-Carlo event generator designed for hadronic interactions from Pion production threshold to intermediate energies of a few GeV per nucleon, as well as for studies of heavy ion reactions. The package is entirely based on ROOT, without the need of additional packages, and uses the embedded C++ interpreter of ROOT to control the event production. The generation of events based on a single reaction chain and the storage of the resulting particle objects can be done with a few lines of a ROOT-macro. However, the complete control of the package can be taken over by the steering macro and user-defined models may be added without a recompilation of the framework. Multi-reaction cocktails can be facilitated as well using either mass-dependent or user-defined static branching ratios. The included physics uses resonance production with mass-dependent Breit-Wigner sampling. The calculation of partial and total widths for resonances producing unstable particles is performed recursively in a coupled-channel approach. Here, particular attention is paid to the electromagnetic decays, motivated by the physics program of HADES. The thermal model supports 2-component thermal distributions, longitudinal broadening, radial blast, direct and elliptic flow, and impact-parameter sampled multiplicities. The interface allows angular distribution models (e.g. for the primary meson emission) to be attached by the user as well as descriptions of multi-particle correlations using decay chain templates. The exchange of mass sampling or momentum generation models is also possible. The first feature allows for consistent coupled-channel calculations, needed for a correct description of hadronic interactions. For elementary reactions, angular distribution models for selected channels are already part of the framework, based on parameterizations of existing data. This report gives an overview of the design of the package, the included models and the user interface.
Am 27. und 28. September 2005 tagten Historiker und Philosophen der Mathematik und Naturwissenschaften in Frankfurt a.M. im Gebäude des Physikalischen Vereins. Eine Besonderheit des Internationalen Symposiums war der Dialog mit Vertretern der aktuellen Grundlagendebatte der Basiswissenschaft Physik. In zwölf Vorträgen wurden an zwei Tagen Raum- und Zeitkonzeptionen bedeutender Naturphilosophen der letzten 400 Jahre vorgestellt. Naturwissenschaftshistoriker rekonstruierten die Entwürfe von Giordano Bruno, Marin Mersenne, René Descartes, Otto von Guericke, Baruch Spinoza, Gottfried Wilhelm Leibniz, Isaac Newton und Leonhard Euler, während Grundlagentheoretiker der Physik einen Überblick über eigene Konzeptionen mit einem systematischen Anschluss an die Denktraditionen vorführten. Die Tagung wurde von der Fritz Thyssen Stiftung gefördert sowie vom Förderverein des Frankfurter Institutes für Geschichte der Naturwissenschaften "Arbor Scientiarum" und dem Physikalischen Verein finanziell unterstützt. ...
Conclusion Scale Integration Based on the results of spike-field coherence, the underlying process of shortterm memory seems to involve networks of different sizes within and, most probably, beyond prefrontal cortex. Spikes, which were generated by single neurons, cooperate with local field potentials, which were the slower fluctuations of the environment. Although differences among behavioral conditions appear to be based on rather few instances of phase-locked spikes, the task-related effects on spike-field coherence are highly reliable and cannot be explained by chance, as the comparison of results from experimental and simulated data shows. The differential locking of prefrontal neuron populations with two different frequency bands in their input signals suggests that neuronal activity underlying short-term memory in prefrontal cortex transiently engages cortical circuits on different spatial scales, probably in order to coordinate distributed processes. NeuroXidence method and Synchronizedfiring Based on the results of the calibration datasets, for bi- and multi-variate cases, the extension of NeuroXidence remains its sensitivity and reliability of detecting coordinate firing events for different processes. Based on this extension of NeuroXidence, we demonstrated that in monkey’s prefrontal cortex during short-term memory task, encoding and maintenance of the information rely on the formation of neuronal assemblies characterized by precise and reliable synchronization of spiking activity on a millisecond time scale, which is consistent with the results from spike-spike coherence. The task and performance dependent modulation of synchrony reflects the dynamic formation of group of neurons has large effect on short-term-memory.
Struktur, Funktion und Dynamik von Na(+)-, H(+)-Antiportern : eine infrarotspektroskopische Studie
(2008)
Die Funktion von Membranproteinen ist von entscheidender Bedeutung für eine Vielzahl zellulärer Prozesse. Um diese verstehen zu können, ist das Verständnis der Beziehungen zwischen der Struktur, der Dynamik und der Wechselwirkung mit der Umgebung der Membranproteine notwendig. Spektroskopische Methoden, wie beispielsweise FTIR- und CD-Spektroskopie sind in der Lage, diese Informationen zu geben. In der vorliegenden Dissertation haben sie bedeutende Beiträge zum Verständnis der durch die Aktivierung induzierten Konformationsänderungen der Na+/H+ Antiporter geleistet. Die hohe Empfindlichkeit einer selbstkonstruierten FTIR-ATR-Perfusionszelle ermöglichte es, über eine Proteinprobe verschiedene Wirkstoffmoleküle perfundieren zu lassen und die dadurch verursachten strukturellen Änderungen spektroskopisch zu charakterisieren. Die Konformationsänderungen, die den Aktivierungsprozess begleiten, wurden bei zwei verschiedenen Na+/H+ Antiportern, NhaA und MjNhaP1, untersucht. Sie werden bei unterschiedlichen pH-Bereichen aktiviert bzw. deaktiviert. Der Na+/H+ Antiporter NhaA aus E. coli hat seine maximale Transportaktivität bei pH 8,5 und ist bei pH < 6,5 vollständig inaktiv. Trotz bekannter 3D-Struktur dieses Proteins für die inaktive Konformation bei pH 4 bleiben die Konformationsänderungen, die mit der Aktivierung des Proteins einhergehen, immer noch ungeklärt. Die Analyse der FTIR- und CD-Spektren von NhaA ergab in beiden Zuständen Anteile an beta-Faltblatt, an Schleifen und ungeordneten Strukturen, wobei die alpha-helikale Struktur dominiert. Die FTIR Spektren des inaktiven und aktiven Zustands zeigen zwei Komponenten, die auf die Präsenz zweier alpha-Helices mit unterschiedlichen Eigenschaften abhängig vom Aktivitätszustand hindeuteten. Die temperaturinduzierten strukturellen Änderungen und die Reorganisation des Proteins während des Entfaltungsprozesses bestätigten, dass die Aktivierung des Proteins eine Änderung in den Eigenschaften der alpha-Helices zur Folge hat. Aktivierung führt zu einer thermischen Destabilisierung dieser Struktur. Auch für die beta-Faltblattstruktur, welche den Hauptkontakt zwischen den Monomeren bildet, wurde ein unterschiedliches thermisches Verhalten zwischen dem inaktiven und aktiven Zustand beobachtet. Daraus konnte gefolgert werden, dass Aktivität nur dann möglich ist, wenn NhaA als Dimer vorliegt. Die Ergebnisse des (1)H/(2)H Austauschs zeigen, dass die Lösungsmittelzugänglichkeit des Proteins sich mit der Aktivierung ändert. Die Aktivierung des Proteins induziert eine offene, für die Lösung zugänglichere Konformation, in welcher die Aminosäureseitenketten in der hydrophilen Region des Proteins schneller Wasserstoff durch Deuterium austauschen, und in welcher zusätzliche Aminosäureseitenketten, die sich im inaktiven Zustand in der hydrophoben Region des Proteins befinden, mit der Aktivierung der Lösung exponiert werden. Die Aufnahme reaktionsinduzierter Differenzspektren ergab eindeutige spektroskopische Signaturen für die Zustände „inaktiv“ und „aktiv“. Die Differenzspektren der pH-Titration zeigten, dass der pH-Wert einen dramatischen Effekt sowohl auf die Sekundärstruktur als auch auf den Protonierungszustand der Aminosäureseitenketten hat. Die pH- und Na+-induzierte Aktivierung des Proteins führt zur Umwandlung der transmembranen alpha-helikalen Struktur bezüglich Länge, Ordnungsgrad und/oder Anordnung und zur einer Protonierungsänderung der Aminosäureseitenketten von Glutaminsäure oder Asparaginsäure. Die pD induzierten Sekundärstrukturänderungen lieferten zusätzlich Informationen über die Umgebungsänderung der Aminosäureseitenkette des Tyrosins mit der Aktivierung. Der Vergleich der durch die Bindung des Natriums und des Inhibitors induzierten Differenzspektren zeigte, dass die Bindungsstellen des Natriums und des Inhibitors unterschiedlich sind. Die FTIR- und CD-Ergebnisse für den Na+/H+ Antiporter MjNhaP1 aus M. jannaschii, der im Gegensatz zu NhaA bei pH 6 aktiv und bei pH Werten > 8 inaktiv ist, zeigten, dass ähnlich wie NhaA das Protein im aktiven Zustand bei pH 6 hauptsächlich aus alpha-Helices aufgebaut ist. Es bestand die Möglichkeit, zwei verschiedene Probenpräparationen (Protein in Detergenz bzw. in 2D-Kristallen) zu untersuchen und miteinander zu vergleichen. Die Erhöhung des pH-Werts bei der in Detergenz solubilisierten Probe führte zu einer Abnahme der alpha-helikalen und einer Zunahme der ungeordneten Strukturen. Das äußerte sich auch in den Untersuchungen zur thermischen Stabilität und im (1)H/(2)H Austauschexperiment. Die thermische Stabilität der alpha-Helices nahm mit der Inaktivierung dramatisch ab. Diese Ergebnisse zeigten auch, dass bei der Aktivierung von MjNhaP1 die beta-Faltblattstruktur nicht involviert ist, aber diese von fundamentaler Bedeutung für die Gesamtstabilität des Proteins und wahrscheinlich für den Hauptkontakt zwischen den Monomeren verantwortlich ist. Im Gegensatz zu NhaA ist die Monomer Monomer Wechselwirkung nicht für die Aktivität von MjNhaP1 notwendig. Aufgrund des höheren Anteils von ungeordneter Struktur im inaktiven Zustand der in Detergenz solubilisierten Probe beobachtet man in diesem Zustand einen höheren (1)H/(2)H Austausch. Der Vergleich mit den Ergebnissen des (1)H/(2)H Austausches von 2D-Kristallen ermöglichte die Lokalisation der ungeordneten Struktur an der Außenseite des Proteinmoleküls im inaktiven Zustand. Die pH-induzierten Differenzspektren zeigten, dass die Aktivierung zu einer Helikalisierung des Proteins und einer Protonierungsänderung der Aminosäureseitenketten von Asparaginsäure und/oder Glutaminsäure unabhängig von der Probenpräparation führt. Der Vergleich von NhaA und MjNhaP1 zeigt, dass die Aktivierung in beiden Fällen mit einer Konformationsänderung und Änderung der Protonierung oder der Umgebung von einer oder mehreren Seitenketten von Asparaginsäure oder Glutaminsäure verbunden ist. Dabei sind die Strukturänderungen der beiden Proteine während der Aktivierung ähnlich, bei Inaktivierung jedoch deutlich unterscheidbar. Die pH-induzierten Strukturänderungen wurden bei NhaA und MjNhaP1 durch die Mutanten G338S und R347A, die keine pH-Abhängigkeit der Aktivität zeigen, bestätigt.
Die Coltrims-Methode hat sich seit den 1990er Jahren als gutes experimentelles Instrument in der Atomphysik und darüberhinaus etabliert. Sie beruht darauf, dass die bei einer Reaktion entstehenden Fragmente mit ortssensitiven Detektoren nachgewiesen werden. Die Signale der Detektoren wurden bisher mit einem analogen Vorverstärker verstärkt und dann mit Hilfe eines Constant Fraction Discriminators in digitale Signale umgewandelt. Die Zeitinformation der digitalen Signale wurden von Time to Digital Convertern aufgenommen und im Computer gespeichert. Mit dieser Form der Auslese und Analyse der von den Detektoren stammenden Signale können nur einige wenige Fragmente nachgewiesen werden. Die Lösung dieses Problems besteht also darin, eine neue Variante für die Auslese und Analyse der Signale zu finden. Diese wurde in der Verwendung eines Transientenrekorders gefunden. Anstatt nur die Zeitinformation zu speichern, nimmt dieser die gesamte Signalform der Detektoren auf. Die Aufgabe, die in dieser Arbeit bearbeitet werden sollte, bestand darin, eine Software zu entwickeln, mit deren Hilfe der Transientenrekorder gesteuert werden kann. Auch sollte ein Weg gefunden werden nur die für das Experiment notwendigen Informationen des aufgenommenen Zeitfensters zu speichern. Des Weiteren sollten Methoden aufgezeigt werden, wie die aufgenommen Signale untersucht und deren Parameter extrahiert werden können. Diese Methoden wurden dann an realen Signalen getestet. Nachdem im ersten Kapitel die Motivation zu dieser Arbeit und einige theoretische Hintergründe vorgestellt werden, wird im zweiten Kapitel auf verschiedene Methoden der Signalanalyse eingegangen. Der Augenmerk liegt dabei sowohl auf Einzel- sowie Doppelsignalanalyse. Die Güte der vorgestellten Algorithmen wird mit Hilfe von künstlichen Signalen ermittelt. Es zeigt sich, dass die beste Methode die zeitliche Position der Einzelsignale zu finden, der Pulsfit ist. Mit dieser Methode kann eine Auflösung von etwa 50 ps erzielt werden. Bei der Betrachtung der Doppelsignale stellt sich heraus, dass der minimale Abstand zwischen den Signalen 5 ns bis 7 ns betragen muss. Das dritte Kapitel zeigt eine Anwendung des neuen Aufnahmesystems. Dort werden die physikalischen Ergebnisse, die mit Hilfe des neuen Systems gewonnen werden konnten, mit einem herkömmlichen Aufnahmesystem verglichen. Aufgrund der geringeren Totzeit des neuen Aufnahmesystems konnte mehr Statistik gewonnen werden. Der dadurch gewonnene Vorteil zeigt sich deutlich in den Ergebnissen, bei denen eine vierfach Koinzidenz verlangt wird. Bei dem nächsten Kapitel beschriebenen Experiment mussten sehr viele Fragmente nachgewiesen werden. Hierzu wird ein weiteres Kriterium neben der Zeitsumme vorgestellt mit dem die Anodensignale einander zugewiesen werden können. Die in diesem Kapitel gezeigten physikalischen Ergebnisse zeigen die Impulsverteilungen für Neon und Helium für unterschiedliche Lichtintensitäten bzw. Ionisationsprozesse. Im darauf folgenden Kapitel wird beschrieben, wie die neue Aufnahmemethode dazu verwendet werden kann, die von den Detektoren kommenden Signale genauer zu analysieren. Die physikalische Reaktion führte dazu, dass von dem Detektor hauptsächlich Doppelsignale aufgenommen wurden. Dies erlaubt die Untersuchung der Doppelsignalalgorithmen an realen Signalen. Hierbei zeigte sich, dass die Totzeit bei realen Signalen vergleichbar mit der Totzeit bei künstlichen Signalen ist. Die Algorithmen können bei Abständen der Einzelsignale von weniger als 10 ns die Position der Signale nicht mehr genau bestimmen. Anhand der Pulshöhenverteilung kann gezeigt werden, dass der verwendete Detektor in der Mitte eine geringere Nachweiseffizienz hatte. Im letzten Kapitel wird die Güte der verschiedenen Methoden der Einzelsignalanalyse anhand von realen Signalen überprüft. Dabei wurden Signale desselben Detektors mit unterschiedlichen Vorverstärkern verstärkt. Die beiden Vorverstärker unterschieden sich in ihrer Bandbreitenbegrenzung. Die Daten wurden mit einem Transientenrekorder mit 2 GS aufgenommen. Es wird gezeigt wie diese Daten umgewandelt werden können, so dass sie einem System mit nur 1 GS entsprechen. Dies erlaubt es die Güte der Methoden für Signale eines Systems mit 2 GS mit denen eines Systems mit 1 GS zu vergleichen. Es zeigt sich in der Pulshöhenverteilung, dass die Signale des stärker bandbreitenbegrenzten Vorverstärkers vergleichbar mit den künstlichen Signalen sind. Die Signale des weniger stark bandbreitenbegrenzten Vorverstärkers weisen eine zu starke Abhängigkeit ihrer Breite von der Pulshöhe auf. Aus diesem Grund sind die Ergebnisse des letzt genannten Vorverstärkers abweichend von den Ergebnissen mit den künstlichen Signalen. Bei diesem Vorverstärker zeigte der einfache Constant Fraction Algorithmus die beste Auflösung.
Die Untersuchung der Eigenschaften von Hadronen und ihren Konstituenten (Quarks und Gluonen) in heißer und/oder dichter Kernmaterie ist eines der Hauptziele der Physik mit schweren Ionen. Der Zustand dichter und heißer Materie kann im Labor für kurze Zeit in der Reaktionszone von relativistischen Schwerionenkollisionen geschaffen werden. Einen Einblick über die Eigenschaften der starken Wechselwirkung und über die Massenerzeugung der Hadronen geben Dileptonen-Experimente, da Leptonen nicht von der starken Wechselwirkung beeinflusst werden. Unabhängig von der Strahlenergie zeigen die invarianten Massenspektren der Dileptonen in Schwerionenkollisionen im Vergleich zur Superposition der erwarteten hadronischen Zerfälle im Vakuum einen Überschuss im invarianten Massenbereich 0,2 - 0,6 GeV/c². Während dieser Überschuss bei CERN-SPS Energien in Zusammenhang mit der In-Medium-Modifikation der Spektralfunktion des Rho-Mesons gebracht wird, konnte die hohe Zahl der Dileptonen, die von der DLS Kollaboration in C + C und Ca + Ca bei 1 GeV/u beobachtet wurde, bis zum Erscheinen der HADES Daten nicht zufrieden stellend erklärt werden. Die Diskrepanz zwischen experimentellen Daten und Transportrechnungen erhielt den Namen "DLS Puzzle". In diesem Zusammenhang wurde eine kontroverse Diskussion über die Validität der Ergebnisse der DLS Kollaboration geführt. Das HADES Detektorsystem (High Acceptance Di-Electron Spectrometer), das sich am Schwerionensynchroton der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt befindet, ist zur Zeit das einzige Experiment, das Dielektronen bei Projektilenergien von 1 - 2 GeV/u misst. Es tritt somit die Nachfolge des DLS Experiments an. Jedoch ist HADES durch zahlreiche technische Verbesserungen, u.a. Massenauflösung und Akzeptanz, im Vergleich zum Spektrometer DLS ein Experiment der 2. Generation. Erste Ergebnisse der Messung 12C + 12C bei 2 GeV/u der HADES Kollaboration bestätigen den generellen Trend einer erhöhten Zählrate im Vergleich zu den erwarteten Beiträgen von hadronischen Zerfällen. Es stellt sich die Frage, wie sich diese Beobachtung zu kleineren Strahlenergien hin fortsetzt. Im Rahmen der vorliegenden Arbeit wird die mit dem HADES Detektorsystem durchgeführte Messung der Dielektronenproduktion in der Schwerionenkollision 12C + 12C bei einer Projektilenergie von 1 GeV/u ausgewertet. Wesentliche Zielsetzungen sind u. a. die Überprüfung der DLS Daten und die Bestimmung der Anregungsfunktion des Überschusses. In der Analyse wird demonstriert, dass Leptonen effizient nachgewiesen werden. Die dargestellte Paaranalyse zeigt, dass der kombinatorische Untergrund erfolgreich reduziert und die Menge der wahren Dielektronen weitgehend erhalten werden kann. Nach Abzug des kombinatorischen Untergrundes werden die effizienzkorrigierten und normierten invarianten Massen-, Transversalimpuls- und Rapiditätsverteilungen der Dielektronen untersucht. Die Ergebnisse werden mit hadronischen Cocktails verschiedener theoretischer Ansätze verglichen. Diese beinhalten die Beiträge kurz- und langlebiger Dileptonenquellen einer thermischen Quelle (PLUTO) sowie mikroskopische Transportrechnungen (HSD,IQMD). Im Massenbereich 0,2 - 0,6 GeV/c² wird der gemessene Überschuss relativ zu den Vorhersagen bestätigt. Zusammen mit den Ergebnissen der Messung 12C + 12C bei 2 GeV/u zeigt sich, dass der Überschuss mit abnehmender Strahlenergie relativ zunimmt. Eine detaillierte Analyse zeigt, dass der Überschuss in dem Massenintervall 0,15 - 0,5 GeV/c² als Funktion der Projektilenergie entsprechend der Zahl der produzierten neutralen Pionen und nicht wie die Zahl des Eta-Mesons skaliert. Der direkte Vergleich der HADES mit den DLS Ergebnissen zeigt, dass die Daten der vorliegenden Arbeit mit den für lange Zeit angezweifelten DLS Resultaten übereinstimmen. Die Frage nach dem physikalischen Ursprung des Überschusses rückt somit erneut in den Vordergrund. In diesem Zusammenhang ist das Studium der Dileptonenproduktion in elementaren Reaktionen p + p und d + p wichtig. Neuere Rechnungen mit einem One Boson Exchange (OBE) Modell deuten darauf hin, dass die Beiträge von p-p und hauptsächlich p-n zur Bremsstrahlung signifikant höher sind als bisher vermutet. Eine aktualisierte Transportrechnung (HSD), deren Parametrisierung der Bremsstrahlung durch dieses OBE Resultat inspiriert ist, scheint in der Lage zu sein, die Ergebnisse der Messungen 12C + 12C bei 1 GeV/u der HADES und DLS Kollaboration recht gut zu beschreiben. Die entsprechenden Vergleiche sind dargestellt und werden diskutiert. Aber auch die Transportrechnung IQMD erklärt die HADES Daten recht gut. Daher ist es offensichtlich, dass eine direkte Gegenüberstellung der OBE Modellrechnungen und der von der HADES Kollaboration gemessenen und derzeit analysierten Daten zur Dileptonenproduktion in p + p und d + p Reaktionen erforderlich ist. Nur so können sichere Schlüsse über den Ursprung der Dileptonen bei SIS Energien gezogen werden.
The search for a modification of hadron properties inside nuclear matter at normal and/or high temperature and density is one of the more interesting issues of modern nuclear physics. Dilepton experiments, by providing interesting results, give insight into the properties of strong interaction and the nature of hadron mass generation. One of these research tools is the HADES spectrometer. HADES is a high acceptance dilepton spectrometer installed at the heavy-ion synchrotron (SIS) at GSI, Darmstadt. The main physics motivation of HADES is the measurement of e+e- pairs in the invariant-mass range up to 1 GeV/c2 in pion- and proton-induced reactions, as well as in heavy-ion collisions. The goal is to investigate the properties of the vector mesons rho, omega and of other hadrons reconstructed from e+e- decay pairs. Dileptons are penetrating probes allowing to study the in-medium properties of hadrons. However, the measurement of such dilepton pairs is difficult because of a very large background from other processes in which leptons are created. This thesis presents the analysis of the data provided by the first physic run done with the HADES spectrometer. For the first time e+e- pairs produced in C+C collisions at an incident energy of 2 GeV per nucleon have been collected with sufficient statistics. This experiment is of particular importance since it allows to address the puzzling pair excess measured by the former DLS experiment at 1.04 AGeV. The thesis consists of five chapters. The first chapter presents the physics case which is addressed in the work. In the second chapter the HADES spectrometer is introduced with the characteristic of specific detectors which are part of the spectrometer. Chapter three focusses on the issue of charged-particle identification. The fourth chapter discusses the reconstruction of the di-electron spectra in C+C collisions. In this part of the thesis a comparison with theoretical models is included as well. The conclusion and final remarks are given in chapter five.
Die Suche nach einem geeigneten Photosensor für das PANDA-Experiment wurde durch folgende Anforderungen eingegrenzt: • Tauglichkeit in einem starken Magnetfeld • Funktionsfähigkeit trotz niedriger Temperatur • geringe Bauhöhe • interne Verstärkungsstufe wegen der geringen Lichtausbeute von PbWO4 • stabiler Betrieb trotz hoher Strahlenbelastung Diese Punkte werden von Large Area Avalanche-Photodioden (LAAPDs) erfüllt. Da diese Si-Halbleiterdioden im laufenden Experiment einer hohen Strahlenbelastung ausgesetzt sein werden, ist es erforderlich, die Strahlenhärte im Vorfeld intensiv zu testen. Im Rahmen dieser Diplomarbeit wurden Strahlenhärtetests mit geladenen und neutralen Teilchen an (inter-)nationalen Instituten und der Universität Frankfurt durchgeführt, wobei das Hauptaugenmerk auf der Neutronenbestrahlung lag. Dazu wurde eine Messvorrichtung entwickelt und funktionstüchtig aufgebaut, mit der dann die Messungen an fünf verschiedenen Dioden mit einer Kapazität von 180 pF vorgenommen wurden. Während der Bestrahlung wurde der Dunkelstrom in Abhängigkeit von der Bestrahlungszeit bei konstanten Temperaturen gemessen. Vor und nach den Tests wurden die APD-Parameter charakterisert, um später durch den Vergleich der Daten Aussagen zur Strahlenhärte der Photodetektoren machen zu können. Die Ergebnisse und Vergleiche zeigen, dass die APDs nach der Bestrahlung mit Photonen weiterhin gut funktionieren. Die Quantenausbeute verändert sich nicht. Der durch Protonen- (Rate ≈ 1013 p/cm2 (90 MeV) und Neutronenbestrahlung (Rate ≈ 1010 n/cm2 (1 MeV) und 1014 n/cm2 (14 MeV)) erzeugte hohe Dunkelstrom der APDs ist aufgrund seiner Temperaturabhängigkeit und den Ausheilungseffekte reduzierbar. Es ist zu erwarten, dass die APDs im laufenden Experimentbetrieb trotz dieser Strahlung funktionsfähig bleiben werden. Sobald die mit Neutronen bestrahlten APDs abgeklungen sind, werden ihre Parameter zum Vorher-/Nachher-Vergleich vermessen. Dazu gehören der Dunkelstrom in Abhängigkeit von der Verstärkung, die Verstärkung in Abhängigkeit von der Spannung und Wellenlänge und die Quantenausbeute. Um die Ausheilung bestrahlter Photodioden in Abhängigkeit von der Temperatur genauer zu bestimmen, sollen sie (unter Vorspannung) in einem Ofen bei T = 80◦C ausgebacken werden, bis der Dunkelstrom sich wieder in einem Gleichgewicht befindet. Nach diesem Vorgang werden dann alle APD-Parameter noch einmal vermessen, um einen Vergleich mit den Werten vor der Bestrahlung zu ziehen. Neben diesen nachbereitenden Arbeiten wird an ersten rechteckigen APD-Prototypen, die sich in der Entwicklungsphasen befinden, geforscht. An diesen außergewöhnlich großen APDs müssen alle an den quadratischen Photodioden bereits durchgeführten und noch folgenden Tests ebenfalls vorgenommen werden.
Partielle Differentialgleichungen des Reaktions-Diffusions-Typs beschreiben Phänomene wie Musterbildung, nichtlineare Wellenausbreitung und deterministisches Chaos und werden oft zur Untersuchung komplexer Vorgänge auf den Gebieten der Biologie, Chemie und Physik herangezogen. Zellulare Nichtlineare Netzwerke (CNN) sind eine räumliche Anordnung vergleichsweise einfacher dynamischer Systeme, die eine lokale Kopplung untereinander aufweisen. Durch eine Diskretisierung der Ortsvariablen können Reaktions-Diffusions-Gleichungen häufig auf CNN mit nichtlinearen Gewichtsfunktionen abgebildet werden. Die resultierenden Reaktions-Diffusions-CNN (RD-CNN) weisen dann in ihrer Dynamik näherungsweise gleiches Verhalten wie die zugrunde gelegten Reaktions-Diffusions-Systeme auf. Werden RD-CNN zur Identifikation neuronaler Strukturen anhand von EEG-Signalen herangezogen, so besteht die Möglichkeit festzustellen, ob das gefundene Netzwerk lokale Aktivität aufweist. Die von Chua eingeführte Theorie der lokalen Aktivität Chua (1998); Dogaru und Chua (1998) liefert eine notwendige Bedingung für das Auftreten von emergentem Verhalten in zellularen Netzwerken. Änderungen in den Parametern bestimmter RD-CNN könnten auf bevorstehende epileptische Anfälle hinweisen. In diesem Beitrag steht die Identifikation neuronaler Strukturen anhand von EEG-Signalen durch Reaktions-Diffusions-Netzwerke im Vordergrund der dargestellten Untersuchungen. In der Ergebnisdiskussion wird insbesondere auch die Frage nach einer geeigneten Netzwerkstruktur mit minimaler Komplexität behandelt.
Seit einigen Jahren ist die Analyse von EEG-Signalen bei Epilepsie Gegenstand zahlreicher wissenschaftlicher Arbeiten; Zielvorstellung ist dabei die Entwicklung von Verfahren zur Erkennung eines möglichen Voranfallszustandes. Im Vordergrund steht beispielsweise die Approximation einer so genannten effektiven Korrelationsdimension, die Bestimmung der maximalen Lyapunov-Exponenten, Detektionsverfahren für Muster bei Zellularen Nichtlinearen Netzwerken, die Bestimmung der mittleren Phasenkohärenz und Verfahren zur nichtlinearen Prädiktion von EEG-Signalen. Trotz umfangreicher Bemühungen kann bis heute eine Erkennung von Anfallsvorboten mit einer Sensitivität und Spezifität, die eine automatisierte Anfallsvorhersage ermöglichen würde, noch nicht durchgeführt werden. In diesem Beitrag werden neue Ergebnisse zur Prädiktion von EEG-Signalen bei Epilepsie vorgestellt. Dabei werden Signale, welche mittels intrakranieller electrocorticographischer (ECoG) und stereoelectroencephalographischer (SEEG) Ableitungen registriert wurden, segmentweise analysiert. Unter der Annahme, dass sich Änderungen des Systems ,,Gehirn" als Änderungen im Prädiktor, d.h. in seinen Systemparametern widerspiegeln, könnte eine nähere Betrachtung der Prädiktoreigenschaften zu einer Erkennung von Anfallsvorboten führen.
The topic of this thesis is the functional renormalization group. We discuss some approximations schemes. Thereafter we apply these approximations to study different fields of condensed matter physics. Generally we have to evaluate an infinite set of vertex functions describing the scattering of particles. These vertex functions get renormalized away from their bare values governed by an infinite hierarchy of flow equations. We cannot expect to actually solve these equations but have to apply a couple of approximations. The aim is to somehow separate relevant contributions from irrelevant ones. One possible scheme opens up if we rescale fields and vertices. Here "relevance" is used in a quantitative way to describe the scaling behaviour of vertices close to a fixed point of the RG. One disadvantage of describing the system in terms of infinitely many vertices is that the majority of these vertices we have to evaluate are not of interest to us. In most cases we are just looking for the self-energy or the two-particle effective interaction. However there might be contributions to the flow of these vertices that are generated by irrelevant vertices. We generally assume that we can express irrelevant vertices in terms of the relevant and marginal ones. Then in turn it should be possible to write the contributions of these irrelevant vertices to the flow of relevant and marginal ones in terms of relevant and marginal vertices as well. We show how this can be achieved by what we term the adiabatic approximation. We now consider weakly interacting bosons at the critical point of Bose-Einstein condensation. As the transition takes place at a finite temperature this temperature defines an effective ultraviolet cut-off. For the investigation of physical properties that depend on momenta smaller than this cut-off it is therefore sufficient to describe the system by a classical field theory. Our central topic here is the self-energy of the bosons and we are able to evaluate it with the full momentum dependence. For small momenta it approaches a scaling form and as the momentum is gradually increased we observe a crossover to the perturbative regime. As a test for the reliability of our expression for the selfenergy we investigate the interaction induced shift of the critical. Our results compare quite satisfactory to the best available estimates for this shift. For the anomalous dimension our approach predicts the correct order of magnitude however with a considerable error. As an improvement we include more vertices into our calculations. Here we observe that our fixed point estimates indeed approach the best known results but this convergence is quite weak. We turn toward systems of interacting fermions. The formulation of the functional renormalization group implicitly requires knowledge of the true Fermi surface of the full interacting system. In general however we can just calculate it a-posteriori from the self-energy. The requirement to flow into a fixed point can be translated into a fine-tuning of the frequency/momentum independent part r_0 of the rescaled 2-point function. We show how this bare value is related to the momentum dependent effective interaction along the complete trajectory of the RG. On the other hand r_0 expresses the difference between the bare and the true Fermi surface. Putting both equations together results into an exact selfconsistency equation for the Fermi surface. We apply our self-consistency equation above to tackle the problem of finding the true Fermi surface of interacting fermions in low dimensions. The most simple non-trivial model with an inhomogeneous Fermi surface is a system of two coupled metallic chains. The process of interband backward scattering leads to a smoothing of the Fermi surface. Of special interest is if the Fermi momenta of the two bands collapse into just one value. We propose the term confinement transition for this behaviour. We bosonize the interband backward scattering by means of a Hubbard-Stratonovich transformation and treat our system as a single channel problem. This bosonization together with the adiabatic approximation allows us to investigate the system even at strong coupling. Within a simple one-loop treatment our method predicts a confinement transition at strong coupling. However taken vertex renormalizations into account we observe that this confinement is destroyed by fluctuations beyond one-loop. Actually we observe how the confined phase can be stabilized by the inclusion of interband umklapp scattering. Thereafter we consider the physically more relevant case of a two-dimensional system of infinitely many coupled metallic chains. Here the Fermi surface consists of two disconnected weakly curved sheets. We are able to repeat the calculations we have performed for our toy model. Within a self-consistent 2-loop calculation indeed signs for a confinement transition at finite coupling strength emerge.
In this work data of the NA49 experiment at CERN SPS on the energy dependence of multiplicity fluctuations in central Pb+Pb collisions at 20A, 30A, 40A, 80A and 158A GeV, as well as the system size dependence at 158A GeV, is analysed for positively, negatively and all charged hadrons. Furthermore the rapidity and transverse momentum dependence of multiplicity fluctuations are studied. The experimental results are compared to predictions of statistical hadron-gas and string-hadronic models. It is expected that multiplicity fluctuations are sensitive to the phase transition to quark-gluon-plasma (QGP) and to the critical point of strongly interacting matter. It is predicted that both the onset of deconfinement, the lowest energy where QGP is created, and the critical point are located in the SPS energy range. Furthermore, the predictions for the multiplicity fluctuations of statistical and string-hadronic models are different, the experimental data might allow to distinguish between them. The used measure of multiplicity fluctuations is the scaled variance omega, defined as the ratio of the variance and the mean of the multiplicity distribution. In the NA49 experiment the tracks of charged particles are detected in four large volume time projection chambers (TPCs). In order to remove possible detector effects a detailed study of event and track selection criteria is performed. Naively one would expect Poisson fluctuations in central heavy ion collisions. A suppression of fluctuations compared to a Poisson distribution is observed for positively and negatively charged hadrons at forward rapidity in Pb+Pb collisions. At midrapidity and for all charged hadrons the fluctuations are larger than the Poisson ones. The fluctuations seem to increase with decreasing system size. It is suggested that this is due to increased relative fluctuations in the number of participants. Furthermore, it was discovered that omega increases for decreasing rapidity and transverse momentum. A hadron-gas model predicts different values of omega for different statistical ensembles. In the grand-canonical ensemble, where all conservation laws are fulfilled only on the average, not on an event-by-event basis, the predicted fluctuations are the largest ones. In the canonical ensemble the charges, namely the electrical charge, the baryon number and the strangeness, are conserved for each event. The scaled variance in this ensemble is smaller than for the grand-canonical ensemble. In the micro-canonical ensemble not only the charges, but also the energy and the momentum are conserved in each event, the predicted $omega$ is the smallest one. The grand-canonical and canonical formulations of the hadron-gas model over-predict fluctuations in the forward acceptance. In contrast to the experimental data no dependence of omega on rapidity and transverse momentum is expected. For the micro-canonical formulation, which predicts small fluctuations in the total phase space, no quantitative calculation is available yet for the limited experimental acceptance. The increase of fluctuations for low rapidities and transverse momenta can be qualitatively understood in a micro-canonical ensemble as an effect of energy and momentum conservation. The string-hadronic model UrQMD significantly over-predicts the mean multiplicities but approximately reproduces the scaled variance of the multiplicity distributions at all measured collision energies, systems and phase-space intervals. String-hadronic models predict for Pb+Pb collisions a monotonous increase of omega with collision energy, similar to the observations for p+p interactions. This is in contrast to the predictions of the hadron-gas model, where omega shows no energy dependence at higher energies. At SPS energies the predictions of the string-hadronic and hadron-gas models are in the same order of magnitude, but at RHIC and LHC energies the difference in omega in the full phase space is much larger. Experimental data should be able to distinguish between them rather easily. Narrower than Poissonian (omega < 1) multiplicity fluctuations measured in the forward kinematic region (1<y(pi)<y_{beam}) can be related to the reduced fluctuations predicted for relativistic gases with imposed conservation laws. This general feature of relativistic gases may be preserved also for some non-equilibrium systems as modeled by the string-hadronic approaches. A quantitative estimate shows that the predicted maximum in fluctuations due to a first order phase transition from hadron-gas to QGP is smaller than the experimental errors of the present experiment and can therefore neither be confirmed nor disproved. No sign of increased fluctuations as expected for a freeze-out near the critical point of strongly interacting matter is observed.
Die ionenstrahlinduzierte Desorption ist eine Beeinträchtigung der Leistungsfähigkeit moderner Hochstrom-Schwerionensynchrotrons. Umgeladene Projektilionen folgen in den Ablenkmagneten nicht der Sollbahn des Strahls und kollidieren mit der Strahlrohrwand. Dies führt zu einer stimulierten Gasabgabe an das Beschleunigervakuum. Der resultierende erhöhte Druck hat eine deutliche Einschränkung der Strahllebensdauer zur Folge. Um die Menge des abgegebenen Gases zu minimieren wurden zahlreiche Experimente durchgeführt, die der Bestimmung der Desorptionsausbeute (desorbierte Gasmoleküle pro auftretendem Ion) unterschiedlicher Materialien unter Bestrahlung mit verschiedenen Ionen dienten. Die vorliegende Arbeit ist ein Beitrag zum Verständnis der physikalischen Prozesse der ionenstrahlinduzierten Desorption. Die Messung der Desorptionsausbeuten mittels der Druckanstiegsmethode wurde erstmals mit Materialanalytiken wie ERDA und RBS kombiniert. Mit diesem einzigartigen experimentellen Aufbau kann das Desorptionsverhalten mit den Oberflächen- und Festkörpereigenschaften der Proben korreliert werden. Anhand der durchgeführten Experimente mit 1,4 MeV/u Xenon-Ionen konnte gezeigt werden, dass die ionenstrahlinduzierte Desorption im Wesentlichen ein Oberflächeneffekt ist. Zerstäubte Verunreinigungen oder abgetragene Oxidschichten von Metallen liefern keinen nennenswerten Beitrag zum desorbierten Gas. Dennoch ist die Desorptionsausbeute stark von den Festkörpereigenschaften der Probe abhängig. Rein metallische Proben desorbieren unter Bestrahlung mit schnellen Schwerionen weniger stark als Isolatoren. Durch die experimentellen Ergebnisse wurde es möglich, Desorptionsausbeuten unter Ionenbestrahlung anhand eines modiffizierten inelastischen Thermal-Spike-Modells vorauszusagen. Die Erweiterung des Modells ist die Kombination des Temperaturprofils mit der thermischen Desorption. Damit kann die ionenstrahlinduzierte Desorption als die Abgabe von Oberflächenadsorbaten, ausgelöst durch eine kurzzeitige Erhöhung der Oberflächentemperatur um den Ioneneinschlag herum, betrachtet werden.
Die Analyse der Ionisation des in Zürich durchgeführten Ionisationsexperimentes an Helium hat in erster Line gezeigt, wie exakt die optischen Eigenschaften der lambda/4 Platte bekannt sein müssen, um die richtigen Schlussfolgerungen aus den experimentellen Daten zu ziehen. Insbesondere, dass bei der Bandbreite des verwendeten Lichtes, rein zirkulare Laserpulse mit den heutzutage zu Verfügung stehenden Verzögerungsplatten nicht erzeugt werden können und wie gravierend sich eine Restelliptizität von wenigen Prozent auf die Impulsverteilung auswirkt. Wird dieses Wissen jedoch in die Analyse mit eingebracht, so erlaubt der präsentierte Ansatz eine Bestimmung des Ionisationszeitpunktes mit der Genauigkeit in der Größenordnung von 10 Prozent der Dauer einer Laserperiode. Diese Analyse erlaubt in Zukunft in Experimenten mit zirkular polarisierter Laserstrahlung beim Auftreten von Mehrfachionisation die Bestimmung der Zeitintervalle zwischen den einzelnen Ionisatiosereignissen. Des weiteren ermöglicht die vorgestellte Analyse aus den gemessenen Impulsvereilungen eine CEO-Phasenbeestimmung durzuführen, bei welcher die Anzahl der benötigten Ionisationsvorgänge geringer ist als bei der Benutzung eines Stereo-ATI. In Verbindung mit Detektorsystemen, welche in der Lage sind die Winkelverteilungen für Ereignisse zu bestimmen, bei denen sehr viele Ionisationsereignisse auf einmal auftreten, kann die Anzahl der Laserschüsse, die für die Bestimmung der CEO-Phase benötigt werden, stark verringert werden. Das Pump-and-Probe-Experiment liefert trotz der Problematik, welche sich in diesem Fall bei der Anwendung des Pump-and-Probe-Schemas auf Grund der zur Verfügung stehenden Wellenlänge ergeben einen Hinweis auf die Zeitdauer, die zur Isomerisation benötigt wird. Bei den gewählten Intensitäten ist nach einem Zeitraum zwischen 30 und 60 fs zwischen dem Pump- und Probe-Puls ein Anstieg der Anzahl der in drei Teilchen fragmentierten Moleküle zu beobachten, welche einer Vinylidenkonfiguration entstammen. Der relative Anstieg der Vinylidenpopulation beträgt zehn Prozent. Der Grund, dass kein Anstieg der Vinyliden Population von null an zu beobachten ist, ist wahrscheinlich dadurch begründet, dass die Isomerisation schon an den Flanken des Pump-Pulses stattfindet und schon vor Erreichen der maximalen Intensität des Pump-Pulses abgeschlossen ist. Der Analoge Prozess könnte an den Flanken des Probe-Pulses stattfinden. Dies muss durch eine separate theoretische Behandlung erörtert werden.
Ein wesentlicher Forschungsgegenstand der Kernphysik ist die Untersuchung der Eigenschaften von Kernmaterie. Das Verständnis darüber gibt in Teilen Aufschluss über die Erscheinungsweise und Wechselwirkung von Materie. Ein Schlüssel liegt dabei in der Untersuchung der Modifikation der Eigenschaften von Hadronen in dem Medium Kernmaterie, das durch Parameter wie Dichte und Temperatur gekennzeichnet werden kann. Man hofft damit unter anderem Einblick in die Mechanismen zu bekommen, welche zur Massenbildung der Hadronen beitragen. Zur Untersuchung solcher Modifikationen eignen sich insbesondere Vektormesonen, die in e+e- Paare zerfallen. Die Leptonen dieser Paare wechselwirken nicht mehr stark mit der Materie innerhalb der Reaktionszone, und tragen somit wichtige Informationen ungestört nach außen. Das HADES-Spektrometer bei GSI wird dazu verwendet die leichten bei SIS-Energien produzierten Vektormesonen rho, omega und phi zu vermessen. Hierzu wurde zum erste mal das mittelschwere Stoßsystem Ar+KCl bei einer Strahlenergie von 1,76 AGeV gemessen. Die im Vergleich zum früher untersuchten System C+C höhere Spurmultiplizität innerhalb der Spektrometerakzeptanz verlangte eine Anpassung der bisher verwendeten Datenanalyse. Das bisher verwendete Verfahren, mehrere scharfe Schnitte auf verschiedene Observablen seriell anzuwenden, um einzelne Leptonspuren als solche zu identifizieren, wurde durch eine neu entwickelte multivariate Analyse ersetzt. Dabei werden die Informationen aller beteiligten Observablen mit Hilfe eines Algorithmus zeitgleich zusammengeführt, damit Elektronen und Positronen vom hadronischen Untergrund getrennt werden können. Durch Untersuchung mehrerer Klassifizierer konnte ein mehrschichtiges künstliches neuronalen Netz als am besten geeigneter Algorithmus identifiziert werden. Diese Art der Analyse hat den Vorteil, dass sie viel robuster gegenüber Fluktuationen in einzelnen Observablen ist, und sich somit die Effizienz bei gleicher Reinheit steigern lässt. Die Rekonstruktion von Teilchenspuren im HADES-Spektrometer basiert nur auf wenigen Ortsinformationen. Daher können einzelne vollständige Spuren a priori nicht als solche gleich erkannt werden. Vielmehr werden durch verschiedene Kombinationen innerhalb derselben Mannigfaltigkeit von Positionspunkten mehr Spuren zusammengesetzt, als ursprünglich produziert wurden. Zur Identifikation des maximalen Satzes eindeutiger Spuren eines Ereignisses wurde eine neue Methode der Spurselektion entwickelt. Während dieser Prozedur werden Informationen gewonnen, die im weiteren Verlauf der Analyse zur Detektion von Konversions- und pi0-Dalitz-Paaren genutzt werden, die einen großen Beitrag zum kombinatorischen Untergrund darstellen. Als Ergebnis wird das effizienzkorrigierte, und auf die mittlere Zahl der Pionen pro Ereignis normierte, Spektrum der invarianten Elektronpaarmasse präsentiert. Erste Vergleiche mit der konventionellen Analysemethode zeigen dabei eine um etwa 30% erhöhte Rekonstruktionseffizienz. Das Massenspektrum setzt sich aus mehr als 114.000 Paaren zusammen -- über 16.000 davon mit einer Masse größer als 150 MeV. Ein erster Vergleich mit einem einfachen thermischen Modell, welches durch den Ereignisgenerator Pluto dargestellt wird, eröffnet die Möglichkeit, die hier gefundenen Produktionsraten des omega- und phi-Mesons durch m_T-Skalierung an die durch andere Experimente ermittelten Raten des eta zu koppeln. In diesem Zusammenhang findet sich weiterhin ein von der Einschussenergie abhängiger Produktionsüberschluss von F(1,76) = Y_total/Y_PLUTO = 5,3 im Massenbereich M = 0,15...0,5 GeV/c^2. Die theoretische Erklärung dieses Überschusses birgt neue Erkenntnisse zu den in-Medium Eigenschaften von Hadronen.
In this work we study the non-equilibrium dynamics of a quark-gluon plasma, as created in heavy-ion collisions. We investigate how big of a role plasma instabilities can play in the isotropization and equilibration of a quark-gluon plasma. In particular, we determine, among other things, how much collisions between the particles can reduce the growth rate of unstable modes. This is done both in a model calculation using the hard-loop approximation, as well as in a real-time lattice simulation combining both classical Yang-Mills-fields as well as inter-particle collisions. The new extended version of the simulation is also used to investigate jet transport in isotropic media, leading to a cutoff-independent result for the transport coefficient $hat{q}$. The precise determination of such transport coefficients is essential, since they can provide important information about the medium created in heavy-ion collisions. In anisotropic media, the effect of instabilities on jet transport is studied, leading to a possible explanation for the experimental observation that high-energy jets traversing the plasma perpendicular to the beam axis experience much stronger broadening in rapidity than in azimuth. The investigation of collective modes in the hard-loop limit is extended to fermionic modes, which are shown to be all stable. Finally, we study the possibility of using high energy photon production as a tool to experimentally determine the anisotropy of the created system. Knowledge of the degree of local momentum-space anisotropy reached in a heavy-ion collision is essential for the study of instabilities and their role for isotropization and thermalization, because their growth rate depends strongly on the anisotropy.
The work presented in this thesis addresses a key issue of the CBM experiment at FAIR, which aims to study charm production in heavy ion collisions at energies ranging from 10 to 40 AGeV . For the first time in this kinematical range, open charm mesons will be used as a probe of the nuclear fireball. Despite of their short decay length, which is typically in the order of few 100 µm in the laboratory frame, those mesons will be identified by reconstructing their decay vertex.
Die vorliegende Arbeit beschäftigt sich mit den Tieftemperatureigenschaften dreier niedrigdimensionaler Spinsysteme. Der experimentelle Schwerpunkt liegt auf Messungen zur thermischen Ausdehnung und zur spezifischen Wärme, die mit einem hochauflösenden kapazitiven Dilatometer bzw. einem AC-Kalorimetrie-Aufbau durchgeführt wurden. Da die sogenannten magnetischen Grüneisenparameter, die die Stärke der Kopplung des magnetischen Teilsystems ans Gitter beschreiben, durchweg sehr groß sind, liefern insbesondere die thermischen Ausdehnungsmessungen wertvolle Informationen zum Verständnis der behandelten Systeme. Das zentrale Ergebnis dieser Arbeit stellen Messungen an der Hochdruckphase von (VO)2P2O7, kurz HP-VOPO, dar. Dieses System besteht aus alternierenden Spinketten, wobei die beiden Austauschkonstanten ähnliche Werte haben, das heißt es liegt nur eine schwache Alternierung vor. In der thermischen Ausdehnung beobachtet man eine insbesondere in Kettenrichtung sehr ausgeprägte Anomalie bei etwa 13 K. Die Erklärung dieser Anomalie offenbart einen neuartigen Aspekt von alternierenden Spinketten mit schwacher Alternierung, der auf dem Vorhandensein von zwei deutlich verschiedenen Energieskalen beruht, zum einen der größeren der beiden Austauschkonstanten und zum anderen der Energielücke im System. Eine sehr gute quantitative Beschreibung der thermischen Ausdehnungsmessungen gelingt durch eine Erweiterung des herkömmlichen Grüneisenmodells, welches eine Proportionalität zwischen den magnetischen Beiträgen zur thermischen Ausdehnung und zur spezifischen Wärme vorsieht, auf Systeme mit zwei magnetischen Austauschkonstanten. In diesem Fall tritt in der thermischen Ausdehnung ein zusätzlicher, zur Ableitung der Entropie nach der Energielücke proportionaler Term auf, der durch Messungen zur spezifischen Wärme nicht zugänglich ist. Aus den unter Verwendung dieses Modells bestimmten Grüneisenparametern lässt sich folgern, dass die ausgeprägte Tieftemperaturanomalie in HP-VOPO zum Teil von der starken Verzerrungsabhängigkeit der kleineren der beiden Austauschkonstanten, zum Teil aber auch von der Nähe zu einem quantenkritischen Punkt verursacht wird. Das zweidimensionale Dimersystem SrCu2(BO3)2 hat insbesondere durch die Lokalisierung der Triplettanregungen und die dadurch bedingten Magnetisierungsplateaus bei gewissen Bruchteilen der Sättigungsmagnetisierung Berühmtheit erlangt. In der thermischen Ausdehnung wird eine deutliche Anomalie bei der gleichen Temperatur beobachtet (T = 8K), wo sie auch in der spezifischen Wärme auftritt. Sie lässt sich durch die thermische Anregung der lokalisierten Tripletts erklären. Abschließend werden Messungen am natürlichen Mineral Azurit vorgestellt, bei dem die Spins zu sogenannten Diamantketten angeordnet sind. In der Literatur wird noch diskutiert, ob es sich bei Azurit um die magnetisch frustrierte Variante einer solchen Kette handelt. In der magnetischen Suszeptibilität, der spezifischen Wärme und der thermischen Ausdehnung tritt eine auffallende Doppelstruktur auf. Im Tieftemperaturbereich lässt sich die spezifische Wärme gut mit dem effektiven Modell einer homogenen Spinkette beschreiben. Auch der lambdaförmige antiferromagnetische Ordnungsübergang wurde untersucht und das in der Literatur bis B = 2 T gegebene Phasendiagramm, bestehend aus paramagnetischer, antiferromagnetische und Spin-Flop-Phase, bis B = 10 T erweitert.
The high energy loss of heavy ions in matter as well as the small angular scattering makes heavy ion beams an excellent tool to produce almost cylindrical and homogeneously excited volumes in matter. This aspect can be used to pump short wavelength lasers. In an experiment performed at the GSI (Gesellschaft für Schwerionenforschung, Darmstadt, Germany) ion accelerator facility in December 2005 the well-known KrF* excimer laser was pumped with an intense high energy uranium beam. Pulses of an uranium beam with initial particle energy of 250 MeV per nucleon, provided by heavy-ion-synchrotron SIS-18, were delivered to the HHT-target station and then stopped inside a gas laser cell. The maximum beam intensity reached in the experiment was 2,5·109 particles per pulse, which resulted in 34 J/g specific energy deposited in the laser gas. By applying electron cooling and a bunch compression technique at SIS-18, the beam pulses were compressed down to 110 ns (FWHM). A mixture of an excimer laser premix gas (95,5% Kr + 0,5% F2) and a buffer gas (Ar 4.8) was used as the laser gas in proportions of 35/65 and 60/40, respectively. The gas pressure inside the laser cell was varied in the range of 1,2÷2 bar in continues flow mode. The experimental setup consisted of a 1 m long stainless steel tube with a number of diagnostic viewports and two mirror adjustment units. The optical cavity was formed by a flat, Alcoated mirror at the beam entrance and a second dielectrically coated, highly reflective mirror with 3 m radius of curvature at a distance of 1,3 m. A beam of heavy ions has been used to pump a short wavelength gas laser for the first time. Laser effect on the KrF* laser transition (λ = 248 nm) has been successfully demonstrated. Laser threshold for this specific setup was reached with a beam intensity of 1,2·109 particles per pulse. Laser action has been clearly proofed by the following methods: appearance of the laser line, spectral narrowing of the laser line, temporal narrowing of the laser signal, non-linear response of the laser output intensity on the pumping power, and cavity disalignment effect. An energy of the laser pulse of about 2 mJ was measured for an ion beam intensity of 2·109 particles per pulse. The time delay of the onset of the laser emission with respect to the pumping pulse was measured as a function of ion beam intensity. The dependence of spontaneous emission spectra on the gas pressure in a range of 1,3÷2 bar was observed and the optimal gas pressure for laser experiments in the sense of laser efficiency was concluded. As a next step in studying short wavelength lasers pumped with heavy ion beams it is planned to reduce the laser wavelength down to the VUV region of the spectrum, and to proceed to the excimer lasers of the pure rare gases: Xe2 * (λ = 172 nm), Kr2 * (λ = 146 nm), Ar2 * (λ = 126 nm), Ne2 * (λ = 83 nm) and He2 * (λ = 80 nm). We believe that the use of heavy ion beams as a pumping source may lead to new pumping schemes on the higher lying level transitions and considerably shorter wavelengths (XUV and X-ray spectral region), which rely on the high cross sections for multiple ionization of the target species.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung des Prototypen einer supraleitenden CH-Beschleuniger-Struktur. Viele zukünftige Beschleunigeranlagen benötigen ein hohes Tastverhältnis bis hin zum so genannten cw-Betrieb. Dies würde bei normalleitenden Beschleunigern zu sehr großer Wärmeentwicklung führen, welche durch aufwendige Verfahren weggekühlt werden müsste. Da dies meistens gar nicht mehr möglich ist, kommen in solchen Bereichen heutzutage schon häufig supraleitende Beschleuniger zum Einsatz. Große Projekte, die im Hochenergiebereich auf die Supraleitung setzten, sind die SNS Beschleunigeranlage in Oak Ridge (Inbetriebnahme läuft) und das RIA-Projekt, welches radioaktive Isotope beschleunigen soll. Auch zukünftige Projekte, wie ein cw-Linac zur SHE-Synthese, EUROTRANS und IFMIF, sind ohne supraleitende Komponenten nur schwer vorstellbar. Im Rahmen dieser Arbeit wurden zunächst die anderen zur Familie der so genannten H-Moden-Beschleuniger gehörenden Resonatoren kurz vorgestellt. Danach wurde eine Einführung in die Supraleitung mit den wichtigsten Parametern für Niob und den HF-Eigenschaften von Supraleitern gegeben. Um Beschleuniger zu charakterisieren wurde in einem weiteren Kapitel ein überblick über wichtige Kenngrößen gegeben. Dabei wurde auch ein Vergleich der Skalierung von verschiedenen Parametern zwischen Normalleitung und Supraleitung gegeben. Da die Simulationsrechnungen mit dem Programm CST MicroWave Studio durchgeführt wurden, wurden die Grundlagen dieses Programms ebenfalls eingeführt. Es basiert auf der Finiten Integrationstheorie, welche die Maxwell-Gleichungen in eine Zwei-Gitter-Matrixform überführt, damit diese numerisch gelöst werden können. In einem weiteren Kapitel wurde eine Methode zur Bestimmung der Einkopplungsstärke in einen Resonator näher beschrieben. Dabei wurde auf zwei wesentliche Einkopplungsarten, die induktive und die kapazitive, im Detail eingegangen. Die Bestimmung der so genannten externen Güte stellt einen wesentlichen Punkt dar, um die Leitung, die durch einen Sender und Verstärker zur Verfügung gestellt wird, möglichst optimal in den Beschleuniger einzuführen. Wobei auch hierbei wieder auf die Unterschiede zwischen einer Einkopplung in einen normalleitenden und einen supraleitenden Beschleuniger eingegangen wurde. Bei einer supraleitenden Struktur erfolgt die Einkopplung in der Regel überkoppelt. Dies bedeutet, dass man durch zu starke Einkopplung die belastete Güte des Systems herabsetzt, damit eine bessere Regelung möglich ist. Um eine numerische Methode auf ihre Tauglichkeit hin zu testen, wurde zuerst eine Pillbox genommen, um die simulierten Ergebnisse mit einer Messung zu vergleichen. Als sich dabei sehr gute Ergebnisse herausstellten, wurde die Methode noch an einem Kupfermodell einer CH-Struktur verifiziert, bevor die Einkopplung für den supraleitenden Prototyp berechnet wurde. Im 7. Kapitel dieser Arbeit wurden die Voraussetzungen, die vorher geschaffen wurden, für die Optimierung des Prototyps der supraleitenden CH-Struktur angewendet. Dabei ging es um die Optimierung der Feldverteilung auf der Strahlachse durch Anpassung des Endzellendesigns, der Stützenoptimierung, um die magnetischen und elektrischen Spitzenfelder zu reduzieren, einer Untersuchung des Quadrupolanteils in den Spalten der CH-Struktur, der Einkopplung und schließlich um die Möglichkeit des statischen Tunings während der Fertigstellung der Struktur. Auf Grund dieser Untersuchungen wurde schließlich die Fertigstellung eines ersten supraleitenden Prototyps bei der Firma ACCEL in Bergisch-Gladbach in Auftrag gegeben. Diese Struktur wurde in mehreren Kalttests untersucht. Dabei konnten die vorher durch die Simulation festgelegten Designparameter sehr gut verifiziert werden. In den beiden letzten Kapiteln wurden noch Simulationen für eine im Betrieb befindliche Beschleunigeranlage durchgeführt und ein Ausblick auf mögliche Einsatzgebiete der supraleitenden CH-Struktur gegeben. Die durchgeführten Optimierungen für den Hochstrominjektor führten zu einem stabileren Betrieb der Anlage. Durch diese Arbeit konnte gezeigt werden, dass die neuentwickelte CH-Struktur für den Einsatz in supraleitenden Beschleunigern sehr gut geeignet ist. Sie stellt eine sehr kompakte Struktur dar und bietet somit auf kurzer Stecke eine hohe Beschleunigung. Sie ist im Bereich von 10-30% Lichtgeschwindigkeit die einzige supraleitende Vielzellenstruktur.
Die vorliegende Arbeit präsentiert die Ergebnisse der Erzeugung und Diagnostik eines HF-Plasmas in einem magnetischen Quadrupolfeld. Einen Schwerpunkt bildete dabei der Einfluss des magnetischen Quadrupolfeldes auf die Plasmaparameter Elektronentemperatur Te und Elektronendichte ne. Die Extraktion eines Ionenstrahls bietet die Möglichkeit, Zusammenhänge zwischen den erreichten Strahlparametern und den physikalischen Eigenschaften des HF-Plasmas herzustellen. Zudem wird eine Korrelation zwischen der Geometrie der Entladung, der erreichbaren Plasmaparameter und der eingespeisten HF-Leistung aufgezeigt werden. Zunächst wurde die Elektronentemperatur in Abhängigkeit vom eingestellten Gasdruck und von der Stromstärke in den Feldspulen des magnetischen Quadrupols vermessen. Die Emissionsspektroskopie bot sich hierbei als nicht invasive Diagnostik an. Eine umfangreiche Messreihe ergab schließlich ein Profil der Elektronentemperatur, als Funktion der variablen Parameter Gasdruck und Erregerstromstärke. Die Elektronentemperatur im Plasma lag dabei im Bereich zwischen 3eV ohne Magnetfeld bis maximal 11eV mit magnetischem Einschluss. Hierbei zeigten sich einige, auf den ersten Blick überraschende Ergebnisse. So ergab sich ein lokales Maximum der Elektronentemperatur von 11eV bei einem Gasdruck von 1Pa und einer Flussdichte von 11mT. Als physikalische Ursache konnte die Kombination aus zwei resonanten Heizmechanismen identifiziert werden. Sowohl die stochastische Heizung als auch die lokale Anwesenheit von Zyklotronresonanzbedingungen führten zu einer starken Erhöhung der Elektronentemperatur. Ferner konnte experimentell nachgewiesen werden, dass die charakteristischen Eigenschaften des Quadrupolfeldes, das Entstehen dieser Heizmechanismen in einem engen Parameterbereich begünstigte. In diesem Zusammenhang ist die Ausprägung einer Gyroresonanzzone im HF-Plasma erwähnenswert, deren Ausdehnung mit dem Erregerstrom in den Feldspulen des Quadrupols skaliert und die einen maßgeblichen Einfluss auf die Ausprägung hochenergetischer Elektronen hat. Neben der Diagnostik stand auch die Extraktion eines Ionenstrahls im Vordergrund. Das Potential des Gesamtsystems, als Ionenquelle zu fungieren wurde dabei experimentell verifiziert. Spezifische Strahlstromdichten von 8mA/cm²kW konnten dabei erreicht werden. Es ergab sich hierdurch auch die Möglichkeit, einen Zusammenhang zwischen der Elektronendichte im Plasma und der eingespeisten HF-Leistung herzustellen. Die Ergebnisse dienten anschließen dazu, den Einschluss des Plasmas im magnetischen Quadrupolfeld zu quantifizieren. Beim Betrieb des Plasmagenerators ohne Magnetfeld wurden Elektronendichten von 3 . 1016m-3 erzielt. Mit fokussierendem Quadrupolfeld konnte eine lokale Steigerung der Elektronendichte um den Faktor 10 auf 3 . 1017m-3 dokumentiert werden, was die theoretischen Studien von C. Christiansen und J. Jacoby [Chr99], zu den fokussierenden Eigenschaften eines magnetischen Quadrupols, bestätigte. Große Sorgfalt war bei der Konzeption der HF-Einspeisung erforderlich. Da für Entladungsplasmen ein im hohen Maß nichtlinearer Zusammenhang, zwischen den Plasmaparametern und der eingespeisten HF-Leistung besteht, erwies sich die Entwicklung einer HF-Einkopplung als besondere Herausforderung. Hier zeigte sich die Plasmadiagnostik als unverzichtbares Hilfsmittel, um theoretische Vorhersagen und experimentellen Befund in Einklang zu bringen. Als limitierende Rahmenbedingungen erwiesen sich hier die Abmessungen des Quadrupols. In der vorliegenden Arbeit konnte dokumentiert werden, wie die geometrischen Einschränkungen die Auswahl der HF-Einkopplung bestimmten. Das zur Untersuchung des magnetischen Plasmaeinschlusses verwendete Glasrohr, mit einer verhältnismäßig großen Oberfläche und einem vergleichsweise kleinem Volumen, war für eine kapazitive HF-Einkopplung wesentlich besser geeignet als für die ursprünglich antizipierte induktive Plasmaanregung. Die physikalischen Zusammenhänge zwischen den erreichbaren Plasmaparametern, der verwendeten Koppelmethode, der erzielbaren Stromstärke des Ionenstrahls und den Abmessungen des Entladungsgefäßes, konnten durch eine umfassende Analyse aufgeklärt werden. Zudem wurde auch die Problematik des Zerstäubens von Elektrodenmaterial einer qualitativen Untersuchung unterzogen. Hier kristallisierten sich vor allen Dingen die hohen Randschichtpotentiale bei der verwendeten HF-Einkopplung, als physikalische Ursache für die Sputterrate heraus. Basieren auf den gewonnenen Erkenntnissen wurde eine Maßnahme zur Reduzierung der Sputterproblematik vorgenommen. Die Untersuchung des magnetisch eingeschlossenen Entladungsplasmas brachte Einsichten über die Zusammenhänge zwischen gewählter HF-Einkopplung, den Plasmaparametern und den Rahmenbedingungen der Entladungsgeometrie. Es ergeben sich hierdurch wichtige Erkenntnisse, die eine Aufskalierung des vorliegenden Aufbaus hin zu einer Hochstromionenquelle mit spezifischen Strahlstromdichten von 100mA/cm²kW ermöglichen. Ferner ist auch ein Einsatz der Konfiguration als Plasmatarget möglich, um Wechselwirkungen zwischen hochenergetischen Schwerionen und magnetisch fokussierten Entladungsplasmen zu untersuchen.
Quantum chromodynamics predicts the existence of a phase transition from hadronic to quark-gluon matter when temperature and pressure are sufficiently high. Colliding heavy nuclei at ultra-relativistic speeds allows to deposit large amounts of energy in a small volume of space, and is the only available experimental mean to produce the extreme conditions necessary to obtain the deconfined state. Numerous models and ideas were developed in the last decades to study heavy ion physics and understand the properties of extremely heated and compressed nuclear matter. With the ever increasing energy available in the center of mass frame (and thus number of particles produced) and the development of large acceptance detectors, it has become possible to study the fluctuations of physical quantities on an event-by-event basis, and access thermodynamical properties not present in particle spectra. The characteristics of the highly excited matter produced, e.g. thermalization, effect of resonance decay. . . can be investigated by fluctuation analyses. In fact, fluctuations are good indicators for a phase transition and a plethora of fluctuation probes have been proposed to pin down the existence and the properties of the QGP. We study various fluctuation quantities within the Ultra-relativistic Quantum Molecular Dynamics UrQMD and the quantum Molecular Dynamics qMD models. UrQMD is based on hadron and string degrees of freedom and allows to disentangle purely hadronic effects. In contrast, the qMD model includes an explicit transition from quark to hadronic matter and can serve to test adequate probes of the initial QGP state. We show that the qMD model can reasonably reproduce various experimental particles rapidity distributions and transverse mass spectra in wide energy range. Within the frame of the dynamical recombination procedure used in qMD, we study the enhancement of protons over pions (p/π) ratio in the intermediate pt range (1.5 < pt < 2.5). We show that qMD can reproduce the large p/π ≈ 1 observed experimentally at RHIC energies at hadronization. However, the subsequent decay of resonances makes the ratio fall to values incompatible with experimental data. We thus conclude that resonance decay might have a drastic influence on this observable in the quark recombination picture. Charged particles multiplicity fluctuations measured at SPS by the NA49 collaboration are enhanced in midperipheral events for Pb+Pb collisions at Elab = 160 AGeV. This feature is not reproduce by hadron-string transport approaches, which show a flat centrality dependence, within the proper experimental acceptance and with the proper centrality selection procedure. However, we show that the behavior of multiplicity fluctuations in transport codes is similar to the experimental result in full 4π acceptance. We identify the centrality selection procedure as the reason for the enhanced particle multiplicity fluctuations in midperipheral reactions and argue that it can be used to distinguish between different scenarios of particle productions. We show that experimental data might indicate a strong mixing of projectile and target related production sources. Strangeness over entropy K/π and baryon number over entropy p/π ratio fluctuations have been measured by the NA49 experiment in the SPS energy range, from Elab = 20 AGeV up to Elab = 160 AGeV. We investigate the sensitivity of this observable to kinematical cuts and discuss the influence of resonance decay. We find the dynamical p/π ratio fluctuations to increase with beam energy, in agreement with the measured data points. On the contrary, the dynamical K/π ratio fluctuations are essential flat as a function of centrality and depend only weakly on the kinematical cuts applied. Our results are in line with the simulations performed earlier by the NA49 collaboration in their detector acceptance filter. Finally, we focus on the correlations and fluctuations of conserved charges. It was proposed that these fluctuations are sensitive to the fractional charge carried by the quarks in the initial QGP stage and survive the whole course of heavy ion reactions. A crucial point is the influence of hadronization that may relax the initial QGP fluctuation/correlation signals to their hadronic values. We use the quark Molecular Dynamics qMD model to disentangle the effect of recombination-hadronization on charged particles ratio fluctuations, charge transfer fluctuations, baryon number-strangeness correlation coefficient and various ratios of susceptibilities (i.e. correlations over fluctuations). We find that the dynamical recombination procedure implemented in the qMD model destroys all studied initial QGP fluctuations and correlations and might ex- plain why no signal of a phase transition based on event-by-event fluctuations was found in the experimental data until now.
This article generalizes Schwinger’s mechanism for particles production in the arbitrary finite field volume. McLerran-Venugopolan(MV) model and iterative solution of DGLAP equation in the double leading log approximation for small x gluon distribution function were used to derive the new formula for initial chromofield energy density. This initial chromofield energy is distributed among color neutral clusters or strings of different length. This strings are stretched by receding nucleus. From the proposed mechanism of string fragmentation or color field decay based on exact solution of Dirac equation in the different finite volume, the new formulae for esimated baryon kinetic energy loss and rapidity spectrum of produced partons were derived.
Strong chromofields developed at early stages of relativistic heavy-ion collisions give rise to the collective deceleration of net baryons from colliding nuclei. We have solved classical equations of motion for baryonic slabs under the action of time-dependent chromofield. We have studied sensitivity of the slab trajectories and their final rapidities to the initial strength and decay pattern of the chromofield as well as to the back reaction of produced plasma. This mechanism can naturally explain significant baryon stopping observed at RHIC, an average rapidity loss hδyi ≈ 2. Using a Bjorken hydrodynamical model with particle producing source we also study the evolution of partonic plasma produced as the result of chromofield decay. Due to the delayed formation and expansion of plasma its maximum energy density is much lower than the initial energy density of the chromofield. It is shown that the net-baryon and produced parton distributions are strongly correlated in the rapidity space. The shape of net-baryon spectra in midrapidity region found in the BRAHMS experiment cannot be reproduced by only one value of chromofield energy density parameter ǫ0, even if one takes into account novel mechanisms as fluctuations of color charges generated on the slab surface, and weak interaction of baryon-rich matter with produced plasma. The further step to improve our results is to take into account rapidity dependence of saturation momentum as explained in thesis. Different values of parameter ǫ0 has been tried for different variants of chromofield decay to fit BRAHMS data for net-baryon rapidity distribution. In accordance with our analysis, data for fragmentation region correspond to the lower chromofield energy densities than mid-rapidity region. χ2 analysis favors power-law of chromofield decay with corresponding initial chromofield energy density of order ǫf = 30GeV/fm3.
Es wird ein effektives Modell zur Berücksichtigung einer Minimalen Länge in der Quantenfeldtheorie vorgestellt. Im Falle der Existenz Großer Extradimensionen kann dies zu überprüfbaren Modifikationen verschiedener Experimente führen. Es werden verschiedene Phänomene wie z.B. der Casimir-Effekt, Neutrino-Nukleon-Reaktionen oder Neutrinooszillationen diskutiert.
Für Experimente der Atomphysikgruppe der GSI in Darmstadt wird ein Ionenabbremser gebaut, der niederenergetische, extrem hochgeladene Ionen zur Verfügung stellen wird. Die Planungen zu der soganennten HITRAP (highly charged ion's trap) begannen Anfang der neunziger Jahre. Mit dieser Anlage sollen hochgeladene, schwere Ionen auf sehr niedrige, thermische Geschwindigkeiten in zwei Stufen abgebremst und für hochpräzise Massenspektroskopie, Messungen des g-Faktors des gebundenen Elektrons wasserstoffähnlicher Ionen und andere atomphysikalische Experimente zur Verfügung stehen. Diese Deceleratoranlage soll zunächst im Reinjektionskanal hinter dem ESR aufgebaut werden, mit der Möglichkeit, alle Komponenten später beim Ausbau der GSI im Rahmen des FAIR-Projektes in der neu zu errichtenden Anlage für niederenergetische Antiprotonen und Ionen zu verwenden. Die vorliegende Arbeit behandelt die Entwicklung und den Aufbau eines integrierten RFQ-Debuncher-Abbremsbeschleunigers, der einen Teil der HITRAP-Abbremsstrukturen darstellt. Mit diesem wird der Ionenstrahl, vom IH-Abbremsbeschleuniger mit einer Energie von 5oo keV/u kommend auf 6 keV/u abgebremst. Mit dem integrierten Spiralbuncher kann der Strahl in Energie und Energieabweichung an die nachfolgende Kühlerfalle angepasst werden. Es wurden in dieser Arbeit die Grundlagen der Teilchendynamik in einem RFQ-Beschleuniger zum Abbremsen von Teilchenstrahlen erarbeitet und umgesetzt, die zur Auslegung einer solchen Struktur notwendigen Teilchendynamikrechnungen mit RFQSim durchgeführt, geeignete Hf-Strukturen mit dem Simulationsprogramm Microwave Studio entwickelt und untersucht, sowie die thermische Belastung der Strukturen mit dem finite Elementeprogramm ALGOR untersucht. Ein weiterer zentraler Punkt dieser Arbeit ist der Aufbau und die Hf-Abstimmung der RFQ-Struktur, um eine möglichst homogene Feldverteilung entlang der Elektroden zu erreichen. Messungen der Felder im RFQ wurden mit einem Störkondensator, am Debuncher mit einem Störkörper durchgeführt. Nach erfolgreich durchgeführten Vakuumtests am IAP ist die RFQ-Debuncher-Kombination nun bereit für erste Hochleistungstests an der GSI.
Der Nobelpreisträger Hans Albrecht Bethe war einer der ganz großen Physiker des 20. Jahrhunderts. Er gilt als einer der Väter der modernen Quantenphysik. In seiner Bedeutung für die Entwicklung der modernen Physik kommt er selbst Werner Heisenberg oder Max Planck sehr nahe. Er ist in Frankfurt aufgewachsen, hat hier das Goethe-Gymnasium besucht und an der Universität Frankfurt studiert. 1933 musste er emigrieren, da seine Mutter jüdischen Glaubens war. In seiner Heimatstadt Frankfurt ist er bisher fast unbekannt geblieben. Aus Sorge, dass Hitler-Deutschland »die Bombe« zuerst bauen könnte, unterstützte Bethe die USA bei der Entwicklung der Atombombe. Robert Oppenheimer holte ihn 1941 zum Manhattan Project nach Los Alamos (New Mexico). Hans Bethe war der führende theoretische Konstrukteur der Bombe. Doch Zeit seines Lebens glaubte er, damit das Falsche getan zu haben. Nach dem Krieg engagierte er sich für die Rüstungskontrolle. Bethe initiierte 1959 die Genfer Konferenz führender Forscher zur Empfehlung eines kontrollierten Teststoppabkommens und beriet den damaligen US-Präsidenten Dwight Eisenhower bei Fragen zur Einstellung von Kernwaffenversuchen. Er war in den USA und weltweit ein Wissenschaftler mit großem politischem und moralischem Einfluss. ...
Zukunftsforschung ohne Orakel : zur langfristigen Szenarienbildung und der Initiative "Zukunft 25"
(2007)
Jedes Jahrhundert bringt eigene Visionen der Zukunft hervor, wobei vor allem diejenigen Entwicklungen extrapoliert werden, die in der aktuellen Forschung besonders präsent sind. Im 19. Jahrhundert waren dies, wie die gezeigten Sammelbilder belegen, vor allem Verkehr und Mobilität. In seinem Roman »In 80 Tagen um die Erde« drückt Jules Verne die Faszination darüber aus, dass Orte und Menschen zusammenrücken, weil die Entfernungen sich dank moderner Verkehrsmittel wie Auto, Eisenbahn und Flugzeug schneller überbrücken lassen. Die überwiegend optimistischen Zukunftserwartungen des 19. Jahrhunderts sind inzwischen kritischeren, wenn nicht pessimistischen Visionen gewichen. Betrachtet man Filme wie »Blade Runner« oder »Matrix«, so beschäftigen uns heute Themen wie der künstliche oder manipulierte Mensch. Auch der Zukunftsforscher Claudius Gros denkt über die Folgen einer künstlichen Gebärmutter nach. Aber er sieht optimistisch in die Zukunft.