530 Physik
Refine
Year of publication
Document Type
- Article (2266)
- Preprint (1606)
- Doctoral Thesis (598)
- Conference Proceeding (243)
- diplomthesis (100)
- Bachelor Thesis (75)
- Master's Thesis (61)
- Contribution to a Periodical (56)
- Part of Periodical (36)
- Diploma Thesis (35)
- Working Paper (31)
- Book (17)
- Review (11)
- Report (10)
- Other (6)
- Periodical (5)
- Habilitation (4)
- Part of a Book (2)
- Lecture (2)
Keywords
- Kollisionen schwerer Ionen (47)
- heavy ion collisions (44)
- LHC (27)
- Quark-Gluon-Plasma (25)
- Heavy Ion Experiments (22)
- BESIII (19)
- QCD (19)
- e +-e − Experiments (19)
- equation of state (19)
- quark-gluon plasma (19)
Institute
- Physik (4791)
- Frankfurt Institute for Advanced Studies (FIAS) (1594)
- Informatik (1098)
- Präsidium (70)
- MPI für Biophysik (44)
- ELEMENTS (40)
- Biochemie und Chemie (18)
- Biochemie, Chemie und Pharmazie (12)
- Helmholtz International Center for FAIR (12)
- Geowissenschaften (9)
Pion production and charged-particle multiplicity selection in relativistic nuclear collisions
(1982)
Spectra of positive pions with energies of 15-95 MeV were measured for high energy proton, 4He, 20Ne, and 40Ar bombardments of targets of 27Al, 40Ca, 107,109Ag, 197Au, and 238U. A Si-Ge telescope was used to identify charged pions by dE / dx-E and, in addition, stopped pi + were tagged by the subsequent muon decay. In all, results for 14 target-projectile combinations are presented to study the dependence of pion emission patterns on the bombarding energy (from E / A=0.25 to 2.1 GeV) and on the target and the projectile masses. In addition, associated charged-particle multiplicities were measured in an 80-paddle array of plastic scintillators, and used to make impact parameter selections on the pion-inclusive data. NUCLEAR REACTIONS U(20Ne, pi +), E / A=250 MeV; U(40Ar, pi +), Ca(40Ar, pi +), U(20Ne, pi +), Au(20Ne, pi +), Ag(20Ne, pi +), Al(20Ne, pi +), U(4He, pi +), Al(4He, pi +). E / A=400 MeV; Ca(40Ar, pi +), U(20Ne, pi +), U(4He, pi +), U(p, pi +), E / A=1.05), GeV; U(20Ne, pi +), E / A=2.1 GeV; measured sigma (E, theta ), inclusive and selected on associated charged-particle multiplicity.
Pion-production cross sections have been measured for the reaction 40Ar+40Ca--> pi ++X at a laboratory energy of 1.05 GeV/nucleon. A maximum in the pi + cross section occurs at mid-rapidity, which is anomalous relative to p+p and p+nucleus reactions and compared to many other heavy-ion reactions. Calculations based on cascade and thermal models fail to fit the data.
In this work we study basic properties of unstable particles and scalar hadronic resonances, respectively, within simple quantum mechanical and quantum field theoretical (effective) models. The term 'particle' is usually assigned to entities, described by physical theories, that are able to propagate over sufficiently large time scales (e.g. from a source to a detector) and hence could be identified in experiments - one especially should be able to measure some of their distinct properties like spin or charge. Nevertheless, it is well known that there exists a huge amount of unstable particles to which it seems difficult to allocate such definite values for their mass and decay width. In fact, for extremely short-lived members of that species, so called resonances, the theoretical description turns out to be highly complicated and requires some very interesting concepts of complex analysis.
In the first chapter, we start with the basic ideas of quantum field theory. In particular, we introduce the Feynman propagator for unstable scalar resonances and motivate the idea that this kind of correlation function should possess complex poles which parameterize the mass and decay width of the considered particle. We also brie
y discuss the problematic scalar sector in particle physics, emphasizing that hadronic loop contributions, given by strongly coupled hadronic intermediate states, dominate its dynamics. After that, the second chapter is dedicated to the method of analytic continuation of complex functions through branch cuts. As will be seen in the upcoming sections, this method is crucial in order to describe physics of scalar resonances because the relevant functions to be investigated (namely, the Feynman propagator of interacting quantm field theories) will also have branch cuts in the complex energy plane due to the already mentioned loop contributions. As is consensus among the physical community, the understanding of the physical behaviour of resonances requires a deeper insight of what is going on beyond the branch cut. This will lead us to the idea of a Riemann surface, a one-dimensional complex manifold on which the Feynman propagator is defined.
We then apply these concepts to a simple non-relativistic Lee model in the third chapter and demonstrate the physical implications, i.e., the motion of the propagator poles and the behaviour of the spectral function. Besides that, we investigate the time evolution of a particle described by such a model. All this will serve as a detailed preparation in order to encounter the rich phenomena occuring on the Riemann surface in quantum field theory. In the last chapter, we finally concentrate on a simple quantm field theoretical model which describes the decay of a scalar state into two (pseudo)scalar ones. It is investigated how the motion of the propagator poles is in
uenced by loop contributions of the two (pseudo)scalar particles. We perform a numerical study for a hadronic system involving a scalar seed state (alias the σ-meson) that couples to pions. The unexpected emergence of a putative stable state below the two-pion threshold is investigated and it is claeifieed under which conditions such a stable state appears.
Wir haben uns in dieser Arbeit der Frage nach der Dissipation in niederenergetischen Schwerionenkollisionen gewidmet. Dissipation im Allgemeinen hat ihre Ursache in direkten Teilchenkollisionen, die in der Methode von TDHF bezüglich der Nukleonen fehlen. Im VUU-Modell sind sie dagegen ein zentraler Bestandteil der Zeitentwicklung und spielen bei mittleren und hohen Energien eine wichtige Rolle.
Mithilfe des VUU-Modells wurde deshalb versucht einen Einfluss der Nukleon-Nukleon-Kollsionen auf den Impulsstrom festzustellen, der an der Verbindungsstelle in der Reaktion 16O + 132Sn mit b = 7 fm und Ecm = 100 vorliegt. Dabei variierten wir den NN-Wirkungsquerschnitt im Kollisionsterm der VUU-Gleichung mit der Erwartung, dass eine daraus resultierende Verminderung bzw. Erhöhung der Stoßrate Auswirkungen auf die Geschwindigkeitsverteilungen der Materie zeigt. Ein positives Ergebnis hätte den Schluss nahegelegt, dass die mittlere freie Weglände und damit die Viskosität von Kernmaterie in Schwerionenkollisionen zu berücksichtigen ist.
Im Verlauf unserer Analyse haben wir festgestellt, dass die von uns verwendeten Methoden nicht zu den gewünschten Ergebnissen führten, z.T. auch weil die Kerne in den VUU-Rechnungen Instabilität aufwiesen und so die relevante Reaktionszeit einschgeschränkt wurde. Wir konnten einen Einfluss von direkten Teilchenkollisionen auf den Impulsstrom zwischen den Kernen des obigen Systems nicht verifizieren. Zusätzliche Simulationen an 12C + 12C mit b = 0 fm haben dann gezeigt, dass offenbar der allergrößte Teil der Nukleon-Nukleon-Kollisionen aufgrund des Pauli-Prinzips blockiert wird. Aus diesem Grund ziehen wir die Möglichkeit in Betracht, dass die starke Präsenz des Pauli-Prinzips im niederenergetischen Bereich die Stoßrate nicht nur maßgeblich reduziert, sondern damit direkte Stöße insgesamt kaum Einfluss auf den Impulsstrom und die Dissipation haben könnten. Die Dissipation ist demnach hauptsächlich auf einen Austausch üuber die Verbindungsstelle zweier Kerne zurückzuführen, was in weiterführender Literatur unter dem Stichwort window formula bekannt ist.
Weitere Untersuchungen in diese Richtung sind wünschenwert. Insbesondere ist es erforderlich das angesprochene Zeitproblem zu lösen, um eventuell die Stoßrate zu erhöhen. Dann könnte ein möglicher Einfluss auf den Impulsstrom wesentlich länger und detaillierter studiert werden. Es bietet sich zudem an, das benutzte Auswerteprogramme vuudens so abzuändern, dass z.B. ein feineres Gitter benutzt werden kann, auf dem die Dichten berechnet werden. Das so gesteigerte Auflösungsvermögen würde sicherlich die
Unzulänglichkeiten der in dieser Arbeit verwendeten Methoden reduzieren. Bei weiterem und tieferem Studium der besprochenen Prozesse könnte es natürlich sein, dass bessere Ansätze zur Analyse gefunden werden. Dies wäre in jedem Fall zu begrüßen.
Light scalar mesons can be understood as dynamically generated resonances. They arise as 'companion poles' in the propagators of quark-antiquark seed states when accounting for hadronic loop contributions to the self-energies of the latter. Such a mechanism may explain the overpopulation in the scalar sector - there exist more resonances with total spin J=0 than can be described within a quark model.
Along this line, we study an effective Lagrangian approach where the isovector state a_{0}(1450) couples via both non-derivative and derivative interactions to pseudoscalar mesons. It is demonstrated that the propagator has two poles: a companion pole corresponding to a_{0}(980) and a pole of the seed state a_{0}(1450). The positions of these poles are in quantitative agreement with experimental data. Besides that, we investigate similar models for the isodoublet state K_{0}^{*}(1430) by performing a fit to pion-kaon phase shift data in the I=1/2, J=0 channel. We show that, in order to fit the data accurately, a companion pole for the K_{0}^{*}(800), that is, the light kappa resonance, is required. A large-N_{c} study confirms that both resonances below 1 GeV are predominantly four-quark states, while the heavy states are quarkonia.
Die vorliegende Arbeit basiert auf einer Kombination von IR-Messungen und Spektrenberechnungen mittels Dichtefunktionaltheorie und konnte tiefere Einblicke in die von vielfältigen Überlagerungen geprägten Spektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans geben. Absorptionsmessungen zu allen 20 natürlich vorkommenden a-Aminosäuren wurden an wässrigen Lösungen im Spektralbereich von 1800 bis 500 cm-1 durchgeführt und stellten eine wichtige Grundlage zur Identifikation von Signalen der Aminosäuren im Proteinspektrum dar. Durch die Berechnung der molaren Absorptionskoeffizienten aus den Aminosäurespektren konnten Beiträge einzelner Aminosäuren zum Proteinspektrum besser eingeordnet bzw. abgeschätzt werden. Eine detaillierte Untersuchung für die wichtige Aminosäure Histidin, auch mittels zitierten Rechnungen an Modellsubstanzen, diente zur tendenziellen Zuordnung einige dieser Banden in zeitabhängig gemessenen Proteinspektren. Um eine qualitativ hochwertige Aufnahme der elektrochemisch induzierten Redox- Differenzspektren zu gewährleisten, wurde eine Potentiostaten-Ansteuerung konzipiert und programmiert. Die damit automatisiert durchgeführten Messungen ergaben reproduzierbare Differenzspektren für die Ubichinone mit und ohne Isoprenseitenkette (UQ2, UQ0) als auch für das Protein, den Cytochrom bc1-Komplex, bis 880 cm-1. Dies bedeutete eine Erweiterung des Spektralbereichs im Vergleich zu vorigen Arbeiten und damit die Möglichkeit, signifikante Moden der Ubichinole zu detektieren. Zur Untersuchung der komplexen IR-Spektren der Ubichinole wurden ab initio - und Dichtefunktionaltheorie-Rechnungen durchgeführt. Für diese biologisch essentiellen Moleküle waren bislang keine Struktur- oder Normalmodenberechnungen bekannt und wurden in der vorliegenden Studie erstmals erarbeitet. Bei der Analyse der möglichen Geometrien des UQ0H2-Moleküls mittels ab initio - Studien resultierte eine energetisch günstigste Struktur, bei der beide Methoxygruppen aus der Ringebene in verschiedene Raumhälften (vor und hinter dem Ring) wiesen. Dies ergab sich sowohl für Chinole mit als auch ohne Isoprenseitenkette (gezeigt mittels ab initio oder DFT). Diese Anordnung hat zur Folge, dass es als unwahrscheinlich eingestuft werden kann, dass die Ubichinole in übereinander gestapelter Form vorliegen. Die für die Chinole charakteristischen Hydroxygruppen (COH) orientierten sich beim Ubichinol ohne Seitenkette zu den jeweils benachbarten Methoxygruppen hin. Beim UQ2H2 zeigte die C1-OH Gruppe in Richtung der Isoprenseitenkette. Die Strukturen der oxidierten Ubichinone wiesen den aus der Literatur bekannten Mesomerie-Resonanz-Effekt an den Bindungen C4=O, C2=C3 und C-O der Methoxygruppe an C2 auf. Dieser Effekt wurde an diesen Gruppen auch für das Ubichinon mit Isoprenseitenkette gezeigt, zu dem bislang kaum Literaturdaten aus Rechnungen vorlagen. Für biologisch relevante Zwischenstufen im Redox-/Protonierungsprozess der Chinone (Ubichinone ohne Seitenkette) wurden die Strukturen berechnet. Hier erwies sich eine erste Protonierung an der C1O-Gruppe als energetisch günstiger. Zu diesen Zwischenstufen, die teils radikaler oder anionischer Natur sind, wurden die Spektren im Einklang mit bisherigen DFT-Analysen, die meist zu einfacheren Molekülen vorlagen, erstmals berechnet. Da die Spektrenberechnungen von den Strukturen in vacuo ausgingen, waren zusätzliche Modellstudien an Chinonen hilfreich, bei denen ein Wassermolekül benachbart war. Damit konnten die Auswirkungen entsprechender H-Brücken (z.B. zwischen Protein und Chinon- Molekül) anhand der berechneten Spektren der Modelle eingehender beleuchtet werden und ergaben zudem wichtige Hinweise auf mögliche Anordnungen von Wasserstoffbrücken zum (methoxy-substituierten) Chinol. Die Messungen der Ubichinole in wässriger Lösung und gebunden im Protein ergaben charakteristische Banden zwischen 1120 und 1050 cm-1, die mit den Spektrenberechnungen zugeordnet wurden: Diese Banden beinhalteten die für die Bindung der Ubichinole im Protein aussagekräftigen Signale der beiden C-O Gruppen. Damit wurde ein Grundstein gelegt für Interpretationen der Spektren hinsichtlich der Bindungen der Ubichinole an die Proteinumgebung. Für das oxidierte Ubichinon mit Isoprenseitenkette erwiesen sich die Intensitäten der vier str. C=O / C=C Moden im Vergleich zu UQ0 als verändert. Damit lag ein Beitrag einer dieser Moden zu einer Bande im Proteinspektrum nahe. Hier zeigte sich, dass eine Normalmodenanalyse von hoher Qualität, wie die vorliegende mittels Dichtefunktionaltheorie, entscheidende Aussagen über Banden liefern kann, die bei Messungen an Ubichinon-Lösungen nicht unterscheidbar sind, jedoch beim Molekül im Protein sichtbar sein können. Zu den berechneten Spektren der Ubichinole und der oxidierten Formen wurden jeweils Bandenverschiebungen ermittelt, die mit Isotopenmarkierungen einher gingen und die im Einklang mit den gemessenen Verschiebungen im Falle der 13C1- bzw. 13C4-markierten Ubichinone standen. Die Differenzspektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans zeigten aufgrund des hohen Chinongehalts ausgeprägte Banden der Ubichinole inklusive der erwähnten charakteristischen Moden. Da es in deren Bereich in den Proteinspektren zu Überlagerungen mit Häm- und Aminosäurensignalen kommt, sind weiterführende, experimentelle Studien für ein noch detailliertes Verständnis erforderlich. Die in den Spektren vorhandenen, zahlreichen weiteren Beiträge der verschiedenen Gruppen im Protein wurden anhand von Literaturdaten diskutiert. Dies betraf insbesondere die Schwingungsmoden der Häme und die Amid-Banden, die Signale des Polypeptidrückgrates des Proteins. Für die Spektrendiskussion bzgl. den Aminosäuren im Protein wurden die Ergebnisse aus Kap. 4.1 hinzugezogen. Mit zeitabhängigen IR-Messsungen (alle 30 Sekunden) wurde versucht, Erkenntnisse über weitere Beiträge oder zeitliche Entwicklungen im Proteinspektrum zu gewinnen. Da die Chinone verzögert (zum Anlegen des entsprechenden Potentials) reagierten, waren in Abhängigkeit der Reaktionsrichtung auch Signale anderer Gruppen im Protein messbar. So konnten mehrere Moden der Häme im bc1-Komplex (tendenziell) nachvollzogen werden. Aus diesen Messreihen ergaben sich wichtige Hinweise auf Signale der Histidine am Eisen-Schwefel-Zentrum des Enzyms. Diese Aminosäuren stehen direkt mit den Ubichinolen in der Qo-Bindestelle in Wechselwirkung.
We investigated the implications of string theory in the high-precision regime of quantum mechanics. In particular, we examined a quantum field theoretical propagator which was derived from string theory when compactified at the T-duality self-dual radius and which is closely related to the path integral duality. Our focus was on the hydrogen ground state energy and the 1S1/2−2S1/2 transition frequency, as they are the most precisely explored properties of the hydrogen atom. The T-duality propagator alters the photon field dynamics leading to a modified Coulomb potential. Thus, our study is complementary to investigations where the electron evolution is modified, as in studies of a minimal length in the context of the generalized uncertainty principle. The first manifestation of the T-duality propagator arises at fourth order in the fine-structure constant, including a logarithmic term. For the first time, constraints on the underlying parameter, the zero-point length, are presented. They reach down to 3.9×10−19m and are in full agreement with previous studies on black holes.
In heavy-ion collisions, the quark-gluon plasma is produced far from equilibrium. This regime is currently inaccessible by direct quantum chromodynamics (QCD) computations. In a holographic context, we propose a general method to characterize transport properties based on well-defined two-point functions. We calculate shear transport and entropy far from equilibrium, defining a time-dependent ratio of shear viscosity to entropy density, . Large deviations from its near-equilibrium value , up to a factor of 2.5, are found for realistic situations at the Large Hadron Collider. We predict the far-from-equilibrium time-dependence of to substantially affect the evolution of the QCD plasma and to impact the extraction of QCD properties from flow coefficients in heavy-ion collision data.
In the present work we study the effect of unparticle modified static potentials on the energy levels of the hydrogen atom. By using Rayleigh–Schrödinger perturbation theory, we obtain the energy shift of the ground state and compare it with experimental data. Bounds on the unparticle energy scale U as a function of the scaling dimension and the coupling constant λ are derived. We show that there exists a parameter region where bounds on U ar are stringent, signaling that unparticles could be tested in atomic physics experiments.
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
We compute bremsstrahlung arising from the acceleration of individual charged baryons and mesons during the time evolution of high-energy Au+Au collisions at the Relativistic Heavy Ion Collider using a microscopic transport model. We elucidate the connection between bremsstrahlung and charge stop- ping by colliding artificial pure proton on pure neutron nuclei. From the inten- sity of low energy bremsstrahlung, the time scale and the degree of stopping could be accurately extracted without measuring any hadronic observables. PACS: 25.75.-q, 13.85.Qk
We discuss applications of a recently developed method for model reduction based on linear response theory of weakly coupled dynamical systems. We apply the weak coupling method to simple stochastic differential equations with slow and fast degrees of freedom. The weak coupling model reduction method results in general in a non-Markovian system; we therefore discuss the Markovianization of the system to allow for straightforward numerical integration. We compare the applied method to the equations obtained through homogenization in the limit of large timescale separation between slow and fast degrees of freedom. We numerically compare the ensemble spread from a fixed initial condition, correlation functions and exit times from a domain. The weak coupling method gives more accurate results in all test cases, albeit with a higher numerical cost.
Thermally stable and highly conductive SAMs on Ag substrate — the impact of the anchoring group
(2021)
Self-assembled monolayers (SAMs) on metal substrates are an important part of modern interfacial chemistry and nanotechnology. The robustness of SAMs strongly depends on their thermal stability, which, together with electric conductivity, crucial for their applications in molecular/organic electronics. In this context, using a multidisciplinary approach, the structure, stability, and conductivity properties of conjugated aromatic SAMs featuring the naphthalene backbone and S, Se, or COO group, mediating bonding to the Ag substrate are addressed. Whereas thermal stability of these SAMs exhibits a strong dependence on anchoring group, their conductivity is similar, which is rationalized by tentative model considering redistribution of charge density along the molecular framework. The thermal stability of model naphthalenethiol SAM, emphasized by desorption energy of ≈1.69 eV, is better than that of typical N-heterocyclic carbene (NHC) monolayers considered currently as the most stable SAMs on metal substrates. However, in contrast to NHC SAMs, which are highly insulating, the naphtalene-based SAM, with S, Se or COO anchoring groups, are highly conductive, even in comparison with analogous oligophenyl SAMs (by a factor of 10). A unique combination of the ultimate thermal stability and superior conductivity for the naphthalenethiol SAM on Ag makes it highly attractive for applications.
Conclusion Scale Integration Based on the results of spike-field coherence, the underlying process of shortterm memory seems to involve networks of different sizes within and, most probably, beyond prefrontal cortex. Spikes, which were generated by single neurons, cooperate with local field potentials, which were the slower fluctuations of the environment. Although differences among behavioral conditions appear to be based on rather few instances of phase-locked spikes, the task-related effects on spike-field coherence are highly reliable and cannot be explained by chance, as the comparison of results from experimental and simulated data shows. The differential locking of prefrontal neuron populations with two different frequency bands in their input signals suggests that neuronal activity underlying short-term memory in prefrontal cortex transiently engages cortical circuits on different spatial scales, probably in order to coordinate distributed processes. NeuroXidence method and Synchronizedfiring Based on the results of the calibration datasets, for bi- and multi-variate cases, the extension of NeuroXidence remains its sensitivity and reliability of detecting coordinate firing events for different processes. Based on this extension of NeuroXidence, we demonstrated that in monkey’s prefrontal cortex during short-term memory task, encoding and maintenance of the information rely on the formation of neuronal assemblies characterized by precise and reliable synchronization of spiking activity on a millisecond time scale, which is consistent with the results from spike-spike coherence. The task and performance dependent modulation of synchrony reflects the dynamic formation of group of neurons has large effect on short-term-memory.
Electronic systems living on Archimedean lattices such as kagome and square–octagon networks are presently being intensively discussed for the possible realization of topological insulating phases. Coining the most interesting electronic topological states in an unbiased way is however not straightforward due to the large parameter space of possible Hamiltonians. A possible approach to tackle this problem is provided by a recently developed statistical learning method (Mertz and Valentí in Phys Rev Res 3:013132, 2021. https://doi.org/10.1103/PhysRevResearch.3.013132), based on the analysis of a large data sets of randomized tight-binding Hamiltonians labeled with a topological index. In this work, we complement this technique by introducing a feature engineering approach which helps identifying polynomial combinations of Hamiltonian parameters that are associated with non-trivial topological states. As a showcase, we employ this method to investigate the possible topological phases that can manifest on the square–octagon lattice, focusing on the case in which the Fermi level of the system lies at a high-order van Hove singularity, in analogy to recent studies of topological phases on the kagome lattice at the van Hove filling.
In der vorliegenden Arbeit wird das Auslesekonzept der Driftkammern untersucht und seine Integration in das HADES Datenaufnahmesystem beschrieben. Bedingt durch das mehrstufige Triggersystem und die hohen Anforderungen an die Geschwindigkeit des Systems wurden Methoden zur Datenreduktion entwickelt. Dadurch ist es möglich, die Daten von allen 27 000 Kanälen innerhalb von 10 µs nach dem Trigger auszulesen. Die Daten werden innerhalb von ungefähr 40 ns nach dem Signal der zweiten Triggerstufe weitertransportiert. Im Rahmen der Untersuchungen zur Überwachung der Driftkammerdaten, die im zweiten Teil der Arbeit beschrieben werden, wurde mit der verwendeten Methode zur Bestimmung der intrinsischen Auflösung eine deutliche Verschlechterung Auflösung der Kammern festgestellt, von 120 µm im November 2001 auf über 200 µm im September 2003. Als Ursache hierfür wurde zum einen die geänderte Kalibrationsmethode ausgemacht, die die Laufzeiten der Signale nicht mehr berücksichtigt, zum anderen eine Änderung der Driftgeschwindigkeit aufgrund einer nicht optimalen Hochspannung. Die Methode zur Bestimmung des physikalischen Zentrums der Kammern erlaubt eine Aussage über die Position der Kammern relativ zur Sollposition. Die dabei gefundenen Verschiebungen entlang der z - Achse stimmen für einen Teil der Sektoren mit den im Rahmen des Alignments ermittelten Werten für die Verschiebung des Targets überein. Für die anderen Sektoren ergeben sich zusätzlicher Verschiebungen um 2 bis 6 cm. Das Di - Leptonen - Spektrometer HADES (High Acceptance Di -Elektron-Spektrometer) am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) beginnt nun mit detaillierten Studien leptonischer Zerfälle von Vektormesonen in Kern - Kern - Stößen mit Projektilenergien von 1 bis 2 GeV / Nukleon. Dabei liegt der Schwerpunkt auf der Untersuchung von Zerfällen, die in der Phase hoher Dichte (ungefähr 3 · p..0) und hoher Temperatur stattfinden. Es wird erwartet, daß sich aus der dabei zu beobachtenden Massenverteilung der unterhalb der Schwelle produzierten leichten Vektormesonen r, o und ph ein Hinweis auf die partielle Wiederherstellung der im Vakuum gebrochenen chiralen Symmetrie ergibt.
Mit dem Dileptonenspektrometer HADES sollen Dielektronen aus Kern - Kern - Stößen in einem hadronischen Untergrund bei hohen Multiplizitäten untersucht werden. Die Ereignisrate von 106 pro Sekunde erfordert eine Auslese der Detektoren innerhalb von 10 mikrosek. Die erwarteten hohen Multiplizitäten führen zu einer hohen Granularität der Detektoren und damit auch der Ausleseelektronik. Durch die Verwendung mehrere Triggerstufen wird eine Aufteilung des Auslesesystems auf mehrere Stufen notwendig. Für die Auslese von ~ 26.000 Driftzellen in 24 Driftkammermodulen wurde ein an die Anforderungen des Detektorsystems angepaßtes Auslesekonzept entwickelt. Analoge Signalaufbereitung und Messung der Driftzeit werden direkt am Detektor auf zwei miteinander kombinierten Karten untergebracht. Die nötige Integrationsdichte im Digitalisierungsteil wird durch die Verwendung eines speziellen Zeitmeßverfahrens (TDC) erreicht, das auf Signallaufzeiten in Halbleiterschaltungen basiert. Im gleichen Chip befindet sich auch eine Datenübertragungseinheit, die in der Lage ist die Daten mit der erforderlichen Geschwindigkeit zu transferieren. Durch zwei weitere Module mit Speicher zum Puffern der Ereignisdaten wird den Anforderungen des Triggerkonzeptes Rechnung getragen. Dem verwendete Zeitmeßverfahren (Ringoszillator) ist eine Abhängigkeit der Zeitauflösung von Temperatur und Versorgungsspannung inherent. Ausführliche Messungen im Rahmen dieser Arbeit zeigen, daß die relativen Abhängigkeiten mit 0,2 Promille jedoch in einem Bereich liegen, in dem sie durch geeignete Maßnahmen kontrolliert werden können. Dazu zählen die regelmäßige Kalibrierung, sowie die Messung und Überwachung von Temperatur und Versorgungsspannung. Die Leistungsaufnahme des Auslesesystems liegt mit 5kW (total) noch um ca. einen Faktor zwei über den Spezifikationen. Sowohl die Tests des TDC Zeitmeßteils, als auch die Simulationen zeigen die Realisierbarkeit des Systems. Dies konnte auch durch Simulationen des gesamten Auslesesystems im Rahmen einer Projektstudie zum Triggerkonzept an der Universität Giessen nachgewiesen werden. Ein abschließender Funktionstest der Ausleseelektronik mit dem TDC an der Prototypdriftkammer im Labor ist gegenwärtig in Vorbereitung. Zur endgültigen Realisierung der Ausleseelektronik bedarf es noch der Reduzierung des Platzbedarfes sowie der Leistungsaufnahme. Zur Reduktion der Größe des Motherboardes wird eine mehrlagige Platine entwickelt. Für die Anbringung der Daughterboards ist eine platzsparende Geometrie vorgesehen. Die Reduktion der Leistungsaufnahme wird hauptsächlich durch neuere Entwicklungen bei den Daughterboards möglich. Auch die Verwendbarkeit des im Rahmen eines anderen Projektes entwickelten SAM - Modules als Konzentrator für die Driftkammerauslese ist zu untersuchen. Da diese Karte auch einen DSP enthält, ist entsprechende Software erforderlich. Die Segmentierung des modularen Spektrometersystems erlaubt den endgültigen Aufbau in mehreren Schritten. Vorgesehen ist, zunächst nur einzelne Segmente oder einzelne Ebenen der Driftkammern aufzubauen, und das komplette System erst zu einem spätern Zeitpunkt in Betrieb zu nehmen. Einzelne Komponenten können durch Neuentwicklungen ersetzt werden.
Diese Arbeit beschreibt wie mit physikalischen Methoden die Glukosekonzentration gemessen werden kann. Die Infrarot-Spektroskopie bietet eine Möglichkeit da die Energie der meisten Molekülschwingungen Photonenenergien im infraroten Spektralbereich entspricht. Hier zeigen Glukosemoleküle charakteristische Absorptionsspektren, die mit spektroskopischen Methoden gemessen werden. Um nicht invasiv zu messen, wurde eine photoakustische Messmethode gewählt. Die Grundidee ist, dass die durch Licht angeregten Moleküle ihre Anregungsenergie teilweise in Form von Wärme abgeben. Da die anregende Strahlung intensitätsmoduliert ist, wird auch die Wärmeentwicklung periodisch verlaufen wodurch periodische Volumenänderungen hervorgerufen werden, die eine Druckwelle erzeugen, die sich durch empfindliche Mikrofone oder Schallwandler erfassen lässt. So kann im MIR auf Grund der hohen Spezifizität, der Glukosegehalt mit sehr hoher Genauigkeit bestimmt werden. Die Wellenlänge der Glukoseabsorptionsbanden im MIR Bereich sind im Wesentlichen gekoppelte C=O Streck- und O–H Biegeschwingungen. Im MIR-Bereich zeigen Spektren zwischen 8,3µm bis 11,1µm fünf glukoserelevanten Banden. Der photoakustische Effekt wird durch die Rosencwaig-Gersho Theorie beschrieben. Die Absorption des Lichtes in der Probe bewirkt eine Temperaturerhöhung, die als Wärme an Umgebung abgegeben wird. Da das eingestrahlte Licht gepulst ist, wird auch die Wärme periodisch abgegeben. Durch die Absorption eines Laserpulses in der Haut entsteht ein Temperaturgradient, die abhängig vom Absorptionskoeffizienten und der Glukosekonzentration ist. Der führt zu einer Diffusion von Wärme im Absorptionsvolumen. Die Hautoberfläche und damit eine dünne Luftschicht über der Hautoberfläche werden durch die Diffusionswärme periodisch mit der Modulationsfrequenz der Laser aufgeheizt, was als Druckschwankungen in Messkammer mit Mikrofon detektiert wird. Im Mitteinfrarot geben Quantenkaskadenlaser die beste Lichtquelle, wegen ihre gute Strahlqualität und hohe optische Leistung. Die verwendete photoakustische(PA) Resonanzzelle ist nach dem Prinzip des Helmholtz-Resonators konzipiert. Der Vorteil des Verstärkungsverhaltens einer resonanten PA-Zelle kann unter Umständen durch Verwendung Volumenreduzierten und mit empfindlichen Mikrofonen ausgestatteten nicht-resonanten PA-Zelle erreicht werde. Zum Erfassung der PA Signale wird eine Kombination aus einen Analog-Digital Wandlerkarte verwendet, die eine gemeinsame Zeitbasis mit der synchronen Lasersteuerung und der Datenerfassung liefert und phasenechte Fourieranalyse der photoakustischen Signale ermöglicht. Es wurde ein Modellsystem entwickelt um photoakustischen Glukosemessungen in vitro zu testen. Dieses „Phantommodell“ besteht aus einer dünnen Polymermembran befestigt in eine Gefäß von nur paar ml Volumen die mit verschiedenen Glukosekonzentrationen gefüllt wurde. Die modulierte Laserstrahlung passiert die Messzelle und dringt durch die Folie in die wässerige Glukoselösung ein. Das Folienmaterial und Dicke wurde so gewählt, dass keineAbsorption im verwendeten MIR-Bereich entsteht. Als Lösung für die jeweiligen Glukosekonzentrationen wurde ein Wasser-Albumin Gemisch verwendet mit einen 10%igen Albuminanteil, die verwendet wurde, um den Proteingehalt der Haut zu imitieren und zu zeigen, dass Eiweiß keinen Störeinfluss im Glukosefingerprintbereich hat. Messungen wurden bei steigenden und fallenden Glukosekonzentration durchgeführt damit gezeigt könnte, dass das Messsignal in der PA- Zelle nicht von der Lufterwärmung in der Zelle stammt, sondern vom PA-Signale der Glukose. Die Glukoseschwankungen in der extrazellulären Flüssigkeit der Epidermis spiegeln die Glukoseschwankungen im Blut gut wider, bei einer Messung am Arm entsteht eine Verzögerung von paar Minuten. Im Daumenballenbereich findet aufgrund der guten Durchblutung ein schneller Austausch der Glukosekonzentration der von uns gemessenen interstitiellen Flüssigkeit mit der Blutzuckerkonzentration statt. Deshalb wurden die in-vivo Messungen am Daumenballen durchgeführt. Das Stratum spinosum ist für uns von Bedeutung, da dies das interstitielle Wasser enthält, in dem der Glukosegehalt mit dem Glukosegehalt im Blut gut übereinstimmt. Die photoakustische Messmethode wird nicht-invasiv durchgeführt. Probanden wird Zucker verabreichet und danach in Abständen von 5 Minuten der Blutzucker konventionell bestimmt und gleichzeitig mittels der photoakustischen Messung am Daumenballen durchgeführt. Mit diesen Daten kann die Korrelation zwischen beiden Methoden bestimmt werden. In vielen in vivo Messreihen zeigen sich bereits in direkter Korrelation zu invasiv genommenen Blutzuckerwerten Korrelationskoeffizienten bis zu R=0,8 und eine damit deutliche Evidenz für einen glukoserelevanten Effekt. Trotz der versprechenden Ergebnisse wird deutlich, dass weitere Entwicklungen notwendig sind, damit das System zu einer direkten Konkurrenz zu der vorhandenen invasiven Meßsystemen werden kann.
The maximum recoverable strain of most crystalline solids is less than 1% because plastic deformation or fracture usually occurs at a small strain. In this work, we show that a SrNi2P2 micropillar exhibits pseudoelasticity with a large maximum recoverable strain of ~14% under uniaxial compression via unique reversible structural transformation, double lattice collapse-expansion that is repeatable under cyclic loading. Its high yield strength (~3.8±0.5 GPa) and large maximum recoverable strain bring out the ultrahigh modulus of resilience (~146±19MJ/m3) a few orders of magnitude higher than that of most engineering materials. The double lattice collapse-expansion mechanism shows stress-strain behaviors similar with that of conventional shape memory alloys, such as hysteresis and thermo-mechanical actuation, even though the structural changes involved are completely different. Our work suggests that the discovery of a new class of high performance ThCr2Si2-structured materials will open new research opportunities in the field of pseudoelasticity
Charge states and energy loss of heavy ions after passing an inductively coupled plasma target
(2019)
In various kinds of fields such as accelerator physics, warm dense matter, high energy density physics, and inertial confinement fusion, heavy ions beam-plasma interaction plays an important role, and abundant investigations have been and are being carried out. Taking advantage of a good level of understanding on the interaction between a swift heavy ions beam and a hydrogen gas discharge plasma, an engineering application of a spherical theta-pinch device as a plasma stripper for FAIR (facility for antiproton and ion research) and a scientific application of a swift heavy ions beam as a novel plasma diagnostic tool are proposed and investigated.
The spherical theta-pinch device is manufactured, improved, and comprehensively tested for its application as a plasma stripper. The device is mainly composed of an evacuated glass vessel that can be filled with gas (for example: hydrogen) and a LRC circuit including a capacitors bank and a set of coils. Discharging the device at an initial hydrogen pressure in the glass vessel and an operation voltage for the capacitors bank, a circuit current oscillates in the LRC circuit. The oscillating circuit current in the set of coils induces a corresponding alternating magnetic field inside the glass vessel to ignite and maintain a hydrogen plasma.
Based on the built setup of circuit and plasma diagnostics, the measurements of circuit current, plasma light emission, plasma shape, and hydrogen Balmer series are carried out. The recorded signals of the circuit current and the plasma light emission of many consecutively repetitive discharges overlap perfectly, which indicate a very good reproducibility of the parameters of the LRC circuit during discharge and the generated plasma. From the measured circuit current, a real energy transfer efficiency is calculated by our proposed new model, which shows its overall tendency varying with the hydrogen pressure and the operation voltage, including the maximum value of 25% occurring at an initial hydrogen pressure of around 25 Pa and a maximum operation voltage of 14 kV. So, the discharge at an initial hydrogen pressure of 20 Pa and an operation voltage of 14 ...
In the present work, the problem of protein folding is addressed from the point of view of equilibrium thermodynamics. The conformation of a globular protein in solution at common temperatures is quite complicated without any geometrical symmetry, but it is an ordered state in the sense of its biological activity. This complicated conformation of a single protein molecule is destroyed upon increasing the temperature or by the addition of appropriate chemical agents, as is revealed by the loss of its activity and change of the physical properties, and so on. Once the complicated native structures having biological activity are lost, it would be natural to suppose that the native structure could hardly be restored. Nevertheless, pioneers, such as Anson and Mirsky, recognized as early as in 1925 that this was not always the case. If one defines the folded and unfolded states of a protein as two distinct phases of a system, then under the variation of temperature the system is transformed from one phase state into another and vice versa. The process of protein folding is accompanied by the release or absorption of a certain amount of energy, corresponding to the first-oder-type phase transitions in the bulk. Knowing the partition function of the system one can evaluate its energy and heat capacity under different temperatures. This task was performed in this work. The results of the developed statistical mechanics model were compared with the results of molecular dynamic simulations of alanine poylpeptides. In particular, the dependencies on temperature of the total energy of the system and heat capacity were compared for alanine polypeptides consisting of 21, 30, 40, 50 and 100 amino acids. The good correspondence of the results of the theoretical model with the results of molecular dynamics simulations allowed to validate the assumptions made about the system and to establish the accuracy range of the theory. In order to perform the comparison of the results of theoretical model and the molecular dynamics simulations it is necessary to perform the efficient analysis of the results of molecular dynamics simulations. This task was also addressed in the present work. In particular, different ways to obtain dependence of the heat capacity on temperature from molecular dynamics simulations are discussed and the most efficient one is proposed. The present thesis reports the result of molecular dynamic simulations for not only alanine polypeptides by also for valine and leucine polypeptides. In valine and leucine polypeptides, it is also possible to observe the helix↔random coil transitions with the increase of temperature. The current thesis presents a work that starts with the investigation of the fundamental degrees of freedom in polypeptides that are responsible for the conformational transitions. Then this knowledge is applied for the statistical mechanics description of helix↔coil transitions in polypeptides. Finally, the theoretical formalism is generalized for the case of proteins in water environment and the comparison of the results of the statistical mechanics model with the experimental measurements of the heat capacity on temperature dependencies for two globular proteins is performed. The presented formalism is based on fundamental physical properties of the system and provides the possibility to describe the folding↔unfolding transitions quantitatively. The combination of these two facts is the major novelty of the presented approach in comparison to the existing ones. The “transparent” physical nature of the formalism provides a possibility to further apply it to a large variety of systems and processes. For instance, it can be used for investigation of the influence of the mutations in the proteins on their stability. This task is of primary importance for design of novel proteins and drug delivering molecules in medicine. It can provide further insights into the problem of protein aggregation and formation of amyloids. The problem of protein aggregation is closely associated with various illnesses such as Alzheimer and mad cow disease. With certain modifications, the presented theoretical method can be applied to the description of the protein crystallization process, which is important for the determination of the structure of proteins with X-Rays. There many other possible applications of the ideas described in the thesis. For instance, the similar formalism can be developed for the description of melting and unzipping of DNA, growth of nanotubes, formation of fullerenes, etc.
Layered {\alpha}-RuCl3 is a promising material to potentially realize the long-sought Kitaev quantum spin liquid with fractionalized excitations. While evidence of this exotic state has been reported under a modest in-plane magnetic field, such behavior is largely inconsistent with theoretical expectations of Kitaev phases emerging only in out-of-plane fields. These predicted field-induced states have been mostly out of reach due to the strong easy-plane anisotropy of bulk crystals, however. We use a combination of tunneling spectroscopy, magnetotransport, electron diffraction, and ab initio calculations to study the layer-dependent magnons, anisotropy, structure, and exchange coupling in atomically thin samples. Due to structural distortions, the sign of the average off-diagonal exchange changes in monolayer {\alpha}-RuCl3, leading to a reversal of magnetic anisotropy to easy-axis. Our work provides a new avenue to tune the magnetic interactions in {\alpha}-RuCl3 and allows theoretically predicted quantum spin liquid phases for out-of-plane fields to be more experimentally accessible.
Lambda and Antilambda reconstruction in central Pb+Pb collisions using a time projection chamber
(1997)
The large acceptance time projection chambers of the NA49 experiment are used to record the trajectory of charged particles from Pb + Pb collisions at 158 GeV per nucleon. Neutral strange hadrons have been reconstructed from their charged decay products. To obtain distributions of Λ, and Ks0 in discrete bins of rapidity, y, and transverse momentum, pT, calculations have been performed to determine the acceptance of the detector and the efficiency of the reconstruction software as a function of both variables. The lifetime distributions obtained give values of cτ = 7.8 ± 0.6 cm for Λ and cτ = 2.5 ± 0.3 cm for Ks0, consistent with data book values.
The J/psi-hadron interaction is a key ingredient in analyzing the J/psi suppression in hot hadronic matter as well as the propagation of J/psi in nuclei. As a first step to clarify the J/psi-hadron interactions at low energies, we have calculated J/psi-pi, J/psi-rho and J/psi-nucleon scattering lengths by the quenched lattice QCD simulations with Wilson fermions for beta=6.2 on 24^3*48 and 32^3*48 lattices. Using the Luscher's method to extract the scattering length from the simulations in a finite box, we find an attractive interaction in the S-wave channel for all three systems: Among others, the J/psi-nucleon interaction is most attractive. Possibility of the J/psi-nucleon bound state is also discussed.
Cryo-electron tomography (CET) is a unique technique to visualize biological objects under near-to-native conditions at near-atomic resolution. CET provides three-dimensional (3D) snapshots of the cellular proteome, in which the spatial relations between macromolecular complexes in their near native cellular context can be explored. Due to the limitation of the electron dose applicable on biological samples, the achievable resolution of a tomogram is restricted to a few nanometers, higher resolution can be achieved by averaging of structures occurring in multiples. For this purpose, computational techniques such as template matching, sub-tomogram averaging and classification are essential for a meaningful processing of CET data.
This thesis introduces the techniques of template matching and sub-tomogram averaging and their applications on real biological data sets. Subsequently, the problem of reference bias, which restricts the applicability of those techniques, is addressed. Two methods that estimate the reference bias in Fourier and real space are demonstrated. The real space method, which we have named the “M-free” score, provides a reliable estimation of the reference bias, which gives access to the reliability of the template matching or sub-tomogram averaging process. Thus, the “M-free” score makes those approaches more applicable to structural biology. Furthermore, a classification algorithm based on Neural Networks (NN) called “KerDenSOM3D” is introduced, which is implemented in 3D and compensates for the missing-wedge. This approach helps extracting different structural states of macromolecular complexes or increasing the class purity of data sets by eliminating outliers. A comprehensive comparison with other classification methods shows superior performance of KerDenSOM3D.
Terahertz (THz) radiation lies between the micro and far-infrared range in the electromagnetic spectrum. Compared with microwave and millimeter waves, it has a larger signal bandwidth and extremely narrow antenna beam. Thus, it is easier to achieve high-resolution for imaging and detection applications. The unique properties, such as penetration for majority non-polar materials, non-ionizing characteristic and the spectral fingerprint of materials, makes THz imaging an appealing artifice in the military, biomedical, astronomical communications, and other areas. However, THz radiation’s current low power level and detection sensitivity block THz imaging system from including fewer optical elements than the visible or infrared range. This leads to imaging resolution, contrast, and imaging field of view degenerate and makes the aberration more serious. THz imaging based on the space Fourier spectrum detection is developed in this thesis to achieve high-quality imaging. The main concept of Fourier imaging is by recording the field distribution in the Fourier plane (focal plane) of the imaging system; the information of the target is obtained. The numerical processing method is needed to extract the amplitude and phase information of the imaged target. With additional process, three-dimensional (3D) information can be obtained based on the phase information. The novel recording and reconstructing ways of the Fourier imaging system enables it to have a higher resolution, better contrast, and broader field of view than conventional imaging systems such as microscopy and plane to plane telescopic imaging system.
The work presented in this thesis consists of two imaging systems, one is working at 300 GHz based on the fundamental heterodyne detection of the THz radiation, the other is operated at 600 GHz by utilizing the sub harmonic heterodyne detection technique. The realization and test of the heterodyne detection are based on the THz antenna-coupled field-effect transistor (TeraFET) detector developed by Dr. Alvydas Lisauskas. Both systems use two synchronized electronic multiplier chains to radiate the THz waves. One radiation works as the local oscillator (LO), the other works as illumination with a slight frequency shift, the radiations are mixed on the detector scanning in the Fourier plane to record the complex Fourier spectrum of the imaged target. The LO has the same frequency range as the illuminating radiation for fundamental heterodyne detection but half the frequency range for the sub-harmonic heterodyne detection. The 2-mm resolution, 60-dB contrast, and 5.5-cm diameter imaging area at 300 GHz and the of 500-μm resolution, 40-dB contrast, and 3.5-cm diameter imaging area at 600 GHz are achieved (the 300-GHz illuminating radiation has the approximate power of 600 μW , the 600-GHz illuminating radiation has the approximate power of 60 μW ).
The thesis consists of 6 parts. After the introduction, the second chapter expands on the topic of Fourier optics from a theoretical point of view and the simulations of the Fourier imaging system. First, the theory of the electromagnetic field propagation in free space and through an optical system are investigated to elicit the Fourier transform function of the imaging system. The simulation is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on reconstruction. The preliminary imaging field of view and resolution are also demonstrated. The third chapter describes the Fourier imaging system at 300 GHz based on the fundamental heterodyne detection, including the experimental setup, the 2D, and 3D imaging results. The following fourth chapter reports the integration of the TeraFET detector with two substrate lenses (one is a Si lens on the back-side Si substrate, the other is a wax/PTFE lens on the front side containing the bonding wires) for sub-harmonic heterodyne detection at 600 GHz. The characteristic of the wax/PTFE lens at THz range is presented. After that, the compared imaging results between the detector with and without the wax/PTFE lens are shown. The fifth chapter extends the demonstration on the lateral and depth resolution of the Fourier imaging system in detail and uses the experimental results at 600 GHz to validate the analytical predictions. The comparison of the resolution between the Fourier imaging system and the conventional microscopy system proves that the Fourier imaging system has better imaging quality under the same system configuration. The last chapter in this thesis concludes on the findings of the THz Fourier imaging and gives an outlook for the enhancement of the Fourier imaging system at THz range.
Holographic imaging techniques, which exploit the coherence properties of light, enable the reconstruction of the 3D scenery being viewed. While the standard approaches for the recording of holographic images require the superposition of scattered light with a reference field, heterodyne detection techniques enable direct measurement of the amplitude and relative phase of the electric light field. Here, we explore heterodyne Fourier imaging and its capabilities using active illumination with continuous-wave radiation at 300 GHz and a raster-scanned antenna-coupled field-effect transistor (TeraFET) for phase-sensitive detection. We demonstrate that the numerical reconstruction of the scenery provides access to depth resolution together with the capability to numerically refocus the image and the capability to detect an object obscured by another object in the beam path. In addition, the digital refocusing capability allows us to employ Fourier imaging also in the case of small lens-object distances (virtual imaging regime), thus allowing high spatial frequencies to pass through the lens, which results in enhanced lateral resolution.
One of important consequences of Hagedorn statistical bootstrap model is the prediction of limiting temperature Tcrit for hadron systems colloquially known as Hagedorn temperature. According to Hagedorn, this effect should be observed in hadron spectra obtained in infinite equilibrated nuclear matter rather than in relativistic heavy-ion collisions. We present results of microscopic model calculations for the infinite nuclear matter, simulated by a box with periodic boundary conditions. The limiting temperature indeed appears in the model calculations. Its origin is traced to strings and many-body decays of resonances.
We reexamine the scenario of homogeneous nucleation of the quark-gluon plasma produced in ultra-relativistic heavy ion collisions. A generalization of the standard nucleation theory to rapidly expanding system is proposed. The nucleation rate is derived via the new scaling parameter Z. It is shown that the size distribution of hadronic clusters plays an important role in the dynamics of the phase transition. The longitudinally expanding system is supercooled to about 3 6%, then it is reheated, and the hadronization is completed within 6 10 fm/c, i.e. 5 10 times faster than it was estimated earlier, in a strongly nonequilibrium way. PACS: 12.38.Mh; 12.39.Ba; 25.75.-q; 64.60.Qb
Irreversibility, steady state, and nonequilibrium physics in relativistic heavy ion collisions
(1999)
Heavy ion collisions at ultrarelativistic energies offer the opportunity to study the irreversibility of multiparticle processes. Together with the many-body decays of resonances, the multiparticle processes cause the system to evolve according to Prigogine s steady states rather than towards statistical equilibrium. These results are general and can be easily checked by any microscopic string-, transport-, or cascade model for heavy ion collisions. The absence of pure equilibrium states sheds light on the di culties of thermal models in describing the yields and spectra of hadrons, especially mesons, in heavy ion collisions at bombarding energies above 10 GeV/nucleon. PACS numbers: 25.75.-q, 05.70.Ln, 24.10.Lx
Homogeneous nucleation of quark gluon plasma, finite size effects and longlived metastable objects
(1998)
The general formalism of homogeneous nucleation theory is applied to study the hadronization pattern of the ultra-relativistic quark-gluon plasma (QGP) undergoing a first order phase transition. A coalescence model is proposed to describe the evolution dynamics of hadronic clusters produced in the nucle- ation process. The size distribution of the nucleated clusters is important for the description of the plasma conversion. The model is most sensitive to the initial conditions of the QGP thermalization, time evolution of the energy den- sity, and the interfacial energy of the plasma hadronic matter interface. The rapidly expanding QGP is first supercooled by about T = T Tc = 4 6%. Then it reheats again up to the critical temperature Tc. Finally it breaks up into hadronic clusters and small droplets of plasma. This fast dynamics occurs within the first 5 10 fm/c. The finite size e ects and fluctuations near the critical temperature are studied. It is shown that a drop of longitudinally expanding QGP of the transverse radius below 4.5 fm can display a long-lived metastability. However, both in the rapid and in the delayed hadronization scenario, the bulk pion yield is emitted by sources as large as 3 4.5 fm. This may be detected experimentally both by a HBT interferometry signal and by the analysis of the rapidity distributions of particles in narrow pT -intervals at small |pT | on an event-by-event basis. PACS numbers: 12.38.Mh, 24.10.Pa, 25.75.-q, 64.60.Qb
In dieser Arbeit wurden thermodynamische Eigenschaften eines chiralen Quark Meson Modelles untersucht. Das chirale Quark Meson Model beschreibt die starke Wechselwirkung über den Austausch von Mesonen und zudem die thermische und dichteabhängige Entwicklung der Quarkmassen im Medium über die chirale Symmetrie.Im SU(2) Model wurde zunächst in mean field approximation gearbeitet, um im Anschluss den divergenten Vakuumterm mit einzubeziehen. Nach eingehender Untersuchung der Ergebnisse, wurden dann die thermischen Mesonenfluktuationen studiert. In beiden Ansätzen verschiebt die Nullpunktsenergie den chiralen Phasenübergang zu höheren Temperaturen, wodurch die Massen bei höheren Temperaturen entarten. Beide Ansätze wurden dann zu einem gemeinsamen Modell kombiniert, um den Einfluss der Mesonenfluktuationen auf Ordnungsparameter, Massen und thermodynamische Grössen zu untersuchen. Als Fazit der Studie kann behauptet werden, dass sich der Einfluss der Mesonenfluktuationen in grösserem Maÿ auf die Thermodynamik, als auf den Ordnungsparameter und die Massen auswirkt. Im SU(3) Modell wurden ebenfalls regularisiert und zudem Vektormesonen mitberücksichtigt, welche die Repulsion zwischen den einzelnen Freiheitsgraden modelliert. Die Zustandsgleichung wird durch den Vakuum Term etwas softer und zeigt ein ähnliches Verhalten im niederen Energiebereich. Untersucht wurde neben der Temperatur T, die Elektron Baryon Rate Ye, die Sigma Meson Masse noch der Einfluss der Vektorkopplung. Aus der Zustandsgleichung konntendann Isentropen im T-mu Phasendiagramm errechnet werden, welche in naher Zukunft Aufschluss über eine dritte Familie von kompakten Sternen in Zusammenhang mit der entsprechenden Supernova Explosion geben könnte. Um die Existenz von kompakten Sternen genauer zu analysieren, wurde das chiraleSU(3) Quark Meson Modell bei T = 0 benutzt, um über die aus dem Formalismusgewonnenen Grössen Druck und Energiedichte die Tolmann-Oppenheimer-Volkoff zu lösen. Diese stellen die Masse-Radius Beziehungen kompakter Objekte dar. Auf der Suche nach Twin Stern Lösungen aus dem chiralen SU(3) Quark Meson Model wurde zunächst ein Modell für Hybridsterne entwickelt. Im untersuchten Parameterbereich fanden wir Hybrid Stern Lösungen, bei welchen der Einfluss der Quarkmaterie auf die Stabilität des Sternes untersucht wurde, denn das Einsetzen des Phasenüberganges übt einen zusätzlichen gravitativen Zug auf die hadronische Kruste aus. Der Stern ist stabil, wenn der Druck der Quarkmaterie diesem zusätzlichen Zug standzuhalten vermag. Für einen zu grossen Sprung in der Energiedichte werden die Lösungen jedoch instabil. Zwillingssterne waren nicht unter den Lösungen, da der Übergangsdruck relativklein sein muss, während der Energiedichtesprung eher gross sein sollte. Das Auftreten zweier stabiler Äste in der Masse Radius Relation kann allerdingsmit dem SU(3) Modell und entsprechendem chiralen Phasenübergang modelliert werden. Für einen gewissen Parameterbereich einhergehend mit kleinem Wert des Vakuum Druckes B konnten Nicht-Linearitäten in der Zustangsgleichungzur Lösung der TOV Gleichung beitragen. Im Weitern ist das Zusammenspiel der Vektorkopplung und der Sigma Mesonen Masse einflussreich auf die Lösungen, welche auf Kausalität, Stabilität und neben der 2 Sonnenmassen Bedingung noch auf Restriktionen vom millisecond pulsar PSR J1748-2446ad untersucht wurden.Mit Weltraummissionen wie etwa NICER (Neutron star Interior CompositionExploreR) sollte die Radiusbestimmung kompakter Objekte in Zukunft bis auf einen Kilometer genau bestimmt werden können. Die Entdeckung von zweiSternen mit der gleichen Masse und unterschiedlichen Radien wäre in der Tat ein Beweis für die Existenz von Zwillingssternen, welche dann die Theorie des Phasenüberganges in dichter Materie untermauern würde. Das Kollaps-Szenario eines Zwillingssternes würde weiteren Aufschluss über Neutrino-Emmissivität, Gamma-ray burster und Gravitationswellen Signale geben können. Dynamische Simulationen in allgemein relativistischem Kontext für compact star merger mit den hier diskutierten Zustandsgleichungen sind bereits in Planung, um Eigenschaftenwie beispielsweise das Temperatur- und Dichteprofil solcher Objekte genauer zu analysieren.
Problems of production and study of new neutron-enriched heavy nuclei are discussed. Low-energy multinucleon transfer reactions are shown to be quite appropriate for this purpose. Reactions with actinide beams and targets are of special interest for synthesis of new neutron-enriched transfermium nuclei and not-yet-known nuclei with closed neutron shell N = 126 having the largest impact on the astrophysical r-process. The estimated cross sections for the production of these nuclei look very promising for planning such experiments at currently available accelerators. These experiments, however, are rather expensive and difficult to perform because of low intensities of the massive projectile beams and problems of separating and detecting the heavy reaction products. Thus, realistic predictions of the corresponding cross sections for different projectile-target combinations are definitely required. Some uncertainty still remains in the values of several parameters used for describing the low-energy nuclear dynamics. This uncertainty does not allow one to perform very accurate predictions for the productions of new heavier-than-target (trans-target) nuclei in multinucle on transfer reactions. Nevertheless these predictions are rather promising (large cross sections) to start such experiments at available accelerators if the problem of separation of heavy transfer reaction products would be solved.
The present limits of the upper part of the nuclear map are rather close to the beta stability line while the unexplored area of heavy neutron rich nuclides (also those located along the neutron closed shell N = 126 to the right hand side of the stability line) is extremely important for nuclear astrophysics investigations and, in particular, for the understanding of the r-process of astrophysical nucleogenesis. For elements with Z > 100 only neutron deficient isotopes (located to the left of the stability line) have been synthesized so far. The “north-east” area of the nuclear map can be reached neither in fusion–fission reactions nor in fragmentation processes widely used nowadays for the production of new nuclei. Multi-nucleon transfer processes in near barrier collisions of heavy ions seem to be the only reaction mechanism allowing us to produce and explore neutron rich heavy nuclei including those located at the superheavy island of stability. Neutron capture process can be also considered as an alternative method for the production of long-lived neutron rich superheavy nuclei. Strong neutron fluxes might be provided by nuclear reactors and nuclear explosions in laboratory frame and by supernova explosions in nature.
There are only 3 methods for the production of heavy and superheavy (SH) nuclei, namely, fusion reactions, a sequence of neutron capture and beta(-) decay and multinucleon transfer reactions. Low values of the fusion cross sections and very short half-lives of nuclei with Z<120 put obstacles in synthesis of new elements. At the same time, an important area of SH isotopes located between those produced in the cold and hot fusion reactions remains unstudied yet. This gap could be filled in fusion reactions of 48Ca with available lighter isotopes of Pu, Am, and Cm. New neutron-enriched isotopes of SH elements may be produced with the use of a 48Ca beam if a 250Cm target would be prepared. In this case we get a real chance to reach the island of stability owing to a possible beta(+) decay of 291114 and 287112 nuclei formed in this reaction with a cross section of about 0.8 pb. A macroscopic amount of the long-living SH nuclei located at the island of stability may be produced by using the pulsed nuclear reactors of the next generation only if the neutron fluence per pulse will be increased by about three orders of magnitude. Multinucleon transfer processes look quite promising for the production and study of neutron-rich heavy nuclei located in upper part of the nuclear map not reachable by other reaction mechanisms. Reactions with actinide beams and targets are of special interest for synthesis of new neutron-enriched transfermium nuclei and not-yet-known nuclei with closed neutron shell N=126 having the largest impact on the astrophysical r-process. The estimated cross sections for the production of these nuclei allows one to plan such experiments at currently available accelerators.
This Ph. D. thesis with the title "Characterisation of laser-driven radiation beams: Gamma-ray dosimetry and Monte Carlo simulations of optimised target geometry for record-breaking efficiency of MeV gamma-sources" is dedicated to the study of the acceleration of electrons by intense sub-picosecond laser pulses propagating in a sub-millimeter plasma with near-critical electron density (NCD) and resulting generation of the gamma bremsstrahlung and positrons in the targets of different materials and thickness.
Laser-driven particle acceleration is an area of increasing scientific interest since the recent development of short pulse, high-intensity laser systems. The interaction of intense high-energy, short-pulse lasers with solid targets leads to the production of high-energy electrons in the relativistic laser intensity regime of more than 1018 W /cm2. These electrons play the leading role in the first stage of the interaction of laser with matter, which leads to the creation of laser sources of particles and radiation. Therefore, the optimisation of the electron beam parameters in the direction of increasing the effective temperature and beam charge, together with a slight divergence, plays a decisive role, especially for further detection and characterisation of laser-driven photon and positron beams.
In the context of this work, experiments were carried out at the PHELIX laser system (Petawatt High-Energy Laser for Heavy Ion eXperiments) at GSI Helmholtz Center for Heavy-Ion Research GmbH in Darmstadt, Germany. This thesis presents a thermoluminescence dosimetry (TLD) based method for the measurement of bremsstrahlung spectra in the energy range from 30 keV to 100 MeV. The results of the TLD measurements reinforced the observed tendency towards the strong increase of the mean electron energy and number of super-ponderomotive electrons. In the case of laser interaction with long-scale NCD-plasmas, the dose caused by the gamma-radiation measured in the direction of the laser pulse propagation showed a 1000-fold increase compared to the high contrast shots onto plane foils and doses measured perpendicular to the laser propagation direction for all used combinations of targets and laser parameters.
In this thesis I present novel characterisation method using a combination of TLD measurements and Monte Carlo FLUKA simulations applicable to laser-driven beams. The thermoluminescence detector-based spectrometry method for simultaneous detection of electrons and photons from relativistic laser-induced plasmas initially developed by Behrens et al. (Behrens et al., 2003) and further applied in experiments at PHELIX laser (Horst et al., 2015) delivered good spectral information from keV energies up to some MeV, but as it was presented in (Horst et al., 2015) this method was not really suitable to resolve the content of photon spectra above 10 MeV because of the dominant presence of electrons. Therefore, I created new evaluation method of the incident electron spectra from the readings of TLDs. For this purpose, by means of MatLab programming language an unfolding algorithm was written. It was based on a sequential enumeration of matching data series of the dose values measured by the dosimeters and calculated with of FLUKA-simulations. The significant advantage of this method is the ability to obtain the spectrum of incident electrons in the low energy range from 1 keV, which is very difficult to measure reliably using traditional electron spectrometers.
The results of the evaluation of the effective temperature of super-ponderomotive electrons retrieved from the measured TLD-doses by means of the Monte-Carlo simulations demonstrated, that application of low density polymer foam layers irradiated by the relativistic sub-ps laser pulse provided a strong increase of the electron effective temperature from 1.5 - 2 MeV in the case of the relativistic laser interaction with a metallic foil up to 13 MeV for the laser shots onto the pre-ionized foam and more than 10 times higher charge carried by relativistic electrons.
The progressive simulation method of whole electron spectra described with two -temperatures Maxwellian distribution function has been developed and the results of dose simulations were compared with the acquired experimental data. The advanced feature of this method, which distinguishes it from the results of the simulation of the photon spectrum using the interaction with the target of mono-energetic electron beams (Nilgün Demir, 2013; Nilgün Demir, 2019) or the initial electron spectrum expressed as a function of one electron temperature (Fiorini, 2012), is the ability to simulate the initial electron spectrum described by the Maxwellian distribution function with two temperatures.
The important objective of this thesis was dedicated to the study and characterisation of laser-driven photon beams. In addition to this, the positron beams were evaluated. The investigation of bremsstrahlung photons and positrons spectra from high Z targets by varying the target thickness from 10 µm to 4 mm in simulated models of the interactions of electron spectra with Maxwellian distribution functions allowed to define an optimal thickness when the fluences of photons and positrons are maximal. Furthermore based on the results of FLUKA simulations the gold material was found to be the most suitable for the future experiments as e − γ target because of its highest bremsstrahlung yield.
Additionally Monte Carlo simulations were performed applying the obtained electron beam parameters from the electron acceleration process in laser-plasma interactions simulated with particle-in-cell (PIC) code for two laser energies of 20 J and 200 J. The corresponding electron spectra were imported into a Monte Carlo code FLUKA to simulate the production process of bremsstrahlung photons and positrons in Au converter. FLUKA simulations showed the record conversion of efficiency in MeV gammas can reach 10%, which reinforces the generation of positrons. The obtained results demonstrate the advantages of long-scale plasmas of near critical density (NCD) to increase the parameters of MeV particles and photon beams generated in relativistic laser-plasma interaction. The efficiency of the laser-driven generation of MeV electrons and photons by application of low-density polymer foams is essentially enhanced.
Hot hypernuclear matter is investigated in an explicit SU(3) quark model based on a mean field description of nonoverlapping baryon bags bound by the self-consistent exchange of scalar sigma, zeta and vector omega,phi mesons. The sigma, omega mean fields are assumed to couple to the u, d-quarks while the zeta ,phi mean fields are coupled to the s-quark. The coupling constants of the mean fields with the quarks are assumed to satisfy SU(6) symmetry. The calculations take into account the medium dependence of the bag parameter on the scalar fields sigma, zeta. We consider only the octet baryons N,Lambda,Sigma, Xi in hypernuclear matter. An ideal gas of the strange mesons K and K is introduced to keep zero net strangeness density. Our results for symmetric hypernuclear matter show that a phase transition takes place at a critical temperature around 180 MeV in which the scalar mean fields sigma, zeta take nonzero values at zero baryon density. Furthermore, the bag contants of the baryons decrease significantly at and above this critical temperature indicating the onset of quark deconfinement. The present results imply that the onset of quark deconfinement in SU(3) hypernuclear matter is much stronger than in SU(2) nuclear matter. PACS:21.65.+f, 24.85.+p, 12.39Ba
The properties of strange hadronic matter are studied in the context of the modified quark-meson coupling model using two substantially di erent sets of hyperon-hyperon (Y Y ) interactions. The first set is based on the Nijmegen hard core potential model D with slightly attractive Y Y interactions. The second potential set is based on the recent SU(3) extension of the Nijmegen soft-core potential NSC97 with strongly attractive Y Y interactions which may allow for deeply bound hypernuclear matter. The results show that, for the first potential set, the hyperon does not appear at all in the bulk at any baryon density and for all strangeness fractions. The binding energy curves of the resulting N system vary smoothly with density and the system is stable (or metastable if we include the weak force). However, the situation is drastically changed when using the second set where the hyperons appear in the system at large baryon densities above a critical strangeness fraction. We find strange hadronic matter undergoes a first order phase transition from a N system to a N for strangeness fractions fS > 1.2 and baryonic densities exceeding twice ordinary nuclear matter density. Furthermore, it is found that the system built of N is deeply bound. This phase transition a ects significantly the equation of state which becomes much softer and a substantial drop in energy density and pressure are detected as the phase transition takes place. PACS:21.65.+f, 24.85.+p, 12.39Ba
A new technique developed for measuring nuclear reactions at low momentum transfer with stored beams in inverse kinematics was successfully used to study isoscalar giant resonances. The experiment was carried out at the experimental heavy-ion storage ring (ESR) at the GSI facility using a stored 58Ni beam at 100 MeV/u and an internal helium gas-jet target. In these measurements, inelastically scattered α-recoils at very forward center-of-mass angles (θcm ≤ 1.5°) were detected with a dedicated setup, including ultra-high vacuum compatible detectors. Experimental results indicate a dominant contribution of the isoscalar giant monopole resonance at this very forward angular range. It was found that the monopole contribution exhausts 79+12−11% of the energy-weighted sum rule (EWSR), which agrees with measurements performed in normal kinematics. This opens up the opportunity to investigate the giant resonances in a large domain of unstable and exotic nuclei in the near future. It is a fundamental milestone towards new nuclear reaction studies with stored ion beams.
Fossil dental remains are an archive of unique information for paleobiological studies. Computed microtomography based on X-ray microfocus sources (X-μCT) and Synchrotron Radiation (SR-μCT) allow subtle quantification at the micron and sub-micron scale of the meso- and microstructural signature imprinted in the mineralized tissues, such as enamel and dentine, through high-resolution “virtual histology”. Nonetheless, depending on the degree of alterations undergone during fossilization, X-ray analyses of tooth tissues do not always provide distinct imaging contrasts, thus preventing the extraction of essential morphological and anatomical details. We illustrate here by three examples the successful application of neutron microtomography (n-μCT) in cases where X-rays have previously failed to deliver contrasts between dental tissues of fossilized specimen.
Diese Thesis befasst sich mit dem Problem korrelierter Elektronensysteme in realen Materialien. Ausgangspunkt hierbei ist die quantenmechanische Beschreibung dieser Systeme im Rahmen der sogenannten Kohn-Scham Dichtefunktionaltheorie, welche die Elektronen der Kristallsysteme als effektiv nicht-wechselwirkende Teilchen beschreibt.
Während diese Modellierung im Falle vieler Materialklassen erfolgreich ist, unterscheiden sich die korrelierten Elektronensysteme dadurch, dass der kollektive Charakter der Elektronendynamik nicht zu vernachlässigen ist.
Um diese Korrelationseffekte genauer zu untersuchen, verwenden wir in dieser Arbeit das Hubbard-Modell, welches mit der projektiven Wannierfunktionsmethode aus der Kohn-Scham Dichtefunktionaltheorie konstruiert werden kann.
Das Hubbard-Modell umfasst hierbei nur die lokale Elektron-Elektron-Wechselwirkung auf einem Gitter. Auch wenn das Modell augenscheinlich sehr simpel ist, existieren exakte Lösungen nur in bestimmten Grenzfällen. Dies macht die Entwicklung approximativer Ansätze erforderlich, wobei die Weiterentwicklung der sogenannten Two-Particle Self-Consistent Methode (TPSC) eine zentrale Rolle dieser Arbeit einnimmt.
Bei TPSC handelt es sich um eine Vielteilchenmethode, die in der Sprache funktionaler Ableitungen und sogenannter conserving approximations hergeleitet werden kann.
Der zentrale Gedanke dabei ist, den effektiven Wechselwirkungsvertex als statisch und lokal zu approximieren. Dies wiederum erlaubt die Bewegungsgleichung des Systems
erheblich zu vereinfachen, sodass eine numerische approximative Lösung des Hubbard-Modells möglich wird. Vorsetzung hierbei ist nur, dass sich das System in der normalleitenden Phase befindet und die bei Phasenübergängen entstehenden Fluktuationen nicht zu groß sind.
Während diese Methode ursprünglich von Y. M. Vilk und A.-M. Tremblay für das Ein-Orbital Hubbard-Modell entwickelt wurde, stellen wir in dieser Arbeit eine Erweiterung auf Viel-Orbital-Systeme vor.
Im Falle mehrerer Orbitale treten in der TPSC-Herleitung einzelne Komplikationen auf, die mit weiteren Approximationen behandelt werden müssen. Diese werden anhand eines einfachen Zwei-Orbital Modell-Systems diskutiert und die TPSC-Ergebnisse werden darüber hinaus mit den Ergebnissen der etablierten dynamischen Molekularfeldnährung verglichen.
In diesem Zusammenhang werden auch mögliche zukünftige Erweiterungen bzw. Verbesserungen von TPSC diskutiert.
Ein weiterer wichtiger Aspekt ist die Anwendung von TPSC auf reale Materialien.
In diesem Zusammenhang werden in dieser Arbeit die supraleitenden Eigenschaften der organischen K-(ET)2X Systeme untersucht. Hierbei lassen die TPSC-Resultate darauf schließen, dass das populäre Dimer-Modell, welches zur Beschreibung dieser Materialien herangezogen wird, nicht genügt um die experimentell bestimmten kritischen Temperaturen zu erklären und dass das komplexere Molekülmodell weitere exotische supraleitende Lösungen zulässt.
Schließlich untersuchen wir außerdem die elektronischen Eigenschaften des eisenbasierten Supraleiters LiFeAs und diskutieren inwieweit nicht-lokale Korrelationseffekte, welche durch TPSC aufgelöst werden können, die experimentellen Daten reproduzieren.
One of the most challenging problems in solid state systems is the microscopic analysis of electronic correlations. A paramount minimal model that encodes correlation effects is the Hubbard Hamiltonian, which—regardless of its simplicity—is exactly solvable only in a few limiting cases and approximate many-body methods are required for its solution. In this review, an overview on the non-perturbative two-particle self-consistent method (TPSC), which was originally introduced to describe the electronic properties of the single-band Hubbard model, is presented. A detailed derivation of the multi-orbital generalization of TPSC is introduced here and particular features of the method on exemplary interacting models in comparison to dynamical mean-field theory results are discussed.
Im Rahmen dieser Diplomarbeit sind Ladungsfluktuationen bei Kollisionen von Blei-Kernen bei den Energien 30, 60, 80 und 160 GeV untersucht worden. Das Interesse an den Ladungsfluktuationen beruht darauf, dass sie einen Hinweis auf die Bildung des Quark-Gluon-Plasmas liefern könnten. Im ersten Teil der Arbeit werden mit Hilfe von einfachen Modellen zwei Variablen untersucht, D-tilde und DeltaPhiq, um die optimale Observable zur Messung der Ladungsfluktuationen zu finden. Im zweiten Teil werden experimentelle Resultate präsentiert, die aus den Daten des CERN-SPS-Experimentes NA49 gewonen wurden. Die gemessenen Ladungsfluktuationen entsprechen denen, die von einem Pionen-Gas erwartet werden, wenn die Pionen nur aufgrund der Ladungserhaltung korreliert sind. Es wird jedoch gezeigt, dass diese Resultate nicht der Annahme widersprechen, dass das Quark-Gluon-Plasma bei SPS-Energien gebildet wird.
The properties of two measures of charge fluctuations D-tilde and DeltaPhiq are discussed within several toy models of nuclear collisions. In particular their dependence on mean particle multiplicity, multiplicity fluctuations, and net electric charge are studied. It is shown that the measure DeltaPhiq is less sensitive to these trivial biasing effects than the originally proposed measure D-tilde. Furthermore the influence of resonance decay kinematics is analyzed and it is shown that it is likely to shadow a possible reduction of fluctuations due to QGP creation.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
In der vorliegenden Dissertation werden mit einem chiralen SU(3)-Modell die thermodynamischen Eigenschaften von stark wechselwirkender hadronischer Materie und die mikroskopischen Medium-Eigenschaften von Hadronen bei hohen Temperaturen und hohen Baryonen-Dichten untersucht. Das verwendete chirale Modell ist ein erweitertes sigma-omega-Modell in Mittlerer-Feld-Näherung (Mean-Field) mit baryonischen und mesonischen effektiven Freiheitsgraden; es basiert auf spontan gebrochener chiraler Symmetrie und Skaleninvarianz. Das Phasenübergangsverhalten des chiralen Modells wird systematisch untersucht und dabei gezeigt, dass es signifikant von den Kopplungen zusätzlicher schwererer hadronischer Freiheitsgrade ('Resonanzen') abhängt. Durch entsprechende Ankopplung des niedrigsten baryonischen Dekupletts kann ein Phasendiagramm in qualitativer Übereinstimmung mit aktuellen Vorhersagen der Gitter-QCD erreicht werden. Alternativ wird die Ankopplung einer schweren baryonischen Test-Resonanz untersucht, welche effektiv für das Spektrum der schweren hadronischen Zustände steht. Hier ergibt sich für einen bestimmten Bereich der Kopplungen sogar eine quantitative Übereinstimmung zu den Gitter-QCD-Vorhersagen bei gleichzeitig guter Beschreibung der Grundzustandseigenschaften von Kernmaterie. Für diese Zustandsgleichung werden Vorhersagen (innerhalb der Modellannahmen) zu geplanten Experimenten gemacht -- konkret wird gezeigt, dass der Phasenübergangsbereich für das CBM Experiment des geplanten Beschleunigerzentrums FAIR an der GSI Darmstadt experimentell zugänglich ist. Weiter wird das chirale Modell auf die Beschreibung von experimentellen Teilchenzahlverhältnissen (Yield-Ratios) aus Schwerionen-Kollisionen von AGS, SPS und RHIC angewendet. Studiert werden Parametersätze mit stark unterschiedlichen Phasendiagrammen aufgrund unterschiedlicher Ankopplung des baryonischen Dekupletts sowie ein ideales Hadronengas. Bei den niedrigen und mittleren Kollisionsenergien zeigt sich eine verbesserte Beschreibung durch die chiralen Parametersätze im Vergleich zum idealen Hadronengas, besonders deutlich für Parametersätze mit Phasendiagramm ähnlich der Vorhersage aus der Gitter-QCD. Die Wechselwirkung im chiralen Modell führt zu Medium-Modifikationen der chemischen Potentiale und der Hadronenmassen. Die resultierenden Ausfrierparameter mu und T sind deshalb gegenüber dem nichtwechselwirkenden Fall signifikant verändert. An den Ausfrierpunkten zeigen sich deutliche Abweichungen der effektiven Massen von den Vakuummassen (5 bis 15 %) und des effektiven baryo-chemischen Potentials vom ursprünglichen Wert (bis zu 20 %). Ferner werden universelle Kriterien für das Ausfrieren diskutiert und isentrope Expansion zu den Ausfrierpunkten untersucht, wo sich eine starke Abhängigkeit der Trajektorien von der Zustandsgleichung ergibt. Schließlich wird der Einfluss des Dilaton-Felds (Gluonkondensat) auf das Phasenübergangsverhalten bei mu=0 studiert, indem das Gluonkondensat an die Dekuplett-Baryonen gekoppelt wird. Es zeigt sich, dass dadurch eine Restauration der Skaleninvarianz im Modell möglich wird, die gleichzeitig auch eine vollständige Restauration der chiralen Symmetrie bewirkt. Die Restauration der Skaleninvarianz erfolgt erst bei Temperaturen, die oberhalb der chiralen Restauration (im nichtseltsamen Sektor) liegen. Diese Modellerweiterung ermöglicht es, zukünftig das Phasenübergangsverhalten -- Restauration von chiraler Symmetrie und Skaleninvarianz -- auch bei nichtverschwindenden Baryonendichten zu untersuchen. Die Resultate dieser Arbeit zeigen die Wichtigkeit der schweren hadronischen Zustände, der Resonanzen, für das QCD-Phasendiagramm. Für die Zukunft ist eine Ankopplung des gesamten hadronischen Massenspektrums an das Modell erstrebenswert, wie sich sowohl aus der Untersuchung der Modellerweiterung um eine Test-Resonanz als auch aus der Anwendung auf experimentelle Teilchenzahlverhältnisse ergibt.
A canonical partition function for the two-component excluded volume model is derived, leading to two di erent van der Waals approximations. The one is known as the Lorentz-Berthelot mixture and the other has been proposed recently. Both models are analysed in the canonical and grand canonical ensemble. In comparison with the one-component van der Waals excluded volume model the suppression of particle densities is reduced in these two-component formulations, but in two essentially di erent ways. Presently used multi-component models have no such reduction. They are shown to be not correct when used for components with di erent hard-core radii. For high temperatures the excluded volume interaction is refined by accounting for the Lorentz contraction of the spherical excluded volumes, which leads to a distinct enhancement of lighter particles. The resulting e ects on pion yield ratios are studied for AGS and SPS data.
Subject of this thesis is the non-perturbative investigation of the thermal transition in Quantum Chromodynamics by means of lattice gauge theory and a particular type of lattice fermions, the so-called twisted mass fermions. These fermions offer the possibility of improvement as compared to the standard Wilson-type formulation. We investigate the properties of these fermions at finite temperature, i.e. the structure of the bare parameter space as well as leading order cutoff effects in the weak coupling limit. Then we focus on two-flavour simulations at finite pion mass. We identify the (pseudo-)critical temperatures for our set of pion masses (300 to 500 MeV) and discuss the extrapolation to the chiral limit for which the nature of the transition is still an open question. Besides pseudo-critical temperatures we consider the magnetic equation of state and screening observables. We find that the assumption of a second order transition (in the 3d O(4) universality class) agrees with our data without being able to exclude alternatives. Finally, we discuss the future inclusion of strange and charm quarks in dynamical twisted mass simulations and look at the corresponding cutoff effects in the free limit.
Mit dem Dileptonenspektrometer HADES (High Acceptance Di-Electron Spectrometer) sollen Dielektronen, die bei zentralen Au+Au-Kollisionen der Energie von bis zu 2 GeV/u entstehen, spektroskopiert werden. Zentrale Detektorkomponente ist ein Magnetspektrometer, bestehend aus einem toroidalem Magnetfeld und 24 Driftkammern, die zur Orts- und Impulsbestimmung durch Ablenkung im Magnetfeld verwendet werden. Hohe Raten minimal ionisierender Teilchen, eine Massenauflösung von 1% im Massenbereich von 800 (MeVc) exp -2 sowie eine sichere Signalerkennung und -zuordnung stellen höchste Anforderungen an das Spektrometer, insbesondere an die Driftkammern. Ziel dieser Arbeit ist das grundlegende Verständnis der Funktionsweise der Driftkammern, die bei HADES eingesetzt werden, dazu gehört: (a): das physikalische Verständnis der Funktionsweise, insbesondere - die genaue Kenntnis des Feldverlaufs innerhalb der Kammern, sowie die Eigenschaften des verwendeten Driftkammergases und - die Bestimmung des theoretisch maximal erreichbaren Ortsauflösungsvermögens der Driftkammern, (b): die technische Seite, die den Aufbau der Driftkammern untersucht. Dies ist besonders wichtig, da in den HADES-Simulationsrechnungen aufgrund der großen Anzahl individueller Drähte mit Folien äquivalenter Massen gerechnet wurde. Hilfsmittel zur Untersuchung dieser Fragestellungen waren einerseits Programme, die Monte-Carlo-Methoden verwenden, andererseits Experimente, die an einem Prototyp der HADES-Driftkammern durchgeführt wurden, wobei jedoch der Schwerpunkt dieser Arbeit auf den Simulationrechnungen liegt. Kapitel 1 gibt einen Überblick über die physikalische Motivation von HADES und beschreibt kurz die einzelnen Komponenten des Spektrometers und die Driftkammerphysik. Kapitel 2 geht auf den Aufbau der HADES-Driftkammern ein und stellt die mit Hilfe von Simulationsrechnungen gewonnenen Erkenntnisse über die Kammern vor. Kapitel 3 behandelt die Bestimmung der intrinsischen Auflöosung der Prototyp-Driftkammer. Da dies allein mit Hilfe von Quellenmessungen aufgrund der Vielfachstreuung nicht möglich ist, wurde der Anteil an Vielfachstreuung mit Simulationsrechnungen bestimmt. Kapitel 4 vergleicht die Erkenntnisse über das Verhalten der Driftkammern, die in Kapitel 2 gewonnen wurden, mit einem am SIS (Schwerionen-Synchrotron) gemachten Experiment. Abschließend wird das Modell einer Driftkammer mit realen Drähten mit dem Modell einer Driftkammer verglichen, in der die Drähte durch Folien äquivalenter Massenbelegung ersetzt wurden.