Refine
Year of publication
Document Type
- Article (1728)
- Preprint (1120)
- Doctoral Thesis (581)
- Conference Proceeding (242)
- diplomthesis (106)
- Bachelor Thesis (75)
- Master's Thesis (61)
- Contribution to a Periodical (46)
- Book (32)
- Working Paper (31)
Keywords
- Kollisionen schwerer Ionen (47)
- heavy ion collisions (44)
- LHC (25)
- Quark-Gluon-Plasma (25)
- Heavy Ion Experiments (20)
- quark-gluon plasma (19)
- equation of state (17)
- Relativistic heavy-ion collisions (16)
- QGP (15)
- heavy-ion collisions (15)
Institute
- Physik (4114) (remove)
The neutron sensitivity of the C6D6 detector setup used at n_TOF facility for capture measurements has been studied by means of detailed GEANT4 simulations. A realistic software replica of the entire n_TOF experimental hall, including the neutron beam line, sample, detector supports and the walls of the experimental area has been implemented in the simulations. The simulations have been analyzed in the same manner as experimental data, in particular by applying the Pulse Height Weighting Technique. The simulations have been validated against a measurement of the neutron background performed with a natC sample, showing an excellent agreement above 1 keV. At lower energies, an additional component in the measured natC yield has been discovered, which prevents the use of natC data for neutron background estimates at neutron energies below a few hundred eV. The origin and time structure of the neutron background have been derived from the simulations. Examples of the neutron background for two different samples are demonstrating the important role of accurate simulations of the neutron background in capture cross-section measurements.
The neutron capture cross section of 58Ni was measured at the neutron time of flight facility n_TOF at CERN, from 27 meV to 400 keV neutron energy. Special care has been taken to identify all the possible sources of background, with the so-called neutron background obtained for the first time using high-precision GEANT4 simulations. The energy range up to 122 keV was treated as the resolved resonance region, where 51 resonances were identified and analyzed by a multilevel R-matrix code SAMMY. Above 122 keV the code SESH was used in analyzing the unresolved resonance region of the capture yield. Maxwellian averaged cross sections were calculated in the temperature range of kT = 5 – 100 keV, and their astrophysical implications were investigated.
We discuss the potential of light-nuclei measurements in heavy-ion collisions at intermediate energies for the search of the hypothetical QCD critical end-point. A previous proposal based on neutron density fluctuations has brought appealing experimental evidences of a maximum in the ratio of the number of tritons times protons, divided over deuterons square, O tpd. However these results are difficult to reconcile with the state-of-the-art statistical thermal model predictions. Based on the idea that the QCD critical point can lead to a substantial attraction among nucleons, we propose new light-nuclei multiplicity ratios involving He in which the maximum would be more noticeable. We argue that the experimental extraction is feasible by presenting these ratios formed from actual measurements of total and differential yields at low and high collision energies from FOPI and ALICE experiments, respectively. We also illustrate the possible behavior of these ratios at intermediate energies applying a semiclassical method based on flucton paths using the preliminary NA49 and STAR data for O tpd as input.
We discuss gapless colour superconductivity for neutral quark matter in β equilibrium at zero as well as at nonzero temperature. Basic properties of gapless superconductors are reviewed. The current progress and the remaining problems in the understanding of the phase diagram of strange quark matter are discussed.
For cold (neutronless) fission we consider an analytical model of quantum tunneling with dissipation through a barrier U(q) evaluated with a M3Y nucleon-nucleon force. We calculate the tunneling spectrum, i.e., the fission rate as a function of the total kinetic energy of the fragments. The theoretical results are compared with the experimental data obtained for the fine structure of two cold fission modes of 252Cf: 148Ba+104Mo and 146Ba+106Mo. Taking into account the dissipative coupling of the potential function U(q) and of the momentum p with all the other neglected coordinates, we obtain a remarkable agreement with the experimental data. We conclude that the cold fission process is a spontaneous decay with a spectrum determined by the shape of the barrier and an amplitude depending on the strength of the dissipative coupling.
Terahertz (THz) technology is an emerging field that considers the radiation between microwave and far-infrared regions where the electronic and photonic technologies merge. THz generation and THz sensing technologies should fill the gap between photonics and electronics which is defined as a region where THz generation power and THz sensing capabilities are at a low technology readiness level (TRL). As one of the options for THz detection technology, field-effect transistors with integrated antennae were suggested to be used as THz detectors in the 1990s by M. Dyakonov and M. Shur from where the development of field-effect transistor-based detector began. In this work, various FET technologies are presented, such as CMOS, AlGaN/GaN, and graphene-based material systems and their further sensitivity enhancement in order to reach the performance of well-developed Schottky diode-based THz sensing technology. Here presented FET-based detectors were explored in a wide frequency range from 0.1 THz up to 5 THz in narrowband and broadband configurations.
For proper implementation of THz detectors, the well-defined characterization is of high importance. Therefore, this work overviews the characterization methods, establishes various definitions of detector parameters, and summarizes the state-of-the-art THz detectors. The electrical, optical, and cryogenic characterization techniques are also presented here, as well as the best results obtained by the development of the characterization methods, namely graphene FET stabilization, low-power THz source characterization for detector calibration, and technology development for cryogenic detection.
Following the discussion about the detector characterization, a wide range of THz applications, which were tested during the last four years of Ph.D. and conducted under the ITN CELTA project from HORIZON2020 program, are presented in this work. The studies began with spectroscopy applications and imaging and later developed towards hyperspectral imaging and even passive imaging of human body THz radiation. As various options for THz applications, single-pixel detectors as well as multi-pixel arrays are also covered in this work.
The conducted research shows that FET-based detectors can be used for spectroscopy applications or be easily adapted for the relevant frequency range. State-of-the-art detectors considered in this work reach the resonant performance below 20 pW/√Hz at 0.3 THz and 0.5 THz, as well as 404 pW/√Hz cross-sectional NEP at 4.75 THz. The broadband detectors show NEP as low as 25 pW/√Hz at around 0.6 THz for the best AlGaN/GaN design and 25 pW/√Hz around 1 THz for the best CMOS design. As one of the most promising applications, metamaterial characterization was tested using the most sensitive devices. Furthermore, one of the single-pixel devices and a multi-pixel array were tested as an engineering solution for a radio astronomy system called GREAT in a stratosphere observatory named SOFIA. The exploration of the autocorrelation technique using FET-based devices shows the opportunity to employ such detectors for direct detection of THz pulses without an interferometric measurement setup.
This work also considers imaging applications, which include near-field and far-field visualization solutions. A considerable milestone for the theory of FET technology was achieved when scanning near-field microscopy led to the visualization of plasma (or carrier density) waves in a graphene FET channel. Whereas another important milestone for the THz technology was achieved when a 3D scan of a mobile phone was performed under the far-field imaging mode. Even though the imaging was done through the phone’s plastic cover, the image displayed high accuracy and good feature recognition of the smartphone, inching the FET-based detector technology ever so close to practical security applications. In parallel, the multi-pixel array testing was carried out on 6x7 pixel arrays that have been implemented in configurable-size aperture and imaging configurations. The configurable aperture size allowed the easier detector focusing procedure and a better fit for the beam size of the incident radiation. The imaging has been tested on various THz sources and compared to the TeraSense 16x16 pixel array. The experimental results show the big advantage of the developed multi-pixel array against the used commercial technology.
Furthermore, two ultra-low-power applications have been successfully tested. The application on hyper-frequency THz imaging tested in the specially developed dual frequency comb and our detector system for 300 GHz radiation with 9 spectral lines led to outstanding imaging results on various materials. The passive imaging of human body radiation was conducted using the most sensitive broadband CMOS detector with a log-spiral antenna working in the 0.1 – 1.5 THz range and reaching the optical NEP of 42 pW/√Hz. The NETD of this device reaches 2.1 K and overcomes the performance limit of passive room-temperature imaging of the human body radiation, which was less than 10 K above the room temperature. This experiment opened a completely new field that was explored before only by the multiplier chain-based or thermal detectors.
...
This work presents, to our knowledge, the first completely passive imaging with human-body-emitted radiation in the lower THz frequency range using a broadband uncooled detector. The sensor consists of a Si CMOS field-effect transistor with an integrated log-spiral THz antenna. This THz sensor was measured to exhibit a rather flat responsivity over the 0.1–1.5-THz frequency range, with values of the optical responsivity and noise-equivalent power of around 40 mA/W and 42 pW/√Hz, respectively. These values are in good agreement with simulations which suggest an even broader flat responsivity range exceeding 2.0 THz. The successful imaging demonstratestheimpressivethermalsensitivitywhichcanbeachievedwithsuchasensor. Recording of a 2.3×7.5-cm2-sized image of the fingers of a hand with a pixel size of 1 mm2 at a scanning speed of 1 mm/s leads to a signal-to-noise ratio of 2 and a noise-equivalent temperature difference of 4.4 K. This approach shows a new sensing approach with field-effect transistors as THz detectors which are usually used for active THz detection.
An experiment addressing electron capture (EC) decay of hydrogen-like 142Pm60+ions has been conducted at the experimental storage ring (ESR) at GSI. The decay appears to be purely exponential and no modulations were observed. Decay times for about 9000 individual EC decays have been measured by applying the single-ion decay spectroscopy method. Both visually and automatically analysed data can be described by a single exponential decay with decay constants of 0.0126(7)s−1 for automatic analysis and 0.0141(7)s−1 for manual analysis. If a modulation superimposed on the exponential decay curve is assumed, the best fit gives a modulation amplitude of merely 0.019(15), which is compatible with zero and by 4.9 standard deviations smaller than in the original observation which had an amplitude of 0.23(4).
ω(782) und ϕ(1020) Mesonenproduktion durch Dielektronen in pp-Kollisionen bei √s = 7 TeV mit ALICE
(2013)
Die Niedrigmassendielektronen (Elektron-Positron Paare mit kleiner invarianten Masse) sind wichtige experimentelle Sonden, um die Eigenschaften des in ultra-relativistischen Schwerionenkollisionen erzeugten heißen und dichten Mediums zu untersuchen. Elektronen koppeln nicht an die starke Wechselwirkung, weshalb sie wichtige Informationen über die gesamten Kollisionsphasen geben. Die Zerfälle von ω(782) und ϕ(1020)-Mesonen in Dielektronen ermöglichen es, besonders wichtige Informationen über ihre In-Medium-Eigenschaften zu erhalten, da Proton-Proton (pp)-Kollisionen als mediumfreie Referenz angenommen werden. Außerdem sind pp-Kollisionen auch für sich genommen interessant, um die Teilchenproduktion im Energiebereich des LHC (Large Hadron Collider) zu untersuchen.
In dieser Analyse werden die Elektronen im mittleren Rapiditätsbereich von |η| < 0.8 mit ITS (Inner Tracking System), TPC (Time Projection Chamber) und TOF (Time of Flight) gemessen.
Die transversalen Impulsspektren der ω(782) und ϕ(1020)-Mesonen im e+e--Zerfallskanal in pp-Kollisionen bei p √s = 7 TeV werden gezeigt. Das transversale Impulsspektrum des ω(782)-Mesons im e+e--Zerfallskanal wird mit den pT-Spektren in den µ+µ--und in den π0π+π--Zerfallskanälen verglichen, während das pT-Spektrum vom ϕ(1020)-Meson im e+e--Zerfallskanal mit den pT-Spektren in µ+µ-- und K+K--Zerfallskanälen verglichen wird.
The measurement of dielectrons (electron-positron pairs) allows to investigate the properties of strongly interacting matter, in particular the Quark-Gluon Plasma (QGP), which is created in relativistic heavy-ion collisions at the LHC. The evolution of the collision can be probed via dielectrons since electrons do not interact strongly and are created during all stages of the collision. One of the interests in dielectron measurements is motivated by possible modifications of the electromagnetic emission spectrum in the QGP, where pp collisions are used as a medium-free reference. The dielectron spectrum consists of contributions from various processes. In order to estimate contributions of known dielectron sources, simulations of the so-called dielectron cocktail are performed. In this thesis, dielectron cocktails in minimum bias pp collisions at p s = 7 TeV, p–Pb collisions at p sNN = 5.02 TeV and in central (0-10%) and semi-central (20-50%) Pb–Pb collisions at p sNN = 2.76 TeV at the LHC are presented.
Topological semimetal antiferromagnets provide a rich source of exotic topological states which can be controlled by manipulating the orientation of the Néel vector, or by modulating the lattice parameters through strain. We investigate via ab initio density functional theory calculations, the effects of shear strain on the bulk and surface states n two antiferromagnetic EuCd2As2 phases with out-of-plane and in-plane spin configurations. When magnetic moments are along the c-axis, a 3% longitudinal or diagonal shear strain can tune the Dirac semimetal phase to an axion insulator phase, characterized by the parity-based invariant η4I=2. For an in-plane magnetic order, the axion insulator phase remains robust under all shear strains. We further find that for both magnetic orders, the bulk gap increases and a surface gap opens on the (001) surface up to 16 meV. Because of a nonzero η4I index and gapped states on the (001) surface, hinge modes are expected to happen on the side surface states between those gapped surface states. This result can provide a valuable insight in the realization of the long-sought axion states.
The PANDA experiment will be one of the flagship experiments at the future Facility for Antiproton and Ion Research (FAIR) in Darmstadt, Germany. It is a versatile detector dedicated to topics in hadron physics such as charmonium spectroscopy and nucleon structure. A DIRC counter will deliver hadronic particle identification in the barrel part of the PANDA target spectrometer and will cleanly separate kaons with momenta up to 3.5 GeV/c from a large pion background. An alternative DIRC design option, using wide Cherenkov radiator plates instead of narrow bars, would significantly reduce the cost of the system. Compact fused silica photon prisms have many advantages over the traditional stand-off boxes filled with liquid. This work describes the study of these design options, which are important advancements of the DIRC technology in terms of cost and performance. Several new reconstruction methods were developed and will be presented. Prototypes of the DIRC components have been built and tested in particle beam, and the new concepts and approaches were applied. An evaluation of the performance of the designs, feasibility studies with simulations, and a comparison of simulation and prototype tests will be presented.
This Dissertation deals with the development of FAIR-relevant X-ray diagnostics based on the interaction of lasers and particle beams with matter. The associated experimental methods are supposed to be employed in the HIHEX-experiments in the HHT-cave of the GSI Helmholtz Center for Heavy-Ion Research GmbH (GSI) in Phase-0 and in the APPA-cave at the Facility for Antiproton and Ion Research in Darmstadt, Germany.
Diagnostic of high aerial density targets that will be used in FAIR experiments demands intense and highly penetrating X-ray sources. Laser generated well-directe relativistic electron beams that interact with high Z materials is an excellent tool for generation of short-pulse high luminous sources of MeV-gammas.
In pilot experiments carried out at the PHELIX laser system, GSI Darmstadt, relativistic electrons were produced in a long scale plasma of near critical electron density (NCD) by the mechanism of the direct laser acceleration (DLA). Low density polymer foam layers preionised by a well-defined nanosecond laser pulse were used as NCD targets. The analysis of the measured electron spectra showed up to 10- fold increase of the electron "temperature" from T_Hot = 1–2 MeV, measured for the case of the interaction of 1–2 ×10^19 Wcm^(−2) ps-laser pulse with a planar foil, up to 14 MeV for the case when the relativistic laser pulse propagates through the by a ns-pulse preionised foam layer. In this case, up to 80–90 MeV electron energy was registered. An increase of the electron energy was accompanied by a strong increase of the number of relativistic electrons and well-defined directionality of the relativistic electron beam measured to be (12 ±1)° (FWHM). This directionality increases the gamma flux on target by far compared to the soft X-ray sources.
Additionally to laser based active diagnostics, passive techniques involving inherent X-ray fluorescence radiation of projectile and target emitted during heavy-ion target interaction can be used to measure the ion beam distribution on shot. This information is of great importance, since the target size is chosen to be smaller than the beam focus in order to ensure homogeneous heating of the HIHEX-target by the ion beam. High amounts of parasitic radiation and activation of experimental equipment is expected for experiments at the APPA-cave. For this reason, all electronic devices must be placed at a safe distance to the target chamber. In order to transport the signal over a large distance, the X-ray image of the target irradiated by heavy-ions has to be converted into an optical one.
For these purposes, the X-ray Conversion to Optical radiation and Transport (XCOT)-system was developed in the frame of a BMBF-project and commissioned in two beamtimes at the UNILAC, GSI during this work.
In experiments, we observed intense radiation of target atoms (K-shell transitions in Cu at 8–8.3 keV and L-shell transition in Ta) ionised in collisions with heavy ions as well as Doppler-shifted L-shell transitions of Au-projectiles passing through targets. This radiation can be used for monochromatic (dispersive elements like bent crystals) or polychromatic (pinhole) 2D X-ray mapping of the ion beam intensity distribution in the interaction region during the beam-target interaction. We measured the efficiency of the X-ray photon production depending on the target thickness and the number of ions passing through the target. The spatial resolution of the XCOT-system based on the multi-pinhole camera was measured to be (91±17) μm for the image magnification factor M = 2. It was considerably improved by application of a toroidally bent quartz crystal and reached 30 μm at M = 6. This resolution is optimal to image the distribution of a 1mm in diameter ion beam. As next step, the XCOT-system will be tested during the SIS18 beam-time at the HHT-experimental area.
Im Rahmen des FAIR Projektes wurde ein neuartiger Prototyp eines nicht strahlzerstörenden Bunch Struktur Monitors (BSM) am GSI UNILAC entwickelt. Ziel ist es, ein zuverlässiges Diagnosegerät zu entwickeln, welches die longitudinale Struktur der Ionenbunche innerhalb des LINACs untersuchen kann. Notwendig ist hierbei eine effektive Zeitauflösung deutlich unter 100 ps, bei möglichst wenigen Makropuls Mittelungen. Nach der erfolgreichen Inbetriebnahme soll der BSM Prototyp dazu dienen, die Umsetzbarkeit eines weiteren nichtinvasiven Geräts für den geplanten Proton-LINAC bei FAIR mit einer notwendigen Zeitauflösung von 10 ps zu beurteilen.
Die numerische Simulation von Materialien, welche dem Hochstrom-Ionenstrahl ausgesetzt sind, zeigten einen sehr hohen thermischen Stress. Daher wurde der Ansatz eines nicht strahlzerstörenden Diagnosegerätes verfolgt. Das Design beruht auf der Erzeugung von Sekundärelektronen durch Strahl-Restgas Kollisionen im Strahlrohr. Durch das Anlegen eines homogenen Hochspannungspotentials von bis zu -31 kV, wird ein Elektronenstrahl erzeugt, welcher die zeitliche Struktur des Ionenbunches trägt. Die zeitliche Information des Elektronenstrahles wird beim Durchfliegen eines HF-Ablenkers, welcher resonant an die 36 MHz des Beschleunigers gekoppelt ist, in eine räumliche Intensitätsverteilung umgewandelt. Anschließend wird die Elektronenverteilung auf einem bildgebenden MCP-Phosphor-Detektor durch eine CCD-Kamera detektiert und in die Bunch Struktur überführt.
Intensive Untersuchungen der BSM Eigenschaften ergaben eine höchste Auflösung von 37 ±6.3 ps bei gleichzeitig akzeptabler Intensität auf dem MCP-Detektor. Unter anderem wurden auch stabile Einzelschussmessungen durchgeführt, welche für die Profilmessung nur einen einzelnen Makropuls benötigten, statt über typischerweise 8-32 Pulse zu mitteln.
Durch die systematische Manipulation der Bunchlänge durch einen Rebuncher sind nicht gaußförmige Profile von 280 ps bis 650 ps detektiert worden, welche als Studie für eine Emittanzbestimmung genutzt worden sind. In Abhängigkeit des Analyseverfahrens sind Werte von εGauss = 1.42 ±0.14 keV/u ns bis εSD = 3.03 ±0.33 keV/u ns für die Emittanz bestimmt worden.
Des Weiteren ist ein Finite-Elemente Modell erstellt worden, um die Zeitstruktur der Sekundärelektronen innerhalb des elektronenoptischen Systems zu bestimmen. Für das Setup mit der höchsten Auflösung von 37 ps ergab sich eine zusätzliche Zeitverbreiterung von 5.6 ps, welche nur geringfügig die experimentell bestimmte Auflösung verschlechtert.
Der nicht strahlzerstörende BSM liefert eine ausreichend hohe zeitliche Auflösung für detailreiche Untersuchung der longitudinalen Bunchstruktur, ohne negative Einflüsse auf den Ionenstrahl auszuüben. Fortgeschrittene Messungen, wie longitudinale Emittanzbestimmung und Makropulsanalysen, sind möglich und werden dazu beitragen, die LINAC Strukturen besser zu verstehen und weiter zu optimieren.
Obwohl bei der Umsetzung des Arbeitsprinzips für den geplanten Proton-LINAC die veränderten Strahlparameter berücksichtigt werden müssen, zeigen die Ergebnisse, wie die Zeitstrukturuntersuchung und die erreichte Phasenauflösung von 0.5° bei 36 MHz, dass zeitliche Auflösungen bei Aufrechterhaltung der Phasenauflösung von bis zu 10 ps für einen neuen BSM Prototypen möglich sind.
In April and May 2012 data on Au+Au collisions at beam energies of Ekin = 1.23A GeV were collected with the High Acceptance Di-Electron Spectrometer (HADES) at the GSI Helmholtzzentrum für Schwerionenforschung facility in Darmstadt, Germany. In this thesis, the production of deuterons in this collision system is investigated.
A total number of 2.1 × 109 Au+Au events is selected, containing the most central 0-40% of events. After particle identification, based on a mass determination via time-of-flight and momentum and on a measurement of the energy loss, the transverse mass spectra of the deuteron candidates are extracted for various rapidities and subsequently corrected for acceptance and efficiency.
The inverse slope parameter of a Boltzmann fit applied to the transverse mass spectra at midrapidity, which is referred to as the effective temperature, is extracted. For a static thermal source, this parameter corresponds to the kinetic freeze-out temperature Tkin and is therefore expected to be smaller or equal to the chemical freeze-out temperature Tchem. The extracted effective temperature of Tef f = (190 ± 10) MeV however exceeds the chemical freeze-out temperature that was obtained by a statistical model fit to different particle yields. The effective temperatures of various particle species, obtained in previous analyses, suggest a systematic rise with increasing particle mass, which is confirmed by the deuteron results.
An explanation can be the influence of a collective expansion with a radial expansion velocity βr. By fitting a Siemens-Rasmussen function to the transverse mass spectra, the global temperature of T = (100 ± 8) MeV and radial expansion velocity βr = 0.37 ± 0.01 are obtained. This temperature is still very high and only takes into account the production of deuteron nuclei.
The simultaneous fit of a blast-wave function to the transverse mass spectra of deuterons and other particles, as obtained by previous analyses, considers a velocity profile for the radial expansion velocity and takes into account the production of various particle species. The resulting global temperature Tkin = (68 ± 1) MeV and average transverse expansion velocity hβri = 0.341 ± 0.003 are within the expected range for the collision energy.
The Siemens-Rasmussen fits are also used to extrapolate the transverse mass spectra into unmeasured regions, to integrate them and obtain a rapidity-dependent count rate. This count rate exhibits a thermal shape for central events and shows increasing spectator contributions for more peripheral events.
The invariant yield spectra of the deuterons are compared to those of protons, as obtained by a previous analysis, in the context of a nucleon coalescence model. The hereby extracted nucleon coalescence factor B2 = (4.6 ± 0.1) × 10−3 agrees with the expected result for the beam energy that was studied.
We study the phase diagram of a generalized chiral SU(3)-flavor model in mean-field approxi- mation. In particular, the influence of the baryon resonances, and their couplings to the scalar and vector fields, on the characteristics of the chiral phase transition as a function of temperature and baryon-chemical potential is investigated. Present and future finite-density lattice calculations might constrain the couplings of the fields to the baryons. The results are compared to recent lattice QCD calculations and it is shown that it is non-trivial to obtain, simultaneously, stable cold nuclear matter.
Abstract: The measured particle ratios in central heavy-ion collisions at RHIC-BNL are investigated within a chemical and thermal equilibrium chiral SU(3) Ã É approach. The commonly adopted non-interacting gas calculations yield temperatures close to or above the critical temperature for the chiral phase transition, but without taking into account any interactions. In contrast, the chiral SU(3) model predicts temperature and density dependent effective hadron masses and effective chemical potentials in the medium and a transition to a chirally restored phase at high temperatures or chemical potentials. Three different parametrizations of the model, which show different types of phase transition behaviour, are investigated. We show that if a chiral phase transition occured in those collisions, freezing of the relative hadron abundances in the symmetric phase is excluded by the data. Therefore, either very rapid chemical equilibration must occur in the broken phase, or the measured hadron ratios are the outcome of the dynamical symmetry breaking. Furthermore, the extracted chemical freeze-out parameters differ considerably from those obtained in simple non-interacting gas calculations. In particular, the three models yield up to 35 MeV lower temperatures than the free gas approximation. The inmedium masses turn out to differ up to 150 MeV from their vacuum values.
The space-time dynamics and pion-HBT radii in central heavy ion-collisions at CERN-SPS and BNL-RHIC are investigated within a hydrodynamic simulation. The dependence of the dynamics and the HBT-parameters on the EoS is studied with different parametrizations of a chiral SU(3) sigma omega model. The selfconsistent collective expansion includes the e ects of e ective hadron masses, generated by the nonstrange and strange scalar condensates. Different chiral EoS show di erent types of phase transitions and even a crossover. The influence of the order of the phase transition and of the latent heat on the space-time dynamics and pion-HBT radii is studied. A small latent heat, i.e. a weak first-order chiral phase transition, or a smooth crossover lead to distinctly di erent HBT predictions than a strong first order phase transition. A quantitative description of the data, both at SPS energies as well as at RHIC energies, appears di cult to achieve within the ideal hydrodynamic approach using the SU(3) chiral EoS. A strong first-order quasi-adiabatic chiral phase transition seems to be disfavored by the pion-HBT data from CERN-SPS and BNL-RHIC.
The measured particle ratios in central heavy-ion collisions at RHIC-BNL are investigated within a chemical and thermal equilibrium chiral SU(3) theta - omega approach. The commonly adopted noninteracting gas calculations yield temperatures close to or above the critical temperature for the chiral phase transition, but without taking into account any interactions. Contrary, the chiral SU(3) model predicts temperature and density dependent e ective hadron masses and e ective chemical potentials in the medium and a transition to a chirally restored phase at high temperatures or chemical potentials. Three di erent parametrizations of the model, which show di erent types of phase transition behaviour, are investigated. We show that if a chiral phase transition occured in those collisions, freezing of the relative hadron abundances in the symmetric phase is excluded by the data. Therefore, either very rapid chemical equilibration must occur in the broken phase, or the measured hadron ratios are the outcome of the dynamical symmetry breaking. Furthermore, the extracted chemical freeze-out parameters di er considerably from those obtained in simple noninteracting gas calculations. In particular, the three models yield up to 35 MeV lower temperatures than the free gas approximation. The in-medium masses turn out di er up to 150 MeV from their vacuum values.
The measured particle ratios in central heavy-ion collisions at RHIC-BNL are investigated within a chemical and thermal equilibrium chiral SU(3) σ–ω approach. The commonly adopted noninteracting gas calculations yield temperatures close to or above the critical temperature for the chiral phase transition, but without taking into account any interactions. Contrary, the chiral SU(3) model predicts temperature and density dependent effective hadron masses and effective chemical potentials in the medium and a transition to a chirally restored phase at high temperatures or chemical potentials. Three different parametrizations of the model, which show different types of phase transition behaviour, are investigated. We show that if a chiral phase transition occured in those collisions, “freezing” of the relative hadron abundances in the symmetric phase is excluded by the data. Therefore, either very rapid chemical equilibration must occur in the broken phase, or the measured hadron ratios are the outcome of the dynamical symmetry breaking. Furthermore, the extracted chemical freeze-out parameters differ considerably from those obtained in simple noninteracting gas calculations. In particular, the three models yield up to 35 MeV lower temperatures than the free gas approximation. The in-medium masses turn out to differ up to 150 MeV from their vacuum values.
A nonlinear chiral SU(3) approach including the spin 3 2 decuplet is developed to describe dense matter. The coupling constants of the baryon resonances to the scalar mesons are determined from the decuplet vacuum masses and SU(3) symmetry relations. Di erent methods of mass generation show significant differences in the properties of the spin- 3 2 particles and in the nuclear equation of state
Introduction: Until now it is not possible to determine the equation of state (EOS) of hadronic matter from QCD. One succesfully applied alternative way to describe the hadronic world at high densities and temperatures are effective models like the RMF-models [1], where the relevant degrees of freedom are baryons and mesons instead of quarks and gluons. Since approximate chiral symmetry is an essential feature of QCD, it should be a useful concept for building and restricting e ective models. It has been shown [2,3] that effective sigma-omega models including SU(2) chiral symmetry are able to obtain a reasonable description of nuclear matter and finite nuclei. Recently [4] we have shown that an extended SU(3) × SU(3) chiral sigma-omega model is able to describe nuclear matter ground state properties, vacuum properties and finite nuclei satisfactorily. This model includes the lowest SU(3) multiplets of the baryons (octet and decuplet[5]), the spin-0 and the spin-1 mesons as the relevant degrees of freedom. Here we will discuss the predictions of this model for dense, hot, and strange hadronic matter.
A significant drop of the vector meson masses in nuclear matter is observed in a chiral SU(3) model due to the e ects of the baryon Dirac sea. This is taken into account through the summation of baryonic tadpole diagrams in the relativistic Hartree approximation. The appreciable decrease of the in-medium vector meson masses is due to the vacuum polarisation e ects from the nucleon sector and is not observed in the mean field approximation.
Compelling evidence for a new form of matter has been claimed to be formed in Pb+Pb collisions at SPS. We critically review two suggested signatures for this new state of matter: First the suppression of the J/psi , which should be strongly suppressed in the QGP by two different mechanisms, the color-screening [1] and the QCD-photoe ect [2]. Secondly the measured particle, in particular strange hadronic, ratios might signal the freeze-out from a quark-gluon phase.
Compelling evidence for the creation of a new form of matter has been claimed to be found in Pb+Pb collisions at SPS. We discuss the uniqueness of often proposed experimental signatures for quark matter formation in relativistic heavy ion collisions. It is demonstrated that so far none of the proposed signals like J/psi meson production/suppression, strangeness enhancement, dileptons, and directed flow unambigiously show that a phase of deconfined matter has been formed in SPS Pb+Pb collisions. We emphasize the need for systematic future measurements to search for simultaneous irregularities in the excitation functions of several observables in order to come close to pinning the properties of hot, dense QCD matter from data.
Gegenstand dieser Arbeit sind Eigenschaften angeregter hadronischer Materie sowie physikalische Systeme, in denen diese Materie auftritt bzw. produziert wird. Die Beschreibung der stark wechselwirkenden Materie erfolgt in einem hadronischen, chiral-symmetrischen SU(3)L x SU(3)R Modell, welches die Saturierungseigenschaften von Kernmaterie und die Eigenschaften von Atomkernen reproduziert. Die Untersuchung heißer und dichter unendlicher hadronischor Materie zeigt, dass das vom Modell vorhergesagte Phasendiagramm stark von den Kopplungen der Baryonenresonanzen abhängt. Für kalte hadronische Materie ergibt die Einbeziehung des Baryonendekupletts und die Freiheit in deren Vektorkopplungen eine sehr große Bandbreite an verschiedenen Zustandsgleichungen. Für heiße hadronische Materie mit verschwindendem baryochemischen Potential zeigt sich ebenfalls eine starke Abhängigkeit der Eigenschaften hadronischer Materie von der Ankopplung der baryonischen Resonanzen. Es werden drei verschiedene Parametrisierungen betrachtet. Das resultierende Phasenübergangsverhalten variiert von einem "Crossover" über einen schwachen, zu einem doppelten Phasenübergang erster Ordnung. Es zeigt sich jedoch, dass die beobachteten Eigenschaften von Neutronensternen die Unbestimmtheit bzgl. der Vektorkopplung dieser Freiheitsgrade und damit der Zustandsgleichung deutlich verringern. Das Raum-Zeit Verhalten relativistischer Schwerionenkollisionen bei SPS- und RHIC-Energien wird mittels einer hydrodynamischen Simulation unter Benutzung der chiralen Zustandsgleichungen untersucht. Dabei spiegelt sich das unterschiedliche Phasenübergangsverhalten deutlich im Ausfrierverhalten der hadronischen Materie wider. Die im chiralen Modell berechneten Teilchenzahlverhältnisse werden mit den aus Schwerionenkollisionen von AGS- bis RHIC-Energien erhaltenen experimentellen Daten verglichen. Dabei zeigt sich, dass die verschiedenen Parametersätze des chiralen Modells und die Rechnungen für ein nichtwechselwirkendes, ideales Hadronengas eine ähnlich gute Beschreibung der gemessenen Weite liefern. Die deduzierten Ausfrierwerte für die Temperatur sind sensitiv auf das Phasenübergangsverhalten und liegen unterhalb der jeweiligen kritischen Temperatur. Die vorhergesagten Ausfriermassen sind in allen Parametrisierungen sehr ähnlich mit Abweichungen bis zu 15% von den entsprechenden Vakuumwerten. Die Untersuchung der Eigenschaften von Vektormesonen in dichter Materie erfolgt in der Mittleren-Feld- und in der HartreeNäherung. Hierbei zeigt sich eine signifikante Reduzierung der Teilchenmassen durch Vakuumpolarisationseffekte.
Zyklotronresonanzen von Ionen im hochfrequenz-modulierten magnetisch fokussierten Elektronenstrahl
(2000)
Ein Prototyp einer Kombination aus Penningfalle und EBIS/T wurde im Rahmen dieser Arbeit entwickelt. Dazu wurde ein Standard NMRMagnet erfolgreich so umgebaut, daß er in Bezug auf Vakuum, Temperatur und Temperaturbeständigkeit den Erfordernissen einer EBIS/T als Ionenfalle entspricht. Diese Apparatur ermöglicht nun die Untersuchung der in der EBIS/T erzeugten Ionen mit den Methoden der 'Fallenphysik'. Die Anregung der Ionen in der Falle wurde hier erstmals durch Hochfrequenzmodulation des Elektronenstroms über die Wehneltelektrode der Elektronenkanone durchgeführt. Messungen haben gezeigt, daß man in der EBIS/T erzeugte Ionen selektiv nach ihrem Verhältnis von Masse zu Ladung mit der Modulation in Resonanz bringen kann, bis sie den Elektronenstrahl verlassen. Die Ionen besitzen auch im dichten Elektronenstrahl eine charakteristische Eigenfrequenz, die zwar von der Raumladung in der Falle abhängt, mit der jedoch trotzdem eine Resonanzanregung durchgeführt werden kann. Im Experiment bestätigte sich die Vorhersage für die Mindestdauer der Anregung in der Größenordnung von Mikrosekunden und für Relaxionszeiten der kohärenten Ionenbewegungen im Bereich von Millisekunden, was eine grundsätzliche Voraussetzung für eine resonante Separation verschiedener Ionensorten darstellt. Die auftretenden Eigenfrequenzen der unterschiedlichen Ionen lassen sich theoretisch und im Einklang mit numerischen Simulationen beschreiben. Die Anregung der Eigenfrequenzen von Ionen über den Elektronenstrahl funktioniert bis zu so hohen Ionendichten, wie sie in einer EBIS vorkommen. Ionenmanipulationen, wie man sie von den Penningfallen her kennt, lassen sich auf ein Ionenensemble mit bis zu 10 10 Ionen pro cm 3 übertragen. Die gemessenen Verschiebungen der Eigenfrequenzen gegenüber der Zyklotronfrequenz geben darüber hinaus Aufschluß über den Kompensationsgrad des Elektronenstrahls in der EBIS/T und können damit als wichtiges Diagnosehilfsmittel für die Optimierung von ElektronenstrahlIonenquellen verwendet werden. Läßt man die Resonanzanregung kontinuierlich einwirken, so tritt überraschenderweise eine Erhöhung des Anteils an hochgeladenen Ionen in der EBIS/T auf. Darüberhinaus konnte experimentell gezeigt werden, daß die hochgeladenen Ionen auf der Achse des Elektronenstrahls konzentriert werden, während niedrig geladene Ionenen dort verschwinden und bevorzugt den äußeren Strahlbereich bevölkern. Die Erklärung dafür ist, daß durch kontinuierliches Entfernen dieser niedrig geladenen Ionen aus dem Elektronenstrahl eine vollständige Kompensation der Raumladung des Elektronenstrahls verhindert wird. Dadurch lassen sich Ionen in der Ionenquelle über einen längeren Zeitraum züchten. Vorteilhafterweise drängt die Anregung über eine Modulation des Elektronenstrahls im Gegensatz zu der normalen Dipolanregung bevorzugt niedrig geladenen Ionen, mit größerer Aufenthaltswahrscheinlichkeit am Rand, aus dem Elektronenstrahl. Dies führt zu einer verstärkten CoulombKühlung der hochgeladenen Ionen und konzentriert diese in der Mitte des Strahls, wo die Anregung fast unwirksam ist. Diese Kühlkraft wirkt als Zusammenspiel der attraktiven radialen Kraft des nicht vollständig raumladungskompensierten Elektronenstrahls und der Coulombstöße der Ionen untereinander. Durch diese Methode der Kühlung der Ionen untereinander können verstärkt Ionen hoher Ladungszustände in der Ionenquelle konzentriert werden. Der Vorgang der Kühlung durch Coulombstöße konnte mit einem Modell beschrieben werden, bei dem die thermische Verteilung aller Ionen im Elektronenstrahl einer Boltzmann Verteilung folgt. Das Modell benutzt vier Kräfte: die magnetische Kraft, die elektrische Haltekraft des Elektronenstrahls, die periodische elektrische Anregungskraft und die Reibung der Ionen proportional zu ihrer Geschwindigkeit und ihres Ladungszustandes bzw. die Stöße der Ionen untereinander. Die Resonanzanregung im Raumladungspotential sowie die Aufenthaltsverteilung der Ionen im Elektronenstrahl konnten damit dargestellt werden. Für Präzisionsexperimente an hochgeladenen Ionen bietet sich die Kombination aus einer EBIS/T mit integrierter Penningfalle an. Die Experimente haben gezeigt, daß es möglich ist, Ionenspektren mit einem eingekoppelten Wechselfeld in dem Ionisationsraum der EBIS/T zu separieren und zu reinigen. Für die Zukunft wünscht man sich aber eine größere Effektivität für das vollständige Entfernen bestimmter Ionensorten. Dies kann man erreichen, indem man den Elektronenstrahl noch dichter mit der Ionisationsröhre umschließt. Durch die kontinuierliche Resonanzanregung profitiert man von einer längeren Einschlußzeit für die stufenweise Ionisierung zu höheren Ladungszuständen und/oder eröffnet ElektronenstrahlIonenquellen neue Einsatzmöglichkeiten unter schlechteren Vakuumbedingungen. Die verstärkte Kühlung und Zentrierung der Ionen auf der Achse während dieses Betriebsmodus verbessert die Emmitanz von ElektronenstrahlIonenquellen. Für die Zukunft kann man sich eine EBIS mit moduliertem Elektronenstrahl auch im Strahlweg niederenergetischer hochgeladener Ionen zum Verbessern deren Emittanz vorstellen. Die im Elektronenstrahl erzeugten und sich selbst kühlenden Ionen wirken durch Coulombstöße als Kühlmedium ohne die Gefahr der Umladung wie bei gasgefüllten hfQuadrupolen.
Ziel der vorliegenden Arbeit ist die Entwicklung, Aufbau und Inbetriebnahme eines Funnelsystems zur Zusammenführung zweier Teilchenstrahlen, bestehend aus zwei Injektionssystemen, zwei RFQ-Beschleunigern, Hochfrequenz-Deflektoren und Diagnoseeinheiten. Die Aufgabe des Experiments ist die praktische Umsetzung eines neuartigen Verfahrens zur Strahlstromerhöhung bei im Idealfall gleichbleibender Emittanz und steigender Brillanz. Notwendig wird dies durch die benötigten hohen Strahlströme im niederenergetischen Bereich einiger zukünftiger geplanter Beschleunigeranlagen. Hier kann der Strahlstrom nicht mehr konventionell von einer einzigen Ionenquelle erzeugt werden. Nur durch die Parallelerzeugung mehrerer Teilchenstrahlen sowie mehrfachem Zusammenführen (Funneling) der Teilchenstrahlen ist es möglich, die notwendigen Strahlströme bei der geforderten kleinen Emittanz zur Verfügung zu stellen. Das Frankfurter Funneling-Experiment ist die skalierte erste HIDIF-Funneling-Stufe als Teil eines Fusionstreibers. Hier werden zwei möglichst identische Helium-Teilchenstrahlen von zwei Ionenquellen erzeugt und in zwei RFQ-Beschleunigern beschleunigt. Der Deflektor biegt die Teilchenstrahlen reißverschlussartig auf eine gemeinsame Strahlachse. Am Anfang der Arbeit stand die Optimierung des Betriebs der Beschleunigerkomponeten und die Entwicklung und der Aufbau eines Einzellendeflektors. Erste erfolgreiche Strahlexperimente zur Strahlvereinigung werden im Kapitel 7.5 vorgestellt. Die Phasenraumellipse des zusammengeführten Strahls zeigt starke bananenförmige Deformierungen, die auf eine schlechte Anpassung des RFQ an den Funnel-Deflektor zurückzuführen sind. Das Elektrodendesign des RFQ ist in zwei unabhängige Bereiche unterteilt. Die erste Zone dient der Beschleunigung der Teilchen. In der zweiten Zone soll erstmals ein sogenannter 3D-Fokus der Strahlradien der x- und y-Ebene und einer longitudinaler Fokussierung erreicht werden. Der zweite Abschnitt bestand für erste Strahltests aus zunächst unmodulierten Elektroden. Zur besseren Anpassung des RFQ an den Funneldeflektor wurde dann das letzte Elektrodenteil erneuert. Der Umbau erfolgte zunächst nur bei einem der beiden RFQ-Beschleuniger. Somit war der direkte Vergleich zwischen altem und neuen Elektrodendesign im Strahlbetrieb möglich. Mit diesem neuen Elektrodenendteil wurde eine Reduktion der Strahlradien der x- sowie y-Ebene, eine bessere longitudinalen Fokussierung sowie eine höhere Transmission erreicht (Kapitel 8). Damit ist es erstmals gelungen mit einer speziellen Auslegung der RFQ-Elektroden eine direkte Anpassung an nachfolgende Elemente zu realisieren. Untersuchungen zur Strahlzusammenführungen werden seit einigen Jahren am Institut durchgeführt. Mit der Entwicklung des 3D-matchers wurde ein weiteres der kritischen Probleme gelöst. Der Umbau des zweiten Beschleunigers findet zur Zeit statt. Nach der Inbetriebnahme werden Funneling-Experimente mit dem Einspalt- und einem neuem Vielspaltdeflektor folgen.
Diese Arbeit entstand im Zusammenhang mit dem Funneling-Experiment am Institut für Angewandte Physik. Dieses Experiment soll die praktische Umsetzung des für das HIDIF-Projekt benötigte Funneln zur Ionenstrom-Erhöhung demonstrieren. Dabei stand die Erzeugung zweier identischer Ionenstrahlen mit einer Energie von 4 keV im Vordergrund. Diese Ionenstrahlen werden in zwei aufeinander zulaufenden RFQ-Beschleunigern auf eine Energie von 160 keV beschleunigt. Der noch in Planung stehende Funneling-Deflektor bringt die beiden Ionenstrahlen auf eine gemeinsame Strahlachse. Zu Beginn der Diplomarbeit stand der Umbau der Emittanzmeßanlage auf eine PC-Plattform. Gleichzeitig wurde ein sogenannter Quellenturm zum Betrieb der Ionenquellen aufgebaut (vgl. Kapitel 7.2). Die Multicusp-Ionenquellen wurden von K. N. Leung vom Lawrence Berkeley National Laboratory (LBNL) entwickelt und gebaut. Das elektrostatische Linsensystem wurde von R. Keller (LBNL) entworfen und berechnet. Die beiden Linsensysteme wurden in unserer Werkstatt gefertigt. Der erste Teil des Testbetriebs der Injektionssysteme, bestehend aus der Multicusp- Ionenquelle sowie dem elektrostatischen Linsensystem auch LEBT (Low Energy Beam Transport) genannt, bestand aus der Messung des Strahlstromes sowie der zugehörigen Emittanz. Zum Messen des Strahlstromes stand eine durch Preßluft in den Ionenstrahl fahrbare Faradaytasse zur Verfügung. Von dieser Faradaytasse wurde eine Kennlinie zur Bestimmung der Spannung der Sekundärelektronen- unterdrückung aufgenommen (vgl. Kapitel 8.1). Zur Messung der Strahlemittanz wurde eine Emittanzmessung nach dem Schlitz-Gitter Prinzip vorgenommen (vgl. Kapitel 5, Kapitel 7.7-7.9). Beim Betreiben der Injektionssysteme stand vor allem der Synchronbetrieb im Vordergrund. Dabei wurde festgestellt, daß eine der beiden Ionenquellen auch ohne Linsensystem einen größeren Strahlstrom liefert (vgl. Kapitel 8.9). Der Unterschied zwischen den Ionenquellen beträgt bei einem Bogenstrom von 6 A über 20 %. Dies bedeutet für den späteren Strahlbetrieb am RFQ, daß zum Erzeugen gleicher Strahlströme eine Ionenquelle immer mit einem kleineren Bogenstrom betrieben werden muß. Die dadurch unterschiedlichen Plasmadichten sowie thermischen Belastungen der Plasmakammer und unterschiedlichen Füllgrade der elektrostatischen Linsen tragen zu den festgestellten Emittanzunterschieden bei. Zum späteren Vergleich der Injektionssysteme wurde ein Injektionssystem durch verschiedene Bogenströme, variierte Spannungen an den elektrostatischen Linsen sowie unterschiedlichen Gasdrücken in der Plasmakammer ausgemessen. Diese Messungen wurden nach Wechseln der Glühkathode sowie Demontage und Neumontage von Ionenquelle und Linsensystem wiederholt. Dabei wurde festgestellt, daß sich der Strahlstrom bei der Vergleichsmessung kaum, die Emittanz der Injektionssysteme aber bis ca. 10% ändert (vgl. Kapitel 8.5). Diese Unterschiede müssen bei dem späteren Vergleich mit dem zweiten Injektionssystem einbezogen werden.Beim Betrieb des zweiten Injektionssystems wurden im direkten Vergleich der Injektionssysteme Unterschiede zwischen dem Strahlstrom sowie der Emittanz festgestellt. Auch hier lieferte das zweite Injektionssystem den schon nach der Ionenquelle festgestellten größeren Ionenstrom. Die gemessenen normierten 90 % RMS-Emittanzen bei einem Strahlstrom von 1 mA betragen am Injektionssystem 1 , beim Injektionssystem 2 , bei einer e1 =0,0288 mm mrad e2 =0,0216 mm mrad Strahlenergie von 4 keV. Die Emittanzunterschiede betragen bis zu 30 %. Im Betrieb mit dem RFQ können die Linsensysteme nicht mit den identischen Spannungen betrieben werden. Dies ist zum einen auf die fertigungsbedingten Unterschiede zurückzuführen, zum anderen auf die abweichenden Plasmadichten zum Erreichen gleicher Strahlströme. Im geplanten HIDIF-Projekt sollen 48 Ionenquellen drei unterschiedliche Teilchenströme erzeugen. Bei dieser Anzahl an Ionenquellen für drei unterschiedliche Ionensorten wird das Erzeugen identischer Teilchenströme sicher noch schwerer zu bewältigen sein. Am Funneling-Experiment ist der Vergleich der beiden Injektionssysteme abgeschlossen. Der Doppelstrahl RFQ-Beschleuniger ist aufgebaut, es wurde bereits ein Ionenstrahl in den RFQ eingeschossen (vgl. Kapitel 8.13). Die normierten 90 % RMS-Emittanzen nach dem RFQ betragen 0,057 mm mrad sowie 0,0625 mm mrad für die beiden Strahlachsen. Der Emittanzunterschied ist kleiner 9 %. Die Emittanzen nach dem RFQ können nicht direkt mit den im Testbetrieb gemessenen Emittanzen der Injektionssysteme verglichen werden. Im Strahlbetrieb mit dem RFQ wurde eine Strahlenergie der Injektionssysteme von 4,15 keV benötigt. Außerdem mußten durch geänderte Einschußbedingungen in den RFQ die Linsenspannungen gegenüber dem Testbetrieb variiert werden. Mit dem Aufbau des Funneling-Deflektors wird zur Zeit begonnen. Nach der Erprobung wird der Einbau in die Strahlachse erfolgen.
The advent of improved experimental and theoretical techniques has brought a lot of attention to the electric dipole (E1) response of atomic nuclei in the last decade. The extensive studies have led to the observation and interpretation of a concentration of E1 strength energetically below the Giant Dipole Resonance in many nuclei. This phenomenon is commonly denoted as Pygmy Dipole Resonance (PDR). This contribution will summarize the most important results obtained using different experimental probes, define the challenges to gain a deeper understanding of the excitations, and discuss the newest experimental developments.
Ziel dieser Arbeit war, mittels einer (n,γ)-Aktivierung, 129Te zu erzeugen und eine Teilchenzahlbestimmung durchzuführen. Aktivierung der Probe am Forschungsreaktor TRIGA und Spektrenaufnahme mittels eines HPGe-Detektors erfolgten im Mai 2014 am Institut für Kernchemie der Johannes Gutenberg Universität in Mainz.
Die Teilchenzahl des Tochternuklids 129I kann anhand der Teilchenzahlen des Isomers und des Grundzustandes von 129Te berechnet werden. In den Aktivierungen #2 bis #6 wurden (14.27 ± 0.53)x10exp12 Iodnuklide erzeugt. Angegeben ist die maximal mögliche Anzahl von Iodteilchen bei unendlich langer Wartezeit und vollständigem Zerfall aller Tellurnuklide.
Beobachtet werden konnte die Abnahme der Grundzustandsaktivität bis zum Erreichen des Gleichgewichts aus Nachbevölkerung durch das Isomer und Zerfall. Die Grundzustandslinien der Energien von 459.60 keV, 487 keV, 1083 KeV und 1111 keV konnten zu dieser Untersuchung herangezogen werden. Diese 4 Linien erfüllen die erforderten Konsistenzkriterien bezüglich der Systematik und können daher zur Teilchenzahlbestimmung des Grundzustandes verwendet werden (Seite 31).
Der Einfluss der Eigenabsorption ist noch zu untersuchen, da die genaue Position der Probe im Polyethylenbehältnis nicht bestimmt werden konnte. Weiterhin ist die Datenanalyse der ersten Aktivierung aufgrund des Detektorwechsels noch nicht erfolgt. Der Austausch war wegen technischer Probleme notwendig. Ziel weiterführender Untersuchungen ist, eine erneute Halbwertszeitbestimmung des radioaktiven 129I vorzunehmen. Sie ist von Interesse, angesichts des Widerspruchs zweier Veröffentlichungen. Die Halbwertszeit des 129I kann Aufschluss über stellare Bedingungen des s-Prozesses geben.
We study the transition from fusion-fission phenomena at about 20 MeV/nucleon multifragmentation at 100–200 MeV/nucleon in the reaction 16O+80Br employing the quantum molecular dynamics model. The time evolution of the density and mass distribution, the charged-particle multiplicity, and spectra as well as angular distributions of light particles are investigated. The results exhibit the transition of the disassembly mechanism, but no sharp change is found. The results are in good agreement with recently measured 4-Pi data.
Elliptic flow analysis at RHIC with the Lee-Yang Zeroes method in a relativistic transport approach
(2006)
The Lee-Yang zeroes method is applied to study elliptic flow (v_2) in Au+Au collisions at sqrt s =200 A GeV, with the UrQMD model. In this transport approach, the true event plane is known and both the nonflow effects and event-by-event v_2 fluctuations exist. Although the low resolutions prohibit the application of the method for most central and peripheral collisions, the integral and differential elliptic flow from the Lee-Yang zeroes method agrees with the exact v_2 values very well for semi-central collisions.
The cumulant method is applied to study elliptic flow (v_2) in Au+Au collisions at sqrt s=200 AGeV, with the UrQMD model. In this approach, the true event plane is known and both the non-flow effects and event-by-event spatial (epsilon) and v_2 fluctuations exist. Qualitatively, the hierarchy of v_2 's from two, four and six-particle cumulants is consistent with the STAR data, however, the magnitude of v_2 in the UrQMD model is only 60% of the data. We find that the four and six-particle cumulants are good measures of the real elliptic flow over a wide range of centralities except for the most central and very peripheral events. There the cumulant method is affected by the v_2 fluctuations. In mid-central collisions, the four and six-particle cumulants are shown to give a good estimation of the true differential v_2, especially at large transverse momentum, where the two-particle cumulant method is heavily affected by the non-flow effects.
We propose to measure correlations of heavy-flavor hadrons to address the status of thermalization at the partonic stage of light quarks and gluons in high-energy nuclear collisions, shown on the example of azimuthal correlations of D-Dbar pairs. We show that hadronic interactions at the late stage can not disturb these correlations significantly. Thus, a decrease or the complete absence of these initial correlations indicates frequent interactions of heavy-flavor quarks in the partonic stage. Therefore, early thermalization of light quarks is likely to be reached. PACS numbers: 25.75.-q
Within this thesis, an experimental study of the photo double ionization (PDI) and the simultaneous ionization-excitation is performed for lithium in different initial states Li (1s22l) (l = s, p). The excess energy of the linearly polarized VUV-light is between 4 and 12 eV above the PDI-threshold. Three forefront technologies are combined: a magneto-optical trap (MOT) for lithium generating an ultra-cold and, by means of optical pumping, a state-prepared target; a reaction microscope (ReMi), enabling the momentum resolved detection of all reaction fragments with high-resolution and the free-electron laser in Hamburg (FLASH), providing an unprecedented brilliant photon beam at favourable time structure to access small cross sections. Close to threshold the total as well as differential PDI cross sections are observed to critically depend on the excitation level and the symmetry of the initial state. For the excited state Li (1s22p) the PDI dynamics strongly depends on the alignment of the 2p-orbital with respect to the VUV-light polarization and, thus, from the population of the magnetic substates (mp = 0, ±1). This alignment sensitivity decreases for increasing excess energy and is completely absent for ionization-excitation. Time-dependent close-coupling calculations are able to reproduce the experimental total cross sections with deviations of at most 30%. All the experimental observations can be consistently understood in terms of the long range electron correlation among the continuum electrons which gives rise to their preferential back-to-back emission. This alignment effect, which is observed here for the first time, allows controlling the PDI dynamics through a purely geometrical modification of the target initial state without changing its internal energy.
Beam test of the direct plasma injection scheme (DPIS) is carried out successfully for the first time in China, by setting up a comprehensive test and research platform of RFQ and laser ion source. The C6+ beam is accelerated successfully, and the peak beam current reaches more than 6mA which is measured by a Faraday cup of unique structure. The RF power coupled into the RFQ cavity is also examined, and results reveal that it is the RF power of about 195kW that can produce the peak beam current.
In this proceeding we review our recent work using supervised learning with a deep convolutional neural network (CNN) to identify the QCD equation of state (EoS) employed in hydrodynamic modeling of heavy-ion collisions given only final-state particle spectra ρ(pT, Ф). We showed that there is a traceable encoder of the dynamical information from phase structure (EoS) that survives the evolution and exists in the final snapshot, which enables the trained CNN to act as an effective “EoS-meter” in detecting the nature of the QCD transition.
We investigate charmonium production in Pb + Pb collisions at LHC beam energy Elab=2.76A TeV at fixed-target experiment (√sNN = 72 GeV). In the frame of a transport approach including cold and hot nuclear matter effects on charmonium evolution, we focus on the antishadowing effect on the nuclear modification factors RAA and rAA for the J/ψ yield and transverse momentum. The yield is more suppressed at less forward rapidity (ylab ≃ 2) than that at very forward rapidity (ylab ≃ 4) due to the shadowing and antishadowing in different rapidity bins.
We study the effect of thermal charm production on charmonium regeneration in high energy nuclear collisions. By solving the kinetic equations for charm quark and charmonium distributions in Pb+Pb collisions, we calculate the global and differential nuclear modification factors RAA(Npart) and RAA(pt) for J/ψ s. Due to the thermal charm production in hot medium, the charmonium production source changes from the initially created charm quarks at SPS, RHIC and LHC to the thermally produced charm quarks at Future Circular Collider (FCC), and the J/ψ suppression (RAA<1) observed so far will be replaced by a strong enhancement (RAA>1) at FCC at low transverse momentum.
We have built quasi-equilibrium models for uniformly rotating quark stars in general relativity. The conformal flatness approximation is employed and the Compact Object CALculator (cocal) code is extended to treat rotating stars with surface density discontinuity. In addition to the widely used MIT bag model, we have considered a strangeon star equation of state (EoS), suggested by Lai and Xu, that is based on quark clustering and results in a stiff EoS. We have investigated the maximum mass of uniformly rotating axisymmetric quark stars. We have also built triaxially deformed solutions for extremely fast rotating quark stars and studied the possible gravitational wave emission from such configurations.
We present the first very long baseline interferometric (VLBI) observations of the blazar OJ 287 carried out jointly with the Global Millimeter VLBI Array (GMVA) and the phased Atacama Large Millimeter/submillimeter Array (ALMA) at 3.5 mm on 2017 April 2. The participation of phased ALMA has not only improved the GMVA north–south resolution by a factor of ∼3, but has also enabled fringe detections with signal-to-noise ratios up to 300 at baselines longer than 2 Gλ. The high sensitivity has motivated us to image the data with newly developed regularized maximum likelihood imaging methods, revealing the innermost jet structure with unprecedentedly high angular resolution. Our images reveal a compact and twisted jet extending along the northwest direction, with two bends within the inner 200 μas, resembling a precessing jet in projection. The component at the southeastern end shows a compact morphology and high brightness temperature, and is identified as the VLBI core. An extended jet feature that lies at ∼200 μas northwest of the core shows a conical shape, in both total and linearly polarized intensity, and a bimodal distribution of the linear polarization electric vector position angle. We discuss the nature of this feature by comparing our observations with models and simulations of oblique and recollimation shocks with various magnetic field configurations. Our high-fidelity images also enabled us to search for possible jet features from the secondary supermassive black hole (SMBH) and test the SMBH binary hypothesis proposed for this source.
In this thesis I use effective models to investigate the properties of QCD-like theories at nonzero temperature and baryon chemical potential. First I construct a PNJL model using a lattice spin model with nearestneighbor interactions for the gauge sector and four-fermion interactions for the quarks in (pseudo)real representations of the gauge group. Calculating the phase diagram in the plane of temperature and quark chemical potential in QCD with adjoint quarks, it is qualitatively confirmed that the critical temperature of the chiral phase transition is much higher than the deconfinement transition temperature. At a chemical potential equal to half of the diquark mass in the vacuum, a diquark Bose–Einstein condensation (BEC) phase transition occurs. In the two-color case, a Ginzburg–Landau expansion is used to study the tetracritical behavior around the intersection point of the deconfinement and BEC transition lines which are both of second order. A compact expression for the expectation value of the Polyakov loop in an arbitrary representation of the gauge group is obtained for any number of colors, which allows us to study Casimir scaling at both nonzero temperature and chemical potential. Subsequently I study the thermodynamics of two-color QCD (QC2D) at high temperature and/or density using ZQCD, a dimensionally reduced superrenormalizable effective theory, formulated in terms of a coarse grained Wilson line. In the absence of quarks, the theory is required to respect the Z2 center symmetry, while the effects of quarks of arbitrary masses and chemical potentials are introduced via soft Z2 breaking operators. Perturbative matching of the effective theory parameters to the full theory is carried out explicitly, and it is argued how the new theory can be used to explore the phase diagram of two-color QCD.
Type-II multiferroic materials, in which ferroelectric polarization is induced by inversion non-symmetric magnetic order, promise new and highly efficient multifunctional applications based on mutual control of magnetic and electric properties. However, to date this phenomenon is limited to low temperatures. Here we report giant pressure-dependence of the multiferroic critical temperature in CuBr2: at 4.5 GPa it is enhanced from 73.5 to 162 K, to our knowledge the highest TC ever reported for non-oxide type-II multiferroics. This growth shows no sign of saturating and the dielectric loss remains small under these high pressures. We establish the structure under pressure and demonstrate a 60\% increase in the two-magnon Raman energy scale up to 3.6 GPa. First-principles structural and magnetic energy calculations provide a quantitative explanation in terms of dramatically pressure-enhanced interactions between CuBr2 chains. These large, pressure-tuned magnetic interactions motivate structural control in cuprous halides as a route to applied high-temperature multiferroicity.
As the successor of the EUROTRANS project, the MAX project is aiming to continue the R&D effects for a European Accelerator-Driven System and to bring the conceptual design to reality. The layout of the driver linac for MAX will follow the reference design made for the XT-ADS phase of the EUROTRANS project. For the injector part, new design strategies and approaches, e.g. half resonant frequency, half transition-energy between the RFQ and the CH-DTL, and using the 4-rod RFQ structure instead of the originally proposed 4-vane RFQ, have been conceived and studied to reach a more reliable CW operation at reduced costs. In this paper, the design and simulation results of the MAX injector are presented.
EUROTRANS is a European research program for the transmutation of high level nuclear waste in an accelerator-driven system (ADS). As proposed, the driver linac needs to deliver a 2.5–4 mA, 600 MeV continuous-wave (CW) proton beam and later a 20 mA, 800 MeV one to the spallation target in the prototype-scale and industrial-scale demonstration phases, respectively. This paper is focusing on the conceptual studies performed with respect to the 17 MeV injector. First, the special beam dynamics strategies and methods, which have been developed and applied to design a current-variable injector up to 30 mA for allowing an easy upgrade without additional R&D costs, will be introduced. Then the error study made for evaluating the tolerance limits of the designed injector will be presented as well.
Energy and environment are two major concerns in the 21st century. At present, the energy required for the daily life still mainly relies on the traditional fossil fuel resources, but the caused air pollution problem and greenhouse effect have seriously threatened the sustainable development of mankind. Another adopted energy source which can provide a large fraction of electricity for the world is the nuclear fission reaction. However, the increasing high-radioactive spent nuclear fuels, which half-lives are usually >1 million years, are becoming the hidden perils to the earth. A great advance in accelerator physics and technology opens an opportunity to solve this dilemma between man and nature, because powerful accelerator-based neutron sources can play important roles for clean nuclear power production, for example: - The Accelerator-Driven System (ADS) can serve as an easy control of a sub-critical fission reactor so that the nuclear fuels will be burnt more completely and safely. - The EUROTRANS project launched by EU is investigating another application of the ADS technology to reduce the radiotoxicity and the volume of the existing nuclear waste greatly and quickly in a transmutation way. - The developing international IFMIF plant will be used to test and qualify reactor materials for future fusion power stations, which can produce much cleaner nuclear electricity more efficiently than the fission ones. Therefore, the R&D of high-power driver linacs (HPDL) is of a worldwide importance. As the proverb said, "everything is hard at the beginning", the front end is the most difficult part for realizing an HPDL machine. Based on the RFQ and H-type DTL structures, this dissertation is dedicated to study the beam dynamics in the presence of significantly strong space-charge effects while accelerating intense hardon beams in the low- and medium-beta-region. Besides the 5mA/30mA, 17MeV proton injector (RFQ+DTL) and the 125mA, 40MeV deuteron DTL of the above-mentioned EUROTRANS and IFMIF facilities, a 200mA, 700keV proton RFQ has been also intensively studied for a small-scale but ultra-intense neutron source FRANZ planned at Frankfurt University. The most remarkable properties of the FRANZ RFQ and the IFMIF DTL are the design beam intensities, 200mA and 125mA, which are the record values for the proton and deuteron linacs, respectively. Though the design intensities for the two development stages, XT-ADS (5mA) and EFIT (30mA), of the EUROTRANS injector are well within the capability of the modern RF linac technology, the special design concept for an easy upgrade from XT-ADS to EFIT brings unusual challenges to realize a linac layout which allows flexible operation with different beam intensities. To design the 200mA FRANZ RFQ and the two-intensity EUROTRANS RFQ, the classic LANL (Los Alamos National Laboratory) Four-Section Procedure, which was developed by neglecting the space-charge forces, is not sufficient anymore. Abandoning the unreasonable constant- B (constant-transverse-focusing-strength) law and the resulting inefficient evolution manners of dynamics parameters adopted by the LANL method, a new design approach so-called "BABBLE", which can provide a "Balanced and Accelerated Beam Bunching at Low Energy", has been developed for intense beams. Being consistent with the beam-development process including space-charge effects, the main features of the "BABBLE" strategy (see Pages 55-58) are: 1) At the entrance, the synchronous phase is kept at = phi s = -90° while a gradual increase in the electrode modulation is started so that the input beam can firstly get a symmetrical and soft bunching within a full-360° phase acceptance. 2) In the following main bunching section, B is increasing to balance the stronger and stronger transverse defocusing effects induced by the decreasing bunch size so that the bunching speed can be fast and safely increased. 3) When the real acceleration starts, the quickly increased beam velocity will naturally weaken the transverse defocusing effects, so B is accordingly falling down to avoid longitudinal emittance growths and to allow larger bore apertures. Taking advantage of the gentle initial bunching and the accelerated main bunching under balanced forces enabled by the "BABBLE" strategy, a 2m-long RFQ with beam transmission in excess of 98% and low emittance growths has been designed for FRANZ, and a 4.3m-long RFQ with almost no beam losses and flat emittance evolutions at both 5mA and 30mA has been designed for EUROTRANS. All design results have proven that the "BABBLE" strategy is a general design approach leading to an efficient and robust RFQ with good beam quality in a wide intensity-range from 0mA to 200mA (even higher). To design the IFMIF DTL and the injector DTL part of the EUROTRANS driver linac, which have been foreseen as the first real applications of the novel superconducting CH-DTL structure, intensive attempts have been made to fulfill the design goals under the new conditions, e.g. long drift spaces, SC transverse focusing elements and high accelerating gradients. For the IFMIF DTL, the preliminary IAP design has been considerably improved with respect to the linac layout as well as the beam dynamics. By reserving sufficient drift spaces for the cryosystem, diagnostic devices, tuner and steerer, introducing SC solenoid lenses and adjusting the Linac Design for Intense Hadron Beams accelerating gradients and accordingly other configurations of the cavities (see Pages 78-80), a more realistic, reliable and efficient linac system has been designed. On the other hand, the specifications and positions of the transverse focusing elements (see Pages 81-82) as well as the phase- and energy-differences between the bunch-center particle and the synchronous particle at the beginning of the phi s=0° sections have been totally redesigned (see Pages 83-84) resulting in good beam performances in both radial and longitudinal planes. For the EUROTRANS injector DTL, in addition to the above-mentioned procedures, extra optimization concepts to coordinate the beam dynamics between two intensities, such as employing short adjustable rebunching cavities with phi s = -90° (see Page 116), have been applied. ...
Mit dem Dileptonenspektrometer HADES (High Acceptance Di-Electron Spectrometer) sollen Dielektronen, die bei zentralen Au+Au-Kollisionen der Energie von bis zu 2 GeV/u entstehen, spektroskopiert werden. Zentrale Detektorkomponente ist ein Magnetspektrometer, bestehend aus einem toroidalem Magnetfeld und 24 Driftkammern, die zur Orts- und Impulsbestimmung durch Ablenkung im Magnetfeld verwendet werden. Hohe Raten minimal ionisierender Teilchen, eine Massenauflösung von 1% im Massenbereich von 800 (MeVc) exp -2 sowie eine sichere Signalerkennung und -zuordnung stellen höchste Anforderungen an das Spektrometer, insbesondere an die Driftkammern. Ziel dieser Arbeit ist das grundlegende Verständnis der Funktionsweise der Driftkammern, die bei HADES eingesetzt werden, dazu gehört: (a): das physikalische Verständnis der Funktionsweise, insbesondere - die genaue Kenntnis des Feldverlaufs innerhalb der Kammern, sowie die Eigenschaften des verwendeten Driftkammergases und - die Bestimmung des theoretisch maximal erreichbaren Ortsauflösungsvermögens der Driftkammern, (b): die technische Seite, die den Aufbau der Driftkammern untersucht. Dies ist besonders wichtig, da in den HADES-Simulationsrechnungen aufgrund der großen Anzahl individueller Drähte mit Folien äquivalenter Massen gerechnet wurde. Hilfsmittel zur Untersuchung dieser Fragestellungen waren einerseits Programme, die Monte-Carlo-Methoden verwenden, andererseits Experimente, die an einem Prototyp der HADES-Driftkammern durchgeführt wurden, wobei jedoch der Schwerpunkt dieser Arbeit auf den Simulationrechnungen liegt. Kapitel 1 gibt einen Überblick über die physikalische Motivation von HADES und beschreibt kurz die einzelnen Komponenten des Spektrometers und die Driftkammerphysik. Kapitel 2 geht auf den Aufbau der HADES-Driftkammern ein und stellt die mit Hilfe von Simulationsrechnungen gewonnenen Erkenntnisse über die Kammern vor. Kapitel 3 behandelt die Bestimmung der intrinsischen Auflöosung der Prototyp-Driftkammer. Da dies allein mit Hilfe von Quellenmessungen aufgrund der Vielfachstreuung nicht möglich ist, wurde der Anteil an Vielfachstreuung mit Simulationsrechnungen bestimmt. Kapitel 4 vergleicht die Erkenntnisse über das Verhalten der Driftkammern, die in Kapitel 2 gewonnen wurden, mit einem am SIS (Schwerionen-Synchrotron) gemachten Experiment. Abschließend wird das Modell einer Driftkammer mit realen Drähten mit dem Modell einer Driftkammer verglichen, in der die Drähte durch Folien äquivalenter Massenbelegung ersetzt wurden.
Subject of this thesis is the non-perturbative investigation of the thermal transition in Quantum Chromodynamics by means of lattice gauge theory and a particular type of lattice fermions, the so-called twisted mass fermions. These fermions offer the possibility of improvement as compared to the standard Wilson-type formulation. We investigate the properties of these fermions at finite temperature, i.e. the structure of the bare parameter space as well as leading order cutoff effects in the weak coupling limit. Then we focus on two-flavour simulations at finite pion mass. We identify the (pseudo-)critical temperatures for our set of pion masses (300 to 500 MeV) and discuss the extrapolation to the chiral limit for which the nature of the transition is still an open question. Besides pseudo-critical temperatures we consider the magnetic equation of state and screening observables. We find that the assumption of a second order transition (in the 3d O(4) universality class) agrees with our data without being able to exclude alternatives. Finally, we discuss the future inclusion of strange and charm quarks in dynamical twisted mass simulations and look at the corresponding cutoff effects in the free limit.
A canonical partition function for the two-component excluded volume model is derived, leading to two di erent van der Waals approximations. The one is known as the Lorentz-Berthelot mixture and the other has been proposed recently. Both models are analysed in the canonical and grand canonical ensemble. In comparison with the one-component van der Waals excluded volume model the suppression of particle densities is reduced in these two-component formulations, but in two essentially di erent ways. Presently used multi-component models have no such reduction. They are shown to be not correct when used for components with di erent hard-core radii. For high temperatures the excluded volume interaction is refined by accounting for the Lorentz contraction of the spherical excluded volumes, which leads to a distinct enhancement of lighter particles. The resulting e ects on pion yield ratios are studied for AGS and SPS data.
In der vorliegenden Dissertation werden mit einem chiralen SU(3)-Modell die thermodynamischen Eigenschaften von stark wechselwirkender hadronischer Materie und die mikroskopischen Medium-Eigenschaften von Hadronen bei hohen Temperaturen und hohen Baryonen-Dichten untersucht. Das verwendete chirale Modell ist ein erweitertes sigma-omega-Modell in Mittlerer-Feld-Näherung (Mean-Field) mit baryonischen und mesonischen effektiven Freiheitsgraden; es basiert auf spontan gebrochener chiraler Symmetrie und Skaleninvarianz. Das Phasenübergangsverhalten des chiralen Modells wird systematisch untersucht und dabei gezeigt, dass es signifikant von den Kopplungen zusätzlicher schwererer hadronischer Freiheitsgrade ('Resonanzen') abhängt. Durch entsprechende Ankopplung des niedrigsten baryonischen Dekupletts kann ein Phasendiagramm in qualitativer Übereinstimmung mit aktuellen Vorhersagen der Gitter-QCD erreicht werden. Alternativ wird die Ankopplung einer schweren baryonischen Test-Resonanz untersucht, welche effektiv für das Spektrum der schweren hadronischen Zustände steht. Hier ergibt sich für einen bestimmten Bereich der Kopplungen sogar eine quantitative Übereinstimmung zu den Gitter-QCD-Vorhersagen bei gleichzeitig guter Beschreibung der Grundzustandseigenschaften von Kernmaterie. Für diese Zustandsgleichung werden Vorhersagen (innerhalb der Modellannahmen) zu geplanten Experimenten gemacht -- konkret wird gezeigt, dass der Phasenübergangsbereich für das CBM Experiment des geplanten Beschleunigerzentrums FAIR an der GSI Darmstadt experimentell zugänglich ist. Weiter wird das chirale Modell auf die Beschreibung von experimentellen Teilchenzahlverhältnissen (Yield-Ratios) aus Schwerionen-Kollisionen von AGS, SPS und RHIC angewendet. Studiert werden Parametersätze mit stark unterschiedlichen Phasendiagrammen aufgrund unterschiedlicher Ankopplung des baryonischen Dekupletts sowie ein ideales Hadronengas. Bei den niedrigen und mittleren Kollisionsenergien zeigt sich eine verbesserte Beschreibung durch die chiralen Parametersätze im Vergleich zum idealen Hadronengas, besonders deutlich für Parametersätze mit Phasendiagramm ähnlich der Vorhersage aus der Gitter-QCD. Die Wechselwirkung im chiralen Modell führt zu Medium-Modifikationen der chemischen Potentiale und der Hadronenmassen. Die resultierenden Ausfrierparameter mu und T sind deshalb gegenüber dem nichtwechselwirkenden Fall signifikant verändert. An den Ausfrierpunkten zeigen sich deutliche Abweichungen der effektiven Massen von den Vakuummassen (5 bis 15 %) und des effektiven baryo-chemischen Potentials vom ursprünglichen Wert (bis zu 20 %). Ferner werden universelle Kriterien für das Ausfrieren diskutiert und isentrope Expansion zu den Ausfrierpunkten untersucht, wo sich eine starke Abhängigkeit der Trajektorien von der Zustandsgleichung ergibt. Schließlich wird der Einfluss des Dilaton-Felds (Gluonkondensat) auf das Phasenübergangsverhalten bei mu=0 studiert, indem das Gluonkondensat an die Dekuplett-Baryonen gekoppelt wird. Es zeigt sich, dass dadurch eine Restauration der Skaleninvarianz im Modell möglich wird, die gleichzeitig auch eine vollständige Restauration der chiralen Symmetrie bewirkt. Die Restauration der Skaleninvarianz erfolgt erst bei Temperaturen, die oberhalb der chiralen Restauration (im nichtseltsamen Sektor) liegen. Diese Modellerweiterung ermöglicht es, zukünftig das Phasenübergangsverhalten -- Restauration von chiraler Symmetrie und Skaleninvarianz -- auch bei nichtverschwindenden Baryonendichten zu untersuchen. Die Resultate dieser Arbeit zeigen die Wichtigkeit der schweren hadronischen Zustände, der Resonanzen, für das QCD-Phasendiagramm. Für die Zukunft ist eine Ankopplung des gesamten hadronischen Massenspektrums an das Modell erstrebenswert, wie sich sowohl aus der Untersuchung der Modellerweiterung um eine Test-Resonanz als auch aus der Anwendung auf experimentelle Teilchenzahlverhältnisse ergibt.
Im Rahmen dieser Diplomarbeit sind Ladungsfluktuationen bei Kollisionen von Blei-Kernen bei den Energien 30, 60, 80 und 160 GeV untersucht worden. Das Interesse an den Ladungsfluktuationen beruht darauf, dass sie einen Hinweis auf die Bildung des Quark-Gluon-Plasmas liefern könnten. Im ersten Teil der Arbeit werden mit Hilfe von einfachen Modellen zwei Variablen untersucht, D-tilde und DeltaPhiq, um die optimale Observable zur Messung der Ladungsfluktuationen zu finden. Im zweiten Teil werden experimentelle Resultate präsentiert, die aus den Daten des CERN-SPS-Experimentes NA49 gewonen wurden. Die gemessenen Ladungsfluktuationen entsprechen denen, die von einem Pionen-Gas erwartet werden, wenn die Pionen nur aufgrund der Ladungserhaltung korreliert sind. Es wird jedoch gezeigt, dass diese Resultate nicht der Annahme widersprechen, dass das Quark-Gluon-Plasma bei SPS-Energien gebildet wird.
The properties of two measures of charge fluctuations D-tilde and DeltaPhiq are discussed within several toy models of nuclear collisions. In particular their dependence on mean particle multiplicity, multiplicity fluctuations, and net electric charge are studied. It is shown that the measure DeltaPhiq is less sensitive to these trivial biasing effects than the originally proposed measure D-tilde. Furthermore the influence of resonance decay kinematics is analyzed and it is shown that it is likely to shadow a possible reduction of fluctuations due to QGP creation.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
One of the most challenging problems in solid state systems is the microscopic analysis of electronic correlations. A paramount minimal model that encodes correlation effects is the Hubbard Hamiltonian, which—regardless of its simplicity—is exactly solvable only in a few limiting cases and approximate many-body methods are required for its solution. In this review, an overview on the non-perturbative two-particle self-consistent method (TPSC), which was originally introduced to describe the electronic properties of the single-band Hubbard model, is presented. A detailed derivation of the multi-orbital generalization of TPSC is introduced here and particular features of the method on exemplary interacting models in comparison to dynamical mean-field theory results are discussed.
Diese Thesis befasst sich mit dem Problem korrelierter Elektronensysteme in realen Materialien. Ausgangspunkt hierbei ist die quantenmechanische Beschreibung dieser Systeme im Rahmen der sogenannten Kohn-Scham Dichtefunktionaltheorie, welche die Elektronen der Kristallsysteme als effektiv nicht-wechselwirkende Teilchen beschreibt.
Während diese Modellierung im Falle vieler Materialklassen erfolgreich ist, unterscheiden sich die korrelierten Elektronensysteme dadurch, dass der kollektive Charakter der Elektronendynamik nicht zu vernachlässigen ist.
Um diese Korrelationseffekte genauer zu untersuchen, verwenden wir in dieser Arbeit das Hubbard-Modell, welches mit der projektiven Wannierfunktionsmethode aus der Kohn-Scham Dichtefunktionaltheorie konstruiert werden kann.
Das Hubbard-Modell umfasst hierbei nur die lokale Elektron-Elektron-Wechselwirkung auf einem Gitter. Auch wenn das Modell augenscheinlich sehr simpel ist, existieren exakte Lösungen nur in bestimmten Grenzfällen. Dies macht die Entwicklung approximativer Ansätze erforderlich, wobei die Weiterentwicklung der sogenannten Two-Particle Self-Consistent Methode (TPSC) eine zentrale Rolle dieser Arbeit einnimmt.
Bei TPSC handelt es sich um eine Vielteilchenmethode, die in der Sprache funktionaler Ableitungen und sogenannter conserving approximations hergeleitet werden kann.
Der zentrale Gedanke dabei ist, den effektiven Wechselwirkungsvertex als statisch und lokal zu approximieren. Dies wiederum erlaubt die Bewegungsgleichung des Systems
erheblich zu vereinfachen, sodass eine numerische approximative Lösung des Hubbard-Modells möglich wird. Vorsetzung hierbei ist nur, dass sich das System in der normalleitenden Phase befindet und die bei Phasenübergängen entstehenden Fluktuationen nicht zu groß sind.
Während diese Methode ursprünglich von Y. M. Vilk und A.-M. Tremblay für das Ein-Orbital Hubbard-Modell entwickelt wurde, stellen wir in dieser Arbeit eine Erweiterung auf Viel-Orbital-Systeme vor.
Im Falle mehrerer Orbitale treten in der TPSC-Herleitung einzelne Komplikationen auf, die mit weiteren Approximationen behandelt werden müssen. Diese werden anhand eines einfachen Zwei-Orbital Modell-Systems diskutiert und die TPSC-Ergebnisse werden darüber hinaus mit den Ergebnissen der etablierten dynamischen Molekularfeldnährung verglichen.
In diesem Zusammenhang werden auch mögliche zukünftige Erweiterungen bzw. Verbesserungen von TPSC diskutiert.
Ein weiterer wichtiger Aspekt ist die Anwendung von TPSC auf reale Materialien.
In diesem Zusammenhang werden in dieser Arbeit die supraleitenden Eigenschaften der organischen K-(ET)2X Systeme untersucht. Hierbei lassen die TPSC-Resultate darauf schließen, dass das populäre Dimer-Modell, welches zur Beschreibung dieser Materialien herangezogen wird, nicht genügt um die experimentell bestimmten kritischen Temperaturen zu erklären und dass das komplexere Molekülmodell weitere exotische supraleitende Lösungen zulässt.
Schließlich untersuchen wir außerdem die elektronischen Eigenschaften des eisenbasierten Supraleiters LiFeAs und diskutieren inwieweit nicht-lokale Korrelationseffekte, welche durch TPSC aufgelöst werden können, die experimentellen Daten reproduzieren.
The properties of strange hadronic matter are studied in the context of the modified quark-meson coupling model using two substantially di erent sets of hyperon-hyperon (Y Y ) interactions. The first set is based on the Nijmegen hard core potential model D with slightly attractive Y Y interactions. The second potential set is based on the recent SU(3) extension of the Nijmegen soft-core potential NSC97 with strongly attractive Y Y interactions which may allow for deeply bound hypernuclear matter. The results show that, for the first potential set, the hyperon does not appear at all in the bulk at any baryon density and for all strangeness fractions. The binding energy curves of the resulting N system vary smoothly with density and the system is stable (or metastable if we include the weak force). However, the situation is drastically changed when using the second set where the hyperons appear in the system at large baryon densities above a critical strangeness fraction. We find strange hadronic matter undergoes a first order phase transition from a N system to a N for strangeness fractions fS > 1.2 and baryonic densities exceeding twice ordinary nuclear matter density. Furthermore, it is found that the system built of N is deeply bound. This phase transition a ects significantly the equation of state which becomes much softer and a substantial drop in energy density and pressure are detected as the phase transition takes place. PACS:21.65.+f, 24.85.+p, 12.39Ba
Hot hypernuclear matter is investigated in an explicit SU(3) quark model based on a mean field description of nonoverlapping baryon bags bound by the self-consistent exchange of scalar sigma, zeta and vector omega,phi mesons. The sigma, omega mean fields are assumed to couple to the u, d-quarks while the zeta ,phi mean fields are coupled to the s-quark. The coupling constants of the mean fields with the quarks are assumed to satisfy SU(6) symmetry. The calculations take into account the medium dependence of the bag parameter on the scalar fields sigma, zeta. We consider only the octet baryons N,Lambda,Sigma, Xi in hypernuclear matter. An ideal gas of the strange mesons K and K is introduced to keep zero net strangeness density. Our results for symmetric hypernuclear matter show that a phase transition takes place at a critical temperature around 180 MeV in which the scalar mean fields sigma, zeta take nonzero values at zero baryon density. Furthermore, the bag contants of the baryons decrease significantly at and above this critical temperature indicating the onset of quark deconfinement. The present results imply that the onset of quark deconfinement in SU(3) hypernuclear matter is much stronger than in SU(2) nuclear matter. PACS:21.65.+f, 24.85.+p, 12.39Ba
This Ph. D. thesis with the title "Characterisation of laser-driven radiation beams: Gamma-ray dosimetry and Monte Carlo simulations of optimised target geometry for record-breaking efficiency of MeV gamma-sources" is dedicated to the study of the acceleration of electrons by intense sub-picosecond laser pulses propagating in a sub-millimeter plasma with near-critical electron density (NCD) and resulting generation of the gamma bremsstrahlung and positrons in the targets of different materials and thickness.
Laser-driven particle acceleration is an area of increasing scientific interest since the recent development of short pulse, high-intensity laser systems. The interaction of intense high-energy, short-pulse lasers with solid targets leads to the production of high-energy electrons in the relativistic laser intensity regime of more than 1018 W /cm2. These electrons play the leading role in the first stage of the interaction of laser with matter, which leads to the creation of laser sources of particles and radiation. Therefore, the optimisation of the electron beam parameters in the direction of increasing the effective temperature and beam charge, together with a slight divergence, plays a decisive role, especially for further detection and characterisation of laser-driven photon and positron beams.
In the context of this work, experiments were carried out at the PHELIX laser system (Petawatt High-Energy Laser for Heavy Ion eXperiments) at GSI Helmholtz Center for Heavy-Ion Research GmbH in Darmstadt, Germany. This thesis presents a thermoluminescence dosimetry (TLD) based method for the measurement of bremsstrahlung spectra in the energy range from 30 keV to 100 MeV. The results of the TLD measurements reinforced the observed tendency towards the strong increase of the mean electron energy and number of super-ponderomotive electrons. In the case of laser interaction with long-scale NCD-plasmas, the dose caused by the gamma-radiation measured in the direction of the laser pulse propagation showed a 1000-fold increase compared to the high contrast shots onto plane foils and doses measured perpendicular to the laser propagation direction for all used combinations of targets and laser parameters.
In this thesis I present novel characterisation method using a combination of TLD measurements and Monte Carlo FLUKA simulations applicable to laser-driven beams. The thermoluminescence detector-based spectrometry method for simultaneous detection of electrons and photons from relativistic laser-induced plasmas initially developed by Behrens et al. (Behrens et al., 2003) and further applied in experiments at PHELIX laser (Horst et al., 2015) delivered good spectral information from keV energies up to some MeV, but as it was presented in (Horst et al., 2015) this method was not really suitable to resolve the content of photon spectra above 10 MeV because of the dominant presence of electrons. Therefore, I created new evaluation method of the incident electron spectra from the readings of TLDs. For this purpose, by means of MatLab programming language an unfolding algorithm was written. It was based on a sequential enumeration of matching data series of the dose values measured by the dosimeters and calculated with of FLUKA-simulations. The significant advantage of this method is the ability to obtain the spectrum of incident electrons in the low energy range from 1 keV, which is very difficult to measure reliably using traditional electron spectrometers.
The results of the evaluation of the effective temperature of super-ponderomotive electrons retrieved from the measured TLD-doses by means of the Monte-Carlo simulations demonstrated, that application of low density polymer foam layers irradiated by the relativistic sub-ps laser pulse provided a strong increase of the electron effective temperature from 1.5 - 2 MeV in the case of the relativistic laser interaction with a metallic foil up to 13 MeV for the laser shots onto the pre-ionized foam and more than 10 times higher charge carried by relativistic electrons.
The progressive simulation method of whole electron spectra described with two -temperatures Maxwellian distribution function has been developed and the results of dose simulations were compared with the acquired experimental data. The advanced feature of this method, which distinguishes it from the results of the simulation of the photon spectrum using the interaction with the target of mono-energetic electron beams (Nilgün Demir, 2013; Nilgün Demir, 2019) or the initial electron spectrum expressed as a function of one electron temperature (Fiorini, 2012), is the ability to simulate the initial electron spectrum described by the Maxwellian distribution function with two temperatures.
The important objective of this thesis was dedicated to the study and characterisation of laser-driven photon beams. In addition to this, the positron beams were evaluated. The investigation of bremsstrahlung photons and positrons spectra from high Z targets by varying the target thickness from 10 µm to 4 mm in simulated models of the interactions of electron spectra with Maxwellian distribution functions allowed to define an optimal thickness when the fluences of photons and positrons are maximal. Furthermore based on the results of FLUKA simulations the gold material was found to be the most suitable for the future experiments as e − γ target because of its highest bremsstrahlung yield.
Additionally Monte Carlo simulations were performed applying the obtained electron beam parameters from the electron acceleration process in laser-plasma interactions simulated with particle-in-cell (PIC) code for two laser energies of 20 J and 200 J. The corresponding electron spectra were imported into a Monte Carlo code FLUKA to simulate the production process of bremsstrahlung photons and positrons in Au converter. FLUKA simulations showed the record conversion of efficiency in MeV gammas can reach 10%, which reinforces the generation of positrons. The obtained results demonstrate the advantages of long-scale plasmas of near critical density (NCD) to increase the parameters of MeV particles and photon beams generated in relativistic laser-plasma interaction. The efficiency of the laser-driven generation of MeV electrons and photons by application of low-density polymer foams is essentially enhanced.
There are only 3 methods for the production of heavy and superheavy (SH) nuclei, namely, fusion reactions, a sequence of neutron capture and beta(-) decay and multinucleon transfer reactions. Low values of the fusion cross sections and very short half-lives of nuclei with Z<120 put obstacles in synthesis of new elements. At the same time, an important area of SH isotopes located between those produced in the cold and hot fusion reactions remains unstudied yet. This gap could be filled in fusion reactions of 48Ca with available lighter isotopes of Pu, Am, and Cm. New neutron-enriched isotopes of SH elements may be produced with the use of a 48Ca beam if a 250Cm target would be prepared. In this case we get a real chance to reach the island of stability owing to a possible beta(+) decay of 291114 and 287112 nuclei formed in this reaction with a cross section of about 0.8 pb. A macroscopic amount of the long-living SH nuclei located at the island of stability may be produced by using the pulsed nuclear reactors of the next generation only if the neutron fluence per pulse will be increased by about three orders of magnitude. Multinucleon transfer processes look quite promising for the production and study of neutron-rich heavy nuclei located in upper part of the nuclear map not reachable by other reaction mechanisms. Reactions with actinide beams and targets are of special interest for synthesis of new neutron-enriched transfermium nuclei and not-yet-known nuclei with closed neutron shell N=126 having the largest impact on the astrophysical r-process. The estimated cross sections for the production of these nuclei allows one to plan such experiments at currently available accelerators.
The present limits of the upper part of the nuclear map are rather close to the beta stability line while the unexplored area of heavy neutron rich nuclides (also those located along the neutron closed shell N = 126 to the right hand side of the stability line) is extremely important for nuclear astrophysics investigations and, in particular, for the understanding of the r-process of astrophysical nucleogenesis. For elements with Z > 100 only neutron deficient isotopes (located to the left of the stability line) have been synthesized so far. The “north-east” area of the nuclear map can be reached neither in fusion–fission reactions nor in fragmentation processes widely used nowadays for the production of new nuclei. Multi-nucleon transfer processes in near barrier collisions of heavy ions seem to be the only reaction mechanism allowing us to produce and explore neutron rich heavy nuclei including those located at the superheavy island of stability. Neutron capture process can be also considered as an alternative method for the production of long-lived neutron rich superheavy nuclei. Strong neutron fluxes might be provided by nuclear reactors and nuclear explosions in laboratory frame and by supernova explosions in nature.
Problems of production and study of new neutron-enriched heavy nuclei are discussed. Low-energy multinucleon transfer reactions are shown to be quite appropriate for this purpose. Reactions with actinide beams and targets are of special interest for synthesis of new neutron-enriched transfermium nuclei and not-yet-known nuclei with closed neutron shell N = 126 having the largest impact on the astrophysical r-process. The estimated cross sections for the production of these nuclei look very promising for planning such experiments at currently available accelerators. These experiments, however, are rather expensive and difficult to perform because of low intensities of the massive projectile beams and problems of separating and detecting the heavy reaction products. Thus, realistic predictions of the corresponding cross sections for different projectile-target combinations are definitely required. Some uncertainty still remains in the values of several parameters used for describing the low-energy nuclear dynamics. This uncertainty does not allow one to perform very accurate predictions for the productions of new heavier-than-target (trans-target) nuclei in multinucle on transfer reactions. Nevertheless these predictions are rather promising (large cross sections) to start such experiments at available accelerators if the problem of separation of heavy transfer reaction products would be solved.
In dieser Arbeit wurden thermodynamische Eigenschaften eines chiralen Quark Meson Modelles untersucht. Das chirale Quark Meson Model beschreibt die starke Wechselwirkung über den Austausch von Mesonen und zudem die thermische und dichteabhängige Entwicklung der Quarkmassen im Medium über die chirale Symmetrie.Im SU(2) Model wurde zunächst in mean field approximation gearbeitet, um im Anschluss den divergenten Vakuumterm mit einzubeziehen. Nach eingehender Untersuchung der Ergebnisse, wurden dann die thermischen Mesonenfluktuationen studiert. In beiden Ansätzen verschiebt die Nullpunktsenergie den chiralen Phasenübergang zu höheren Temperaturen, wodurch die Massen bei höheren Temperaturen entarten. Beide Ansätze wurden dann zu einem gemeinsamen Modell kombiniert, um den Einfluss der Mesonenfluktuationen auf Ordnungsparameter, Massen und thermodynamische Grössen zu untersuchen. Als Fazit der Studie kann behauptet werden, dass sich der Einfluss der Mesonenfluktuationen in grösserem Maÿ auf die Thermodynamik, als auf den Ordnungsparameter und die Massen auswirkt. Im SU(3) Modell wurden ebenfalls regularisiert und zudem Vektormesonen mitberücksichtigt, welche die Repulsion zwischen den einzelnen Freiheitsgraden modelliert. Die Zustandsgleichung wird durch den Vakuum Term etwas softer und zeigt ein ähnliches Verhalten im niederen Energiebereich. Untersucht wurde neben der Temperatur T, die Elektron Baryon Rate Ye, die Sigma Meson Masse noch der Einfluss der Vektorkopplung. Aus der Zustandsgleichung konntendann Isentropen im T-mu Phasendiagramm errechnet werden, welche in naher Zukunft Aufschluss über eine dritte Familie von kompakten Sternen in Zusammenhang mit der entsprechenden Supernova Explosion geben könnte. Um die Existenz von kompakten Sternen genauer zu analysieren, wurde das chiraleSU(3) Quark Meson Modell bei T = 0 benutzt, um über die aus dem Formalismusgewonnenen Grössen Druck und Energiedichte die Tolmann-Oppenheimer-Volkoff zu lösen. Diese stellen die Masse-Radius Beziehungen kompakter Objekte dar. Auf der Suche nach Twin Stern Lösungen aus dem chiralen SU(3) Quark Meson Model wurde zunächst ein Modell für Hybridsterne entwickelt. Im untersuchten Parameterbereich fanden wir Hybrid Stern Lösungen, bei welchen der Einfluss der Quarkmaterie auf die Stabilität des Sternes untersucht wurde, denn das Einsetzen des Phasenüberganges übt einen zusätzlichen gravitativen Zug auf die hadronische Kruste aus. Der Stern ist stabil, wenn der Druck der Quarkmaterie diesem zusätzlichen Zug standzuhalten vermag. Für einen zu grossen Sprung in der Energiedichte werden die Lösungen jedoch instabil. Zwillingssterne waren nicht unter den Lösungen, da der Übergangsdruck relativklein sein muss, während der Energiedichtesprung eher gross sein sollte. Das Auftreten zweier stabiler Äste in der Masse Radius Relation kann allerdingsmit dem SU(3) Modell und entsprechendem chiralen Phasenübergang modelliert werden. Für einen gewissen Parameterbereich einhergehend mit kleinem Wert des Vakuum Druckes B konnten Nicht-Linearitäten in der Zustangsgleichungzur Lösung der TOV Gleichung beitragen. Im Weitern ist das Zusammenspiel der Vektorkopplung und der Sigma Mesonen Masse einflussreich auf die Lösungen, welche auf Kausalität, Stabilität und neben der 2 Sonnenmassen Bedingung noch auf Restriktionen vom millisecond pulsar PSR J1748-2446ad untersucht wurden.Mit Weltraummissionen wie etwa NICER (Neutron star Interior CompositionExploreR) sollte die Radiusbestimmung kompakter Objekte in Zukunft bis auf einen Kilometer genau bestimmt werden können. Die Entdeckung von zweiSternen mit der gleichen Masse und unterschiedlichen Radien wäre in der Tat ein Beweis für die Existenz von Zwillingssternen, welche dann die Theorie des Phasenüberganges in dichter Materie untermauern würde. Das Kollaps-Szenario eines Zwillingssternes würde weiteren Aufschluss über Neutrino-Emmissivität, Gamma-ray burster und Gravitationswellen Signale geben können. Dynamische Simulationen in allgemein relativistischem Kontext für compact star merger mit den hier diskutierten Zustandsgleichungen sind bereits in Planung, um Eigenschaftenwie beispielsweise das Temperatur- und Dichteprofil solcher Objekte genauer zu analysieren.
Irreversibility, steady state, and nonequilibrium physics in relativistic heavy ion collisions
(1999)
Heavy ion collisions at ultrarelativistic energies offer the opportunity to study the irreversibility of multiparticle processes. Together with the many-body decays of resonances, the multiparticle processes cause the system to evolve according to Prigogine s steady states rather than towards statistical equilibrium. These results are general and can be easily checked by any microscopic string-, transport-, or cascade model for heavy ion collisions. The absence of pure equilibrium states sheds light on the di culties of thermal models in describing the yields and spectra of hadrons, especially mesons, in heavy ion collisions at bombarding energies above 10 GeV/nucleon. PACS numbers: 25.75.-q, 05.70.Ln, 24.10.Lx
Homogeneous nucleation of quark gluon plasma, finite size effects and longlived metastable objects
(1998)
The general formalism of homogeneous nucleation theory is applied to study the hadronization pattern of the ultra-relativistic quark-gluon plasma (QGP) undergoing a first order phase transition. A coalescence model is proposed to describe the evolution dynamics of hadronic clusters produced in the nucle- ation process. The size distribution of the nucleated clusters is important for the description of the plasma conversion. The model is most sensitive to the initial conditions of the QGP thermalization, time evolution of the energy den- sity, and the interfacial energy of the plasma hadronic matter interface. The rapidly expanding QGP is first supercooled by about T = T Tc = 4 6%. Then it reheats again up to the critical temperature Tc. Finally it breaks up into hadronic clusters and small droplets of plasma. This fast dynamics occurs within the first 5 10 fm/c. The finite size e ects and fluctuations near the critical temperature are studied. It is shown that a drop of longitudinally expanding QGP of the transverse radius below 4.5 fm can display a long-lived metastability. However, both in the rapid and in the delayed hadronization scenario, the bulk pion yield is emitted by sources as large as 3 4.5 fm. This may be detected experimentally both by a HBT interferometry signal and by the analysis of the rapidity distributions of particles in narrow pT -intervals at small |pT | on an event-by-event basis. PACS numbers: 12.38.Mh, 24.10.Pa, 25.75.-q, 64.60.Qb
We reexamine the scenario of homogeneous nucleation of the quark-gluon plasma produced in ultra-relativistic heavy ion collisions. A generalization of the standard nucleation theory to rapidly expanding system is proposed. The nucleation rate is derived via the new scaling parameter Z. It is shown that the size distribution of hadronic clusters plays an important role in the dynamics of the phase transition. The longitudinally expanding system is supercooled to about 3 6%, then it is reheated, and the hadronization is completed within 6 10 fm/c, i.e. 5 10 times faster than it was estimated earlier, in a strongly nonequilibrium way. PACS: 12.38.Mh; 12.39.Ba; 25.75.-q; 64.60.Qb
One of important consequences of Hagedorn statistical bootstrap model is the prediction of limiting temperature Tcrit for hadron systems colloquially known as Hagedorn temperature. According to Hagedorn, this effect should be observed in hadron spectra obtained in infinite equilibrated nuclear matter rather than in relativistic heavy-ion collisions. We present results of microscopic model calculations for the infinite nuclear matter, simulated by a box with periodic boundary conditions. The limiting temperature indeed appears in the model calculations. Its origin is traced to strings and many-body decays of resonances.
Holographic imaging techniques, which exploit the coherence properties of light, enable the reconstruction of the 3D scenery being viewed. While the standard approaches for the recording of holographic images require the superposition of scattered light with a reference field, heterodyne detection techniques enable direct measurement of the amplitude and relative phase of the electric light field. Here, we explore heterodyne Fourier imaging and its capabilities using active illumination with continuous-wave radiation at 300 GHz and a raster-scanned antenna-coupled field-effect transistor (TeraFET) for phase-sensitive detection. We demonstrate that the numerical reconstruction of the scenery provides access to depth resolution together with the capability to numerically refocus the image and the capability to detect an object obscured by another object in the beam path. In addition, the digital refocusing capability allows us to employ Fourier imaging also in the case of small lens-object distances (virtual imaging regime), thus allowing high spatial frequencies to pass through the lens, which results in enhanced lateral resolution.
Terahertz (THz) radiation lies between the micro and far-infrared range in the electromagnetic spectrum. Compared with microwave and millimeter waves, it has a larger signal bandwidth and extremely narrow antenna beam. Thus, it is easier to achieve high-resolution for imaging and detection applications. The unique properties, such as penetration for majority non-polar materials, non-ionizing characteristic and the spectral fingerprint of materials, makes THz imaging an appealing artifice in the military, biomedical, astronomical communications, and other areas. However, THz radiation’s current low power level and detection sensitivity block THz imaging system from including fewer optical elements than the visible or infrared range. This leads to imaging resolution, contrast, and imaging field of view degenerate and makes the aberration more serious. THz imaging based on the space Fourier spectrum detection is developed in this thesis to achieve high-quality imaging. The main concept of Fourier imaging is by recording the field distribution in the Fourier plane (focal plane) of the imaging system; the information of the target is obtained. The numerical processing method is needed to extract the amplitude and phase information of the imaged target. With additional process, three-dimensional (3D) information can be obtained based on the phase information. The novel recording and reconstructing ways of the Fourier imaging system enables it to have a higher resolution, better contrast, and broader field of view than conventional imaging systems such as microscopy and plane to plane telescopic imaging system.
The work presented in this thesis consists of two imaging systems, one is working at 300 GHz based on the fundamental heterodyne detection of the THz radiation, the other is operated at 600 GHz by utilizing the sub harmonic heterodyne detection technique. The realization and test of the heterodyne detection are based on the THz antenna-coupled field-effect transistor (TeraFET) detector developed by Dr. Alvydas Lisauskas. Both systems use two synchronized electronic multiplier chains to radiate the THz waves. One radiation works as the local oscillator (LO), the other works as illumination with a slight frequency shift, the radiations are mixed on the detector scanning in the Fourier plane to record the complex Fourier spectrum of the imaged target. The LO has the same frequency range as the illuminating radiation for fundamental heterodyne detection but half the frequency range for the sub-harmonic heterodyne detection. The 2-mm resolution, 60-dB contrast, and 5.5-cm diameter imaging area at 300 GHz and the of 500-μm resolution, 40-dB contrast, and 3.5-cm diameter imaging area at 600 GHz are achieved (the 300-GHz illuminating radiation has the approximate power of 600 μW , the 600-GHz illuminating radiation has the approximate power of 60 μW ).
The thesis consists of 6 parts. After the introduction, the second chapter expands on the topic of Fourier optics from a theoretical point of view and the simulations of the Fourier imaging system. First, the theory of the electromagnetic field propagation in free space and through an optical system are investigated to elicit the Fourier transform function of the imaging system. The simulation is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on reconstruction. The preliminary imaging field of view and resolution are also demonstrated. The third chapter describes the Fourier imaging system at 300 GHz based on the fundamental heterodyne detection, including the experimental setup, the 2D, and 3D imaging results. The following fourth chapter reports the integration of the TeraFET detector with two substrate lenses (one is a Si lens on the back-side Si substrate, the other is a wax/PTFE lens on the front side containing the bonding wires) for sub-harmonic heterodyne detection at 600 GHz. The characteristic of the wax/PTFE lens at THz range is presented. After that, the compared imaging results between the detector with and without the wax/PTFE lens are shown. The fifth chapter extends the demonstration on the lateral and depth resolution of the Fourier imaging system in detail and uses the experimental results at 600 GHz to validate the analytical predictions. The comparison of the resolution between the Fourier imaging system and the conventional microscopy system proves that the Fourier imaging system has better imaging quality under the same system configuration. The last chapter in this thesis concludes on the findings of the THz Fourier imaging and gives an outlook for the enhancement of the Fourier imaging system at THz range.
Cryo-electron tomography (CET) is a unique technique to visualize biological objects under near-to-native conditions at near-atomic resolution. CET provides three-dimensional (3D) snapshots of the cellular proteome, in which the spatial relations between macromolecular complexes in their near native cellular context can be explored. Due to the limitation of the electron dose applicable on biological samples, the achievable resolution of a tomogram is restricted to a few nanometers, higher resolution can be achieved by averaging of structures occurring in multiples. For this purpose, computational techniques such as template matching, sub-tomogram averaging and classification are essential for a meaningful processing of CET data.
This thesis introduces the techniques of template matching and sub-tomogram averaging and their applications on real biological data sets. Subsequently, the problem of reference bias, which restricts the applicability of those techniques, is addressed. Two methods that estimate the reference bias in Fourier and real space are demonstrated. The real space method, which we have named the “M-free” score, provides a reliable estimation of the reference bias, which gives access to the reliability of the template matching or sub-tomogram averaging process. Thus, the “M-free” score makes those approaches more applicable to structural biology. Furthermore, a classification algorithm based on Neural Networks (NN) called “KerDenSOM3D” is introduced, which is implemented in 3D and compensates for the missing-wedge. This approach helps extracting different structural states of macromolecular complexes or increasing the class purity of data sets by eliminating outliers. A comprehensive comparison with other classification methods shows superior performance of KerDenSOM3D.
The J/psi-hadron interaction is a key ingredient in analyzing the J/psi suppression in hot hadronic matter as well as the propagation of J/psi in nuclei. As a first step to clarify the J/psi-hadron interactions at low energies, we have calculated J/psi-pi, J/psi-rho and J/psi-nucleon scattering lengths by the quenched lattice QCD simulations with Wilson fermions for beta=6.2 on 24^3*48 and 32^3*48 lattices. Using the Luscher's method to extract the scattering length from the simulations in a finite box, we find an attractive interaction in the S-wave channel for all three systems: Among others, the J/psi-nucleon interaction is most attractive. Possibility of the J/psi-nucleon bound state is also discussed.
Lambda and Antilambda reconstruction in central Pb+Pb collisions using a time projection chamber
(1997)
The large acceptance time projection chambers of the NA49 experiment are used to record the trajectory of charged particles from Pb + Pb collisions at 158 GeV per nucleon. Neutral strange hadrons have been reconstructed from their charged decay products. To obtain distributions of Λ, and Ks0 in discrete bins of rapidity, y, and transverse momentum, pT, calculations have been performed to determine the acceptance of the detector and the efficiency of the reconstruction software as a function of both variables. The lifetime distributions obtained give values of cτ = 7.8 ± 0.6 cm for Λ and cτ = 2.5 ± 0.3 cm for Ks0, consistent with data book values.
Layered {\alpha}-RuCl3 is a promising material to potentially realize the long-sought Kitaev quantum spin liquid with fractionalized excitations. While evidence of this exotic state has been reported under a modest in-plane magnetic field, such behavior is largely inconsistent with theoretical expectations of Kitaev phases emerging only in out-of-plane fields. These predicted field-induced states have been mostly out of reach due to the strong easy-plane anisotropy of bulk crystals, however. We use a combination of tunneling spectroscopy, magnetotransport, electron diffraction, and ab initio calculations to study the layer-dependent magnons, anisotropy, structure, and exchange coupling in atomically thin samples. Due to structural distortions, the sign of the average off-diagonal exchange changes in monolayer {\alpha}-RuCl3, leading to a reversal of magnetic anisotropy to easy-axis. Our work provides a new avenue to tune the magnetic interactions in {\alpha}-RuCl3 and allows theoretically predicted quantum spin liquid phases for out-of-plane fields to be more experimentally accessible.
In the present work, the problem of protein folding is addressed from the point of view of equilibrium thermodynamics. The conformation of a globular protein in solution at common temperatures is quite complicated without any geometrical symmetry, but it is an ordered state in the sense of its biological activity. This complicated conformation of a single protein molecule is destroyed upon increasing the temperature or by the addition of appropriate chemical agents, as is revealed by the loss of its activity and change of the physical properties, and so on. Once the complicated native structures having biological activity are lost, it would be natural to suppose that the native structure could hardly be restored. Nevertheless, pioneers, such as Anson and Mirsky, recognized as early as in 1925 that this was not always the case. If one defines the folded and unfolded states of a protein as two distinct phases of a system, then under the variation of temperature the system is transformed from one phase state into another and vice versa. The process of protein folding is accompanied by the release or absorption of a certain amount of energy, corresponding to the first-oder-type phase transitions in the bulk. Knowing the partition function of the system one can evaluate its energy and heat capacity under different temperatures. This task was performed in this work. The results of the developed statistical mechanics model were compared with the results of molecular dynamic simulations of alanine poylpeptides. In particular, the dependencies on temperature of the total energy of the system and heat capacity were compared for alanine polypeptides consisting of 21, 30, 40, 50 and 100 amino acids. The good correspondence of the results of the theoretical model with the results of molecular dynamics simulations allowed to validate the assumptions made about the system and to establish the accuracy range of the theory. In order to perform the comparison of the results of theoretical model and the molecular dynamics simulations it is necessary to perform the efficient analysis of the results of molecular dynamics simulations. This task was also addressed in the present work. In particular, different ways to obtain dependence of the heat capacity on temperature from molecular dynamics simulations are discussed and the most efficient one is proposed. The present thesis reports the result of molecular dynamic simulations for not only alanine polypeptides by also for valine and leucine polypeptides. In valine and leucine polypeptides, it is also possible to observe the helix↔random coil transitions with the increase of temperature. The current thesis presents a work that starts with the investigation of the fundamental degrees of freedom in polypeptides that are responsible for the conformational transitions. Then this knowledge is applied for the statistical mechanics description of helix↔coil transitions in polypeptides. Finally, the theoretical formalism is generalized for the case of proteins in water environment and the comparison of the results of the statistical mechanics model with the experimental measurements of the heat capacity on temperature dependencies for two globular proteins is performed. The presented formalism is based on fundamental physical properties of the system and provides the possibility to describe the folding↔unfolding transitions quantitatively. The combination of these two facts is the major novelty of the presented approach in comparison to the existing ones. The “transparent” physical nature of the formalism provides a possibility to further apply it to a large variety of systems and processes. For instance, it can be used for investigation of the influence of the mutations in the proteins on their stability. This task is of primary importance for design of novel proteins and drug delivering molecules in medicine. It can provide further insights into the problem of protein aggregation and formation of amyloids. The problem of protein aggregation is closely associated with various illnesses such as Alzheimer and mad cow disease. With certain modifications, the presented theoretical method can be applied to the description of the protein crystallization process, which is important for the determination of the structure of proteins with X-Rays. There many other possible applications of the ideas described in the thesis. For instance, the similar formalism can be developed for the description of melting and unzipping of DNA, growth of nanotubes, formation of fullerenes, etc.
Charge states and energy loss of heavy ions after passing an inductively coupled plasma target
(2019)
In various kinds of fields such as accelerator physics, warm dense matter, high energy density physics, and inertial confinement fusion, heavy ions beam-plasma interaction plays an important role, and abundant investigations have been and are being carried out. Taking advantage of a good level of understanding on the interaction between a swift heavy ions beam and a hydrogen gas discharge plasma, an engineering application of a spherical theta-pinch device as a plasma stripper for FAIR (facility for antiproton and ion research) and a scientific application of a swift heavy ions beam as a novel plasma diagnostic tool are proposed and investigated.
The spherical theta-pinch device is manufactured, improved, and comprehensively tested for its application as a plasma stripper. The device is mainly composed of an evacuated glass vessel that can be filled with gas (for example: hydrogen) and a LRC circuit including a capacitors bank and a set of coils. Discharging the device at an initial hydrogen pressure in the glass vessel and an operation voltage for the capacitors bank, a circuit current oscillates in the LRC circuit. The oscillating circuit current in the set of coils induces a corresponding alternating magnetic field inside the glass vessel to ignite and maintain a hydrogen plasma.
Based on the built setup of circuit and plasma diagnostics, the measurements of circuit current, plasma light emission, plasma shape, and hydrogen Balmer series are carried out. The recorded signals of the circuit current and the plasma light emission of many consecutively repetitive discharges overlap perfectly, which indicate a very good reproducibility of the parameters of the LRC circuit during discharge and the generated plasma. From the measured circuit current, a real energy transfer efficiency is calculated by our proposed new model, which shows its overall tendency varying with the hydrogen pressure and the operation voltage, including the maximum value of 25% occurring at an initial hydrogen pressure of around 25 Pa and a maximum operation voltage of 14 kV. So, the discharge at an initial hydrogen pressure of 20 Pa and an operation voltage of 14 ...
The maximum recoverable strain of most crystalline solids is less than 1% because plastic deformation or fracture usually occurs at a small strain. In this work, we show that a SrNi2P2 micropillar exhibits pseudoelasticity with a large maximum recoverable strain of ~14% under uniaxial compression via unique reversible structural transformation, double lattice collapse-expansion that is repeatable under cyclic loading. Its high yield strength (~3.8±0.5 GPa) and large maximum recoverable strain bring out the ultrahigh modulus of resilience (~146±19MJ/m3) a few orders of magnitude higher than that of most engineering materials. The double lattice collapse-expansion mechanism shows stress-strain behaviors similar with that of conventional shape memory alloys, such as hysteresis and thermo-mechanical actuation, even though the structural changes involved are completely different. Our work suggests that the discovery of a new class of high performance ThCr2Si2-structured materials will open new research opportunities in the field of pseudoelasticity
Diese Arbeit beschreibt wie mit physikalischen Methoden die Glukosekonzentration gemessen werden kann. Die Infrarot-Spektroskopie bietet eine Möglichkeit da die Energie der meisten Molekülschwingungen Photonenenergien im infraroten Spektralbereich entspricht. Hier zeigen Glukosemoleküle charakteristische Absorptionsspektren, die mit spektroskopischen Methoden gemessen werden. Um nicht invasiv zu messen, wurde eine photoakustische Messmethode gewählt. Die Grundidee ist, dass die durch Licht angeregten Moleküle ihre Anregungsenergie teilweise in Form von Wärme abgeben. Da die anregende Strahlung intensitätsmoduliert ist, wird auch die Wärmeentwicklung periodisch verlaufen wodurch periodische Volumenänderungen hervorgerufen werden, die eine Druckwelle erzeugen, die sich durch empfindliche Mikrofone oder Schallwandler erfassen lässt. So kann im MIR auf Grund der hohen Spezifizität, der Glukosegehalt mit sehr hoher Genauigkeit bestimmt werden. Die Wellenlänge der Glukoseabsorptionsbanden im MIR Bereich sind im Wesentlichen gekoppelte C=O Streck- und O–H Biegeschwingungen. Im MIR-Bereich zeigen Spektren zwischen 8,3µm bis 11,1µm fünf glukoserelevanten Banden. Der photoakustische Effekt wird durch die Rosencwaig-Gersho Theorie beschrieben. Die Absorption des Lichtes in der Probe bewirkt eine Temperaturerhöhung, die als Wärme an Umgebung abgegeben wird. Da das eingestrahlte Licht gepulst ist, wird auch die Wärme periodisch abgegeben. Durch die Absorption eines Laserpulses in der Haut entsteht ein Temperaturgradient, die abhängig vom Absorptionskoeffizienten und der Glukosekonzentration ist. Der führt zu einer Diffusion von Wärme im Absorptionsvolumen. Die Hautoberfläche und damit eine dünne Luftschicht über der Hautoberfläche werden durch die Diffusionswärme periodisch mit der Modulationsfrequenz der Laser aufgeheizt, was als Druckschwankungen in Messkammer mit Mikrofon detektiert wird. Im Mitteinfrarot geben Quantenkaskadenlaser die beste Lichtquelle, wegen ihre gute Strahlqualität und hohe optische Leistung. Die verwendete photoakustische(PA) Resonanzzelle ist nach dem Prinzip des Helmholtz-Resonators konzipiert. Der Vorteil des Verstärkungsverhaltens einer resonanten PA-Zelle kann unter Umständen durch Verwendung Volumenreduzierten und mit empfindlichen Mikrofonen ausgestatteten nicht-resonanten PA-Zelle erreicht werde. Zum Erfassung der PA Signale wird eine Kombination aus einen Analog-Digital Wandlerkarte verwendet, die eine gemeinsame Zeitbasis mit der synchronen Lasersteuerung und der Datenerfassung liefert und phasenechte Fourieranalyse der photoakustischen Signale ermöglicht. Es wurde ein Modellsystem entwickelt um photoakustischen Glukosemessungen in vitro zu testen. Dieses „Phantommodell“ besteht aus einer dünnen Polymermembran befestigt in eine Gefäß von nur paar ml Volumen die mit verschiedenen Glukosekonzentrationen gefüllt wurde. Die modulierte Laserstrahlung passiert die Messzelle und dringt durch die Folie in die wässerige Glukoselösung ein. Das Folienmaterial und Dicke wurde so gewählt, dass keineAbsorption im verwendeten MIR-Bereich entsteht. Als Lösung für die jeweiligen Glukosekonzentrationen wurde ein Wasser-Albumin Gemisch verwendet mit einen 10%igen Albuminanteil, die verwendet wurde, um den Proteingehalt der Haut zu imitieren und zu zeigen, dass Eiweiß keinen Störeinfluss im Glukosefingerprintbereich hat. Messungen wurden bei steigenden und fallenden Glukosekonzentration durchgeführt damit gezeigt könnte, dass das Messsignal in der PA- Zelle nicht von der Lufterwärmung in der Zelle stammt, sondern vom PA-Signale der Glukose. Die Glukoseschwankungen in der extrazellulären Flüssigkeit der Epidermis spiegeln die Glukoseschwankungen im Blut gut wider, bei einer Messung am Arm entsteht eine Verzögerung von paar Minuten. Im Daumenballenbereich findet aufgrund der guten Durchblutung ein schneller Austausch der Glukosekonzentration der von uns gemessenen interstitiellen Flüssigkeit mit der Blutzuckerkonzentration statt. Deshalb wurden die in-vivo Messungen am Daumenballen durchgeführt. Das Stratum spinosum ist für uns von Bedeutung, da dies das interstitielle Wasser enthält, in dem der Glukosegehalt mit dem Glukosegehalt im Blut gut übereinstimmt. Die photoakustische Messmethode wird nicht-invasiv durchgeführt. Probanden wird Zucker verabreichet und danach in Abständen von 5 Minuten der Blutzucker konventionell bestimmt und gleichzeitig mittels der photoakustischen Messung am Daumenballen durchgeführt. Mit diesen Daten kann die Korrelation zwischen beiden Methoden bestimmt werden. In vielen in vivo Messreihen zeigen sich bereits in direkter Korrelation zu invasiv genommenen Blutzuckerwerten Korrelationskoeffizienten bis zu R=0,8 und eine damit deutliche Evidenz für einen glukoserelevanten Effekt. Trotz der versprechenden Ergebnisse wird deutlich, dass weitere Entwicklungen notwendig sind, damit das System zu einer direkten Konkurrenz zu der vorhandenen invasiven Meßsystemen werden kann.
Mit dem Dileptonenspektrometer HADES sollen Dielektronen aus Kern - Kern - Stößen in einem hadronischen Untergrund bei hohen Multiplizitäten untersucht werden. Die Ereignisrate von 106 pro Sekunde erfordert eine Auslese der Detektoren innerhalb von 10 mikrosek. Die erwarteten hohen Multiplizitäten führen zu einer hohen Granularität der Detektoren und damit auch der Ausleseelektronik. Durch die Verwendung mehrere Triggerstufen wird eine Aufteilung des Auslesesystems auf mehrere Stufen notwendig. Für die Auslese von ~ 26.000 Driftzellen in 24 Driftkammermodulen wurde ein an die Anforderungen des Detektorsystems angepaßtes Auslesekonzept entwickelt. Analoge Signalaufbereitung und Messung der Driftzeit werden direkt am Detektor auf zwei miteinander kombinierten Karten untergebracht. Die nötige Integrationsdichte im Digitalisierungsteil wird durch die Verwendung eines speziellen Zeitmeßverfahrens (TDC) erreicht, das auf Signallaufzeiten in Halbleiterschaltungen basiert. Im gleichen Chip befindet sich auch eine Datenübertragungseinheit, die in der Lage ist die Daten mit der erforderlichen Geschwindigkeit zu transferieren. Durch zwei weitere Module mit Speicher zum Puffern der Ereignisdaten wird den Anforderungen des Triggerkonzeptes Rechnung getragen. Dem verwendete Zeitmeßverfahren (Ringoszillator) ist eine Abhängigkeit der Zeitauflösung von Temperatur und Versorgungsspannung inherent. Ausführliche Messungen im Rahmen dieser Arbeit zeigen, daß die relativen Abhängigkeiten mit 0,2 Promille jedoch in einem Bereich liegen, in dem sie durch geeignete Maßnahmen kontrolliert werden können. Dazu zählen die regelmäßige Kalibrierung, sowie die Messung und Überwachung von Temperatur und Versorgungsspannung. Die Leistungsaufnahme des Auslesesystems liegt mit 5kW (total) noch um ca. einen Faktor zwei über den Spezifikationen. Sowohl die Tests des TDC Zeitmeßteils, als auch die Simulationen zeigen die Realisierbarkeit des Systems. Dies konnte auch durch Simulationen des gesamten Auslesesystems im Rahmen einer Projektstudie zum Triggerkonzept an der Universität Giessen nachgewiesen werden. Ein abschließender Funktionstest der Ausleseelektronik mit dem TDC an der Prototypdriftkammer im Labor ist gegenwärtig in Vorbereitung. Zur endgültigen Realisierung der Ausleseelektronik bedarf es noch der Reduzierung des Platzbedarfes sowie der Leistungsaufnahme. Zur Reduktion der Größe des Motherboardes wird eine mehrlagige Platine entwickelt. Für die Anbringung der Daughterboards ist eine platzsparende Geometrie vorgesehen. Die Reduktion der Leistungsaufnahme wird hauptsächlich durch neuere Entwicklungen bei den Daughterboards möglich. Auch die Verwendbarkeit des im Rahmen eines anderen Projektes entwickelten SAM - Modules als Konzentrator für die Driftkammerauslese ist zu untersuchen. Da diese Karte auch einen DSP enthält, ist entsprechende Software erforderlich. Die Segmentierung des modularen Spektrometersystems erlaubt den endgültigen Aufbau in mehreren Schritten. Vorgesehen ist, zunächst nur einzelne Segmente oder einzelne Ebenen der Driftkammern aufzubauen, und das komplette System erst zu einem spätern Zeitpunkt in Betrieb zu nehmen. Einzelne Komponenten können durch Neuentwicklungen ersetzt werden.
In der vorliegenden Arbeit wird das Auslesekonzept der Driftkammern untersucht und seine Integration in das HADES Datenaufnahmesystem beschrieben. Bedingt durch das mehrstufige Triggersystem und die hohen Anforderungen an die Geschwindigkeit des Systems wurden Methoden zur Datenreduktion entwickelt. Dadurch ist es möglich, die Daten von allen 27 000 Kanälen innerhalb von 10 µs nach dem Trigger auszulesen. Die Daten werden innerhalb von ungefähr 40 ns nach dem Signal der zweiten Triggerstufe weitertransportiert. Im Rahmen der Untersuchungen zur Überwachung der Driftkammerdaten, die im zweiten Teil der Arbeit beschrieben werden, wurde mit der verwendeten Methode zur Bestimmung der intrinsischen Auflösung eine deutliche Verschlechterung Auflösung der Kammern festgestellt, von 120 µm im November 2001 auf über 200 µm im September 2003. Als Ursache hierfür wurde zum einen die geänderte Kalibrationsmethode ausgemacht, die die Laufzeiten der Signale nicht mehr berücksichtigt, zum anderen eine Änderung der Driftgeschwindigkeit aufgrund einer nicht optimalen Hochspannung. Die Methode zur Bestimmung des physikalischen Zentrums der Kammern erlaubt eine Aussage über die Position der Kammern relativ zur Sollposition. Die dabei gefundenen Verschiebungen entlang der z - Achse stimmen für einen Teil der Sektoren mit den im Rahmen des Alignments ermittelten Werten für die Verschiebung des Targets überein. Für die anderen Sektoren ergeben sich zusätzlicher Verschiebungen um 2 bis 6 cm. Das Di - Leptonen - Spektrometer HADES (High Acceptance Di -Elektron-Spektrometer) am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) beginnt nun mit detaillierten Studien leptonischer Zerfälle von Vektormesonen in Kern - Kern - Stößen mit Projektilenergien von 1 bis 2 GeV / Nukleon. Dabei liegt der Schwerpunkt auf der Untersuchung von Zerfällen, die in der Phase hoher Dichte (ungefähr 3 · p..0) und hoher Temperatur stattfinden. Es wird erwartet, daß sich aus der dabei zu beobachtenden Massenverteilung der unterhalb der Schwelle produzierten leichten Vektormesonen r, o und ph ein Hinweis auf die partielle Wiederherstellung der im Vakuum gebrochenen chiralen Symmetrie ergibt.
Hemispherical and cylindrical antenna arrays are widely used in radar-based and tomography-based microwave breast imaging systems. Based on the dielectric contrast between healthy and malignant tissue, a three-dimensional image could be formed to locate the tumor. However, conventional X-ray mammography as the golden standard in breast cancer screening produces two-dimensional breast images so that a comparison between the 3D microwave image and the 2D mammogram could be difficult. In this paper, we present the design and realisation of a UWB breast imaging prototype for the frequency band from 1 to 9 GHz. We present a refined system design in light of the clinical usage by means of a planar scanning and compare microwave images with those obtained by X-ray mammography. Microwave transmission measurements were processed to create a two-dimensional image of the breast that can be compared directly with a two-dimensional mammogram. Preliminary results from a patient study are presented and discussed showing the ability of the proposed system to locate the tumor.
Electronic systems living on Archimedean lattices such as kagome and square–octagon networks are presently being intensively discussed for the possible realization of topological insulating phases. Coining the most interesting electronic topological states in an unbiased way is however not straightforward due to the large parameter space of possible Hamiltonians. A possible approach to tackle this problem is provided by a recently developed statistical learning method (Mertz and Valentí in Phys Rev Res 3:013132, 2021. https://doi.org/10.1103/PhysRevResearch.3.013132), based on the analysis of a large data sets of randomized tight-binding Hamiltonians labeled with a topological index. In this work, we complement this technique by introducing a feature engineering approach which helps identifying polynomial combinations of Hamiltonian parameters that are associated with non-trivial topological states. As a showcase, we employ this method to investigate the possible topological phases that can manifest on the square–octagon lattice, focusing on the case in which the Fermi level of the system lies at a high-order van Hove singularity, in analogy to recent studies of topological phases on the kagome lattice at the van Hove filling.
Conclusion Scale Integration Based on the results of spike-field coherence, the underlying process of shortterm memory seems to involve networks of different sizes within and, most probably, beyond prefrontal cortex. Spikes, which were generated by single neurons, cooperate with local field potentials, which were the slower fluctuations of the environment. Although differences among behavioral conditions appear to be based on rather few instances of phase-locked spikes, the task-related effects on spike-field coherence are highly reliable and cannot be explained by chance, as the comparison of results from experimental and simulated data shows. The differential locking of prefrontal neuron populations with two different frequency bands in their input signals suggests that neuronal activity underlying short-term memory in prefrontal cortex transiently engages cortical circuits on different spatial scales, probably in order to coordinate distributed processes. NeuroXidence method and Synchronizedfiring Based on the results of the calibration datasets, for bi- and multi-variate cases, the extension of NeuroXidence remains its sensitivity and reliability of detecting coordinate firing events for different processes. Based on this extension of NeuroXidence, we demonstrated that in monkey’s prefrontal cortex during short-term memory task, encoding and maintenance of the information rely on the formation of neuronal assemblies characterized by precise and reliable synchronization of spiking activity on a millisecond time scale, which is consistent with the results from spike-spike coherence. The task and performance dependent modulation of synchrony reflects the dynamic formation of group of neurons has large effect on short-term-memory.
We compute bremsstrahlung arising from the acceleration of individual charged baryons and mesons during the time evolution of high-energy Au+Au collisions at the Relativistic Heavy Ion Collider using a microscopic transport model. We elucidate the connection between bremsstrahlung and charge stop- ping by colliding artificial pure proton on pure neutron nuclei. From the inten- sity of low energy bremsstrahlung, the time scale and the degree of stopping could be accurately extracted without measuring any hadronic observables. PACS: 25.75.-q, 13.85.Qk
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
In the present work we study the effect of unparticle modified static potentials on the energy levels of the hydrogen atom. By using Rayleigh–Schrödinger perturbation theory, we obtain the energy shift of the ground state and compare it with experimental data. Bounds on the unparticle energy scale U as a function of the scaling dimension and the coupling constant λ are derived. We show that there exists a parameter region where bounds on U ar are stringent, signaling that unparticles could be tested in atomic physics experiments.
In heavy-ion collisions, the quark-gluon plasma is produced far from equilibrium. This regime is currently inaccessible by direct quantum chromodynamics (QCD) computations. In a holographic context, we propose a general method to characterize transport properties based on well-defined two-point functions. We calculate shear transport and entropy far from equilibrium, defining a time-dependent ratio of shear viscosity to entropy density, . Large deviations from its near-equilibrium value , up to a factor of 2.5, are found for realistic situations at the Large Hadron Collider. We predict the far-from-equilibrium time-dependence of to substantially affect the evolution of the QCD plasma and to impact the extraction of QCD properties from flow coefficients in heavy-ion collision data.
We investigated the implications of string theory in the high-precision regime of quantum mechanics. In particular, we examined a quantum field theoretical propagator which was derived from string theory when compactified at the T-duality self-dual radius and which is closely related to the path integral duality. Our focus was on the hydrogen ground state energy and the 1S1/2−2S1/2 transition frequency, as they are the most precisely explored properties of the hydrogen atom. The T-duality propagator alters the photon field dynamics leading to a modified Coulomb potential. Thus, our study is complementary to investigations where the electron evolution is modified, as in studies of a minimal length in the context of the generalized uncertainty principle. The first manifestation of the T-duality propagator arises at fourth order in the fine-structure constant, including a logarithmic term. For the first time, constraints on the underlying parameter, the zero-point length, are presented. They reach down to 3.9×10−19m and are in full agreement with previous studies on black holes.
Die vorliegende Arbeit basiert auf einer Kombination von IR-Messungen und Spektrenberechnungen mittels Dichtefunktionaltheorie und konnte tiefere Einblicke in die von vielfältigen Überlagerungen geprägten Spektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans geben. Absorptionsmessungen zu allen 20 natürlich vorkommenden a-Aminosäuren wurden an wässrigen Lösungen im Spektralbereich von 1800 bis 500 cm-1 durchgeführt und stellten eine wichtige Grundlage zur Identifikation von Signalen der Aminosäuren im Proteinspektrum dar. Durch die Berechnung der molaren Absorptionskoeffizienten aus den Aminosäurespektren konnten Beiträge einzelner Aminosäuren zum Proteinspektrum besser eingeordnet bzw. abgeschätzt werden. Eine detaillierte Untersuchung für die wichtige Aminosäure Histidin, auch mittels zitierten Rechnungen an Modellsubstanzen, diente zur tendenziellen Zuordnung einige dieser Banden in zeitabhängig gemessenen Proteinspektren. Um eine qualitativ hochwertige Aufnahme der elektrochemisch induzierten Redox- Differenzspektren zu gewährleisten, wurde eine Potentiostaten-Ansteuerung konzipiert und programmiert. Die damit automatisiert durchgeführten Messungen ergaben reproduzierbare Differenzspektren für die Ubichinone mit und ohne Isoprenseitenkette (UQ2, UQ0) als auch für das Protein, den Cytochrom bc1-Komplex, bis 880 cm-1. Dies bedeutete eine Erweiterung des Spektralbereichs im Vergleich zu vorigen Arbeiten und damit die Möglichkeit, signifikante Moden der Ubichinole zu detektieren. Zur Untersuchung der komplexen IR-Spektren der Ubichinole wurden ab initio - und Dichtefunktionaltheorie-Rechnungen durchgeführt. Für diese biologisch essentiellen Moleküle waren bislang keine Struktur- oder Normalmodenberechnungen bekannt und wurden in der vorliegenden Studie erstmals erarbeitet. Bei der Analyse der möglichen Geometrien des UQ0H2-Moleküls mittels ab initio - Studien resultierte eine energetisch günstigste Struktur, bei der beide Methoxygruppen aus der Ringebene in verschiedene Raumhälften (vor und hinter dem Ring) wiesen. Dies ergab sich sowohl für Chinole mit als auch ohne Isoprenseitenkette (gezeigt mittels ab initio oder DFT). Diese Anordnung hat zur Folge, dass es als unwahrscheinlich eingestuft werden kann, dass die Ubichinole in übereinander gestapelter Form vorliegen. Die für die Chinole charakteristischen Hydroxygruppen (COH) orientierten sich beim Ubichinol ohne Seitenkette zu den jeweils benachbarten Methoxygruppen hin. Beim UQ2H2 zeigte die C1-OH Gruppe in Richtung der Isoprenseitenkette. Die Strukturen der oxidierten Ubichinone wiesen den aus der Literatur bekannten Mesomerie-Resonanz-Effekt an den Bindungen C4=O, C2=C3 und C-O der Methoxygruppe an C2 auf. Dieser Effekt wurde an diesen Gruppen auch für das Ubichinon mit Isoprenseitenkette gezeigt, zu dem bislang kaum Literaturdaten aus Rechnungen vorlagen. Für biologisch relevante Zwischenstufen im Redox-/Protonierungsprozess der Chinone (Ubichinone ohne Seitenkette) wurden die Strukturen berechnet. Hier erwies sich eine erste Protonierung an der C1O-Gruppe als energetisch günstiger. Zu diesen Zwischenstufen, die teils radikaler oder anionischer Natur sind, wurden die Spektren im Einklang mit bisherigen DFT-Analysen, die meist zu einfacheren Molekülen vorlagen, erstmals berechnet. Da die Spektrenberechnungen von den Strukturen in vacuo ausgingen, waren zusätzliche Modellstudien an Chinonen hilfreich, bei denen ein Wassermolekül benachbart war. Damit konnten die Auswirkungen entsprechender H-Brücken (z.B. zwischen Protein und Chinon- Molekül) anhand der berechneten Spektren der Modelle eingehender beleuchtet werden und ergaben zudem wichtige Hinweise auf mögliche Anordnungen von Wasserstoffbrücken zum (methoxy-substituierten) Chinol. Die Messungen der Ubichinole in wässriger Lösung und gebunden im Protein ergaben charakteristische Banden zwischen 1120 und 1050 cm-1, die mit den Spektrenberechnungen zugeordnet wurden: Diese Banden beinhalteten die für die Bindung der Ubichinole im Protein aussagekräftigen Signale der beiden C-O Gruppen. Damit wurde ein Grundstein gelegt für Interpretationen der Spektren hinsichtlich der Bindungen der Ubichinole an die Proteinumgebung. Für das oxidierte Ubichinon mit Isoprenseitenkette erwiesen sich die Intensitäten der vier str. C=O / C=C Moden im Vergleich zu UQ0 als verändert. Damit lag ein Beitrag einer dieser Moden zu einer Bande im Proteinspektrum nahe. Hier zeigte sich, dass eine Normalmodenanalyse von hoher Qualität, wie die vorliegende mittels Dichtefunktionaltheorie, entscheidende Aussagen über Banden liefern kann, die bei Messungen an Ubichinon-Lösungen nicht unterscheidbar sind, jedoch beim Molekül im Protein sichtbar sein können. Zu den berechneten Spektren der Ubichinole und der oxidierten Formen wurden jeweils Bandenverschiebungen ermittelt, die mit Isotopenmarkierungen einher gingen und die im Einklang mit den gemessenen Verschiebungen im Falle der 13C1- bzw. 13C4-markierten Ubichinone standen. Die Differenzspektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans zeigten aufgrund des hohen Chinongehalts ausgeprägte Banden der Ubichinole inklusive der erwähnten charakteristischen Moden. Da es in deren Bereich in den Proteinspektren zu Überlagerungen mit Häm- und Aminosäurensignalen kommt, sind weiterführende, experimentelle Studien für ein noch detailliertes Verständnis erforderlich. Die in den Spektren vorhandenen, zahlreichen weiteren Beiträge der verschiedenen Gruppen im Protein wurden anhand von Literaturdaten diskutiert. Dies betraf insbesondere die Schwingungsmoden der Häme und die Amid-Banden, die Signale des Polypeptidrückgrates des Proteins. Für die Spektrendiskussion bzgl. den Aminosäuren im Protein wurden die Ergebnisse aus Kap. 4.1 hinzugezogen. Mit zeitabhängigen IR-Messsungen (alle 30 Sekunden) wurde versucht, Erkenntnisse über weitere Beiträge oder zeitliche Entwicklungen im Proteinspektrum zu gewinnen. Da die Chinone verzögert (zum Anlegen des entsprechenden Potentials) reagierten, waren in Abhängigkeit der Reaktionsrichtung auch Signale anderer Gruppen im Protein messbar. So konnten mehrere Moden der Häme im bc1-Komplex (tendenziell) nachvollzogen werden. Aus diesen Messreihen ergaben sich wichtige Hinweise auf Signale der Histidine am Eisen-Schwefel-Zentrum des Enzyms. Diese Aminosäuren stehen direkt mit den Ubichinolen in der Qo-Bindestelle in Wechselwirkung.
Untersuchungen von evolutionären Algorithmen zum Training neuronaler Netze in der Sprachverarbeitung
(1997)
Im Rahmen der vorliegenden Diplomarbeit wurde die Leistungsfähigkeit von evolutionären Algorithmen zum Training von RNN untersucht und mit gradientenbasierten Trainingsalgorithmen verglichen. Die Zielsetzung war dabei im besonderen die Prüfung der Verwendbarkeit in der Sprachverarbeitung, speziell der Spracherkennung. Zunächst wurde anhand eines Prädiktionsproblems die prinzipielle Leistungsfähigkeit von EA untersucht, indem ein MLP mit unterschiedlichen evolutionären Algorithmen trainiert wurde. Verschiedene Varianten von GA und ES sind an diesem Beispiel getestet und miteinander verglichen worden. Im Rahmen der Untersuchungen an GA stellte sich heraus, daß eine Mindestgenauigkeit der Quantisierung zur Lösung erforderlich ist. Es zeigt sich, daß die Genauigkeit der Approximation mit abnehmendem Quantisierungsfehler besser wird. Damit ist eine Behandlung dieses Problems mit grob quantisierten Gewichten nachteilig. Demgegenüber profitiert ES sowohl in der Approximationsgenauigkeit, als auch in der Konvergenzgeschwindigkeit von der direkten Darstellung der Objektvariablen als reelle Zahlen. Weiterhin zeigte sich bei ES, daß die Genauigkeit einer Lösung auch von der Populationsgröße abhängig ist, da mit wachsender Populationsgröße der Parameterraum besser abgetastet werden kann. Im Vergleich mit ES benötigten GA längere Konvergenzzeiten und bedingten zudem aufgrund der Codierung und Decodierung einen höheren Rechenaufwand als ES, so daß die Untersuchungen an RNN nur mit ES durchgeführt wurden. Zunächst wurde mit dem Latching-Problem eine, in der Komplexität eng begrenzte, Klassifikationsaufgabe mit Zeitabhängigkeiten untersucht. Die zur Verfügung gestellte Information war bei diesem Beispiel sehr gering, da der Fehler nur am Ende einer Mustersequenz berechnet wurde. Es stellte sich heraus, daß selbst bei dieser sehr einfachen Aufgabenstellung die gradientenbasierten Verfahren nach dem Überschreiten einer maximalen Mustersequenzlänge T keine Lösung finden konnten. Im Gegensatz dazu war ES in der Lage, das Problem für alle gemessenen Variationen des Parameters T zu lösen. Erst wenn während des Trainings dem Gradientenverfahren zusätzliche Informationen durch Fehlereinspeisung zur Verfügung gestellt wurde, hatte der BPTT-Algorithmus die selbe Leistungsfähigkeit. Als weiteres Experiment mit Zeitabhängigkeiten wurde das Automaton-Problem un- tersucht, welches mittels eines RNN gelöst werden sollte. Bei diesem Problem wurde besonderer Wert auf die Untersuchung des Konvergenzverhaltens bei Änderungen der Parameter von ES gelegt. Die Untersuchungen ergaben, daß die einzelnen Parameter in komplexer Weise miteinander interagieren und nur eine gute Abstimmung aller Parameter aufeinander eine befriedigende Leistung in Bezug auf Konvergenzgeschwindigkeit und Klassifikationsergebnis erbringt. Wie bei dem Latching-Problem wurde der Fehler nur am Ende einer Mustersequenz berechnet. Dies bewirkt, daß der BPTT-Algorithmus bereits bei Sequenzlängen von T = 27 nicht mehr in der Lage ist, die Zeitabhängigkeiten in dem Gradienten zu repräsentieren. Mit ES dagegen konnten RNN trainiert werden, die in der Lage sind, Sequenzlängen bis zu T = 41 richtig zu klassifizieren. Die Untersuchungen bestätigen, daß der beschränkende Faktor in erster Linie der Trainingsalgorithmus und nicht das Netzwerksparadigma ist. Die Simulationsexperimente mit zeitnormierten Sprachdaten zeigen, daß mit ES prinzipiell höhere Erkennungsleistungen als mit dem gradientenbasierten Algorithmus des BPTT erzielt werden können. Jedoch nimmt schon bei der Klassifikation der Zahlwörter Zwei und Drei die Klassifikationsleistung mit zunehmender Sequenzlänge ab. Es erfordert eine drastische Vergrößerung der Populationsgröße, um zumindest gleich gute Ergebnisse zu erzielen. Zusätzliche Tests am Automaton-Problem stützen diese Aussage. Jedoch steigt der Rechenaufwand durch Vergrößerung der Populationsgröße so stark an, daß bei nicht zeitnormierten Sprachdaten ES mit adäquater Populationsgröße nicht mehr simulierbar waren. In den Untersuchungen an dem Vokabular mit sechs Wörtern wurde der Fehler für jeden anliegenden Merkmalsvektor berechnet und im Gradienten bzw. zur Bewertung bei ES im Training verwendet. In diesen Messungen erbringen beide Algorithmen nahezu identische Klassifikationsergebnisse. Insgesamt verhindert der drastisch ansteigende Rechenaufwand bei den Sprachdaten die Verarbeitung von größeren Vokabularien und langen Wörtern durch ES. Aus der Beschränkung der Populationsgröße durch die vorhandene Rechnerkapazität resultierte eine nichtoptimale Anpassung von Selektionsdruck, Mutationsrate und Populationsverteilung im Suchraum. Insbesondere erweist sich die globale Anpassung der Strategieparameter bei den vergrößerten Populationen als problematisch. Weitere Untersuchungen an ES mit Strategien zur Selbstadaption dieser Parameter bieten sich daher für zukünftige Forschung an.
Light scalar mesons can be understood as dynamically generated resonances. They arise as 'companion poles' in the propagators of quark-antiquark seed states when accounting for hadronic loop contributions to the self-energies of the latter. Such a mechanism may explain the overpopulation in the scalar sector - there exist more resonances with total spin J=0 than can be described within a quark model.
Along this line, we study an effective Lagrangian approach where the isovector state a_{0}(1450) couples via both non-derivative and derivative interactions to pseudoscalar mesons. It is demonstrated that the propagator has two poles: a companion pole corresponding to a_{0}(980) and a pole of the seed state a_{0}(1450). The positions of these poles are in quantitative agreement with experimental data. Besides that, we investigate similar models for the isodoublet state K_{0}^{*}(1430) by performing a fit to pion-kaon phase shift data in the I=1/2, J=0 channel. We show that, in order to fit the data accurately, a companion pole for the K_{0}^{*}(800), that is, the light kappa resonance, is required. A large-N_{c} study confirms that both resonances below 1 GeV are predominantly four-quark states, while the heavy states are quarkonia.
In this work we study basic properties of unstable particles and scalar hadronic resonances, respectively, within simple quantum mechanical and quantum field theoretical (effective) models. The term 'particle' is usually assigned to entities, described by physical theories, that are able to propagate over sufficiently large time scales (e.g. from a source to a detector) and hence could be identified in experiments - one especially should be able to measure some of their distinct properties like spin or charge. Nevertheless, it is well known that there exists a huge amount of unstable particles to which it seems difficult to allocate such definite values for their mass and decay width. In fact, for extremely short-lived members of that species, so called resonances, the theoretical description turns out to be highly complicated and requires some very interesting concepts of complex analysis.
In the first chapter, we start with the basic ideas of quantum field theory. In particular, we introduce the Feynman propagator for unstable scalar resonances and motivate the idea that this kind of correlation function should possess complex poles which parameterize the mass and decay width of the considered particle. We also brie
y discuss the problematic scalar sector in particle physics, emphasizing that hadronic loop contributions, given by strongly coupled hadronic intermediate states, dominate its dynamics. After that, the second chapter is dedicated to the method of analytic continuation of complex functions through branch cuts. As will be seen in the upcoming sections, this method is crucial in order to describe physics of scalar resonances because the relevant functions to be investigated (namely, the Feynman propagator of interacting quantm field theories) will also have branch cuts in the complex energy plane due to the already mentioned loop contributions. As is consensus among the physical community, the understanding of the physical behaviour of resonances requires a deeper insight of what is going on beyond the branch cut. This will lead us to the idea of a Riemann surface, a one-dimensional complex manifold on which the Feynman propagator is defined.
We then apply these concepts to a simple non-relativistic Lee model in the third chapter and demonstrate the physical implications, i.e., the motion of the propagator poles and the behaviour of the spectral function. Besides that, we investigate the time evolution of a particle described by such a model. All this will serve as a detailed preparation in order to encounter the rich phenomena occuring on the Riemann surface in quantum field theory. In the last chapter, we finally concentrate on a simple quantm field theoretical model which describes the decay of a scalar state into two (pseudo)scalar ones. It is investigated how the motion of the propagator poles is in
uenced by loop contributions of the two (pseudo)scalar particles. We perform a numerical study for a hadronic system involving a scalar seed state (alias the σ-meson) that couples to pions. The unexpected emergence of a putative stable state below the two-pion threshold is investigated and it is claeifieed under which conditions such a stable state appears.
Wir haben uns in dieser Arbeit der Frage nach der Dissipation in niederenergetischen Schwerionenkollisionen gewidmet. Dissipation im Allgemeinen hat ihre Ursache in direkten Teilchenkollisionen, die in der Methode von TDHF bezüglich der Nukleonen fehlen. Im VUU-Modell sind sie dagegen ein zentraler Bestandteil der Zeitentwicklung und spielen bei mittleren und hohen Energien eine wichtige Rolle.
Mithilfe des VUU-Modells wurde deshalb versucht einen Einfluss der Nukleon-Nukleon-Kollsionen auf den Impulsstrom festzustellen, der an der Verbindungsstelle in der Reaktion 16O + 132Sn mit b = 7 fm und Ecm = 100 vorliegt. Dabei variierten wir den NN-Wirkungsquerschnitt im Kollisionsterm der VUU-Gleichung mit der Erwartung, dass eine daraus resultierende Verminderung bzw. Erhöhung der Stoßrate Auswirkungen auf die Geschwindigkeitsverteilungen der Materie zeigt. Ein positives Ergebnis hätte den Schluss nahegelegt, dass die mittlere freie Weglände und damit die Viskosität von Kernmaterie in Schwerionenkollisionen zu berücksichtigen ist.
Im Verlauf unserer Analyse haben wir festgestellt, dass die von uns verwendeten Methoden nicht zu den gewünschten Ergebnissen führten, z.T. auch weil die Kerne in den VUU-Rechnungen Instabilität aufwiesen und so die relevante Reaktionszeit einschgeschränkt wurde. Wir konnten einen Einfluss von direkten Teilchenkollisionen auf den Impulsstrom zwischen den Kernen des obigen Systems nicht verifizieren. Zusätzliche Simulationen an 12C + 12C mit b = 0 fm haben dann gezeigt, dass offenbar der allergrößte Teil der Nukleon-Nukleon-Kollisionen aufgrund des Pauli-Prinzips blockiert wird. Aus diesem Grund ziehen wir die Möglichkeit in Betracht, dass die starke Präsenz des Pauli-Prinzips im niederenergetischen Bereich die Stoßrate nicht nur maßgeblich reduziert, sondern damit direkte Stöße insgesamt kaum Einfluss auf den Impulsstrom und die Dissipation haben könnten. Die Dissipation ist demnach hauptsächlich auf einen Austausch üuber die Verbindungsstelle zweier Kerne zurückzuführen, was in weiterführender Literatur unter dem Stichwort window formula bekannt ist.
Weitere Untersuchungen in diese Richtung sind wünschenwert. Insbesondere ist es erforderlich das angesprochene Zeitproblem zu lösen, um eventuell die Stoßrate zu erhöhen. Dann könnte ein möglicher Einfluss auf den Impulsstrom wesentlich länger und detaillierter studiert werden. Es bietet sich zudem an, das benutzte Auswerteprogramme vuudens so abzuändern, dass z.B. ein feineres Gitter benutzt werden kann, auf dem die Dichten berechnet werden. Das so gesteigerte Auflösungsvermögen würde sicherlich die
Unzulänglichkeiten der in dieser Arbeit verwendeten Methoden reduzieren. Bei weiterem und tieferem Studium der besprochenen Prozesse könnte es natürlich sein, dass bessere Ansätze zur Analyse gefunden werden. Dies wäre in jedem Fall zu begrüßen.
Pion-production cross sections have been measured for the reaction 40Ar+40Ca--> pi ++X at a laboratory energy of 1.05 GeV/nucleon. A maximum in the pi + cross section occurs at mid-rapidity, which is anomalous relative to p+p and p+nucleus reactions and compared to many other heavy-ion reactions. Calculations based on cascade and thermal models fail to fit the data.
Pion production and charged-particle multiplicity selection in relativistic nuclear collisions
(1982)
Spectra of positive pions with energies of 15-95 MeV were measured for high energy proton, 4He, 20Ne, and 40Ar bombardments of targets of 27Al, 40Ca, 107,109Ag, 197Au, and 238U. A Si-Ge telescope was used to identify charged pions by dE / dx-E and, in addition, stopped pi + were tagged by the subsequent muon decay. In all, results for 14 target-projectile combinations are presented to study the dependence of pion emission patterns on the bombarding energy (from E / A=0.25 to 2.1 GeV) and on the target and the projectile masses. In addition, associated charged-particle multiplicities were measured in an 80-paddle array of plastic scintillators, and used to make impact parameter selections on the pion-inclusive data. NUCLEAR REACTIONS U(20Ne, pi +), E / A=250 MeV; U(40Ar, pi +), Ca(40Ar, pi +), U(20Ne, pi +), Au(20Ne, pi +), Ag(20Ne, pi +), Al(20Ne, pi +), U(4He, pi +), Al(4He, pi +). E / A=400 MeV; Ca(40Ar, pi +), U(20Ne, pi +), U(4He, pi +), U(p, pi +), E / A=1.05), GeV; U(20Ne, pi +), E / A=2.1 GeV; measured sigma (E, theta ), inclusive and selected on associated charged-particle multiplicity.
The masses of the low lying charmonium states, namely, the J/Ψ, Ψ(3686), and Ψ(3770) are shifted downwards due to the second order Stark effect. In p¯+Au collisions at 6–10 GeV we study their in-medium propagation. The time evolution of the spectral functions of these charmonium states is studied with a Boltzmann–Uehling–Uhlenbeck (BUU) type transport model. We show that their in-medium mass shift can be observed in the dilepton spectrum. Therefore, by observing the dileptonic decay channel of these low lying charmonium states, especially for Ψ(3686), we can gain information about the magnitude of the gluon condensate in nuclear matter. This measurement could be performed at the upcoming PANDA experiment at FAIR.
The 23Al(p, γ)24Si stellar reaction rate has a significant impact on the light-curve emitted in X-ray bursts. Theoretical calculations show that the reaction rate is mainly determined by the properties of direct capture as well as low-lying 2+ states and a possible 4+ state in 24Si. Currently, there is little experimental information on the properties of these states.
In this proceeding we will present a new experimental study to investigate this reaction, using the surrogate reaction 23Al(d,n) at 47 AMeV at the National Superconducting Cyclotron Laboratory (NSCL). We will discuss our new experimental setup which allows us to use full kinematics employing the Gamma-Ray Energy Tracking In-beam Nuclear Array (GRETINA) to detect the γ-rays following the de-excitation of excited states of the reaction products and the Low Energy Neutron Detector Array (LENDA) to detect the recoiling neutrons. The S800 was used for identification of the 24Si recoils. As a proof of principle to show the feasibility of this concept the Q-value spectrum of 22Mg(d,n)23Al is reconstructed.
Diese Arbeit beschäftigt sich mit der Charakterisierung des 4π-Bariumfluorid(BaF2)-Detektors, der in Zukunft im Rahmen des FRANZ-Projektes (Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum) eingesetzt werden soll. Der Detektor soll zum Nachweis von γ-Emission zum Beispiel nach einem Neutroneneinfang genutzt werden, womit der (n,γ)-Wirkungsquerschnitt bestimmt werden kann. Hauptaufgabe dieser Arbeit ist die Bestimmung der Energie- und Zeitauflösung, sowie die Energie- und Zeitkalibrierung und die Effizienzbestimmung.
Im Weltall existieren hunderte sehr helle Objekte, die eine hohe konstante Leuchtkraft im Wellenlängenbereich von Gammastrahlung besitzen. Die konstante Leuchtkraft mancher dieser Objekte wird in regelmäßigen Abständen von starken Ausbrüchen, den sogenannten X-Ray-Bursts, unterbrochen. Hauptenergiequelle dieser X-RayBursts ist der „rapid-proton-capture“-Prozess (rp-Prozess). Dieser zeichnet sich durch eine Abfolge von (p,γ)-Reaktionen und β+-Zerfällen aus, die die charakteristischen Lichtkurven produzieren. Für viele am Prozess beteiligte Reaktionen ist der Q-Wert sehr klein, wodurch die Rate der einzelnen Reaktionen von den resonanten Einfängen in die ungebundenen Zustände dominiert wird. Die Unsicherheiten in der Beschreibung der Lichtkurve sind derzeit aufgrund fehlender kernphysikalischer Informationen von vielen am Prozess beteiligten Isotopen sehr groß. Sensitivitätsstudien zeigen, dass dabei die Unsicherheiten der 23Al(p,γ)24Si-Reaktion eine der größten Auswirkungen auf die Lichtkurve hat. Diese werden durch ungenaue und widersprüchliche Informationen zu den ungebundenen Zuständen im kurzlebigen 24Si hervorgerufen.
Um Informationen über die Kernstruktur von 24Si zu erhalten, wurde am National Superconducting Cyclotron Laboratory (NSCL), Michigan, USA, die 23Al(d,n)24Si Transferreaktion untersucht. Der in dieser Form erstmals umgesetzte Versuchsaufbau bestand aus einem Gammadetektor zur Messung der Übergangsenergien des produzierten 24Si, einem Neutronendetektor zur Messung der Winkelverteilung der emittierten Neutronen und einem Massensprektrometer zur Identifikation des produzierten Isotops. Mit diesem Aufbau, der eine Detektion der kompletten Kinematik der (d,nγ)-Reaktion ermöglichte, konnten folgende Erkentnisse gewonnen werden:
Aus der Energie der nachgewiesenen Gammas konnten die Übergänge zwischen den Kernniveaus von 24Si bestimmt und daraus die Energien der einzelnen Zustände ermittelt werden. Dabei konnte neben dem bereits bekannten gebundenen 2+-Zustand (in dieser Arbeit gemessen bei 1874 ± 2,9keV) und dem ungebundenen 2+-Zustand (3448,8 ± 4,6keV), erstmals ein weiterer ungebundener (4+,0+)-Zustand bei 3470,6 ± 6,2 keV beobachtet werden. Zusätzlich konnte die Diskrepanz, die bezüglich der Energie des ungebundenen 2+-Zustands aufgrund früherer Messungen bestand, beseitigt und die Energieunsicherheit reduziert werden.
Aus der Anzahl der nachgewiesenen Gammas konnten ebenfalls die (d,n)-Wirkungsquerschnitte in die einzelnen Zustände von 24Si bestimmt werden. Unter Verwendung der Ergebnisse von DWBA-Rechnungen konnte mithilfe dieser die spektroskopischen Faktoren berechnet werden. Für die angeregten Zustände musste dabei zwischen verschiedenen Drehimpulsüberträgen unterschieden werden. Mittels der Winkelverteilung der nachgewiesenen Neutronen konnte gezeigt werden, dass die Gewichtung anhand der theoretischen spektroskopischen Faktoren zur Berechnung der Anteile des jeweiligen Drehimpulsübertrags am gesamten Wirkungsquerschnitt für den entsprechenden Zustand gute Ergebnisse liefert. Für eine quantitative Bestimmung der spektroskopischen Faktoren der Zustände anhand der Neutronenwinkelverteilungen in 24Si war allerdings die Statistik zu gering. Für den Fall der deutlich häufiger beobachteten 22Mg(d,n)23Al-Reaktion konnte hingegen ein spektroskopischer Faktor für den 23Al-Grundzustand von 0,29 ± 0,04 bestimmt werden. Abschließend wurden die Auswirkungen der gewonnenen Erkenntnisse zur Kernstruktur von 24Si auf die Rate der 23Al(p,γ)-Reaktion untersucht. Dabei konnte aufgrund der besseren Energiebestimmung zum einen die Diskrepanz zwischen den Raten die auf Grundlage der beiden früheren Untersuchungen berechnet wurden und bis zu einem Faktor von 20 voneinander abweichen, beseitigt werden. Zum anderen konnte aufgrund der kleineren Unsicherheit in der Energiebestimmung der Fehlerbereich der Rate verkleinert werden. Die Untersuchungen zeigen, dass die Unsicherheit in der neuen Rate von der Ungenauigkeit der Massenbestimmung der beiden beteiligten Isotope und damit dem Q-Wert der Reaktion dominiert wird. Durch eine bessere Bestimmung des Q-Werts könnte die Unsicherheit in der Rate aufgrund der neuen experimentellen Ergebnisse auf ein Zehntel gesenkt werden.