Refine
Year of publication
Document Type
- Article (1871)
- Preprint (1250)
- Doctoral Thesis (593)
- Conference Proceeding (248)
- diplomthesis (101)
- Bachelor Thesis (75)
- Master's Thesis (61)
- Contribution to a Periodical (46)
- Book (33)
- Diploma Thesis (33)
Keywords
- Kollisionen schwerer Ionen (47)
- heavy ion collisions (44)
- LHC (25)
- Quark-Gluon-Plasma (25)
- Heavy Ion Experiments (20)
- equation of state (19)
- quark-gluon plasma (19)
- Relativistic heavy-ion collisions (16)
- QCD (15)
- QGP (15)
Institute
- Physik (4406) (remove)
Untersuchungen von evolutionären Algorithmen zum Training neuronaler Netze in der Sprachverarbeitung
(1997)
Im Rahmen der vorliegenden Diplomarbeit wurde die Leistungsfähigkeit von evolutionären Algorithmen zum Training von RNN untersucht und mit gradientenbasierten Trainingsalgorithmen verglichen. Die Zielsetzung war dabei im besonderen die Prüfung der Verwendbarkeit in der Sprachverarbeitung, speziell der Spracherkennung. Zunächst wurde anhand eines Prädiktionsproblems die prinzipielle Leistungsfähigkeit von EA untersucht, indem ein MLP mit unterschiedlichen evolutionären Algorithmen trainiert wurde. Verschiedene Varianten von GA und ES sind an diesem Beispiel getestet und miteinander verglichen worden. Im Rahmen der Untersuchungen an GA stellte sich heraus, daß eine Mindestgenauigkeit der Quantisierung zur Lösung erforderlich ist. Es zeigt sich, daß die Genauigkeit der Approximation mit abnehmendem Quantisierungsfehler besser wird. Damit ist eine Behandlung dieses Problems mit grob quantisierten Gewichten nachteilig. Demgegenüber profitiert ES sowohl in der Approximationsgenauigkeit, als auch in der Konvergenzgeschwindigkeit von der direkten Darstellung der Objektvariablen als reelle Zahlen. Weiterhin zeigte sich bei ES, daß die Genauigkeit einer Lösung auch von der Populationsgröße abhängig ist, da mit wachsender Populationsgröße der Parameterraum besser abgetastet werden kann. Im Vergleich mit ES benötigten GA längere Konvergenzzeiten und bedingten zudem aufgrund der Codierung und Decodierung einen höheren Rechenaufwand als ES, so daß die Untersuchungen an RNN nur mit ES durchgeführt wurden. Zunächst wurde mit dem Latching-Problem eine, in der Komplexität eng begrenzte, Klassifikationsaufgabe mit Zeitabhängigkeiten untersucht. Die zur Verfügung gestellte Information war bei diesem Beispiel sehr gering, da der Fehler nur am Ende einer Mustersequenz berechnet wurde. Es stellte sich heraus, daß selbst bei dieser sehr einfachen Aufgabenstellung die gradientenbasierten Verfahren nach dem Überschreiten einer maximalen Mustersequenzlänge T keine Lösung finden konnten. Im Gegensatz dazu war ES in der Lage, das Problem für alle gemessenen Variationen des Parameters T zu lösen. Erst wenn während des Trainings dem Gradientenverfahren zusätzliche Informationen durch Fehlereinspeisung zur Verfügung gestellt wurde, hatte der BPTT-Algorithmus die selbe Leistungsfähigkeit. Als weiteres Experiment mit Zeitabhängigkeiten wurde das Automaton-Problem un- tersucht, welches mittels eines RNN gelöst werden sollte. Bei diesem Problem wurde besonderer Wert auf die Untersuchung des Konvergenzverhaltens bei Änderungen der Parameter von ES gelegt. Die Untersuchungen ergaben, daß die einzelnen Parameter in komplexer Weise miteinander interagieren und nur eine gute Abstimmung aller Parameter aufeinander eine befriedigende Leistung in Bezug auf Konvergenzgeschwindigkeit und Klassifikationsergebnis erbringt. Wie bei dem Latching-Problem wurde der Fehler nur am Ende einer Mustersequenz berechnet. Dies bewirkt, daß der BPTT-Algorithmus bereits bei Sequenzlängen von T = 27 nicht mehr in der Lage ist, die Zeitabhängigkeiten in dem Gradienten zu repräsentieren. Mit ES dagegen konnten RNN trainiert werden, die in der Lage sind, Sequenzlängen bis zu T = 41 richtig zu klassifizieren. Die Untersuchungen bestätigen, daß der beschränkende Faktor in erster Linie der Trainingsalgorithmus und nicht das Netzwerksparadigma ist. Die Simulationsexperimente mit zeitnormierten Sprachdaten zeigen, daß mit ES prinzipiell höhere Erkennungsleistungen als mit dem gradientenbasierten Algorithmus des BPTT erzielt werden können. Jedoch nimmt schon bei der Klassifikation der Zahlwörter Zwei und Drei die Klassifikationsleistung mit zunehmender Sequenzlänge ab. Es erfordert eine drastische Vergrößerung der Populationsgröße, um zumindest gleich gute Ergebnisse zu erzielen. Zusätzliche Tests am Automaton-Problem stützen diese Aussage. Jedoch steigt der Rechenaufwand durch Vergrößerung der Populationsgröße so stark an, daß bei nicht zeitnormierten Sprachdaten ES mit adäquater Populationsgröße nicht mehr simulierbar waren. In den Untersuchungen an dem Vokabular mit sechs Wörtern wurde der Fehler für jeden anliegenden Merkmalsvektor berechnet und im Gradienten bzw. zur Bewertung bei ES im Training verwendet. In diesen Messungen erbringen beide Algorithmen nahezu identische Klassifikationsergebnisse. Insgesamt verhindert der drastisch ansteigende Rechenaufwand bei den Sprachdaten die Verarbeitung von größeren Vokabularien und langen Wörtern durch ES. Aus der Beschränkung der Populationsgröße durch die vorhandene Rechnerkapazität resultierte eine nichtoptimale Anpassung von Selektionsdruck, Mutationsrate und Populationsverteilung im Suchraum. Insbesondere erweist sich die globale Anpassung der Strategieparameter bei den vergrößerten Populationen als problematisch. Weitere Untersuchungen an ES mit Strategien zur Selbstadaption dieser Parameter bieten sich daher für zukünftige Forschung an.
The deconfinement transition region between hadronic matter and quark-gluon plasma is studied for finite volumes. Assuming simple model equations of state and a first order phase transition, we find that fluctuations in finite volumes hinder a sharp separation between the two phases around the critical temperature, leading to a rounding of the phase transition. For reaction volumes expected in heavy ion experiments, the softening of the equation of state is reduced considerably. This is especially true when the requirement of exact color-singletness is included in the QGP equation of state.
A self-consistent relativistic integral-di erential equation of the Boltzmann- Uehling-Uhlenbeck-type for the N*(1440) resonance is developed based on an effective Lagrangian of baryons interacting through mesons. The closed time-path Green s function technique and semi-classical, quasi-particle and Born approxima- tions are employed in the derivation. The non-equilibrium RBUU-type equation for the N*(1440) is consistent with that of nucleon s and delta s which we derived before. Thus, we obtain a set of coupled equations for the N,Delta and N*(1440) distribution functions. All the N (1440)-relevant in-medium two-body scattering cross sections within the N,Delta and N*(1440) system are derived from the same effective Lagrangian in addition to the mean field and presented analytically, which can be directly used in the study of relativistic heavy-ion collisions. The theoreticalprediction of the free pp - pp* (1440) cross section is in good agreement with the experimental data. We calculate the in-medium N+N - N+N* , N* +N - N+N and N*+N - N* +N cross sections in cold nuclear matter up to twice the nuclear matter density. The influence of different choices of the N* N* coupling strengths, which can not be obtained through fitting certain experimental data, are discussed. The results show that the density dependence of predicted in-medium cross sections are sensitive to the N* N* coupling strengths used. An evident density dependence will appear when a large scalar coupling strength of g^(sigma) N*N* is assumed. PACS number(s): 24.10.Cn; 25.70.-z; 21.65.+f
Preliminary experimental data for particle number ratios in the collisions of Au+Au at the BNL AGS (11A GeV/c) and Pb+Pb at the CERN SPS (160A GeV/c) are analyzed in a thermodynamically consistent hadron gas model with excluded volume. Large values of temperature, T = 140 185 MeV, and baryonic chemical potential, µb = 590 270 MeV, close to the boundary of the quark-gluon plasma phase are found from fitting the data. This seems to indicate that the energy density at the chemical freezeout is tremendous which would be indeed the case for the point-like hadrons. However, a self-consistent treatment of the van der Waals excluded volume reveals much smaller energy densities which are very far below a lowest limit estimate of the quark-gluon plasma energy density. PACS number(s): 25.75.-q, 24.10.Pa
We study the bremsstrahlung of virtual omega mesons due to the collective deceleration of nuclei at the initial stage of an ultrarelativistic heavy ion collision. It is shown that electromagnetic decays of these mesons may give an important contribution to the observed yields of dileptons. Mass spectra of e+e and µ+µ pairs produced in central Au+Au collisions are calculated under some simplifying assumptions on the space time variation of the baryonic current in a nuclear collision process. Comparison with the CERES data for 160 AGev Pb+Au collisions shows that the proposed mechanism gives a noticeable fraction of the observed e+e pairs in the intermediate region of invariant masses. Sensi tivity of the dilepton yield to the in medium modification of masses and widths of vector mesons is demonstrated.
Collective bremsstrahlung of vector meson fields in relativistic nuclear collisions is studied within the time dependent Walecka model. Mutual deceleration of the colliding nuclei is described by introducing the e ective stopping time and average rapidity loss of baryons. It is shown that electromagnetic decays of virtual ω mesons produced by bremsstrahlung mechanism can provide a substantial contribution to the soft dilepton yield at the SPS bombarding energies. In particular, it may be responsible for the dilepton enhancement observed in 160 AGev central Pb+Au collisions. Suggestions for future experiments to estimate the relative contribution of the collective mechanism are given.
Dielectron mass spectra are examined for various nuclear reactions recently measured by the DLS collaboration. A detailed description is given of all dilepton channels included in the transport model UrQMD 1.0, i.e. Dalitz decays of π, η, ω, ή mesons and of the (1232) resonance, direct decays of vector mesons and pn bremsstrahlung. The microscopic calculations reproduce data for light systems fairly well, but tend to underestimate the data in pp at high energies and in pd at low energies. These conventional sources, however, cannot explain the recently reported enhancement for nucleus-nucleus collisions in the mass region 0.15GeV ≤ Me+e- ≤ 0.6GeV. Chiral scaling and ω meson broadening in the medium are investigated as a source of this mass excess. They also cannot explain the recent DLS data.
The transverse momentum distribution of prompt photons coming from the very early phase of ultrarelativistic heavy ion collisions for the RHIC and LHC energies is calculated by means of perturbative QCD. We calculate the single photon cross section (A + B -> gamma + X) by taking into account the partonic sub processes q + q -> gamma + g and q + g -> gamma + q as well as the Bremsstrahlung corrections to those processes. We choose a lower momentum cut-off k0 = 2 GeV separating the soft physics from perturbative QCD. We compare the results for those primary collisions with the photons produced in reactions of the thermalized secondary particles, which are calculated within scaling hydrodynamics. The QCD processes are taken in leading order. Nuclear shadowing corrections, which alter the involved nuclear structure functions are explicitly taken into account and compared to unshadowed results. Employing the GRV parton distribution parametrizations we find that at RHIC prompt QCD-photons dominate over the thermal radiation down to transverse momenta kT ≈ 2 GeV. At LHC, however, thermal radiation from the QGP dominates for photon transverse momenta kT ≤ 5 GeV, if nuclear shadowing effects on prompt photon production are taken into account.