Refine
Year of publication
- 2013 (101) (remove)
Document Type
- Article (30)
- Doctoral Thesis (21)
- Conference Proceeding (15)
- Master's Thesis (15)
- Bachelor Thesis (10)
- Contribution to a Periodical (4)
- Book (3)
- Part of Periodical (3)
Has Fulltext
- yes (101)
Is part of the Bibliography
- no (101)
Keywords
- Synchrotron (2)
- (F)EBID (1)
- ALICE experiment (1)
- Aktivierungsmethode (1)
- Akustik (1)
- Beauty production (1)
- Boltzmann equation (1)
- CBM (1)
- Chiral perturbation theory (1)
- Chiral symmetry (1)
Institute
- Physik (101) (remove)
Bei der Ionenstrahltherapie bestimmt die Energie der Ionen die Eindringtiefe in das Gewebe und damit die Lage des Braggpeaks, in dem der größte Teil der Ionisationsenergie deponiert wird.
Um die gewünschte Dosis möglichst genau im Tumor zu lokalisieren, müssen in den aufeinanderfolgenden Extraktionen die gewünschten unterschiedlichen Energien möglichst genau sein.
In der Beschleunigungsphase werden die Magnetfelder der Magnete im Synchrotron bis zum vorgegebenen Exktraktionswert hochgefahren. Dieser bestimmt zusammen mit der Synchrotronfrequenz die Strahlenergie. Während und insbesondere am Ende dieser Phase, Rampe genannt, sollte das Magnetfeld daher sehr genau dem berechneten Sollwert folgen, um Strahlverluste zu minimieren und die geforderte Strahlqualität zu erreichen.
In der zeitlichen Steuerung der Magnetströme müssen magnetische Effekte, die hauptsächlich im Eisen der Magnete auftreten, wie Wirbelströme und die Hysterese berücksichtigt werden, da sie das Feld verfälschen und damit den Strahl in unerwünschter Weise beeinflussen. Die während der Rampe entstehenden Wirbelströme stören das Magnetfeld, so dass bisher vor der Extraktion des Strahls eine Wartezeit eingeführt wurde, bis die Wirbelströme abgeklungen waren.
Bei beliebig wählbaren Abfolgen der vordefinierten Zyklen kommt es durch die Hysterese des Eisens zu unterschiedlichen Remanenzfeldern, die das Magnetfeld verändern. Um dem vorzubeugen, durchliefen die Magnete eine vordefinierte Hystereseschleife. Ist die geforderte Energie des Strahls erreicht, wird das Magnetfeld konstant gehalten und die Teilchen aus dem Synchrotron extrahiert. Der Rest der Hystereseschleife wurde am Ende des Zyklus durchlaufen.
Die im Rahmen dieser Dissertation entwickelte dynamische Magnetfeldregelung misst das integrale Magnetfeld sehr genau und korrigiert die Feldfehler. Das integrale Magnetfeld folgt damit jederzeit seiner Vorgabe, unabhängig von den dynamischen Störeffekten. Die Wirbelströme und die Hysterese sind zwar immer noch vorhanden, die dadurch verursachten Feldfehler können aber durch eine Rückkopplung auf den Strom des Magneten korrigiert werden.
Es werden verschiedene Verfahren zur Messung der Magnetfelder untersucht. Am besten eignet sich für die dynamische Magnetfeldregelung die Kombination aus einer Hallsonden- und einer Induktionsspulenmessung. Die Messung muss das integrale Magnetfeld des Magneten BL, also das gesamte Feld entlang des Strahlwegs, bestimmen. Die Induktionsspule, oder Pickupspule, liegt deshalb entlang des Strahlrohrs im Magneten und liefert eine Spannung in Abhängigkeit von der Änderung des magnetischen Flusses. Durch die Integration dieser Spannung erhält man das integrale Feld des Magneten. Die Messung wird mit einer Hallsondenmessung zu Beginn des Beschleunigerzyklus auf einen absoluten Messwert geeicht.
Der Hauptteil dieser Arbeit beschäftigt sich mit der Entwicklung des sogenannten HIT Integrators, der die Integration der Pickupspulenspannung übernimmt. Bisher verfügbare Integratoren konnten die notwendigen Anforderungen an Genauigkeit, Echtzeitfähigkeit, automatische Kalibrierung, ständige Messbereitschaft, Temperaturunabhängigkeit und hohe Verfügbarkeit nicht erfüllen. Der neu entwickelte HIT Integrator wurde diesen Anforderungen entsprechend entwickelt. Der Integrator mit dem neuartigen Konzept der gleichzeitigen Messung und Kalibrierung in Echtzeit ist als Patent angemeldet worden. Neben der Entwicklung und Verwirklichung des Gesamtkonzepts war die numerische Integration des stark verrauschten Pickupspulensignals und die sofortige Umsetzung des integralen Werts in ein Steuersignal für die Dipolmagnetstromgeräte eine besondere technische Herausforderung.
Die elektronischen Schaltungen für die dynamische Magnetfeldregelung sind in der Baugruppe des HIT Integrators zusammengefasst. Die Ansteuerung der Hallsonde mit einer temperaturkompensierten Stromquelle, der Signalaufbereitung und Analog-Digital-Wandlung, sowie der Integrator und der Regler bilden eine technische Einheit.
Der HIT Integrator ist speziell für den Einsatz im bestehenden Beschleunigerkontrollsystem und den Magnetnetzgeräten entwickelt worden.
Die Regler der Magnetnetzgeräte wurden so verändert, dass sie einen Zusatzsollwert verarbeiten können, der auf den berechneten Sollwert der Datenversorgung addiert wird.
Die Magnetfeldregelung wurde in den Therapiebeschleuniger integriert, dazu wurde die Datenversorgung und das Kontrollsystem angepasst. Die Magnetfeldregelung stellt ein neues Gerät im Beschleuniger dar, das in die Netzgeräte der Synchrotronmagnete eingebaut worden ist. Die Datenversorgung dieser Geräte beinhaltet u.a. eine neue Methode der Kalibrierung.
Es konnte durch Messungen gezeigt werden, dass die Magnetfeldregelung mit hoher Genauigkeit funktioniert. Es wird eine Genauigkeit von besser als 10^{-4} des maximalen Feldes von 1.5 T erreicht, also weniger als 150uT, der dreifachen Stärke des Erdmagnetfelds. Vor allem die Bestrahlungszeit mit Protonen und die Bestrahlung bei niedrigen Energien profitiert von der Magnetfeldregelung, da hier das Extraktionsniveau der Magnete relativ gering ist und das Durchlaufen der vordefinierten Hystereseschleife prozentual mehr Zeit im Zyklus in Anspruch nimmt. Durch den Wegfall dieser Phase wird daher pro Zyklus mehr Zeit eingespart. Die Messungen zeigen, dass im Beschleunigerzyklus trotz der fehlenden Wartezeiten, die bis zu 24% betragen, eine gleichbleibend gute Strahlqualität erreicht wird. Dies wurde mit Vergleichsmessungen gezeigt, bei denen der Strahl mit und ohne Feldregelung vermessen wurde. Untersucht wurde eine große Stichprobenmenge aus dem Parameterraum, gegeben durch zwei Ionensorten mit jeweils 255 Strahlenergien, 10 verschiedenen Teilchenraten und 4 Strahlbreiten. Außerdem wurde die Energie des Strahls nachgemessen.
Für die Einführung in den Therapiebetrieb musste eine Impactanalyse gemacht werden, die mögliche Auswirkungen des neuen Verfahrens behandelt. Das Risiko für Patienten, Mitarbeiter und Dritte darf durch die Magnetfeldregelung nicht erhöht werden. Daraus entstand auch die Forderung nach einem redundanten System, das Fehler erkennt und die Bestrahlung abbricht.
Die mittlere Leistungsaufnahme des Beschleunigers des Heidelberger Ionenstrahltherapiezentrums liegt bei etwa 1 MW, bei einem Jahresenergieverbrauch von 8 GWh mit Kosten von etwa 1 Million Euro. Dies entspricht einer deutschen Kleinstadt mit 10000 Einwohnern. Die Verkürzung der Zykluszeiten wirkt sich direkt auf die Bestrahlungszeit und auf die Energiekosten aus. Würde man die Anlage durch die Zeiteinsparungen kürzer betreiben, würde man etwa 2 GWh pro Jahr sparen, was die Stromkosten um etwa 250000 Euro reduziert.
Zusätzlich zu den eingesparten Kosten wird auch die Bestrahlungszeit kürzer und damit auch die Zeit, die der Patient bei der Behandlung fixiert wird. Die Behandlung für die Patienten wird angenehmer. Man kann aber auch durch die eingesparte Bestrahlungszeit pro Patient entsprechend mehr Patienten behandeln. Das heißt man kann an Stelle von 700 Patienten im Jahr 910 Patienten mit einem Tumor behandeln. Dieser für die Patienten willkommene Effekt bedeutet auf der anderen Seite für HIT aber auch Mehreinnahmen von 4.2 Millionen Euro im Jahr.
Das Konzept der Magnetfeldregelung kann auch an anderen Beschleunigeranlagen zum Einsatz kommen. Dazu müssen die Magnete mit den Sonden bestückt werden und die Magnetnetzgeräte einen Eingang für einen Zusatzsollwert bekommen. Das Beschleunigerkontrollsystem kann erweitert werden, damit es einen Sollwert mit allen notwendigen Kalibrierungen berechnen kann. Der HIT Integrator wird dann als eigenständiges Gerät in das Kontrollsystem eingebunden.
Nach dem einführenden Theorieteil werden in den darauffolgenden Kapiteln zuerst die Auslegung und die Vermessung der drei Tripletts an der GSI in Darmstadt beschrieben und dann versucht mit Hilfe von LORASR einen Akzeptanzrahmen der MEBT-Sektion (Medium Energy Beam Transport) für ein Teilchenpaket anzugeben. Anschließend werden die Ergebnisse aus Feldvermessung und CST EM STUDIO Feldsimulationen verglichen. Damit soll die Frage, inwieweit es mit Particle Tracking Simulationen, in denen mit in CST EM STUDIO simulierten und anschließend in BENDER importierten Feldern gearbeitet wird, möglich ist, zutreffende Aussagen zu machen, beantwortet werden. Im letzten Kapitel werden wiederum die Ergebnisse dieser Simulationen präsentiert und ihre Bedeutung, im Vergleich mit den erweiterten Untersuchungen der Transporteigenschaften durch verschiedene aus überlagerten Multipolfeldern generierten Magnetfelder, eingeordnet. Abschließend wird nochmals ein Fazit zur Aussagekraft der Ergebnisse und der Folgen für den Strahltransport gezogen und ein Ausblick auf die noch ausstehenden Schritte und weitere experimentelle Analyseoptionen gegeben.
System size dependence of hadron production properties is discussed within the Wounded Nucleon Model and the Statistical Model in the grand canonical, canonical and micro-canonical formulations. Similarities and differences between predictions of the models related to the treatment of conservation laws are exposed. A need for models which would combine a hydrodynamicallike expansion with conservation laws obeyed in individual collisions is stressed.
Coupling local, slowly adapting variables to an attractor network allows to destabilize all attractors, turning them into attractor ruins. The resulting attractor relict network may show ongoing autonomous latching dynamics. We propose to use two generating functionals for the construction of attractor relict networks, a Hopfield energy functional generating a neural attractor network and a functional based on information-theoretical principles, encoding the information content of the neural firing statistics, which induces latching transition from one transiently stable attractor ruin to the next. We investigate the influence of stress, in terms of conflicting optimization targets, on the resulting dynamics. Objective function stress is absent when the target level for the mean of neural activities is identical for the two generating functionals and the resulting latching dynamics is then found to be regular. Objective function stress is present when the respective target activity levels differ, inducing intermittent bursting latching dynamics.
We analyze hadrochemical freeze-out in central Pb+Pb collisions at CERN SPS and LHC energies. Employing the UrQMD hybrid transport model we study the effects of the final hadron/resonance expansion phase on the hadron multiplicities established at hadronization. The bulk meson yields freeze out directly at hadronization whereas the baryon-antibaryon sector is subject to significant alterations, due to annihilation and regeneration processes. We quantify the latter changes by survival factors for each species which are applied to modify the statistical model predictions for the data. The modified SM analysis recovers the hadronization points, which coincide with the recent lattice QCD predictions of the parton-hadron transition line at finite baryochemical potential.
Recent results on baryon production in relativistic heavy ion collisions show that a revision of the chemical freeze-out conditions is necessary. Particularly, there is evidence that chemical freezeout does not occur at full chemical equilibrium. We present a method to reconstruct original hadronization conditions and show that the newly found points in the T − µB plane are in very good agreement with extrapolations of the lattice QCD critical line.
In this thesis, Hanbury-Brown-Twiss (HBT) interferometry is used together with the Ultrarelativistic Quantum Molecular Dynamics (UrQMD) to analyse the time and space structure of heavy-ion collisions.
The first chapter after the introduction gives an overview of the different types of models used in the field of heavy-ion collisions and a introduction of the UrQMD model in more detail. The next chapter explains the basics of Hanbury-Brown-Twiss correlations, including azimuthally sensitive HBT (asHBT).
Results section:
4. Charged Multiplicities from UrQMD
5. Formation time via HBT from pp collisions at LHC
6. HBT analysis of Pb+Pb collisions at LHC energies
7. HBT scaling with particle multiplicity
8. Compressibility from event-by-event HBT
9. Tilt in non-central collisions
10. Shape analysis of strongly-interacting systems
11. Measuring a twisted emission geometry
This thesis covers the standard integrated HBT analyses, extracting the Pratt-Bertsch radii, at LHC energies. The analyses at these energies showed a too soft expansion in UrQMD probably related to the absence of a partonic phase in UrQMD. The most promising results in this thesis at these energies are the restriction of the formation time to a value smaller than 0.8 fm/c and furthermore, the results from the asHBT analyses. In simulations of non-central heavy-ion collisions at energies of Elab= 6, 8 and 30 AGeV the validity of the formulae to calculate the tilt angle via asHBT has been checked numerically, even for the case of non-Gaussian, flowing sources. On this basis has been developed and test in the course of this thesis that allows to measure a scale dependent tilt angle experimentally. The signal should be strongest at FAIR energies.
Tumour cells show a varying susceptibility to radiation damage as a function of the current cell cycle phase. While this sensitivity is averaged out in an unperturbed tumour due to unsynchronised cell cycle progression, external stimuli such as radiation or drug doses can induce a resynchronisation of the cell cycle and consequently induce a collective development of radiosensitivity in tumours. Although this effect has been regularly described in experiments it is currently not exploited in clinical practice and thus a large potential for optimisation is missed. We present an agent-based model for three-dimensional tumour spheroid growth which has been combined with an irradiation damage and kinetics model. We predict the dynamic response of the overall tumour radiosensitivity to delivered radiation doses and describe corresponding time windows of increased or decreased radiation sensitivity. The degree of cell cycle resynchronisation in response to radiation delivery was identified as a main determinant of the transient periods of low and high radiosensitivity enhancement. A range of selected clinical fractionation schemes is examined and new triggered schedules are tested which aim to maximise the effect of the radiation-induced sensitivity enhancement. We find that the cell cycle resynchronisation can yield a strong increase in therapy effectiveness, if employed correctly. While the individual timing of sensitive periods will depend on the exact cell and radiation types, enhancement is a universal effect which is present in every tumour and accordingly should be the target of experimental investigation. Experimental observables which can be assessed non-invasively and with high spatio-temporal resolution have to be connected to the radiosensitivity enhancement in order to allow for a possible tumour-specific design of highly efficient treatment schedules based on induced cell cycle synchronisation.
Author Summary: The sensitivity of a cell to a dose of radiation is largely affected by its current position within the cell cycle. While under normal circumstances progression through the cell cycle will be asynchronous in a tumour mass, external influences such as chemo- or radiotherapy can induce a synchronisation. Such a common progression of the inner clock of the cancer cells results in the critical dependence on the effectiveness of any drug or radiation dose on a suitable timing for its administration. We analyse the exact evolution of the radiosensitivity of a sample tumour spheroid in a computer model, which enables us to predict time windows of decreased or increased radiosensitivity. Fractionated radiotherapy schedules can be tailored in order to avoid periods of high resistance and exploit the induced radiosensitivity for an increase in therapy efficiency. We show that the cell cycle effects can drastically alter the outcome of fractionated irradiation schedules in a spheroid cell system. By using the correct observables and continuous monitoring, the cell cycle sensitivity effects have the potential to be integrated into treatment planing of the future and thus to be employed for a better outcome in clinical cancer therapies.
We present the application of an evolutionary genetic algorithm for the in situ optimization of nanostructures that are prepared by focused electron-beam-induced deposition (FEBID). It allows us to tune the properties of the deposits towards the highest conductivity by using the time gradient of the measured in situ rate of change of conductance as the fitness parameter for the algorithm. The effectiveness of the procedure is presented for the precursor W(CO)6 as well as for post-treatment of Pt–C deposits, which were obtained by the dissociation of MeCpPt(Me)3. For W(CO)6-based structures an increase of conductivity by one order of magnitude can be achieved, whereas the effect for MeCpPt(Me)3 is largely suppressed. The presented technique can be applied to all beam-induced deposition processes and has great potential for a further optimization or tuning of parameters for nanostructures that are prepared by FEBID or related techniques.
Diese Dissertation stellt die systematische Einbeziehung von Eichkorrekturen in die Theorie der thermischen Leptogenese vor, welche eine Erklärung für die Frage nach dem Ursprung der Materie in unserem Universum bereitstellt.
Geht man vom weithin anerkannten Urknallmodell aus, so müsste hierbei zu gleichen Teilen Materie sowie Antimaterie entstanden sein. Aufgrund von Annihilationsprozessen sollte demnach die gesamte Materie zerstrahlt sein und ein leeres Universum zurückbleiben. Da dies aber nicht der Fall ist, stellt sich die Frage, wie das Ungleichgewicht zwischen Materie und Antimaterie entstehen konnte. Der Wert der Asymmetrie lässt sich mit Hilfe von Experimenten sehr genau bestimmen. Für eine systematische theoretische Beschreibung dieser Problematik stellte A. Sacharow drei Bedingungen auf: 1. die Verletzung der Baryonenzahl, 2. die Verletzung der Invarianz von Ladungskonjugation C sowie der Zusammensetzung von Ladungskonjugation und Parität CP sowie 3. eine Abweichung vom thermischen Gleichgewicht.
Da das Urknallmodell und das Standardmodell der Teilchenphysik nicht in der Lage sind, diese Asymmetrie zu beschreiben, beschäftigt sich die vorliegende Dissertation mit der Theorie der thermischen Leptogenese, welche statt von einer ursprünglichen Baryonenasymmetrie von einer Leptonenasymmetrie ausgeht. Zu einem späteren Zeitpunkt wird diese dann mittels Sphaleron-Prozesse, welche die Baryonenzahl verletzen, in eine Baryonenasymmetrie übertragen. Hierzu werden neue Teilchen zum Standardmodell hinzugefügt: schwere Majorana-Neutrinos. Diese zerfallen im thermischen Nichtgleichgewicht CP-verletzend in die bekannten Standardmodell-Leptonen und Higgs-Teilchen.
In dieser Arbeit wird eine hierarchische Anordnung der drei schweren Neutrinomassen betrachtet. Dies hat zur Folge, dass zwei der drei Majorana-Neutrinos ausintegriert werden können und eine effektive Theorie aufgestellt werden kann. Dieses Modell wird auch vanilla leptogenesis genannt und im Folgenden verwendet.
Die Dissertation ist wie folgt gegliedert. Die einleitenden Betrachtungen sind Gegenstand der Kapitel 1 und 2. Dort werden weiterhin andere Modelle zur Lösung des Problems der Baryonenasymmetrie kurz vorgestellt. Die thermische Leptogenese wird eingeführt und der See-saw-Mechanismus sowie die CP-Asymmetrie genauer beschrieben. Am Ende des Kapitels wird der klassische Ansatz für Leptogenese über Boltzmann Gleichungen präsentiert.
In Kapitel 3 werden die Grundlagen für Quantenfeldtheorien im Nichtgleichgewicht eingeführt. Die wichtigsten Definitionen im Falle des thermischen Gleichgewichts werden gegeben, anschließend findet sich die Verallgemeinerung auf Nichtgleichgewichtszustände. Die Bewegungsgleichungen, die sogenannten Kadanoff-Baym-Gleichungen, werden im Folgenden sowohl für skalare Teilchen als auch für Fermionen gelöst.
Kapitel 4 stellt die Notwendigkeit der Einbeziehung von Eichkorrekturen im Kontext der thermischen Leptogenese vor. Durch die Definition einer Leptonenzahlmatrix lässt sich die Asymmetrie durch die Kadanoff-Baym Gleichung für Leptonen umschreiben. Da der Vergleich von Boltzmann und Kadanoff-Baym Gleichungen im letzten Teil dieses Kapitels Unterschiede im Zeitverhalten zeigt, werden im Kadanoff-Baym Ansatz thermische Standardmodell-Breiten des Higgsfeldes und der Leptonen per Hand eingeführt. Mit dieser naiven Erweiterung erhält man ein gleiches Verhalten für die Leptonenzahlmatrix, lokal in der Zeit wie die Lösung der Boltzmann Gleichung. Eine systematische Einführung von Standardmodellkorrekturen für thermische Leptogenese ist daher unumgänglich, weshalb im Rahmen der vorliegenden Dissertation von Grund auf Eichkorrekturen der Diagramme, die zur Asymmetrie führen, berücksichtigt werden.
Die vier für diese Arbeit wichtigen Skalenbereich bedingen zwei Resummationsschemata, Hard Thermal Loop (HTL) und Collinear Thermal Loop (CTL), welche in Kapitel 5 vorgestellt werden. Dies führt schließlich auf zwei Differenzialgleichungen für die Berechnung der thermischen Produktionsrate des Majorana-Neutrinos, welche in Kapitel 6 numerisch weiter ausgewertet werden.
In Kapitel 7 erfolgt zunächst eine naive Berechnung aller eichkorrigierter 3-Schleifen-Diagramme, die zu den beiden die Asymmetrie verursachenden Diagrammen gehören. Da eine einfache Berechnung der 3-Schleifen-Diagramme nicht ausreicht, wird an dieser Stelle ein neues, zylindrisches Diagramm eingeführt, welches alle wichtigen Beiträge, insbesondere die HTL- und CTL-resummierten, enthält. Am Ende des Kapitels findet sich der erste geschlossene Ausdruck für die eichkorrigierte Leptonenzahlmatrix in führender Ordnung in allen Kopplungen.
Abschließend gibt es eine kurze Zusammenfassung und einen Ausblick in Kapitel 8. In dieser Dissertation findet sich zum ersten Mal ein systematischer Zugang zur Berücksichtigung aller Eichwechselwirkungen in der Theorie der thermischen Leptogenese. Ein geschlossener Ausdruck für die eichkorrigierte Leptonenasymmetrie konnte vorgestellt werden.
In this work the main emphasis is put on the investigation of relativistic shock waves and Mach cones in hot and dense matter using the microscopic transport model BAMPS, based on the relativistic Boltzmann equation. Using this kinetic approach we study the complete transition from ideal-fluid behavior to free streaming. This includes shock-wave formation in a simplified (1+1)-dimensional setup as well as the investigation of Mach-cone formation induced by supersonic projectiles and/or jets in (2+1)- and (3+1)-dimensional static and expanding systems. We further address the question whether jet-medium interactions inducing Mach cones can contribute to a double-peak structure observed in two-particle correlations in heavy-ion collision experiments. Furthermore, BAMPS is used as a benchmark to compare kinetic theory to several relativistic hydrodynamic theories in order to verify their accuracy and to find their limitations.
In this study, the structural and functional properties of the Na+/Betaine symporter BetP were investigated upon K+-induced activation. BetP regulates transport activity dependent on the amount of associated anionic lipids and the cytoplasmic K+-concentration. For this purpose, FTIR spectroscopy was implemented as a non-perturbing biophysical method which shed light on how the membrane lipids contribute to the molecular mechanisms of activation and regulatory response of BetP.
Der langsame Neutronen-Einfangprozess (s-Prozess) ist weitgehend verstanden und erforscht. Dies liegt vor allem daran, dass er im Gegensatz zu r- und p- Prozess hauptsächlich an stabilen Nukliden abläuft. Auch ist die Anzahl relevanter Reaktionen (Netzwerk) vergleichsweise klein.
Dennoch gibt es im s-Prozess viele ungeklärte Fragen. Eine dieser Fragen ist die Häufigkeitsverteilung von 86Kr in Staubkörnern von Meteoriten. Mit bisherigen Berechnungen und Simulationen dieser Szenarien konnte die Häufigkeitsverteilung von 86Kr jedoch nicht erklärt werden.
In dieser Arbeit werden die besonderen Eigenschaften von 85Kr, insbesondere sein Isomerzustand, vorgestellt und genauer untersucht. Die Häufigkeitsverteilung von 86Kr im s-Prozess wird entscheidend durch die Eigenschaften 85Kr beeinflusst. Mit den gewonnenen Daten aus dieser Arbeit wurde eine erste Simulation erstellt, die einen möglichenWeg aufzeigt, das Rätsel um die Häufigkeitsverteilung zu lösen.
Previous experimental measurements from nuclear collisions have indicated modifications of jets by interaction with the medium created in the collision. Observables from particle correlations in the ALICE detector continue to provide access to key properties of the hot deconfined nuclear matter. New results from two- and three-particle number and transverse momentum correlations are discussed. Specifically, correlation function properties are characterized as a function of transverse momentum and centrality and for different charge combinations. Fourier decompositions are performed, identified particle ratios are studied in the jet-like peak and in the bulk, and the away-side shape is looked at in three-particle correlations.
Seit den 20er Jahren werden Teilchen durch verschiedenste Methoden beschleunigt und wechselwirken unter Laborbedingungen mit anderen Teilchen. Hierbei spielt die Erzeugung neuer meist sehr kurzlebiger Teilchen eine wichtige Rolle. Die Untersuchung dieser Streuexperimente ist eine der wichtigsten Methoden der Elementarteilchen-, Kern- und Astrophysik. So steht bei den heutigen Kernphysik-Experimenten immer mehr die Astrophysik im Vordergrund. Die offenen kosmischen Fragen nach dem Ursprung und der Entwicklung des Universums drängen nach Antworten. Seit die Menschen bewusst denken können, gibt es diese Neugier zu erfahren woraus das Universum besteht. Unser Bild des Universums wurde durch neue Erkenntnisse alleine in den letzten 30 Jahren mehrmals radikal verändert.
Besonders die Vielzahl und Häufigkeit der heute zu findenden Elemente wollen erklärt werden. Da nach heutigen Kenntnissen davon ausgegangen wird, dass kurz nach dem Urknall lediglich die leichten Elemente Wasserstoff, Helium und Lithium vorhanden waren. Hier versucht die aktuelle Forschung anzusetzen. Das Konzept der sogenannten „Nukleosynthese“ ist entwickelt worden und versucht das Entstehen aller schwereren Elemente zu erklären. So geht man heute davon aus, dass sich die weiteren Elemente bis hin zu Eisen durch Kernfusions-Prozesse innerhalb der verschiedenen Brennphasen von Sternen entwickelt haben - während alle schwereren Elemente durch neutronen-induzierte Prozesse entstanden sind. Die beiden großen Neutronenprozesse sind der r-Prozess (rapid neutron-capture process) und der s-Prozess (slow neutron-capture process). Während der r-Prozess wahrscheinlich in hochexplosiven Szenarien, wie den Supernovae, stattfindet, spielt sich der s-Prozess meist innerhalb Roter Riesen ab [Rei06].
Um diese Theorien zu belegen und zu unterstützen, ist es nötig diverse kernphysikalische Experimente auf der Erde durchzuführen. Hier versucht man den Bedingungen in den Sternen nahe zu kommen. Es werden hohe Energien und hohe Neutronenflüsse benötigt um schwerere Elemente durch Neutroneneinfangs- und Fusionsprozesse zu erzeugen. Ziel Motivation Einleitung ist es unter anderem nukleare Wirkungsquerschnitte diverser Reaktionen experimentell nachzuweisen und auf die Sternmodelle umzurechnen.
Die Schwierigkeit liegt hier nicht nur in der Erzeugung und Erhaltung dieser hohen Raten, sondern vielmehr auch in der Detektion der entstandenen Fragmente und Teilchen. Da diese Teilchen und subatomaren Partikel nur eine jeweils sehr kurze Lebensdauer besitzen, ist es eine große Herausforderung möglichst effiziente und effektive Detektoren zu entwickeln. Damit diese Detektoren in den jeweiligen Experimenten dann möglichst optimal arbeiten und die gewünschten Auflösungen liefern, ist es nötig gute Kalibrierungsmöglichkeiten im Voraus auszunutzen.
In our daily life, we carry out lots of tasks like typing, playing tennis, and playing the piano, without even noticing there is sequence learning involved. No matter how simple or complex they are, these tasks require the sequential planning and execution of a series of movements. As an ability of primary importance in one’s life, and an ability that everyone manages to learn, action-sequence learning has been studied by researchers from different fields: psychologists, neurophysiologists as well as roboticists. In the concept of sequence learning, perceptual learning and motor learning, implicit and explicit learning have been studied and discussed independently.
We are interested in infancy research, because infants, with underdeveloped brain functions and with limited motor ability, have little experience with the world and not yet built internal models as presumption of how to interpret the world. A series of infant experiments in the 1980s provided evidence that infants can rapidly develop anticipatory eye movements for visual events. Even when infants have no control of those spatial-temporal patterns, they can respond actually prior to the onset of the visual event, referred as "Anticipation".
In this work, we applied a gaze-contingent paradigm using real-time eye tracking to put 6- and 8-month-old infants in direct control of their visual surroundings. This paradigm allows the infant to change an image on a screen by looking at a peripheral red disc, which functions as a switch. We found that infants quickly learn to perform eye movements to trigger the appearance of new stimuli and that they anticipate the consequences of their actions in an early stage of the experiment.
Attention-shift from learning one stimulus to the next novel stimulus is important in sequence learning. In the test phase of infant visual habituation with two objects, we propose a new theory of explaining the familiarity-to-novelty shift. In our opinion an infant’s interest in a stimulus is related to its learning progress, the improvement of performance. As a consequence, infants prefer the stimulus which their current learning progress is maximal for, naturally giving rise to a familiarity-to-novelty shift in certain situations. Our network model predicts that the familiarity-to-novelty-shift only emerges for complex stimuli that produce bell-shaped learning curves after brief familiarization, but does not emerge for simple stimuli that produce exponentially decreasing learning curves or for long familiarization time, which is consistent with experimental results. This research suggests the infant's interest in a stimulus may be related to its current learning progress. This can give rise to a dynamic familiarity-to-novelty shift depending on both the infant's learning efficiency and the task complexity.
We know that for both infants and adults, the performance on certain motor-sequence tasks can be improved through practice. However, adults usually have to perform complex tasks in complicated environments; for example, learning multiple tasks is unavoidable in our daily life. In existing research, learning multiple tasks showed puzzling and seemingly contradictory results. On the one hand, a wide variety of proactive and retroactive interference effects have been observed when multiple tasks have to be learned. On the other hand, some studies have reported facilitation and transfer of learning between different tasks.
In order to find out the interaction between multiple-task learning, and to find an optimal training schedule, we use a recurrent neural network to model a series of experiments on movement sequence learning. The network model learns to carry out the correct movement sequences through training and reproduces differences between training schedules such as blocked training vs. random training in psychophysics experiments. The network model also shows striking similarity to human performance, and makes prediction for tasks similarity and different training schedules.
In conclusion, the thesis presents learning sequences of actions in infants and recurrent neural networks. We carried out a gaze-contingent experiment to study infants’ rapid anticipation of their own action outcomes, and we also constructed two recurrent neural network models, with one model explaining infant attention shift in visual habituation, and the other model directing to task similarity and training schedule in motor sequence control in adults.
Long-range angular correlations on the near and away side in p–Pb collisions at √sNN=5.02 TeV
(2013)
Angular correlations between charged trigger and associated particles are measured by the ALICE detector in p–Pb collisions at a nucleon–nucleon centre-of-mass energy of 5.02 TeV for transverse momentum ranges within 0.5<pT,assoc<pT,trig<4 GeV/c. The correlations are measured over two units of pseudorapidity and full azimuthal angle in different intervals of event multiplicity, and expressed as associated yield per trigger particle. Two long-range ridge-like structures, one on the near side and one on the away side, are observed when the per-trigger yield obtained in low-multiplicity events is subtracted from the one in high-multiplicity events. The excess on the near-side is qualitatively similar to that recently reported by the CMS Collaboration, while the excess on the away-side is reported for the first time. The two-ridge structure projected onto azimuthal angle is quantified with the second and third Fourier coefficients as well as by near-side and away-side yields and widths. The yields on the near side and on the away side are equal within the uncertainties for all studied event multiplicity and pT bins, and the widths show no significant evolution with event multiplicity or pT. These findings suggest that the near-side ridge is accompanied by an essentially identical away-side ridge.