Refine
Year of publication
- 2014 (131) (remove)
Document Type
- Article (56)
- Doctoral Thesis (28)
- Master's Thesis (20)
- Bachelor Thesis (10)
- Conference Proceeding (7)
- Preprint (5)
- Part of Periodical (2)
- Book (1)
- Contribution to a Periodical (1)
- Habilitation (1)
Has Fulltext
- yes (131)
Is part of the Bibliography
- no (131)
Keywords
- Beschleuniger (2)
- Beschleunigerphysik (2)
- Dyson–Schwinger equations (2)
- Ionenstrahl (2)
- Nonperturbative methods (2)
- Nucleus–nucleus collisions (2)
- Nukleosynthese (2)
- Particle Accelerator (2)
- Radio Frequenz Quadrupol (2)
- Strahldynamik (2)
Institute
- Physik (131) (remove)
In dieser Arbeit wurde die Leistungsfähigkeit des neuen Inner Tracking System (ITS) in Bezug auf die Messung von Spektren der invarianten Masse von Dielektronpaaren im Rahmen des ALICE Experiments am LHC ausgewertet. Zu Beginn der Planungen zum zukünftigen ITS wurden zwei verschiedene Designmöglichkeiten in Betracht gezogen: Auf der einen Seite ein ITS, welches die Möglichkeit zur Teilchenidentifizierung mittels spezifischem Energieverlust pro Wegstrecke bietet und auf der anderen Seite ein ITS welches diese Möglichkeiten nicht hat. Es wurde untersucht, ob es zukünftig möglich sein wird aus der Steigung des Spektrums der invarianten Masse von Dileptonen zwischen 1,1 GeV/c2 < Mee < 2,0 GeV/c2 direkt die Temperatur des Quark-Gluon-Plasmas zu extrahieren. Weiterhin wurde geprüft welches der beiden Systeme diese Aufgabe besser erfüllt.
Das neue ITS bietet gegenüber dem alten ITS Vorteile, die in dieser Analyse genutzt wurden. Zuerst, siehe Abschnitt 3.4, wurde ein zweidimensionaler Schnitt auf den Öffnungswinkel und die invariante Masse angewandt um Elektronen und Positronen aus Dalitzzerfällen und Photonkonversionen zu identifizieren und für die folgende Analyse zu verwerfen. Hierzu wurde die verbesserte Spurfindungseffizienz hin zu kleinen Transversalimpulsen ausgenutzt, um die Anzahl an zu kombinierenden Teilchen und damit die Wahrscheinlichkeit richtige Paare zu finden, zu erhöhen. Allerdings können Teilchen, welche nur im ITS nachgewiesen werden können, nicht zweifelsfrei (ITSPID), beziehungsweise gar nicht (ITSnoPID) identifiziert werden. Die Simulationen ergeben, dass ein zukünftiges ITS mit der Möglichkeit zur Teilchenidentifizierung leicht bessere Werte in der Signifikanz und im Verhältnis von Signal zu Untergrund liefern kann.
Die verbesserte Vertexfindung wird zur Reduktion des Beitrags durch Elektronen und Positronen aus semileptonisch zerfallenden D-Mesonen (Abschnitt 3.4.4) ausgenutzt.
Die Elektronen und Positronen, welche nach den Schnitten in der Stichprobe blieben, wurden verwendet um den Untergrund zu simulieren (Abschnitt 3.4.5). Daraufhin wurde die Signifikanz und das Verhältnis von Signal zu Untergrund berechnet. Mit diesen Informationen (Abschnitt 3.5.3) wurde ein Spektrum der invarianten Masse von Dileptonen mit der zu erwartenden Anzahl von 2,5 · 109 zentralen Blei-Blei-Kollisionen erzeugt. Dies führt zu den in Abschnitt 3.5.4 gezeigten Spektren. Nach Abzug der Beiträge durch die semileptonischen D-Meson Zerfälle und durch den hadronischen Cocktail ist noch der zu erwartende Beitrag durch die thermische Strahlung (Abschnitt 1.5) im Spektrum vorhanden. Eine Parametrisierung dieser Kurve ergibt die Temperatur des Quark-Gluon-Plasmas.
Der Unterschied der ermittelten Messwerte der Temperatur zwischen dem zukünftigen ITS mit Teilchenidentifizierung und ohne ist gering (Abschnitt 3.5.5). Die Messung ergibt keine signifikanten Unterschiede zwischen beiden ITS Entwürfen. Aufgrund dieses Ergebnisses kann man sagen, dass für die Messung von Dileptonen im Niedrigmassenbereich keine ITS PID notwendig ist. In den mittlerweile veröffentlichten ITS Technical Design Report sind die Ergebnisse dieser Studie eingeflossen. Es wurde beschlossen, dass der ITSnoPID umgesetzt wird.
Da in der Run 3 Periode des CERN LHC die Kollisionsrate auf 50 kHz erhöht werden soll, muss die ALICE TPC umgebaut werden. Die Vieldrahtproportionalkammern mit Sperrgitter sollen gegen eine GEM-basierte Auslese ausgetauscht werden, um eine kontinuierliche Auslese zu ermöglichen.
Es wurde eine GEM-Testkammer, die mit drei und vier GEM-Folien betrieben werden kann, entwickelt und gebaut. GEM-Folien wurden unter dem Mikroskop auf Fehler untersucht und auf ihre Spannungsfestigkeit hin getestet sowie gerahmt und in die Kammer eingesetzt. Mit der fertigen kleinen TPC mit GEM-basierter Auslese wurden IBF und Energieauflösung gemessen. Ziel der Messungen war es, einen möglichst geringen IBF von unter 1 % zu erhalten, um so wenig wie möglich Feldverzerrungen im Driftvolumen der TPC zu erhalten, bei gleichzeitig guter Energieauflösung von mindestens 12 %, um eine gute Teilchenidentifikation in der TPC sicherzustellen.
Da standard GEM-Konfigurationen mit nur drei GEM-Folien zwar eine gute Energieauflösung, jedoch zu viel IBF aufweisen, wurden die Messungen hauptsächlich mit vier GEM-Folien durchgeführt. Es wurden zwei verschiedene Arten von GEM-Folien verwendet, Standard (S) und Large-Pitch (LP) GEM-Folien, die bei einem Großteil der Messungen in der S-LP-LP-S-Konfiguration angeordnet waren.
Es wurde festgestellt, dass sich IBF und Energieauflösung gegenläufig verhalten, bei besser werdendem IBF also die Energieauflösung schlechter wird und umgekehrt.
Es wurden zwei verschiedene Gasmischungen, Ne-CO2-N2 (90-10-5) und Ar-CO2 (90-10), untersucht. Mit Neon wurde bei einem Gain von 2000 gemessen, mit Argon nur bei einem Gain von 1000, da bei Argon die Anzahl der produzierten Elektronen pro cm etwa doppelt so groß ist.
Der IBF war mit beiden Gasmischungen etwa gleich groß. Die Energieauflösung war mit Argon jedoch aufgrund des niedrigeren Gains erheblich schlechter. Mit Ne-CO2-N2 (90-10-5) gelang es, einen Arbeitspunkt mit einer Energieauflösung von etwa 12 % und einem IBF von unter 1 % zu finden, mit Ar-CO2 (90-10) war dies jedoch nicht der Fall.
In dieser Arbeit wurden die ersten Schritte unternommen um Elektronen aus den Zerfällen schwerer Quarks zu messen. Im Folgenden wird zunächst ein Überblick zum physikalische Hintergrund gegeben und der elliptische Fluss als Sonde zur Untersuchung des QGP motiviert. Anschließend werden der LHC und ALICE näher beleuchtet und die einzelnen Detektorsysteme, die für diese Analyse wichtig sind, vorgestellt. Im weiteren wird eine Methode zur Identifizierung von Elektronen vorgestellt und die Kontamination des Elektronensignals durch Hadronen bestimmt. Abschließend wird der elliptische Fluss eines von Hadronen bereinigten Inklusiv-Elektronen Spektrums bestimmt und ein Ausblick auf weitere Analyseschritte gegeben.
In this thesis hard probes are studied in the partonic transport model BAMPS (Boltzmann Approach to MultiParton Scatterings). Employing Monte Carlo techniques, this model describes the 3+1 dimensional evolution of the quark gluon plasma phase in ultra-relativistic heavy-ion collisions by propagating all particles in space and time and carrying out their collisions according to the Boltzmann equation. Since hard probes are produced in hard processes with a large momentum transfer, the value of the running coupling is small and their interactions should be describable within perturbative QCD (pQCD). This work focuses on open heavy flavor, but also addresses the suppression of light parton jets, in particular to highlight differences due to the mass. For light partons, radiative processes are the dominant contribution to their energy loss. For heavy quarks, we show that also binary interactions with a running coupling and an improved Debye screening matched to hard-thermal-loop calculations play an important role. Furthermore, the impact of the mass in radiative interactions, prominently named the dead cone effect, and the interplay with the Landau-Pomeranchuk-Migdal (LPM) effect are studied in great detail. Since the transport model BAMPS has access to all medium properties and the space time information of heavy quarks, it is the ideal tool to study the dissociation and regeneration of J/psi mesons, which is also investigated in this thesis.
In this thesis, Planck size black holes are discussed. Specifically, new families of black holes are presented. Such black holes exhibit an improved short scale behaviour and can be used to implement gravity self-complete paradigm. Such geometries are also studied within the ADD large extra dimensional scenario. This allows black hole remnant masses to reach the TeV scale. It is shown that the evaporation endpoint for this class of black holes is a cold stable remnant. One family of black holes considered in this thesis features a regular de Sitter core that counters gravitational collapse with a quantum outward pressure. The other family of black holes turns out to nicely fit into the holographic information bound on black holes, and lead to black hole area quantization and applications in the gravitational entropic force. As a result, gravity can be derived as emergent phenomenon from thermodynamics.
The thesis contains an overview about recent quantum gravity black hole approaches and concludes with the derivation of nonlocal operators that modify the Einstein equations to ultraviolet complete field equations.
The Generalized Uncertainty Principle (GUP) arises from Quantum Gravity thought experiments and contains a minimal lenght. In this thesis I calculate Schwarzschild Black Holes that are modified by the GUP. These Black Holes have the property, that their temperature does not diverge for small masses, although they still posses a curvature singularity. I calculate analytically that in more than 3+1 dimensions the temperature diverges again.
Zunächst sind einige Methoden und Techniken zusammenfassend aufzuzählen, welche mir in meiner Zeit am IKF nahegebracht wurden.
Von technischer Seite her sind hier der Umgang mit der Instituts-eigenen Lichtmikroskop und den pA-Messgeräten sowie der analogen Messkette zu nennen. Außerdem gegebenen GEM-Folien auf Fehlstellen zu untersuchen, sie unter Spannung zu testen und anschließen in die Testkammer zu montieren und diese anschließend ordnungsgemäß in Betrieb zu nehmen. Während des Betriebs der Kammer sind neben den Messungen selbst auch die Programmierung in C++ um ein vorhandenes GUI zu verstehen und erweitern zu können zu nennen. In der Analyse der gewonnenen Daten ist vor allem die im Institut verbreiteten Analyse-Software „Root“ zu nennen um Daten zu verarbeiten, zu plotten und zu fitten.
Der physikalische Gehalt der Messungen war in Folge der ersten Messung nicht mit Sicherheit zu bestimmen, da die Raten-Abhängigkeit des IB entweder grundlegender physikalischer oder technischer Natur sein konnte, was näher zu untersuchen blieb. Nach wiederholter Messung mit größerem Messbereich und einer zweiten Messreihe mit einer anderen Gas-Mischung konnten jedoch Aussagen getroffen werden.
So konnte in der Argon-Messung die gleiche Raten-Abhängigkeit des IBF wie zuvor festgestellt werden, während der IBF in der Neon-Mischung kaum merklich anstieg. Außerdem ist festzuhalten, dass Messungen an der Kathode nur über 10 pA problemlos genau sind. Darunter werden die Werte bei zu wenig Messzeit weniger aussagekräftig.
In der vorliegenden Arbeit werden Stabilitätstests an einer Vieldrahtproportionalkammer nach ALICE-Geometrie vorgestellt. Wegen elektrischer Instabilitäten, das heißt dem Abschalten der Hochspannungsversorgung einzelner Kammern aufgrund von Entladungen an der Ausleseebene, wurde die ALICE-TPC bisher mit zwei unterschiedlichen Gasmischungen betrieben. Es wurden die Gasmischungen Ne-CO2 (90-10) und Ne-CO2-N2 (90-10-5) verwendet.
In dieser Arbeit soll nun mit systematischen Stabilitätstests mit einer α- und einer γ-Quelle am Testaufbau am IKF untersucht werden, ob eine Beimischung von Stickstoff zur Gasmischung Ne-CO2 wirklich positive Auswirkungen auf die elektrische Stabilität der Vieldrahtproportionalkammern der ALICE-TPC hat. Messungen mit der Gasmischung Ar-CO2 (90-10) dienen dabei als Referenzmessungen.
Zunächst wurden vorbereitende Messungen zum bessseren Verständnis des Einflusses der Ausleseelektronik auf die Padsignale am Testaufbau durchgeführt. Die Untersuchung der von einem Pulser induzierten Signale zeigt, dass keine Korrektur der Nullverschiebung nötig ist. Auÿerdem konnten durch diese Messung die Verstärkungsfaktoren des verwendeten Hauptverstärkers ermittelt werden. Ein weiterer wichtiger Faktor für Stabilitätstests ist die Genauigkeit des Mischungsverhältnisses des Gases. Um eine hohe Genauigkeit zu gewährleisten, wurde der Gasfliss der verschiedenen Kanäle des zur Herstellung der Gasmischung genutzten Gasmischers überprüft und so die Bereiche für den Gasfluss gefunden, in denen sich das Mischungsverhältnis nicht ändert.
Eine gute Auflösung kann mit Vieldrahtproportionalkammern erreicht werden, wenn die Kammern auch bei einem möglichst groÿen Gain noch stabil betrieben werden können. Um den Gain aus Anodestrommessungen bestimmen zu können, wurden die Primärströme für die α- und die γ-Quelle ermittelt.
Frühere Messungen mit einer γ-Quelle, aufgrund derer Stickstoff als Beimischung in den Fokus rückte, ließen vermuten, dass sich durch die Beimischung von Stickstoff die Stabilität der Auslesekammern verbessern lassen würde. Die durchgeführten Messungen mit der γ-Quellen sollten diese Aussage nun überprüfen. Sie können die früheren Ergebnisse jedoch nicht bestätigen, sondern zeigen, dass die Gasmischung Ne-CO2-N2 (90-10-5) im Gegensatz zur Gasmischung Ne-CO2 (90-10) bei Bestrahlung mit der γ-Quelle zu instabileren Bedingungen für die Auslesekammer führt.
Zum Erzeugen der Anodensignale bei Stabilitätstests wurden erstmals geladene Teilchen aus einer α-Quelle verwendet. Im Gegensatz zur Messung mit der γ-Quelle kann die Auslesekammer bei der Beimischung von Stickstoff zu Ne-CO2 bis zu einem um 25% höheren Gain stabil betrieben werden als bei der Gasmischung Ne-CO2.
Aufgrund des je nach verwendeter Quelle unterschiedlichen Effekts auf die Stabilität der Auslesekammer lässt sich nicht mit absoluter Sicherheit sagen, ob eine Beimischung von Stickstoff die gewünschten Auswirkungen hat. Allerdings werden die Spuren in der ALICE-TPC durch geladene Teilchen hervorgerufen, sodass die Messungen mit der α-Quelle den experimentellen Bedingungen bei ALICE näher kommen als die Messungen mit der γ-Quelle und deshalb die Gasmischung Ne-CO2-N2 (90-10-5) zu bevorzugen ist.
The measurement of dielectrons (electron-positron pairs) allows to investigate the properties of strongly interacting matter, in particular the Quark-Gluon Plasma (QGP), which is created in relativistic heavy-ion collisions at the LHC. The evolution of the collision can be probed via dielectrons since electrons do not interact strongly and are created during all stages of the collision. One of the interests in dielectron measurements is motivated by possible modifications of the electromagnetic emission spectrum in the QGP, where pp collisions are used as a medium-free reference. The dielectron spectrum consists of contributions from various processes. In order to estimate contributions of known dielectron sources, simulations of the so-called dielectron cocktail are performed. In this thesis, dielectron cocktails in minimum bias pp collisions at p s = 7 TeV, p–Pb collisions at p sNN = 5.02 TeV and in central (0-10%) and semi-central (20-50%) Pb–Pb collisions at p sNN = 2.76 TeV at the LHC are presented.
This thesis is structured into 7 chapters:
• Chapter 2 gives an overview of the ultrashort high intensity laser interaction with matter. The laser interaction with an induced plasma is described, starting from the kinematics of single electron motion, followed by collective electron effects and the ponderamotive motion in the laser focus and the plasma transparency for the laser beam. The three different mechanisms prepared to accelerate and propagate electrons through matter are discussed. The following indirect acceleration of protons is explained by the Target Normal Sheath Acceleration (TNSA) mechanism. Finally some possible applications of laser accelerated protons are explained briefly.
• Chapter 3 deals with the modeling of geometry and field mapping of magnetic lens. Initial proton and electron distributions, fitted to PHELIX measured data are generated, a brief description of employed codes and used techniques in simulation is given, and the aberrations at the solenoid focal spot is studied.
• Chapter 4 presents a simulation study for suggested corrections to optimize the proton beam as a later beam source. Two tools have been employed in these suggested corrections, an aperture placed at the solenoid focal spot as energy selection tool, and a scattering foil placed in the proton beam to smooth the radial energy beam profile correlation at the focal spot due to chromatic aberrations. Another suggested correction has been investigated, to optimize the beam radius at the focal spot by lens geometry controlling.
• Chapter 5 presents a simulation study for the de-neutralization problem in TNSA caused by the fringing fields of pulsed magnetic solenoid and quadrupole. In this simulation, we followed an electrostatic model, wherethe evolution of both, self and mutual fields through the pulsed magnetic solenoid could be found, which is not the case in the quadrupole and only the growth of self fields could be found. The field mapping of magnetic elements is generated by the Matlab program, while the TraceWin code is employed to study the tracking through magnetic elements.
• Chapter 6 describes the PHELIX laser parameters at GSI with chirp pulse amplification technique (CPA), and Gafchromic Radiochromic film RCF) as a spatial energy resolver film detector. The results of experiments with laser proton acceleration, which were performed in two experimental areas at GSI (Z6 area and PHELIX Laser Hall (PLH)), are presented in section 6.3.
• Chapter 7 includes the main results of this work, conclusions and gives a perspective for future experimental activities.
The ( J, T ) = (1, 1) parity doublet in 20Ne at 11.26 MeV is a good candidate to study parity violation in nuclei. However, its energy splitting is known with insufficient accuracy for quantitative estimates of parity violating effects. To improve on this unsatisfactory situation, nuclear resonance fluorescence experiments using linearly and circularly polarized γ -ray beams were used to determine the energy difference of the parity doublet E = E(1−) − E(1+) = −3.2(±0.7)stat( +0.6 −1.2)sys keV and the ratio of their integrated cross sections I (+) s,0 /I (−) s,0 = 29(±3)stat( +14 −7 )sys. Shell-model calculations predict a parityviolating matrix element having a value in the range 0.46–0.83 eV for the parity doublet. The small energy difference of the parity doublet makes 20Ne an excellent candidate to study parity violation in nuclear excitations.
This thesis presents experimental studies of proton capture and fragmentation reactions with heavy-ion storage rings. In one experiment, the 96Ru(p, γ)97Rh cross sections near the Gamow window have been measured at the ESR of GSI. In the other experiment, the measurement of the fragmentation yields has been carried out at the CSRe of IMP.
It is essential to determine the cross sections of (γ, p) or (p, γ) reactions for p-process network calculations. However, only very few of the required cross sections have been measured and thus most of them rely solely on Hauser-Feshbach model predictions. The predictions of the model have always very large uncertainties because of the not well-known input parameters. These parameters can be constrained by experiments. Compared to the traditional activation technique, a novel method using a storage ring has been developed to measure the cross sections of (p, γ) reactions in inverse kinematics.
This proton capture experiment has been performed at the ESR, where the circulating 96Ru44+ ions interacted with a hydrogen gas target at 9, 10 and 11 MeV/u. The nuclear reaction products of (p, p), (p, α), (p, n) and (p, γ) reactions were registered by position sensitive detectors. A Geant4 simulation code has been developed to distinguish the (p, γ) reaction products unambiguously from the background reactions. In this work, a relative normalization method has been utilized to accurately determine the cross sections of the (p, γ) reaction. The 96Ru(p, γ)97Rh cross section in the Gamow window of the p process is sensitive to two parameters, i.e., the γ-ray strength function and the optical model potential, while it is mainly sensitive to the γ-ray strength function in the energy region of our experiment. Therefore, our experimental (p, γ) cross sections near 10 MeV/u have been used to directly constrain the γ-ray strength function used in the model. Furthermore, the proton potential has also been constrained by combining our results with additional experimental data for this reaction in the lower energy region. The constrained model has been used to calculate the reaction rate over a wide temperature range, which is an extremely important input for astrophysical calculations.
The yields of fragments produced by 78Kr fragmentation reactions have been measured at the CSRe for the Tz = −1/2 and Tz = 1/2 nuclei along or close to the paths of αp- and rp-processes. The measured yields present a significant odd-even staggering effect for Tz = −1/2 nuclides but they are small for Tz = 1/2 nuclides.
The magnitude of this effect for four consecutive yields has been quantified using a third-order difference formula. It is found that the largest odd-even staggering is reached near the closed shells Z = 20 and Z = 28. Our experimental results could also compared with the data from other experiments with different projectile-target combinations. All these experimental data strongly support the closed shells Z = 20 and Z = 28 for the Tz = −1/2 nuclei.
This thesis serves two main purposes:
1. The introduction of a novel experimental method to investigate phase change dynamics of supercooled liquids
2. First-time measurements for the crystallization behaviour for hydrogen isotopes under various conditions
1) The new method is established by the synergy of a liquid microjet of ~ 5 µm diameter and a scattering technique with high spatial resolution, here linear Raman spectroscopy. Due to the high directional stability and the known velocity of the liquid filament, its traveling axis corresponds to a time axis static in space. Utilizing evaporative cooling in a vacuum environment, the propagating liquid cools down rapidly and eventually experiences a phase transition to the crystalline state. This temporal evolution is probed along the filament axis, ultimately resulting in a time resolution of 10 ns. The feasibility of this approach is proven successfully within the following experiments.
2) A main object of study are para-hydrogen liquid filaments. Raman spectra reveal a temperature gradient of the liquid across the filament. This behaviour can quantitatively be reconstructed by numerical simulations using a layered model and is rooted in the effectiveness of evaporative cooling on the surface and a finite thermal conductivity. The deepest supercoolings achieved are ~ 30% below the melting point, at which the filament starts to solidify from the surface towards the core. With a crystal growth velocity extracted from the data the appropriate growth mechanism is identified. The crystal structure that initially forms is metastable and probably the result of Ostwald’s rule of stages. Indications for a transition within the solid towards the stable equilibrium phase support this interpretation.
The analog isotope ortho-deuterium is evidenced to behave qualitatively similar with quantitative differences being mass related.
In further measurements, isotopic mixtures of para-hydrogen and ortho-deuterium are investigated. It is found that the crystallization process starts earlier and lasts significantly longer compared to the pure substances with the maximum values between 20-50% ortho-deuterium content. A solely temperature based explanation for this effect can be excluded. The difference in the quantum character and hence effective size of the isotopes suggests a strong influence of the progressing liquid-solid-interface. Small dilutions of each para-hydrogen and ortho-deuterium with neon show an even more extended crystallization process compared to above isotopic mixtures. Additionally, the crystal is strongly altered in favor of the equilibrium lattice structure of neon.
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
A measurement of the transverse momentum spectra of jets in Pb-Pb collisions at sNN−−−√=2.76 TeV is reported. Jets are reconstructed from charged particles using the anti-kT jet algorithm with jet resolution parameters R of 0.2 and 0.3 in pseudo-rapidity |η|<0.5. The transverse momentum pT of charged particles is measured down to 0.15 GeV/c which gives access to the low pT fragments of the jet. Jets found in heavy-ion collisions are corrected event-by-event for average background density and on an inclusive basis (via unfolding) for residual background fluctuations and detector effects. A strong suppression of jet production in central events with respect to peripheral events is observed. The suppression is found to be similar to the suppression of charged hadrons, which suggests that substantial energy is radiated at angles larger than the jet resolution parameter R=0.3 considered in the analysis. The fragmentation bias introduced by selecting jets with a high pT leading particle, which rejects jets with a soft fragmentation pattern, has a similar effect on the jet yield for central and peripheral events. The ratio of jet spectra with R=0.2 and R=0.3 is found to be similar in Pb-Pb and simulated PYTHIA pp events, indicating no strong broadening of the radial jet structure in the reconstructed jets with R<0.3.
Hauptbestandteil dieser Masterarbeit war es, ein neues COLTRIMS Experiment zu entwerfen und zu bauen. Den gesamten Aufbau mit allen dazugehörigen Komponenten wie verschiedensten Vakuumkomponenten sowie Detektoren und Elektronik unter realen Messbedingungen zu testen, bildete schließlich den Abschluss des praktischen Teils. Sowohl einige Kalibrationsmessungen mit dem neuen Aufbau, als auch die ersten Ergebnisse der Messungen mit der chiralen Substanz Bromchlorfluormethan wurden hier vorgestellt.
Ein Großteil der Projektarbeit bestand darin, Überlegungen für die vielen verschiedenen Bauteile anzustellen, diese mit Rücksprache erfahrener Gruppenmitglieder zu verbessern und schließlich zu konstruieren und zu zeichnen...
Focus on quantum efficiency
(2014)
Technologies which convert light into energy, and vice versa, rely on complex, microscopic transport processes in the condensed phase, which obey the laws of quantum mechanics, but hitherto lack systematic analysis and modeling. Given our much improved understanding of multicomponent, disordered, highly structured, open quantum systems, this ‘focus on’ collection collects cuttingedge research on theoretical and experimental aspects of quantum transport in truly complex systems as defined, e.g., by the macromolecular functional complexes at the heart of photosynthesis, by organic quantum wires, or even photovoltaic devices. To what extent microscopic quantum coherence effects can (be made to) impact on macroscopic transport behavior is an equally challenging and controversial question, and this "focus on" collection provides a setting for the present state of affairs, as well as for the "quantum opportunities" on the horizon.
Eines der wichtigsten Experimente für Kernstrukturforschung und Messung stellarer Reaktionsraten ist das R3B-Experiment im Rahmen des FAIR-Projekts am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt. Der experimentelle Aufbau von R3B besteht aus mehreren einzelnen Teilchendetektoren für verschiedene Teilchensorten (Neutronen, Protonen, Spallationsund Spaltprodukte, Gammastrahlen), die alle möglichst vollständig detektiert und gemessen werden müssen. Für die Identifikation und Energiemessung schwerer, geladener Reaktionsprodukte ist eine sogenannte Time-of-Flight-Wall (Flugzeitwand) nötig. Der Name ergibt sich aus der Hauptaufgabe, der Flugzeitmessung für die Energiebestimmung der Teilchen, sowie der Geometrie eines solchen Detektors. Die in vorherigen Aufbauten verwendeten Detektoren diesen Typs erfüllen noch nicht die Anforderungen, die die Forschungsziele des R3B-Experiments stellen, daher wurde ein neues Design basierend auf Plastikszintillatoren entwickelt.
Für diese Arbeit wurde die theoretisch erreichbare Zeitauflösung des neuen Designs abgeschätzt sowie Testmessungen mit verschiedenen experimentellen Setups durchgeführt. Insbesondere wurde ein Prototyp der ToF-Wand im Rahmen einer Strahlzeit an der Beschleunigeranlage der GSI getestet. Die Ergebnisse dieser Messungen mit einem 58Ni28+-Strahl wurden im Hinblick auf Energie-, Zeit- und Ladungsauflösung sowie die Stabilität dieser Werte bei hohen Raten ausgewertet und so ein erster Eindruck von der Leistungsfähigkeit des Detektors und der Ausleseelektronik gewonnen und Einschränkungen und nötige Verbesserungen erkannt.
In the framework of an interference setup in which only two outcomes are possible (such as in the case of a Mach–Zehnder interferometer), we discuss in a simple and pedagogical way the difference between a standard, unitary quantum mechanical evolution and the existence of a real collapse of the wavefunction. This is a central and not-yet resolved question of quantum mechanics and indeed of quantum field theory as well. Moreover, we also present the Elitzur–Vaidman bomb, the delayed choice experiment, and the effect of decoherence. In the end, we propose two simple experiments to visualize decoherence and to test the role of an entangled particle.
We enlarge the so-called extended linear Sigma model (eLSM) by including the charm quark according to the global U(4)r × U(4)l chiral symmetry. In the eLSM, besides scalar and pseudoscalar mesons, also vector and axial-vector mesons are present. Almost all the parameters of the model were fixed in a previous study of mesons below 2 GeV. In the extension to the four-flavor case, only three additional parameters (all of them related to the bare mass of the charm quark) appear.We compute the (OZI dominant) strong decays of open charmed mesons. The results are compatible with the experimental data, although the theoretical uncertainties are still large.
The quark gluon plasma produced in heavy ion collisions behaves like an almost ideal fluid described by viscous hydrodynamics with a number of transport coefficients. The second order coefficient κ is related to a Euclidean correlator of the energy-momentum tensor at vanishing frequency and low momentum. This allows for a lattice determination without maximum entropy methods or modelling, but the required lattice sizes represent a formidable challenge. We calculate κ in leading order lattice perturbation theory and simulations on 1203 × 6, 8 lattices with a < 0.1 fm. In the temperature range 2Tc − 10Tc we find κ = 0.36(15)T2. The error covers both a suitably rescaled AdS/CFT prediction as well as, remarkably, the result of leading order perturbation theory. This suggests that appropriate noise reduction methods on the lattice and NLO perturbative calculations could provide an accurate QCD prediction in the near future.
In dieser Arbeit wird der Strahltransport in einer Niederenergietransportsektion (LEBT) untersucht. Die Untersuchungen werden für die Betriebsmodi der im Aufbau befindlichen Neutronenquelle FRANZ an der Frankfurter Goethe-Universität durchgeführt. Hierbei wird die Akzeptanz eines Choppersystems nach der ersten Sektion des Transportwegs sowie die Akzeptanz des auf die zweite Sektion folgenden RFQ betrachtet und bestmöglich erfüllt. Die Auswirkungen durch die Raumladungswirkung des Ionenstrahls werden berücksichtigt, ebenso die mögliche thermische Belastung durch Strahlverlust an den Komponenten entlang des Strahlwegs. Weiterhin wird der Einfluss eines nicht optimierten Einschusses in den RFQ und die sich daraus ergebenden Strahleigenschaften am Ende des RFQs untersucht.
Within the nucleosynthetic processes of the slow neutron-capture reaction network (called the s process) the so called branching points, unstable isotopes where different nuclear reactions are competing, are important to understand . For modeling and calculating the nucleosynthesis and compare the resulting abundances to the observed ones, it is indispensable to know the branching ratios as well as the corresponding cross sections.
A great challenge in measuring those rates in experiments may be the radioactivity of the isotopes involved, which can make it nearly impossible to manufacture the needed targets. In addition, in stellar environments the excited states of isotopes can be in equilibrium with the ground state, affecting the half-lives and the branching ratios significantly. The isotope 152Eu is such a branching point, with neutron captures and β-decays competing. Those challenges were approached in the s405 experiment performed at the GSI Helmholtzzentrum für Schwerionenforschung GmbH: the challenge the challenge of the radioactivity can be approached by experiments carried out in inverse kinematics with radioactive beams, solving the problem of unstable targets. Also a reversed reaction was used to access the excited states of the studied isotope. The performed 152Sm(p,n)152Eu is a pioneering attempt to use those methods on heavy ions. The (p,n) reaction was used as a substitute for electron capture, the focus lies on reactions with low-momentum transfers, resulting in the emission of low-energy neutrons. The new developed low-energy detector array LENA was put to test for the fist time in the s405 experiment.
The elements in the universe are mainly produced by charged-particle fusion reactions and neutron-capture reactions. About 35 proton-rich isotopes, the p-nuclei, cannot be produced via neutron-induced reactions. To date, nucleosynthesis simulations of possible production sites fail to reproduce the p-nuclei abundances observed in the solar system. In particular, the origin of the light p-nuclei 92Mo, 94Mo, 96Ru and 98Ru is little understood. The nucleosynthesis simulations rely on assumptions about the seed abundance distributions, the nuclear reaction network and the astrophysical environment. This work addressed the nuclear data input.
The key reaction 94Mo(g,n) for the production ratio of the p-nuclei 92Mo and 94Mo was investigated via Coulomb dissociation at the LAND/R3B setup at GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt, Germany. A beam of 94Mo with an energy of 500 AMeV was directed onto a lead target. The neutron-dissociation reactions following the Coulomb excitation by virtual photons of the electromagnetic field of the target nucleus were investigated. All particles in the incoming and outgoing channels of the reaction were identified and their kinematics were determined in a complex analysis. The systematic uncertainties were analyzed by calculating the cross sections for all possible combinations of the data selection criteria. The integral Coulomb dissociation cross section of the reaction 94Mo(g,n) was determined to be (571 +- 14 (stat) +- 46 (syst) ) mb. The result was compared to the data obtained in a real photon experiment carried out at the Saclay linear accelerator. The ratio of the integral cross sections was found to be 0.63 +- 0.07, which is lower than the expected value of about 0.8.
The nucleosynthesis of the light p-nuclei 92Mo, 94Mo, 96Ru and 98Ru was investigated in post-processing nucleosynthesis simulations within the NuGrid research platform. The impact of rate uncertainties of the most important production and destruction reactions was studied for a Supernova type II model. It could be shown that the light p-nuclei are mainly produced via neutron-dissociation reactions on heavier nuclei in the isotopic chains, and that the final abundances of these p-nuclei are determined by their main destruction reactions. The nucleosynthesis of 92Mo and 94Mo was also studied in different environments of a Supernova type Ia model. It was concluded that the maximum temperature and the duration of the high temperature phase determine the final abundances of 92Mo and 94Mo.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
Construction and commissioning of a setup to study ageing phenomena in high rate gas detectors
(2014)
In high-rate heavy-ion experiments, gaseous detectors encounter big challenges in terms of degradation of their performance due to a phenomenon dubbed ageing. In this thesis, a setup for high precision ageing studies has been constructed and commissioned at the GSI detector laboratory. The main objective is the study of ageing phenomena evoked by materials used to build gaseous detectors for the Compressed Baryonic Matter (CBM) experiment at the future Facility for Antiproton and Ion Research (FAIR).
The precision of the measurement, e.g., of the gain of a gaseous detector, is a key element in ageing studies: it allows to perform the measurement at realistic rates in an acceptable time span. It is well known the accelerating ageing employing high intensity sources might produce misleading results. The primary objective is to build an apparatus which allows very accurate measurements and is thus sensitive to minute degradations in detector performance. The construction and commissioning of the
setup has been carried out in two steps. During the first step of this work, a simpler setup which already existed in the detector laboratory of GSI had been utilised to define all conditions related to ageing studies. The outcome of these studies defined the properties and characteristics that must be met to build and operate a new, sophisticated and precise setup. The already existing setup consisted of two identical Multi Wire Proportional Chambers (MWPCs), a gas mixing station, an 55Fe source, an x-ray generator, an outgassing box and stainless steel tubing. In a first step, the gain and electric field configuration of the MWPCs were simulated by a combination of a gas simulation (Magboltz) and electric field simulation program (Garfield). The performance and operating conditions of the chambers have been thoroughly characterised before utilising them in first preparatory ageing test. The main diagnostic parameter in ageing studies is the detector gain, thus it is mandatory for precise ageing studies to minimise the systematic and statistical variation of the pressure and temperature corrected gain. To achieve the required accuracy, several improvements of the chamber design and the gas system have been implemented. In addition, the temperature measurement has been optimised. During the preparatory tests, several ageing studies have been carried out. The ageing effect of seven materials and gases have been carried out during these tests: RTV-3145, Ar/CO2 gas, Durostone flushed with Ar/Isobutane gas, Vetronit G11, Vetronit G11 contaminated with Micro 3000 and Gerband 705. The results of these studies went into the design of the new sophisticated ageing setup. For example some tests revealed that there was, even after cleaning, a certain level of contamination with "ageing agents" in the existing setup, which made it imperative to ensure a very high level cleanness of all components during the construction of the setup. The curing period of some testing samples like glues or the gas flow rate were found to be very important factors that must be taken into account to obtain comparable results. Very important changes in the chamber design have been made, i.e., the aluminium-Kapton cathodes used in MWPCs have been replaced with multi-wire planes and the fibreglass housing of the chamber has been changed to metal. The second step started with building the new setup which was designed based on the findings from the first step. The new ageing setup consists of three MWPCs, two moving platforms, an 55Fe source, a copper-anode x-ray generator, two outgassing boxes, both flexible and rigid stainless steel tubes. Before fabrication of the chambers, simulations of their electric field and the gain have been done using Magboltz and Garfield programs. After that, the chambers were installed and tested. A 0.3% peak-to-peak residual variation of the corrected gain has been achieved. Finally, the complete setup has been operated with full functionality in no-ageing conditions during one week. This test revealed very stable gain in all three chambers. After that two materials (Gerban 705 and RTV-3145) have been inserted in the two outgassing boxes and tested. They revealed an ageing rate of about 0.3%/mC/cm and 3%/mC/cm respectively. The final test proves the stability and accuracy of the ageing measurements carried out with the ageing setup at the detector laboratory at GSI which is ready to conduct the envisaged systematic ageing studies.
Ziel dieser Arbeit ist es einen geeigneten Szintillationsdetektor für die Messungen differentieller Neutroneneinfangquerschnitte im FRANZ-Aufbau zu finden. Dafür wurde untersucht inwiefern sich das Szintillatormaterial LaBr3(Ce) (Lanthanbromid) eignet. Verwendet wurde eine Anordnung von zwei Szintillationsdetektoren dieses Typs. Mit Hilfe von Kalibrationsquellen wurden charakteristische Größen, wie Effizienz (Nachweiswahrscheinlichkeit) und Auflösungsvermögen untersucht und die ermittelten Werte mit GEANT-3.21 Simulationen [2] verglichen.
Generating functionals may guide the evolution of a dynamical system and constitute a possible route for handling the complexity of neural networks as relevant for computational intelligence.We propose and explore a new objective function, which allows to obtain plasticity rules for the afferent synaptic weights. The adaption rules are Hebbian, self-limiting, and result from the minimization of the Fisher information with respect to the synaptic flux. We perform a series of simulations examining the behavior of the new learning rules in various circumstances.The vector of synaptic weights aligns with the principal direction of input activities, whenever one is present. A linear discrimination is performed when there are two or more principal directions; directions having bimodal firing-rate distributions, being characterized by a negative excess kurtosis, are preferred. We find robust performance and full homeostatic adaption of the synaptic weights results as a by-product of the synaptic flux minimization. This self-limiting behavior allows for stable online learning for arbitrary durations.The neuron acquires new information when the statistics of input activities is changed at a certain point of the simulation, showing however, a distinct resilience to unlearn previously acquired knowledge. Learning is fast when starting with randomly drawn synaptic weights and substantially slower when the synaptic weights are already fully adapted.
In this thesis, different physical and electrical aspects of silicon microstrip sensors and low-mass multi-line readout cables have been investigated. These silicon microstrip sensors and readout cables will be used in the Silicon Tracking System (STS) of the fixed-target heavy-ion Compressed Baryonic Matter (CBM) experiment which is under development at the upcoming Facility for Antiproton and ion Research (FAIR) in Darmstadt, Germany. The highly segmented low-mass tracking system is a central CBM detector system to resolve the high tracking densities of charged particles originating from beam-target interactions. Considering the low material budget requirement the double-sided silicon microstrip detectors have been used in several planar tracking stations. The readout electronics is planned to be installed at the periphery of the tracking stations along with the cooling system. Low-mass multi-line readout cables shall bridge the distance between the microstrip sensors and the readout electronics. The CBM running operational scenario suggests that some parts of the tracking stations are expected to be exposed to a total integrated particle fluence of the order of 1e14 neq/cm2. After 1e14 neq/cm2 the damaged modules in the tracking stations will be replaced. Thus radiation hard sensor is an important requirement for the sensors. Moreover, to cope with the high reaction rates, free-streaming (triggerless) readout electronics with online event reconstruction must be used which require high signal-to-noise (SNR) ratio (i.e., high signal efficiency, low noise contributions). Therefore, reduction in noise is a major goal of the sensor and cable development.
For better insight into the different aspects of the silicon microstrip sensors and multi-line readout cables, the simulation study has been performed using SYNOPSYS TCAD tools. 3D models of the silicon microstrip sensors and the readout cables were implemented which is motivated by the stereoscopic construction of the silicon microstrip sensors. For the evaluation of the performance of the silicon microstrip sensors in the harsh radiation environment during experimental operation, a radiation damage model has been included. It reproduces the behavior of the irradiated CBM prototype sensors. In addition to the static characteristics, the interstrip parameters relevant to understand strip isolation and cross-talk issues have been extracted. The transient simulations have been performed to estimate the charge collection performance of the irradiated sensors. The signal transmission in the readout cables has been evaluated with the finite element simulation tool RAPHAEL. Based on the performance of the front-end electronics used for early prototyping in the CBM experiment, capacitive and resistive noise contributions from the silicon microstrip sensors and multi-line readout cables have been extracted.
To validate the aforementioned simulations, numerous tests have been performed both on the multi-line readout cables and silicon microstrip sensors. Characterizations of multi-line readout cables and silicon microstrip sensors in laboratory conditions have been found to agree reasonably well with the simulations. Considering the expected radiation environment the behavior of silicon microstrip sensors have been studied especially in terms of noise and charge collection efficiency. Source-scan of the silicon microstrip sensors using 241Am is presented. In order to test a first system of detector stations including the data acquisition system, slow control and online monitoring software and for track reconstruction, in-beam tests have been performed at the COSY synchrotron of the Research Center Juelich, Germany. Further, different design parameters have been suggested to improve the sensor and readout cable design on the basis of the simulations and the measurements. Many of these parameters have been implemented in the new prototypes under production. These new prototypes will be tested in-beam by the end of 2013.
High resolution gamma spectroscopy with sophisticated detector arrays significantly contributes to nuclear structure physics. The Advanced Gamma Tracking Array (AGATA) combines gamma tracking and pulse shape analysis to achieve an efficiency and quality of the spectra that could not be reached with spectrometers of the previous generation. Tracking of the photons interacting in the detector requires a precise knowledge of the individual interaction positions. The task of the pulse shape analysis is to provide a position resolution of better than $5mm$ FWHM, a value that could not be achieved by segmentation of the detector alone. As the signals induced on the electrodes of the detectors depends on the position of interaction, the charge pulses can be used to infer the interaction position. To be able to handle high rates, algorithms that are used have to be optimized to be able to process the data in real-time. Pulse shape analysis is the most involved part of the real-time processing and requires further improvement. This work is dealing with optimizations and improvements of pulse shape analysis algorithms. The Grid Search algorithm localizes the interaction position by comparing the measured pulse shape with precomputed shapes in a database to find the best fit. Two linear filters based on orthogonal transformations have been compared and it could be concluded that the one based on a singular value decomposition of the pulse shapes works best. It speeds up the pulse shape analysis by a factor of roughly $2-3$ (depending on how it is combined with the other modifications). Further, a new method to exclude most signals from the database as best fit has been developed based on the principle of lateration. Most interaction positions can be excluded by means of a fast check and for single interactions on average only $34.8\%$ of all signals from the database have to be compared to the measured one. The overhead introduced by the method is negligible and the reduced number of comparisons almost direclty translates into increased efficiency of the algorithm. A similar method could also be applied for double interactions. Two or more interactions taking place in the same segment require special treatment as the measured signals cannot be directly compared to signals from the database. A new method to calculate the figure of merit that quantifies the fit in case of a double interaction has been introduced. Compared to the unmodified algorithm the new method finds the best fit for double interactions roughly two orders of magnitude faster. Actually, the time required to localize double interactions is almost the same as for single interactions. Apart from optimizing the algorithm, also the achievable position resolution was investigated. It strongly varies inside the volume of the detector and it crucially depends on the shape of all signals in the database and the amplitude of the noise present in the measured signals. As a first step towards a precise analytic expression for the position resolution, an estimate for the probability to find the correct position has been derived.
Fast nuclei are ionizing radiation which can cause deleterious effects to irradiated cells. The modelling of the interactions of such ions with matter and the related effects are very important to physics, radiobiology, medicine and space science and technology. A powerful method to study the interactions of ionizing radiation with biological systems was developed in the field of microdosimetry. Microdosimetry spectra characterize the energy deposition to objects of cellular size, i.e., a few micrometers.
In the present thesis the interaction of ions with tissue-like media was investigated using the Monte Carlo model for Heavy-Ion Therapy (MCHIT) developed at the Frankfurt Institute for Advanced Studies. MCHIT is a Geant4-based application intended to benchmark the physical models of Geant4 and investigate the physical properties of therapeutic ion beams. We have implemented new features in MCHIT in order to calculate microdosimetric quantities characterizing the radiation fields of accelerated nucleons and nuclei. The results of our Monte Carlo simulations were compared with recent experimental microdosimetry data.
In addition to microdosimetry calculations with MCHIT, we also investigated the biological properties of ion beams, e.g. their relative biological effectiveness (RBE), by means of the modified Microdosimetric-Kinetic model (MKM). The MKM uses microdosimetry spectra in describing cell response to radiation. MCHIT+MKM allowed us to study the physical and biological properties of ion beams. The main results of the thesis are as follows:
MCHIT is able to describe the spatial distribution of the physical dose in tissue-like media and microdosimetry spectra for ions with energies relevant to space research and ion-beam cancer therapy; MCHIT+MKM predicts a reduction of the biological effectiveness of ions propagating in extended medium due to nuclear fragmentation reactions; We predicted favourable biological dose-depth profiles for monoenergetic helium and lithium beams similar to the one for carbon beam. Well-adjusted biological dose distributions for H-1, He-4, C-12 and O-16 with a very flat spread-out Bragg peak (SOBP) plateau were calculated with MCHIT+MKM; MCHIT+MKM predicts less damage to healthy tissues in the entrance channel for SOBP He-4 and C-12 beams compared to H-1 and O-16 ones. No definitive advantages for oxygen ions with respect to carbon were found.
The subject of this thesis is the experimental investigation of the neutron-capture cross sections of the neutron-rich, short-lived boron isotopes 13B and 14B, as they are thought to influence the rapid neutron-capture process (r process) nucleosynthesis in a neutrino-driven wind scenario.
The 13;14B(n,g)14;15B reactions were studied in inverse kinematics via Coulomb dissociation at the LAND/R3B setup (Reactions with Relativistic Radioactive Beams). A radioactive beam of 14;15B was produced via in-flight fragmentation and directed onto a lead-target at about 500 AMeV. The neutron breakup of the projectile within the electromagnetic field of the target nucleus was investigated in a kinematically complete measurement. All outgoing reaction products were detected and analyzed in order to reconstruct the excitation energy.
The differential Coulomb dissociation cross sections as a function of the excitation energy were obtained and first experimental constraints on the photoabsorption and the neutron-capture cross sections were deduced. The results were compared to theoretical approximations of the cross sections in question. The Coulomb dissociation cross section of 15B into 14B(g.s.) + n was determined to be s(15B;14B(g:s:)+n) CD = 81(8stat)(10syst) mb ; while the Coulomb dissociation cross section of 14B into a neutron and 13B in its ground state was found to be s(14B;13B(g:s:)+n) CD = 281(25stat)(43syst) mb: Furthermore, new information on the nuclear structure of 14B were achieved, as the spectral shape of the differential Coulomb dissociation cross section indicates a halolike structure of the nucleus.
Additionally, the Coulomb dissociation of 11Be was investigated and compared to previous measurements in order to verify the present analysis. The corresponding Coulomb dissociation cross section of 11Be into 10Be(g.s.) + n was found to be 450(40stat)(54syst ) mb, which is in good agreement with the results of Palit et al.
In this work we study basic properties of unstable particles and scalar hadronic resonances, respectively, within simple quantum mechanical and quantum field theoretical (effective) models. The term 'particle' is usually assigned to entities, described by physical theories, that are able to propagate over sufficiently large time scales (e.g. from a source to a detector) and hence could be identified in experiments - one especially should be able to measure some of their distinct properties like spin or charge. Nevertheless, it is well known that there exists a huge amount of unstable particles to which it seems difficult to allocate such definite values for their mass and decay width. In fact, for extremely short-lived members of that species, so called resonances, the theoretical description turns out to be highly complicated and requires some very interesting concepts of complex analysis.
In the first chapter, we start with the basic ideas of quantum field theory. In particular, we introduce the Feynman propagator for unstable scalar resonances and motivate the idea that this kind of correlation function should possess complex poles which parameterize the mass and decay width of the considered particle. We also brie
y discuss the problematic scalar sector in particle physics, emphasizing that hadronic loop contributions, given by strongly coupled hadronic intermediate states, dominate its dynamics. After that, the second chapter is dedicated to the method of analytic continuation of complex functions through branch cuts. As will be seen in the upcoming sections, this method is crucial in order to describe physics of scalar resonances because the relevant functions to be investigated (namely, the Feynman propagator of interacting quantm field theories) will also have branch cuts in the complex energy plane due to the already mentioned loop contributions. As is consensus among the physical community, the understanding of the physical behaviour of resonances requires a deeper insight of what is going on beyond the branch cut. This will lead us to the idea of a Riemann surface, a one-dimensional complex manifold on which the Feynman propagator is defined.
We then apply these concepts to a simple non-relativistic Lee model in the third chapter and demonstrate the physical implications, i.e., the motion of the propagator poles and the behaviour of the spectral function. Besides that, we investigate the time evolution of a particle described by such a model. All this will serve as a detailed preparation in order to encounter the rich phenomena occuring on the Riemann surface in quantum field theory. In the last chapter, we finally concentrate on a simple quantm field theoretical model which describes the decay of a scalar state into two (pseudo)scalar ones. It is investigated how the motion of the propagator poles is in
uenced by loop contributions of the two (pseudo)scalar particles. We perform a numerical study for a hadronic system involving a scalar seed state (alias the σ-meson) that couples to pions. The unexpected emergence of a putative stable state below the two-pion threshold is investigated and it is claeifieed under which conditions such a stable state appears.
Das Ziel dieser Bachelorarbeit war es, einen Überblick über die Größe der, durch Einbeziehung des Loop-Level-Diagrammes entstehenden, Korrekturen zu erhalten. Die Ergebnisse sollen eingrenzen, wann diese Korrekturen wichtig oder sogar dominant sind. Der Einfluss der Korrekturen lässt sich gut mit Hilfe von g0 und g00 einschätzen. So gilt für g0 gerade Γntl = 1.33 Γ, die Korrekturen sind also für die Berechnung wichtig jedoch nicht dominant. Für g00 beginnen die Korrekturen gerade dominant gegenüber den Berechnungen in erster Ordnung zu werden (es gilt hier Γntl = 2 Γ). Wie anhand von Tabelle 7.2 zu sehen werden die Korrekturen, abhängig von der Massenkonfiguration, ab etwa 1.6 − 2.2mS wichtig und ab etwa 2.2 − 3.4mS dominant. Für sehr kleine Massen mΦ liegt diese Grenze natürlich niedriger, es wurde jedoch gezeigt, dass die Korrekturen selbst für mΦ = 10−13mS erst ab etwa 0.65mS dominant sind. Praktisch dürften die Korrekturen daher nur sehr selten, wenn überhaupt für Werte von g < mS, eine nennenswerte Rolle spielen. Welchen Einfluss die Korrekturen bei realen Zerfallskanälen haben, sollte nun anhand der Zerfälle von f0(500), f0(980), f0(1370) und f0(1500) in Pionen gezeigt werden. Zusätzlich wurde für den Zerfall von f0(500) die Berechnung ein weiteres Mal mit endlichem (niedrigen) Cutoff durchgeführt, um dessen Auswirkungen auf die Ergebnisse zu betrachten. Dies ist dann wichtig, wenn die beobachteten Teilchen eine endliche, räumliche Ausdehnung haben (beispielsweise wenn wie hier Hadronenzerfälle betrachtet werden). Für f0(980) und f0(1500) stellen sich die Korrekturen, wie aufgrund der vorherigen Ergebnisse und des sehr kleinen Verhältnisses von Zerfallsbreite und Masse bereits erwartet, mit 1.22% beziehungsweise 0.032% als sehr gering heraus. Für f0(1370) ist das Verhältnis bereits deutlich größer, hier sind die Korrekturen mit 7.43% bereits im hohen einstelligen Prozentbereich und damit für genaue Rechnungen durchaus wichtig. Für f0(500) zeigt sich nun wiederum, dass die Korrekturen sehr groß sind, die Loop-Level-Kopplungskonstanten ist um 24.57% kleiner. Für diesen Zerfalll sollte also bereits bei einer Abschätzung das Loop-Level Diagramm einbezogen werden. Stellt man die Berechnung mit endlichem Cutoff an, so stellt sich heraus, dass sich die exakten Werte zwar durchaus verändern, die Änderungen sind jedoch nicht so groß dass die Ergebnisse drastisch abweichen. Die Kopplungskonstante wird bei dem angenommenen Cutoff Λ = 0.95 GeV um 6.47% größer. In allen Varitionen fallen die Korrekturen kleiner als 33% aus. Als letztes ist die Genauigkeit der hier erhaltenen Ergebnisse zu beurteilen. Theoretisch sollten die numerischen Berechnungen mit beliebiger Genauigkeit durchführbar sein. Bei den im Rahmen dieser Arbeit durchgeführten Berechnungen trat jedoch das Problem auf, dass die numerischen Berechnungen des Integrals für Winkel sehr nahe 0° beziehungsweise 180° chaotisch wurden. Die Winkelintegration wurde daher nur von −0.99999 bis 0.99999 durchgeführt. Da das Impulsintegral bei diesen Winkeln etwa von der Größe 0.1 − 2 ist, abhängig von der Massenkonfiguration, entstehen dadurch Fehler der Größenordnung 10−5. Die Ursache für diesen Fehler liegt vermutlich darin begründet, dass sich für diese Winkel jeweils der dritte Pol auf den ersten und der vierte Pol auf den zweiten Pol verschiebt. In diesem Fall entsteht zwar an gleicher Stelle im Zähler eine Nullstelle (schaut man sich P1, P2 und P3 an, so befinden sich an diesen Stellen auch nur einfache Pole), die numerische Berechnung kann dadurch allerdings problematisch werden. Im Rahmen dieser Arbeit wurde eine Genauigkeit von 4 Nachkommastellen allerdings als ausreichend betrachtet. Abschließend lässt sich sagen, dass die Korrekturen in (fast) allen betrachteten Fällen klein sind. In Einzelfällen können sie allerdings durchaus relevante Dimensionen erreichen, wie am f0(500) Zerfall zu sehen ist. In zukünftigen Arbeiten sollte dieses Thema also auch für Wechselwirkungen mit Ableitungen und nicht-skalare Teilchen aufgegriffen werden.
The PANDA experiment at FAIR will perform world class physics studies using high-intensity cooled antiproton beams with momenta between 1.5 and 15 GeV/c. A rich physics program requires very good particle identification (PID). Charged hadron PID for the barrel section of the target spectrometer has to cover the angular range of 22-140° and separate pions from kaons for momenta up to 3.5 GeV/c with a separation power of at least 3 standard deviations. The system that will provide it has to be thin and operate in a strong magnetic field. A ring imaging Cherenkov detector using the DIRC principle meets those requirements. The design of the PANDA Barrel DIRC is based on the successful BABAR DIRC counter with several important changes to improve the performance and optimize the costs. The design options are being studied in detailed Monte Carlo simulation, and implemented in increasingly complex system prototypes and tested in particle beams. Before building the full system prototypes the radiator bars and lenses are measured on the test benches. The performance of the DIRC prototype was quantified in terms of the single photon Cherenkov angle resolution and the photon yield. Results for two full system prototypes will be presented. The prototype in 2011 aimed at investigating the full size expansion volume. It was found that the resolution for this configuration is at the level of in good agreement with ray tracing simulation results. A more complex prototype, tested in 2012, provided the first experience with a compact fused silica prism expansion volume, a wide radiator plate, and several advanced lens options for the focusing system. The performance of the baseline configuration of the prototype with a standard lens and an air gap met the requirements for the PANDA PID for most of the polar angle range but failed at polar angles around 90° due to photon loss at the air gap. Measurements with a prototype high-refractive index compound lens without an air gap at a polar angle of 128° beam angle showed a good resolution of σΘC = 11.8 ± 0.7 mrad and a high photon yield of Nph = 26.1 ± 0.4. Even at polar angles close to 90° the photon yield with this lens exceeded 15 detected photons per particle, meeting the PANDA Barrel DIRC PID requirements for the entire phase space and demonstrating that the compact focusing DIRC is a very promising option for PANDA.
Das Schwerionenkollisionen Programm der Beschleuniger RHIC und LHC gibt Hinweise auf einen neuen Zustand hadronischer Materie --- das Quark-Gluon Plasma. Dieses zeichnet sich durch eine zumindest partielle Aufhebung des confinements aus, welches besagt, dass keine freien Quarks beochtbar sind.
Aus einer Beschreibung der experimentellen Daten mit relativistischer Hydrodynamik folgen weitere Eigenschaften. So geht das in einer Schwerionenkollision erzeugte Quark-Gluon Plasma nach sehr kurzer Zeit, etwa 1 fm/c, in ein zumindest lokales thermisches Gleichgewicht über. Durch die Lorentzkontraktion der beiden Schwerionen erwartet man, dass der Zustand direkt nach der Kollision durch eine Impulsanisotropie in der transversal-longitudinalen Ebene bestimmt wird. Somit setzt das Erreichen eines thermischen Gleichgewichts zunächst eine Isotropisierung voraus. Bisherige Studien haben gezeigt, dass gluonische Moden bei dieser Isotropisierung durch Verursachung einer chromo-Weibel Instabilität eine entscheidende Rolle spielen.
Weiterhin verhält sich das Quark-Gluon Plasma wie eine fast perfekte Flüssigkeit. Eine Berücksichtigung dissipativer Terme in der hydrodynamischen Beschreibung erfordert das Hinzufügen weiterer Terme zu den entsprechenden Bewegungsgleichungen. Diese sind proportional zu Transportkoeffizienten, welche durch die zugrunde liegende mikroskopische Theorie festgelegt sind.
Diese Theorie ist Quantenchromodynamik. Sie beschreibt die starke Wechselwirkung der Quarks und Gluonen und ist ein fundamentaler Baustein des Standardmodells der Teilchenphysik. Da im Regelfall Prozesse der starken Wechselwirkung nichtperturbativ sind, beschreiben wir QCD unter Verwendung einer Gitterregularisierung. Diese beruht auf einer Diskretisierung der vierdimensionalen Euklidischen Raumzeit durch einen Hyperkubus mit periodischen Randbedingungen und ermöglicht ein Lösen der QCD mit numerischen Methoden. Allerdings ist die Anwendung der Gittereichtheorie auf Systeme im thermischen Gleichgewicht beschränkt und kann somit keine Prozesse beschreiben, die auf Echtzeit basieren.
Transportkoeffizienten entsprechen Proportionalitätskoeffizienten, die die Relaxation einer Flüssigkeit oder eben eines Quark-Gluon Plasmas von einer kleinen Störung beschreiben. Damit sind sie unmittelbar mit der Zeit verknüpft. Über Kubo-Formeln lassen sie sich jedoch mit Gleichgewichtserwartungswerten retardierter Korrelatoren verknüpfen und werden so in Gitter QCD zugänglich.
In der vorliegenden Dissertation berechnen wir den Transportkoeffizienten κ in Gittereichtheorie für das Yang-Mills Plasma. Dabei nutzen wir aus, dass dieser Transportkoeffizient eine triviale analytische Fortsetzung vom retardierten zum Euklidischen Korrelator besitzt, welcher direkt in Gittereichtheorie zugänglich ist. Es ist die erste nichtperturbative Berechnung eines Transportkoeffizienten in QCD ohne weitere Annahmen, wie die Maximum Entropie Methode oder Ansätze, zu treffen.
In dieser Arbeit wurde die automatisierte Separation von Heliummono-, -di- und -trimeren beschrieben. Unter Nutzung ihrer unterschiedlichen De-Broglie-Wellenlängen wurden die verschiedenen Fraktionen mit einem Nanogitter getrennt. Zunächst wurden einige physikalische Grundlagen zu den genannten Atom- bzw. Molekülspezies, der hier auftretenden Bindungsform der Van-der-Waals-Bindung und insbesondere zur Materiewellenbeugung gelegt. Anschließend wurde der Versuchsaufbau dargestellt.
Bei der Durchführung wurden zunächst die drei jeweils vorhandenen Gitter und Spalte zu je einer Messung kombiniert und die beste Kombination für die weiteren Messungen ausgewählt. Das Experiment wurde weitergeführt, indem für verschiedene Temperaturen und Quelldrücke jeweils ein Beugungsspektrum von der für alle Heliumteilchen identischen nullten Ordnung bis zur ersten Ordnung der Heliummonomere aufgenommen wurde.
In der Auswertung wurde die Detektionswahrscheinlichkeit auf rund 37 % abgeschätzt. Weiterhin wurden die Ereignisse in den ersten Maxima der einzelnen Heliumfraktionen gezählt und so unter Verwendung der Detektionswahrscheinlichkeit molare Konzentrationen für das Heliumdi- und -trimer berechnet. Dabei wurden Anteile von bis zu 0,45 % für das Heliumdimer und 4,2 % für das Heliumtrimer erreicht. Diese Molanteile und ihre Abhängigkeit von Druck und Temperatur stimmen qualitativ gut mit der Literatur überein, quantitativ lassen sie sich u. a. wegen abweichender Nachweismethoden kaum vergleichen.
Anschließend wurde der Abstand von Düse und Skimmer variiert mit dem Ergebnis, daß eine Veränderung im betrachteten Bereich keinen nennenswerten Einfluß auf die Bildungsraten von Di- und Trimeren hat. Weiterhin wurde die auf zweierlei Weise bstimmbare Geschwindigkeit der Heliumteilchen im Gasjet ermittelt und verglichen.
Die beiden Geschwindigkeiten weichen lediglich im unteren Temperaturbereich signifikant voneinander ab, wofür plausible Erklärungsansätze dargelegt wurden.
Die Größe der Quellregion der betrachteten Heliumcluster wurde unter geometrischen Gesichtspunkten und unter Extrapolation der für verschiedene Spaltbreiten gemessenen Maximumsbreiten untersucht. Im Ergebnis wird die Quellbreite zu 58,5 μm abgeschätzt.
Die Automatisierung des Aufbaus erlaubte eine Vielzahl von systematischen Messungen, die ohne diese Automatisierung sehr zeitaufwendig gewesen wären. Insbesondere wurden in kurzer Zeit - wie zuvor geschildert - die Beugungsmuster von drei Gittern in Kombination mit je drei verschiedenen Kollimationspalten sowie die Abhängigkeit der Heliumdimer- und -trimerbildung von Temperatur, Druck und Abstand von Düse und Skimmer untersucht. Die Automatisierung erlaubt für zukünftige Messungen, z. B. in Strahlzeiten am Freien Elektronenlaser FLASH, jeweils in situ die Clusterbildung zu untersuchen. Möge das beschriebene Experiment nicht nur diese, sondern auch viele weitere Messungen beschleunigen helfen und so zum gesellschaftlichen Erkenntnisgewinn beitragen!
The nature of spontaneous brain activity during wakefulness and sleep: a complex systems approach
(2014)
In this thesis we study the organization of spontaneous brain activity during wakefulness and all stages of human non-rapid eye movement sleep using an approach based on developments and tools from the theory of complex systems. After a brief introduction to sleep physiology and different theoretical models of consciousness, we study how the organization of cortical and sub-cortical interactions is modified during the sleep cycle. Our results, obtained by modeling global brain activity as a complex functional interaction network, show that the capacity of the human brain to integrate different segregated functional modules is diminished during deep sleep, in line with an informationintegration account of consciousness. We then show that integration is impaired not only across space but also in the temporal domain, by assesing the emergence of long-range temporal correlations in brain activity and how they are modified during sleep. We propose an encompassing explanation for this observation, namely, that the brain operatsat different dynamical regimes during different states of consciousness. Finally, we gather massive amounts of data from different collaborative projects and apply machine learning techniques to reveal that the \resting state" cannot be considered as a pure brain state and is in fact a mixture containing different levels of conscious awareness. This last result has deep implications for future attempts to develop a discovery science of brain function both in health and disease.
Weltweit arbeiten Astrophysiker noch immer mit einer Theorie, die bereits vor rund 100 Jahren aufgestellt wurde – die Einstein’sche Relativitätstheorie. Nahezu jeder hat den genialen Kopf dahinter vor Augen: Albert Einstein. Was aber ist der von Einstein prognostizierte gekrümmte Raum, was sind schwarze Löcher und Neutronensterne und wer sind die Menschen, die auf diesen Gebieten forschen? Luciano Rezzolla, seit Oktober 2013 Professor für Theoretische Astrophysik an der Goethe-Universität sowie Leiter einer Arbeitsgruppe am Max-Planck-Institut für Gravitationsphysik in Potsdam, ist einer dieser Forscher.
Cryo-electron tomography (CET) is a unique technique to visualize biological objects under near-to-native conditions at near-atomic resolution. CET provides three-dimensional (3D) snapshots of the cellular proteome, in which the spatial relations between macromolecular complexes in their near native cellular context can be explored. Due to the limitation of the electron dose applicable on biological samples, the achievable resolution of a tomogram is restricted to a few nanometers, higher resolution can be achieved by averaging of structures occurring in multiples. For this purpose, computational techniques such as template matching, sub-tomogram averaging and classification are essential for a meaningful processing of CET data.
This thesis introduces the techniques of template matching and sub-tomogram averaging and their applications on real biological data sets. Subsequently, the problem of reference bias, which restricts the applicability of those techniques, is addressed. Two methods that estimate the reference bias in Fourier and real space are demonstrated. The real space method, which we have named the “M-free” score, provides a reliable estimation of the reference bias, which gives access to the reliability of the template matching or sub-tomogram averaging process. Thus, the “M-free” score makes those approaches more applicable to structural biology. Furthermore, a classification algorithm based on Neural Networks (NN) called “KerDenSOM3D” is introduced, which is implemented in 3D and compensates for the missing-wedge. This approach helps extracting different structural states of macromolecular complexes or increasing the class purity of data sets by eliminating outliers. A comprehensive comparison with other classification methods shows superior performance of KerDenSOM3D.
Coherent photo-production of sons in ultra-peripheral Pb-Pb collisions at the LHC measured by ALICE
(2014)
We present the differential cross section for coherent ρ0 photo-production at mid-rapidity (−0.5 < y < 0.5) measured by the ALICE experiment in Pb-Pb collisions at √sNN = 2.76 TeV at the LHC, as well as the total ρ0 cross section obtained by modelbased extrapolation to all rapidities. These cross sections are compared to various model predictions, as well as to earlier measurements at RHIC. In addition, we present results on nuclear breakup in coincidence with coherent ρ0 photo-production.