Refine
Year of publication
Document Type
- Doctoral Thesis (596) (remove)
Has Fulltext
- yes (596)
Is part of the Bibliography
- no (596) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (596) (remove)
The elliptic flow of heavy-flavour decay electrons is measured at midrapidity |eta| < 0.8 in three centrality classes (0-10%, 10-20% and 20-40%) of Pb-Pb collisions at sqrt(sNN) = 2.76TeV with ALICE at LHC. The collective motion of the particles inside the medium which is created in the heavy-ion collisions can be analyzed by a Fourier decomposition of the azimuthal anisotropic particle distribution with respect to the event plane. Elliptic flow is the component of the collective motion characterized by the second harmonic moment of this decomposition. It is a direct consequence of the initial geometry of the collision which is translated to a particle number anisotropy due to the strong interactions inside the medium. The amount of elliptic flow of low-momentum heavy quarks is related to their thermalization with the medium, while high-momentum heavy quarks provide a way to assess the path-length dependence of the energy loss induced by the interaction with the medium.
The heavy-quark elliptic flow is measured using a three-step procedure.
First the v2 coefficient of the inclusive electrons is measured using the event-plane and scalar-product methods. The electron background from light flavours and direct photons is then simulated, calculating the decay kinematics of the electron sources which are initialised by their respective measured spectra. The final result of this work emerges by subtracting the background from the inclusive measurement. A significant elliptic flow is observed after this subtraction. Its value is decreasing from low to intermediate pT and from semi-central to central collisions.
The results are described by model calculations with significant elastic interactions of the heavy quarks with the expanding strongly-interacting medium.
Cortical circuits exhibit highly dynamic and complex neural activity. Intriguingly, cortical activity exhibits consistently two key features across observed species and brain areas. First, individual neurons tend to be co-active in spatially localized domains forming orderly arranged, modular layouts with a typical spatial scale. Second, cortical elements are correlated in their activity over large distances reflecting long-range network interactions distributed over several millimeters. Currently, it is unclear how these two fundamental properties emerge in the early developing cortical activity.
Here, I aim to fill this gap by combining analyses of chronic imaging data and network models of developing cortical activity. Neural recordings of spontaneous and visually evoked activity in primary visual cortex of ferrets during their early cortical development were obtained using in vivo 2-photon and widefield epi-fluorescence calcium imaging. Spontaneous activity was used to probe the early state of cortical networks as its spatiotemporal organization is independent of a stimulus-imposed structure, and it is already present early in cortical development prior to reliably evoked responses. To assess the mature functional organization of distributed networks in cortex, the tuning of neural responses to stimulus features, in particular to the orientation of an edge-like stimulus, was assessed. Cortical responses to moving gratings of varying orientations form an orderly arranged layout of orientation domains extending over several millimeters.
To begin with, I showed that spontaneous activity correlations extend over several millimeters, supporting the assumption of using spontaneous activity to assess distributed networks in cortex.
Next, I asked how distributed networks in the mature visual cortex - assessed by spontaneous activity correlations - are related to its fine-scale functional organization. I found that the spatially extended and modular spontaneous correlation patterns accurately predict the fine spatial structure of visually evoked orientation domains several millimeters away. These results suggest a close relation between spontaneous correlations and visually evoked responses on a fine spatial scale and across large spatial distances.
As the principles governing the functional organization and development of distributed network interactions in the neocortex remain poorly understood, I next asked how long range correlated activity arises early in development. I found that key features of mature spontaneous activity introduced in this work, including long-range spontaneous correlations, were present already early in cortical development prior to the maturation of long-range, horizontal connections, and the predicted mature orientation preference layout. Even after silencing feed-forward input drive by inactivating retina or thalamus, long-range correlated and modular activity robustly emerged in early cortex. These results suggest that local recurrent connections in early cortical circuits can generate structured long-range network correlations that guide the formation of visually-evoked distributed functional networks.
To investigate how these large-scale cortical networks emerge prior to the maturation and elaboration of long-range horizontal connectivity, I examined a statistical network model describing an ensemble of spatially extended spontaneous activity patterns. I found a direct relationship between the dimensionality of this ensemble of activity patterns and the decay of its correlation structure. Specifically, reducing the dimensionality of the ensemble leads to an increase in the spatial range of the correlation structure.
To test whether this mechanism could generate a long-range correlation structure in cortical circuits, I studied a dynamical network model implementing a dimensionality reduction mechanism. Based on previous work demonstrating that network heterogeneity reduces the dimensionality of activity patterns, I showed that by increasing the degree of heterogeneity in the network, the dimensionality of the ensemble of activity patterns decreases and in turn their correlations extend over a greater range. A comparison to experimental data revealed a quantitative match between the network model and the observations in vivo in several of the key features of the early cortex including the spatial scale of correlations. Low dimensionality of spontaneous activity thus might provide an organizational principle explaining the observed long-range correlation structure in the early cortex.
Finally, I asked whether a network with a biologically plausible architecture can generate modular activity. Several classical models showed that modular activity patterns can emerge via an intracortical mechanism involving lateral inhibition. However, this assumption appears to be in conflict with current experimental evidence. Moreover, these network models were not experimentally tested, so far. Here, I showed by using linear stability analysis that spatially localized self-inhibition relaxes the constraints on the connectivity structure in a network model, such that biologically more plausible network motifs with shorter ranging inhibition than excitation can robustly generate modular activity.
Importantly, I also provided several model predictions to make the class of network models experimentally testable in view of recent technological advancements in imaging and manipulation of cortical circuits. A critical prediction of the model is the decrease in spacing of active domains when the total amount of inhibition increases. These results provide a novel mechanism of how cortical circuits with short-range inhibition can form modular activity.
Taken together, this thesis provides evidence that the two described fundamental features of neural activity are already present in the early cortex and shows that activity with those features can be generated in network models with an architecture consistent with the early cortex using basic principles.
Rückblick Die Motivation für diese Arbeit ergibt sich aus den immer neuen Fragestellungen der modernen Wissenschaft. Deren Beantwortung hängt wesentlich von den geeigneten Messapparaturen ab, die Einblicke in physikalische Prozesse erlauben. Durch effektivere und höher auflösende Detektoren werden präzisere, schnellere und schonendere Messungen möglich. Die Zielsetzung dieser Arbeit über den Hochdruck-Gas-Szintillations-Proportionalzähler ist es, einen Detektor zu entwickeln, mit dem hochenergetische Photonen praktisch vollständig vermessen werden können. Dazu gehören: - die Photonenenergie im Bereich von 5 bis 500 keV, - die Richtung der einfallenden Strahlung (bzw. der Auftreffort auf dem Detektor), - der Absorptionszeitpunkt und - die Diskriminierung von Gamma-induziertem Untergrund. Potenzielle Einsatzgebiete des Detektors sind im wesentlichen medizinische, atom- und astrophysikalische Anwendungen. Die vielversprechenden Eigenschaften dieses Detektorkonzeptes, gegenüber herkömmlichen Gasdetektoren, ergeben sich aus den Mechanismen der primären und der sekundären Gasszintillation. Daraus folgen der überlegene Verstärkungsprozess und das schnelle Zeitsignal. Als Grundlage für die in dieser Arbeit diskutierten Ergebnisse dienen die zuvor von Dangendorf und Bräuning entwickelten Konzepte und die von ihnen gebauten Prototypen. Sie sind geeignet für kleine und mittlere Photonenenergien und liefern eine gute Energie- und Zeitauflösung. Die Tests der Ortsauslese mit abbildenden, optischen Systemen zeigten erste Resultate. Ausgehend von diesen bestehenden Entwicklungen war die Motivation der Arbeit, den Aufbau an die gewünschten Anforderungen anzupassen. Für die höheren Photonenenergien werden ein dichterer Absorber, also ein höherer Gasdruck und damit verbunden neue Auslesekonzepte benötigt. Problem Ein zentrales Problem, das aufgrund dieser neuen Anforderungen auftritt, ist der Druckunterschied zwischen dem Hochdruck-Szintillator und der bei Niederdruck oder im Vakuum betriebenen UV-Auslese. Die dadurch bedingten Kräfte machen entweder besondere Stützstrukturen oder stabile - und dadurch dicke - Fenster erforderlich. In beiden Fällen geht ein Teil des Signals verloren und die Detektorauflösung nimmt ab. Es handelt sich dabei jedoch nicht um prinzipielle Probleme. Die Schwierigkeiten sind rein technischer Natur. Deshalb wurde intensiv weiter nach neuen Konzepten und Lösungsansätzen gesucht, die die Vorteile dieser überlegenen physikalischen Prozesse ausnutzen können. Lösungsansatz Das konkrete Ziel - bzw. die Aufgabenstellung - dieser Arbeit war, mit neuen Technologien, und dabei vor allem mit einem neuen Mikrostruktur-Elektroden-System, bislang bestehende technische Hürden zu überwinden (Kapitel 3). Durch die Möglichkeit, einen in das Hochdruckvolumen integrierten Photonendetektor zu bauen, werden viele der Stabilitätsprobleme gelöst. Mit der großflächigen Auslese des Szintillationslichts direkt dort, wo es entsteht, werden die Transmissionsverluste in Fenstern vermieden. Es gibt damit nur kleine raumwinkelabhängige Effekte und es wird nur ein Gasvolumen und damit kein zusätzliches System zum Evakuieren, Zirkulieren und Reinigen benötigt. Durch die Trennung der Energie- und der Ortsinformation und deren separate Auslese wird zwar die Komplexität des Detektors erhöht, die Teilsysteme können jedoch unabhängig für die jeweiligen Anforderungen optimiert werden. Grundlagen Im Rahmen dieser Arbeit wurden bereits existierende Erfahrungen aufgegriffen und in deren logischer Fortsetzung, ein, in das Szintillatorvolumen integrierter, UV-Photonendetektor entwickelt. Zunächst musste mit einer umfangreichen Recherche ermittelt werden, welche Anforderungen an einen integrierten Photonendetektor bestehen und wie ein solches System in den Aufbau eingebunden werden kann. Mit dem GEM, der sich schon in diversen anderen Gasdetektoranwendungen als universell einsetzbarer Verstärker bewährt hatte, war ein potenzielles Mikrostuktur-Elektroden-System für unsere Anwendung gefunden. Um die Einsatztauglichkeit dieser Mikrostrukturen für die neuen Applikationen zu analysieren, wurden sie im Standard-Design, unter vielen verschiedenen Betriebsparametern getestet. Dabei wurden wertvolle Erfahrungen im Umgang mit den Mikrostrukturen gesammelt. Die GEMs wurden in den typischen Detektorgasen, bei verschieden Drücken, elektrischen Spannungen und Feld-stärken studiert. Dabei wurden die Chancen, aber auch - vor allem aufgrund elektrischer Überschläge und Instabilitäten - die Grenzen des damit Erreichbaren, aufgezeigt. Mit der Herstellung der speziell für diese Anwendung entwickelten GEMs wurde die Grundlage für den stabilen Betrieb des Detektors geschaffen. Simulationsrechnungen In Kooperation mit einer italienischen Gruppe vom INFN in Cagliari haben wir, mit dem Detektor-Simulations-Programm Garfield, Berechnungen durchgeführt (Kapitel 4). Damit konnte schon vor der technischen Realisierung ein Überblick über die Betriebsbedingungen eines mehrstufigen und komplexen Systems gewonnen werden. Dazu zählen die messtechnisch erfassbaren Größen, wie z.B. die mittlere Gasverstärkung und Diffusion. Daneben konnten aber auch die Prozesse im Kleinen studiert werden. Von besonderem Interesse für die Funktion des Detektors ist dabei der Verlauf der Feldstärke in den Poren der Mikrostrukturen und den umliegenden Regionen. Dessen räumlicher Verlauf in Kombination mit den jeweiligen Gasdaten bestimmen die Elektronentransportparameter, die Gasverstärkung, die Diffusion und die Effizienz. In den Xenon-Szintillator integrierter UV-Photonen-Detektor Der UV-Photonendetektor konnte in zwei Varianten erfolgreich in ein Volumen mit dem Xenon-Gas-Szintillator integriert werden. Die Verbindung der CsI-Photokathode mit dem Elektronenverstärker wurde dabei zum einen als semitransparente dünne Schicht auf einer Quarzglasplatte vor der GEM-Folie und zum anderen als opake Variante auf der Frontseite des GEM realisiert. Bei der Auslese des Xenon-Szintillationslichts mit einer in reinem Xenon und bei hohem Druck betriebenen CsI-Photokathode, wurde Neuland betreten. Es wurde erfolgreich gezeigt, dass der integrierte Photonendetektor auf GEM Basis für die hier diskutierten Einsatzbereiche und Anforderungen funktioniert. Die Ankopplung der Photokathode an die Verstärkerstruktur und dabei vor allem der Elektronentransport von der CsI-Schicht in die Verstärkungszone, wurden im Detail untersucht. Dass die Gasverstärkung in reinem Xenon bei den beschriebe-nen Betriebsparameter überhaupt funktioniert, liegt zum einen daran, dass die optische Rückkopplung mit diesem neuen Design effektiv unterdrückt werden kann. Zum anderen konnten die Einflussparameter auf die Gasverstärkung, für den mehrstufigen GEM-Verstärkungsprozess in reinem Xenon, im Detail untersucht werden. Die gekoppelten Gas-Verstärker-Elemente wurden mit einer eigens für diese Anwendung entwickelten Versorgungsspannungsquelle betrieben, die die Folgen von elektrischen Überschlägen minimiert (Kapitel 5.1.3). Gegenüber den herkömmlichen Gasdetektoren ist es mit diesem neuartigen Aufbau möglich, den UV-Photonen-Detektor bei diesen Betriebsparametern stabil zu betreiben. Abbildende Optiken - optische und mechanische Eigenschaften Parallel zur Entwicklung dieses großflächigen Detektors zur Messung des Energiesignals und der Registrierung des primären Lichts, wurde das Konzept zur Ortsauslese via abbildender Optik weiterverfolgt. Die optischen Abbildungseigenschaften der Linsen wurde im Wellenlängenbereich des Xenon-Szintillationslichtes untersucht. In ersten Tests konnte bei kleinen Gasdrücken und somit geringen mechanischen Beanspruchungen die Ebene der Sekundär-lichterzeugung auf einen gekapselten Mikro-Kanal-Platten-Detektor abgebildet werden. Die Festigkeit der Quarzglaslinse für die Druckbeanspruchungen im hier diskutierten Detektor konnte in Zusammenarbeit mit der Fachhochschule Heilbronn - mittels Finite-Elemente-Berechnung - als ausreichend verifiziert werden. Ausblick Die beiden getrennten Systeme für Orts- und Energiemessung funktionieren unabhängig voneinander. Die Vorraussetzungen für die Kombination der Komponenten in einem gemeinsamen Aufbau sind damit geschaffen. Damit ist der Weg für die folgenden Schritte in diesem Projekt aufgezeigt. Als logische Fortsetzung dieser Arbeiten ist geplant, den integrierten Photonendetektor mit der Photokathode auf der GEM-Frontseite, zusammen mit der Ortsauslese gemeinsam aufzubauen. Von dieser Kombination profitiert das Auflösungsvermögen beider Messungen. Die Korrektur der ortsabhängigen Schwankungen in der Effizienz der Photokathode verbessert die Energieauflösung signifikant. Auf der anderen Seite kann durch das geschickte Setzen von geeigneten Bedingungen auf das Energiesignal die Ortsmessung optimiert werden. Als weiterer naheliegender Schritt auf dem Weg zum effizienten Nachweis der hochenergetischen Photonen, bietet sich der Einbau einer zusätzlichen Verstärkungsstufe zum Aufbau eines dreifach-GEM-Detektors an. Damit kann bei höheren Gasdrücken, trotz kleiner werdender maximaler Verstärkung pro GEM, eine ausreichende Gesamtverstärkung erreicht werden. Der Einsatz des Detektors in einem größeren Experiment, in Kombination mit anderen Messapparaturen, rückt somit in greifbare Nähe.
The strong nuclear force is described by Quantum Chromodynamics (QCD), the parallel field theory to Quantum Electrodynamics (QED) that describes the electromagnetic force. It is propagated by gluons analogously to photons in the electromagnetic force, but unlike photons, which do not carry electric charge, gluons carry color, and they can self-interact. However, as individual quarks have never been observed in nature, it is postulated that the color charge itself is confined, and hence all baryons and mesons must be colorless objects. To study nuclear matter under extreme conditions, it is necessary to create hot and dense nuclear matter in the laboratory. In such conditions the confinement between quarks and gluons is cancelled (deconfinement). This state is characterized with a qusi-free behavior of quarks and gluons. The strange (s) and anti-strange (anti-s) quarks are not contained in the colliding nuclei, but are newly produced and show up in the strange hadrons in the final state. It was suggested that strange particle production is enhanced in the QGP with respect to that in a hadron gas. This enhancement is relative to a collision where a transition to a QGP phase does not take place, such as p+p collisions where the system size is very small. Therefore the energy- and system size dependence is studied to receive a picture about the initial state. In this thesis experimental results on the energy- and system size dependence of Xi hyperon production at the CERN SPS is shown. All measurements were performed with the NA49 detector at the CERN SPS. NA49 took central lead-lead collisions from 20 - 158 AGeV, minimus bias lead-lead collisions at 40 and 158 AGeV, and semi-central silicon-silicon colisions at 158 AGeV. The NA49 experiment features a large acceptance in the forward hemisphere allowing for measurements of Xi rapidity spectra. At the SPS accelerator at CERN Pb+Pb collisions are performed with beam energies to 158 AGeV. The analyzed data sets were taken in the period from 1999 to 2002. The NA49 experiment is a large acceptance hadron spectrometer, which measures charged hadrons in a wide acceptance. The main components are the four TPCs (Time Projection Chamber). The centrality of nucleon-nucleon collisions was done by measuring the not in the collision participating (spectator-) nucleons in the VETO-calorimeter. The study of strangeness is motivated by its role as a signature for the Quark Gluon Plasma. Any enhancement in the yield must be with respect to a ’normal’ yield, where a QGP is not formed. This is usually taken to mean suitably scaled p+p collisions, where the volume of the system created is too small for a QGP to occur. The results at SPS and RHIC energies show an enhancement, with the doubly strange Xi? being enhanced more than the Lambda, in accordance with the original prediction. However, the enhancement at SPS energies is higher than at RHIC energies.
In this work data of the NA49 experiment at CERN SPS on the energy dependence of multiplicity fluctuations in central Pb+Pb collisions at 20A, 30A, 40A, 80A and 158A GeV, as well as the system size dependence at 158A GeV, is analysed for positively, negatively and all charged hadrons. Furthermore the rapidity and transverse momentum dependence of multiplicity fluctuations are studied. The experimental results are compared to predictions of statistical hadron-gas and string-hadronic models. It is expected that multiplicity fluctuations are sensitive to the phase transition to quark-gluon-plasma (QGP) and to the critical point of strongly interacting matter. It is predicted that both the onset of deconfinement, the lowest energy where QGP is created, and the critical point are located in the SPS energy range. Furthermore, the predictions for the multiplicity fluctuations of statistical and string-hadronic models are different, the experimental data might allow to distinguish between them. The used measure of multiplicity fluctuations is the scaled variance omega, defined as the ratio of the variance and the mean of the multiplicity distribution. In the NA49 experiment the tracks of charged particles are detected in four large volume time projection chambers (TPCs). In order to remove possible detector effects a detailed study of event and track selection criteria is performed. Naively one would expect Poisson fluctuations in central heavy ion collisions. A suppression of fluctuations compared to a Poisson distribution is observed for positively and negatively charged hadrons at forward rapidity in Pb+Pb collisions. At midrapidity and for all charged hadrons the fluctuations are larger than the Poisson ones. The fluctuations seem to increase with decreasing system size. It is suggested that this is due to increased relative fluctuations in the number of participants. Furthermore, it was discovered that omega increases for decreasing rapidity and transverse momentum. A hadron-gas model predicts different values of omega for different statistical ensembles. In the grand-canonical ensemble, where all conservation laws are fulfilled only on the average, not on an event-by-event basis, the predicted fluctuations are the largest ones. In the canonical ensemble the charges, namely the electrical charge, the baryon number and the strangeness, are conserved for each event. The scaled variance in this ensemble is smaller than for the grand-canonical ensemble. In the micro-canonical ensemble not only the charges, but also the energy and the momentum are conserved in each event, the predicted $omega$ is the smallest one. The grand-canonical and canonical formulations of the hadron-gas model over-predict fluctuations in the forward acceptance. In contrast to the experimental data no dependence of omega on rapidity and transverse momentum is expected. For the micro-canonical formulation, which predicts small fluctuations in the total phase space, no quantitative calculation is available yet for the limited experimental acceptance. The increase of fluctuations for low rapidities and transverse momenta can be qualitatively understood in a micro-canonical ensemble as an effect of energy and momentum conservation. The string-hadronic model UrQMD significantly over-predicts the mean multiplicities but approximately reproduces the scaled variance of the multiplicity distributions at all measured collision energies, systems and phase-space intervals. String-hadronic models predict for Pb+Pb collisions a monotonous increase of omega with collision energy, similar to the observations for p+p interactions. This is in contrast to the predictions of the hadron-gas model, where omega shows no energy dependence at higher energies. At SPS energies the predictions of the string-hadronic and hadron-gas models are in the same order of magnitude, but at RHIC and LHC energies the difference in omega in the full phase space is much larger. Experimental data should be able to distinguish between them rather easily. Narrower than Poissonian (omega < 1) multiplicity fluctuations measured in the forward kinematic region (1<y(pi)<y_{beam}) can be related to the reduced fluctuations predicted for relativistic gases with imposed conservation laws. This general feature of relativistic gases may be preserved also for some non-equilibrium systems as modeled by the string-hadronic approaches. A quantitative estimate shows that the predicted maximum in fluctuations due to a first order phase transition from hadron-gas to QGP is smaller than the experimental errors of the present experiment and can therefore neither be confirmed nor disproved. No sign of increased fluctuations as expected for a freeze-out near the critical point of strongly interacting matter is observed.
Das Heidelberger Ionenstrahl Therapiezentrum (HIT) ist die erste klinische Anlage in Europa, an der die Strahlentherapie zur Tumorbekämpfung mit schwereren Ionen als Protonen möglich ist. Seit November 2009 wurden mehr als 1500 Patienten bei HIT behandelt.
Dabei kommt das beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt entwickelte Rasterscan-Verfahren zum Einsatz. In der Bestrahlungsplanung wird der Tumor in Schichten gleicher Ionen-Energie und jede Schicht in einzelne Rasterpunkte eingeteilt. Für jeden Rasterpunkt wird eine individuelle Teilchenzahl appliziert, die am Ende zu der gewünschten Dosisverteilung führt. Dabei kann sich die benötigte Teilchenbelegung der einzelnen Rasterpunkte auch innerhalb einer Schicht um mehr als zwei Größenordnungen unterscheiden.
Ein auf wenige Millimeter Durchmesser fokussierter Teilchenstrahl kann in allen Raumrichtungen variiert werden, so dass selbst für unregelmäßig geformte Tumoren eine hochgenaue Dosiskonformität erreicht wird. Messkammern, die in der Ionen-Flugbahn kurz vor dem Patienten installiert sind, überwachen kontinuierlich Position, Form und Intensität des Strahls und ermöglichen so die Rasterpunkt-abhängige Dosisabgabe.
Zur Bereitstellung des Teilchenstrahls ist eine komplexe Beschleunigeranlage nötig, die eine große Bibliothek an möglichen Strahlparametern erzeugen kann. Das Herzstück der Anlage ist ein Synchrotron, in dem die Ionen auf die gewünschte Energie beschleunigt und anschließend über mehrere Sekunden extrahiert werden. Diese langsame Extraktion ist nötig, um dem Bestrahlungssystem genug Zeit für die korrekte, punktgenaue Dosisabgabe zu geben. Die zeitliche Struktur der beim Patienten ankommenden Strahlintensität wird Spill genannt.
Der verwendete Extraktionsmechanismus ist die transversale RF-Knockout Extraktion, die auf dem Prinzip der langsamen Resonanzextraktion beruht. Die im Synchrotron umlaufenden Teilchen werden dabei transversal angeregt, bis nach und nach ihre Schwingungsamplitude so groß ist, dass sie in den Extraktionskanal gelangen. Das für diese Anregung verantwortliche Gerät ist der RF-KO-Exciter. Er ist so eingestellt, dass ein möglichst konstanter Teilchenstrom das Synchrotron verlässt.
Bereits beim Befüllen des Synchrotrons variiert jedoch die injizierte Teilchenzahl und deren Verteilung im Phasenraum, so dass die voreingestellte Amplitudenfunktion des RF-KO-Exciters keinen idealen Spill liefern kann. Es kommt unweigerlich zu Schwankungen der Intensität am Strahlziel. Die erreichbare Leistungsfähigkeit der Therapieanlage hängt jedoch in hohem Maße von der Spillqualität ab. Je besser diese ist, umso schneller kann die individuelle Bestrahlung erfolgen und um so mehr Patienten können in gleicher Zeit behandelt werden.
Die vorliegende Arbeit beschäftigt sich mit der Verbesserung der Spillqualität am Bestrahlungsplatz. Dazu wird ein Regelkreis zwischen den Strahl-detektierenden Messkammern und dem die Extraktion steuernden RF-KO-Exciter geschlossen. Ionisationskammern, die auch zur Dosisbestimmung verwendet werden, messen die aktuelle Intensität. Das Therapiekontrollsystem, das den gesamten Bestrahlungsprozess steuert, gibt den Sollwert vor und leitet alle Informationen zur Reglereinrichtung. Dort wird in Abhängigkeit der Abweichung aus gewünschter und tatsächlich vorhandener Intensität sowie dem Regelalgorithmus ein Korrektursignal errechnet und dem RF-KO-Exciter zugeführt. Eine der Herausforderungen bestand dabei im Auffinden der geeigneten Regelparameter, die entsprechend der Strahlparameter Energie und Intensität gewählt werden müssen.
In einem ersten Schritt kann so der extrahierte Teilchenstrahl auf dem jeweils geforderten, konstanten Niveau gehalten werden. Diese Stufe wird seit April 2013 vollständig im Routinebetrieb der Therapieanlage verwendet. Der zweite Schritt besteht in der Anpassung der Extraktionsrate an den individuellen Bestrahlungsplan. So können die Rasterpunkte, die eine hohe Dosis benötigen, mit einer höheren Intensität bestrahlt werden, was die Bestrahlungszeit deutlich reduziert. Die Vollendung dieser Stufe ist bis Ende 2013 vorgesehen.
Im Rahmen dieser Arbeit wurden zwei Testsysteme sowie die Implementierung in den Routinebetrieb des Therapiebeschleunigers einer solchen Intensitäts- oder Spillregelung realisiert. Dies beinhaltet den Aufbau der Systeme, die Bereitstellung von Soll- und Istwert sowie die Auslegung und Einstellung des Regelkreises. Der erste Testaufbau für ein Strahlziel des Beschleunigers diente generellen Studien zur Machbarkeit einer solchen Regelung. Die dabei gesammelten Erfahrungen über nötige Erweiterungen führten zur zweiten Generation einer Testumgebung auf Basis eines Echtzeit-Ethernet-Systems. Dieses ermöglichte bereits die Regelung an allen Strahlzielen der HIT-Anlage sowie die Verwendung von unterschiedlichen Regelalgorithmen.
Mit den Systemen wurden Messungen zur Charakterisierung der Spillregelung im Parameterraum des Beschleunigers durchgeführt, um so ihre Möglichkeiten und Grenzen zu untersuchen. Erkenntnisse aus dieser Testphase flossen direkt in die Implementierung des für den Patientenbetrieb eingesetzten Systems ein, für das ein hohes Maß an Betriebs-Stabilität erforderlich ist. Es wurde in das Beschleuniger-Kontrollsystem unter Berücksichtigung des Sicherheitskonzeptes der Anlage integriert.
Die reine Bestrahlungszeit wird durch die Realisierung der ersten Stufe um bis zu 25% reduziert, nach Vollendung der zweiten Stufe wird sie um weitere bis zu 50% verringert. Strahlzeiten für Nachjustierungen der Spillqualität werden ebenfalls zum Teil eingespart. Insgesamt konnte durch die Spillregelung die Effizienz der Anlage deutlich gesteigert werden.
Im Rahmen des FRANZ-Projektes wurde nach einer Ionenquelle verlangt welche in der Lage ist einen intensiven hochbrillanten Protonenstrahl von 200 mA bei 120 keV im Dauerstrichbetrieb zur Verfügung zu stellen, bei gleichzeitig niedriger Strahlemittanz. Der recht hohe Protonenstrom von 200 mA stellt dabei eine Herausforderung an den Experimentator dar.
Die grundsätzliche Problematik bei der Entwicklung einer solchen Ionenquelle besteht im Wesentlichen darin, ein geeignetes Extraktionssystem zu designen, welches in der Lage ist den geforderten hohen Protonenstrom zu extrahieren und transportieren. In diesem Zusammenhang wurden Abschätzungen bezüglich des notwendigen Emissionsradius, der elektrischen Feldstärke im Extraktionsspalt sowie des Protonenanteils für den verlangten Protonenstrom von 200 mA durchgeführt. Für die praktische Umsetzung wurden Lösungsstrategien erarbeitet. Ziel war es die elektrische Feldstärke im Gap so hoch wie möglich und den Radius der Emissionsöffnung so klein wie möglich zu wählen, bei gleichzeitig möglichst hohem Protonenanteil. Basierend auf diesen Erkenntnissen wurde ein Prototyp der Bogenentladungs-Volumenionenquelle entwickelt und erfolgreich in Betrieb genommen.
Zur Steigerung des Protonenanteils im Wasserstoffplasma wurden diverse Parameter der Ionenquelle optimiert wie bspw. Bogenleistung, Gasdruck sowie insbesondere die Feldverteilung und die magnetische Flussdichte des magnetischen Filters. Diese Ergebnisse wurden mit dem verbesserten theoretischen Modell zur Erzeugung von atomaren Wasserstoffionenstrahlen verglichen. Um die elektrische Feldstärke im Extraktionsspalt zu steigern wurden die Elektroden aus einem thermisch belastbaren Material hergestellt und einer speziellen Oberflächenbehandlung unterzogen. Des Weiteren wurden theoretische und experimentelle Untersuchungen bezüglich der Emissionsstromdichte und der Strahlqualität durchgeführt. Weiterhin wurde die Emittanz des Ionenstrahls berechnet sowie mit einer eigens am Institut für Angewandte Physik entwickelten Pepperpot-Emittanzmessanlage experimentell bestimmt. Die vorliegende Dissertation präsentiert die Ergebnisse der Entwicklung dieser hocheffizienten Bogenentladungs-Volumenionenquelle.
In dieser Arbeit wurde eine Messmethode entwickelt, die es ermöglicht, mittels Infrarotspektroskopie quantitative Aussagen über bestimmte Inhaltsstoffe in Körperflüssigkeiten zu machen. Hierfür wurden sowohl selektierte Blutplasma- und Vollblutproben gemessen als auch selektierte Urinproben. Die richtige Selektion des Probensatzes ist von großer Wichtigkeit, um für jede Komponente eine große, unabhängige Varianz der Absorptionswerte zu erhalten. Hierfür wurden sowohl physiologische als auch pathologische Proben in den Datensatz integriert. Um Referenzwerte für diese ausgewählten Proben zu erhalten, wurden konventionelle klinische Methoden verwendet. Grundsätzlich ist die Genauigkeit dieser Methode durch die Genauigkeit der jeweiligen Referenzmethode, also den konventionellen klinischen Methoden, beschränkt. Mit der neu entwickelten Methode besteht nun die Möglichkeit, die wichtigsten Parameter im Blut und Urin schnell, einfach und reagenzienfrei quantitativ zu bestimmen. Zusätzlich zu den in dieser Arbeit angegebenen Inhaltsstoffen ist es möglich, für weitere Komponenten oberhalb eines bestimmten Schwellenwerts quantitative Angaben zu machen. Hierbei könnten z.B. für Albumin oder Glukose im Urin pathologische Proben identifiziert werden und somit Rückschlüsse auf bestimmte Krankheitsbilder ermöglicht werden. ...
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung des Prototypen einer supraleitenden CH-Beschleuniger-Struktur. Viele zukünftige Beschleunigeranlagen benötigen ein hohes Tastverhältnis bis hin zum so genannten cw-Betrieb. Dies würde bei normalleitenden Beschleunigern zu sehr großer Wärmeentwicklung führen, welche durch aufwendige Verfahren weggekühlt werden müsste. Da dies meistens gar nicht mehr möglich ist, kommen in solchen Bereichen heutzutage schon häufig supraleitende Beschleuniger zum Einsatz. Große Projekte, die im Hochenergiebereich auf die Supraleitung setzten, sind die SNS Beschleunigeranlage in Oak Ridge (Inbetriebnahme läuft) und das RIA-Projekt, welches radioaktive Isotope beschleunigen soll. Auch zukünftige Projekte, wie ein cw-Linac zur SHE-Synthese, EUROTRANS und IFMIF, sind ohne supraleitende Komponenten nur schwer vorstellbar. Im Rahmen dieser Arbeit wurden zunächst die anderen zur Familie der so genannten H-Moden-Beschleuniger gehörenden Resonatoren kurz vorgestellt. Danach wurde eine Einführung in die Supraleitung mit den wichtigsten Parametern für Niob und den HF-Eigenschaften von Supraleitern gegeben. Um Beschleuniger zu charakterisieren wurde in einem weiteren Kapitel ein überblick über wichtige Kenngrößen gegeben. Dabei wurde auch ein Vergleich der Skalierung von verschiedenen Parametern zwischen Normalleitung und Supraleitung gegeben. Da die Simulationsrechnungen mit dem Programm CST MicroWave Studio durchgeführt wurden, wurden die Grundlagen dieses Programms ebenfalls eingeführt. Es basiert auf der Finiten Integrationstheorie, welche die Maxwell-Gleichungen in eine Zwei-Gitter-Matrixform überführt, damit diese numerisch gelöst werden können. In einem weiteren Kapitel wurde eine Methode zur Bestimmung der Einkopplungsstärke in einen Resonator näher beschrieben. Dabei wurde auf zwei wesentliche Einkopplungsarten, die induktive und die kapazitive, im Detail eingegangen. Die Bestimmung der so genannten externen Güte stellt einen wesentlichen Punkt dar, um die Leitung, die durch einen Sender und Verstärker zur Verfügung gestellt wird, möglichst optimal in den Beschleuniger einzuführen. Wobei auch hierbei wieder auf die Unterschiede zwischen einer Einkopplung in einen normalleitenden und einen supraleitenden Beschleuniger eingegangen wurde. Bei einer supraleitenden Struktur erfolgt die Einkopplung in der Regel überkoppelt. Dies bedeutet, dass man durch zu starke Einkopplung die belastete Güte des Systems herabsetzt, damit eine bessere Regelung möglich ist. Um eine numerische Methode auf ihre Tauglichkeit hin zu testen, wurde zuerst eine Pillbox genommen, um die simulierten Ergebnisse mit einer Messung zu vergleichen. Als sich dabei sehr gute Ergebnisse herausstellten, wurde die Methode noch an einem Kupfermodell einer CH-Struktur verifiziert, bevor die Einkopplung für den supraleitenden Prototyp berechnet wurde. Im 7. Kapitel dieser Arbeit wurden die Voraussetzungen, die vorher geschaffen wurden, für die Optimierung des Prototyps der supraleitenden CH-Struktur angewendet. Dabei ging es um die Optimierung der Feldverteilung auf der Strahlachse durch Anpassung des Endzellendesigns, der Stützenoptimierung, um die magnetischen und elektrischen Spitzenfelder zu reduzieren, einer Untersuchung des Quadrupolanteils in den Spalten der CH-Struktur, der Einkopplung und schließlich um die Möglichkeit des statischen Tunings während der Fertigstellung der Struktur. Auf Grund dieser Untersuchungen wurde schließlich die Fertigstellung eines ersten supraleitenden Prototyps bei der Firma ACCEL in Bergisch-Gladbach in Auftrag gegeben. Diese Struktur wurde in mehreren Kalttests untersucht. Dabei konnten die vorher durch die Simulation festgelegten Designparameter sehr gut verifiziert werden. In den beiden letzten Kapiteln wurden noch Simulationen für eine im Betrieb befindliche Beschleunigeranlage durchgeführt und ein Ausblick auf mögliche Einsatzgebiete der supraleitenden CH-Struktur gegeben. Die durchgeführten Optimierungen für den Hochstrominjektor führten zu einem stabileren Betrieb der Anlage. Durch diese Arbeit konnte gezeigt werden, dass die neuentwickelte CH-Struktur für den Einsatz in supraleitenden Beschleunigern sehr gut geeignet ist. Sie stellt eine sehr kompakte Struktur dar und bietet somit auf kurzer Stecke eine hohe Beschleunigung. Sie ist im Bereich von 10-30% Lichtgeschwindigkeit die einzige supraleitende Vielzellenstruktur.
Am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt, wird für die Erweiterung der Forschungsmöglichkeiten am Bau des FAIR Projektes gearbeitet. Hierfür wird unter anderem ein Ringbeschleuniger gebaut (SIS100), der mit 100Tm den bestehenden Ring (SIS18) in magnetischer Steifigkeit ergänzen wird. Um SIS100 an SIS18 anzubinden, wird eine Transferstrecke benötigt, welche den Transfer von Ionen zwischen den Ringen übernimmt. In solchen Transferstrecken werden Quadrupollinsen mit hohen Gradienten benötigt. Ebenso werden für die finale Fokussierung von hochintensiven Strahlpulsen aus Synchrotronen auf Targets Linsen mit hohen Feldgradienten benötigt. Allerdings sind die Pulse nur sehr kurz und das Tastverhältnis bei Synchrotronen sehr klein. Daher sollte ein gepulster Fokussiermagnet entwickelt werden, der den hohen Gradientenanforderungen gerecht wird und sowohl platz- als auch energiesparend ist. Die vorliegende Arbeit befasst sich mit der Auslegung des elektrischen Schaltkreises, der Simulation des Magnetfeldes und der konstruktiven Umsetzung eines solchen gepulsten Quadrupols. Der elektrische Schaltkreis ist so ausgelegt, dass eine hohe Repetitionsrate zur Fokussierung für Teilchenpakete möglich ist. Die Linse wurde aus einer Luftspule ohne Eisenjoch aufgebaut. Die cos(2θ)-Verteilung des Stroms durch die Leiter wurde durch ein Design gesichert, welches den Skin-Effekt berücksichtigt und entsprechend ausgelegte Litzenkabel verwendet. Um die Magnetfeldverteilung des Fokussiermagneten zu untersuchen, wurden statische und transiente Simulationen mit dem Programm CST Mircowave Studio Suite vorgenommen. Zentraler Punkt bei der Neuentwicklung waren die Luftspulen. Um einen linearen Magnetfeldanstieg von der Strahlachse zum Aperturrand zu gewährleisten, muss die Stromverteilung in der Leiterspule so homogen wie möglich sein. Um bei Pulslängen von 170 µsec den Skineffekt zu berücksichtigen, wurde die Leiterspule aus HF-Litzen von je mehreren hundert Einzelleitern zusammengestellt, die jeweils gegeneinander isoliert und in Bündeln miteinander verdrillt sind. Außerdem wurde die Linse mit einer lamellierten Schirmung versehen, um das Magnetfeld effektiv nutzen zu können. Ziel der Auslegung war es, zusammen mit einem zweiten Quadrupol im Duplett einen Strahl mit einer magnetischen Steifigkeit von 11 Tm und einer Bunchlänge von 2µsec auf einen Punkt von 0,5 mm Radius zu fokussieren. Bei dem hierfür angestrebten Gradienten von 76 T/m wird eine maximale Stromamplitude von 400 kA benötigt. Im Rahmen dieser Arbeit wurde die Linse ausgelegt, konstruiert und gebaut. Die Funktionalität wurde untersucht und die Feldqualität wurde vermessen und zeigten die erwarteten Parameter. Bei 26 kA Messstrom wurden im Zentrum des Magneten ein maximaler Gradient von 4,5 T/m und Feldwerte von 0,11 T ermittelt. Somit liegt die Abweichung des gemessenen Gradienten bei ca. 5 %. Die durchgängige Umsetzung der homogenen Verteilung der Leiterbündel in der Luftspule und eine vollständige Kompensation des Skineffekts konnten nicht nachgewiesen werden. Jedoch konnte der Einfluss der Kabelzuleitung des Quadrupols auf den Magnetfeldverlauf in den Simulationen und Messungen nachgewiesen werden. Weiterhin wurde für den energieeffizienten Einsatz im Transferkanal zwischen SIS18 und SIS100 ein Energierückgewinnungsschaltkreis entwickelt, der eine Ersparnis von 84 % der Betriebsleistung ermöglicht.