Refine
Year of publication
- 2013 (18) (remove)
Document Type
- Master's Thesis (18) (remove)
Has Fulltext
- yes (18)
Is part of the Bibliography
- no (18) (remove)
Keywords
- CBM (1)
Institute
- Physik (15)
- Informatik und Mathematik (1)
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
In der vorliegenden Arbeit wurden Messungen zur Plasmadynamik eines Lorentz-Drift- Beschleunigers (LDB) durchgeführt. Dieser basiert auf einer koaxialen Elektrodengeometrie. Bei einem Überschlag führt der entstehende Stromfluss zu einemMagnetfeld, sodass die gebildeten Ladungsträger durch die resultierende Lorentzkraft beschleunigt werden. Es hat sich gezeigt, dass die Abhängigkeit von Durchbruchspannung und Druck dem charakteristischen Verlauf einer Paschenkurve folgt.
Die Strom-Spannungs-Charakteristik des Versuchsaufbaus wurde in Konfigurationen mit und ohne Funkenstrecke untersucht. Mit Hilfe von diesem als Schalter fungierenden Spark-Gaps konnte bei Durchbruchspannungen gemessen werden, die oberhalb des Selbstdurchbruchs liegen.
Es zeigte sich, dass die im Versuchaufbau verwendete Funkenstrecke keinen wesentlichen Einfluss auf die Entladung hat. Es kommt an der Funkenstrecke lediglich zu einem Spannungsabfall im Bereich einiger hundert Volt, der den Verlauf derEntladung im LDB allerdings nicht beeinflusst.
Der Lorentz-Drift-Beschleuniger könnte in Zukunft zur Erzeugung eines Druckgradienten verwendet werden, indem Teilchen von einem Rezipienten in einen Zweiten beschleunigt werden. Als Voruntersuchung zur Eingnung dieses als Lorentz-Drift-Ventil bezeichneten Konzeptes wurden Messungen durchgeführt, die den Einfluss der Durchbruchspannung auf die Teilchenbeschleunigung mit Hilfe eines piezokeramischen Elementes untersuchen. So wurde der magnetische Druck bzw. die entsprechende Kraft einer Entladungswolke in Abhängigkeit von Durchbruchspannungen bis etwa 9,5 kV untersucht. Es hat sich gezeigt, dass der Einsatz von hohen Spannungen sinnvoll ist, da sich die auf das Piezoelement einwirkende Kraft quadratisch zur Durchbruchspannung verhält. So wurde die maximale Kraft von 0,44N bei einer Zündspannung von 9,52 kV gemessen.
Zudem wurde untersucht, in welchem Druckbereich der Einfluss der Druckwelle zu messen und wie sich die Geschwindigkeit der Ausbreitung der Druckwelle bei verschiedenen Durchbruchspannungen verhält. Bei einer Entfernung von 231mm zwischen Elektrodengeometrie und Piezoelement hat sich gezeigt, dass im Druckbereich unterhalb von etwa 0,2mbar kein wesentlicher Einfluss des Gasdruckes auf die Piezospannung erkennbar ist. Dies lässt sich durch die geringe Teilchenanzahl im Arbeitsgas begründen, sodass Teilchenstöße vernachlässigt werden können. Die maximale gemessene Geschwindigkeit der durch die Entladung verursachten Druckwelle liegt bei 55 km s ± 10%.
Die gemessene Plasmadynamik lässt darauf schließen, dass das Konzept eines gepulsten Lorentz-Drift-Ventils insbesondere mit hohen Durchbruchspannungen realisierbar ist. Zur Erzeugung eines dauerhaften Druckgradienten müsste die Repetitionsrate allerdings ausreichend hoch sein, sodass der rückfließende Gasdurchsatz geringer ist als die durch den LDB erzeugte Drift. Geht man von der Schallgeschwindigkeit als Rückflussgeschwindigkeit der Teilchen aus, so sind mindestens Repetitionszeiten im Bereich einer Millisekunde erforderlich.
Ergänzend zu den durchgeführten Untersuchungen ist es sinnvoll, die bisherigen Messungen durch Einbau eines Triggers zu verifizieren. Ein Trigger erzeugt eine Vorentladung mit deren Hilfe die eigentliche Entladung auch im Bereich unterhalb des Selbstdurchbruchs gezündet werden kann.
In the second half of the last century, a brave idea of providing aid to developing countries not only because of humanitarian reasons, but also because of a global economic interdependency was born. International organizations shared this view with a great enthusiasm and significantly increased their engagement in low-income countries believing that these nations need to and can be helped. This movement stirred an interest of the academia and, as a result, research on the outcomes of international donors’ engagement in recipient countries started.
The main aim of this thesis is to analyze a broad spectrum of literature on aid effectiveness in developing countries and to summarize the main findings concerning an impact of state fragility and conflict on the efficiency of donor engagement. However, the main focus of this research lies in an own empirical analysis of some well-established hypotheses, as well as in a statistical testing of the outcomes obtained by other authors in a relevant field of study.
The effectiveness of foreign aid...
Das Ziel dieser Masterarbeit ist die Auslegung des Kickers für den Bunch-Kompressor des FRANZ-Projektes. Anhand eines Modells wurden die verschiedenen Möglichkeiten der Einkopplung sowie das Feld zwischen den Kondensatorplatten bereits untersucht. In der vorliegenden Arbeit wird der Kicker mit Hilfe des Programms CST Microwave Studio erstellt und optimiert, sodass er nach Abschluss der Untersuchungen in die Fertigung gehen kann. Dabei ist der erste Schwerpunkt der Untersuchungen die Auslegung und Optimierung der Kondensatorplatten, die für die Auslenkung der Mikro-Bunche im FRANZ-Projekt verantwortlich sind. Zu Beginn der Masterarbeit gab es gezielte Winkelverteilungen, die der Kicker im Rahmen des FRANZ-Projektes erreichen sollte. Nachdem ein Erreichen dieser Werte nur bedingt möglich war, wurden verschiedene Abschnitte des FRANZ-Projektes neu überdacht und die Anforderungen an den Kicker änderten sich dadurch grundlegend. Aus diesem Grund wurde der Kicker zu Beginn der Arbeit für eine Frequenz von 5 MHz ausgelegt, wohingegen er im Rahmen der neuen Anforderungen für eine Resonanzfrequenz von 2,57 MHz ausgelegt wurde. Die Untersuchung der optimalen Resonanzfrequenz für die Anforderungen des Kickers stellt den zweiten Schwerpunkt dieser Arbeit dar.
Nach dem einführenden Theorieteil werden in den darauffolgenden Kapiteln zuerst die Auslegung und die Vermessung der drei Tripletts an der GSI in Darmstadt beschrieben und dann versucht mit Hilfe von LORASR einen Akzeptanzrahmen der MEBT-Sektion (Medium Energy Beam Transport) für ein Teilchenpaket anzugeben. Anschließend werden die Ergebnisse aus Feldvermessung und CST EM STUDIO Feldsimulationen verglichen. Damit soll die Frage, inwieweit es mit Particle Tracking Simulationen, in denen mit in CST EM STUDIO simulierten und anschließend in BENDER importierten Feldern gearbeitet wird, möglich ist, zutreffende Aussagen zu machen, beantwortet werden. Im letzten Kapitel werden wiederum die Ergebnisse dieser Simulationen präsentiert und ihre Bedeutung, im Vergleich mit den erweiterten Untersuchungen der Transporteigenschaften durch verschiedene aus überlagerten Multipolfeldern generierten Magnetfelder, eingeordnet. Abschließend wird nochmals ein Fazit zur Aussagekraft der Ergebnisse und der Folgen für den Strahltransport gezogen und ein Ausblick auf die noch ausstehenden Schritte und weitere experimentelle Analyseoptionen gegeben.
Mit einem COLTRIMS Reaktions-Mikroskop wurde die Doppelionisation von Argon durch Laserpulse gemessen, um die Energiequantisierung im Allgemeinen und den Recollision Mechanismus zu untersuchen. Mit der Abhängigkeit der Doppelionisationsrate von der Elliptizität des Lichts liegt ein starker Hinweis auf ein Modell vor, welches Rescattering beinhaltet. Außerdem ist durch die Messung der Doppelionisationsrate gewährleistet, dass in einem Intensitätsintervall gemessen wurde, welches der nicht-sequentiellen Doppelionisation zugeschrieben wird.
Recollision-Ionization scheint für die in einem bestimmten Intensitätsintervall beobachtete erhöhte Doppelionisation verantwortlich zu sein. Das sollte zu ATI-Peaks in der Summenenergie der ausgelösten Elektronen führen. Diese werden in der vorliegenden Arbeit erstmalig beobachtet. Außerdem sind nicht erwartete ATI-Peaks im Energiespektrum der einzelnen Elektronen sichtbar, welche der direkten Stoßionisation widersprechen.
Dadurch liegt der Schluss nahe, dass der Hauptmechanismus der Doppelionisation in diesem Intensitätsbereich ein anderer Effekt ist: RESI (Recollision Excitation and Subsequent Ionization). Hierbei wird zunächst das zweite Elektron beim Stoß mit dem ersten angeregt. Das erste Elektron bleibt im Kontinuum und wird durch den Laser beschleunigt. Beim nächsten Feldmaximum wird das angeregte Elektron tunnelionisiert, wodurch ebenfalls ATI-Peaks im Energiespektrum dieses Elektrons erzeugt werden.
Als mögliche Zwischenzustände werden 3s23p4(1D)4s (2D) und 3s23p4(1D)3d (2P) identifiziert, die zu dem beobachteten angeregten Endzustand 3s23p4(1D) führen.
Der langsame Neutronen-Einfangprozess (s-Prozess) ist weitgehend verstanden und erforscht. Dies liegt vor allem daran, dass er im Gegensatz zu r- und p- Prozess hauptsächlich an stabilen Nukliden abläuft. Auch ist die Anzahl relevanter Reaktionen (Netzwerk) vergleichsweise klein.
Dennoch gibt es im s-Prozess viele ungeklärte Fragen. Eine dieser Fragen ist die Häufigkeitsverteilung von 86Kr in Staubkörnern von Meteoriten. Mit bisherigen Berechnungen und Simulationen dieser Szenarien konnte die Häufigkeitsverteilung von 86Kr jedoch nicht erklärt werden.
In dieser Arbeit werden die besonderen Eigenschaften von 85Kr, insbesondere sein Isomerzustand, vorgestellt und genauer untersucht. Die Häufigkeitsverteilung von 86Kr im s-Prozess wird entscheidend durch die Eigenschaften 85Kr beeinflusst. Mit den gewonnenen Daten aus dieser Arbeit wurde eine erste Simulation erstellt, die einen möglichenWeg aufzeigt, das Rätsel um die Häufigkeitsverteilung zu lösen.
Im Rahmen dieser Arbeit wurde eine JTAG-Ansteuerung für MIMOSA26-Sensoren basierend auf FPGA-Boards entwickelt. Als VHDL-Code ist die Implementierung anpassbar. Jede JTAG-Chain wird durch einen unabhängigen JTAG-Chain-Controller angesteuert, so dass sich begrenzt durch die Zahl der I/O-Leitungen und die Ressourcen die Anzahl der JTAG-Chain-Controller auf einem FPGA einstellen lässt. Die Anpassbarkeit hat sich bereits bei der Strahlzeit am CERN im November 2012 gezeigt, für die eine Version mit drei JTAG-Chain-Controllern auf einem FPGA und Ausgängen auf einem SCSI-Kabel synthetisiert wurde. Dabei wurde die Prototyp-Frontend-Elektronik Version 1 verwendet. Außerdem ist die Größe des pro Sensor verwendeten Speichers (in Zweierpotenzen) im VHDL-Code einstellbar, um auch eventuelle zukünftige Sensoren mit größeren Registern zu unterstützen.
Aus dieser Sicht sollte die Implementierung mit kleinen Anpassungen im finalen MVD verwendbar sein, es gibt jedoch wie immer noch Verbesserungsmöglichkeiten, z.B. die Verwendung eines externen Speichers. Des Weiteren fehlt noch eine grafische Benutzeroberfläche für den finalen MVD, wobei wie bei den anderen Detektoren von CBM dazu eine Steuerung basierend auf EPICS entwickelt werden sollte, um eine einheitliche Oberfläche zu erreichen.
Auf Seiten der Elektronik für ded finalen MVD gibt es noch einige offene Fragen, vor allem bei der Entwicklung der Zuleitungen für die Sensoren. Die Signale auf den Flexprint-Kabeln zeigen bereits bei kurzen JTAG-Chains ein hohes Übersprechen (Abschnitt 9.1.2), das zu hoch werden könnte, wenn man Sensor-Module mit mehr als einem Sensor (wie für den finalen MVD geplant, siehe Kapitel 3) an das bisher verwendete Chain-FPC anschließt.. Es kann jedoch auch gut sein, dass das Übersprechen gar kein Problem darstellen wird. Prinzipiell besteht die Möglichkeit, dass sich das Übersprechen z.B. durch Einfügen einer Masseschicht in Kabel und Boards reduzieren lässt, was in Simulationen gezeigt wurde (siehe Kapitel 8). Jedoch wurden in diesen Simulationen die Steckverbinder und eventuelle Fehlanpassungen der Boards vernachlässigt, weshalb nicht sicher ist, ob bzw. wie gut sich dies praktisch umsetzen lässt. In jedem Fall stellen die betrachteten Möglichkeiten, das Übersprechen zu reduzieren, einen erhöhten Aufwand dar. Daher erscheint es sinnvoll, zuerst eine konkrete Geometrie für die Elektronik des finalen MVD zu entwerfen1, und für diese zu ermitteln, ob das Übersprechen ein Problem darstellt.
Dabei stellt sich die wichtige Frage, wie viele Sensoren auf einem Sensor-Modul mit einem einlagigen Kabel in der zur Verfügung stehenden Breite angeschlossen werden können, da mindestens vier zusätzliche Datenleitungen für jeden weiteren Sensor erforderlich sind.
Seit den 20er Jahren werden Teilchen durch verschiedenste Methoden beschleunigt und wechselwirken unter Laborbedingungen mit anderen Teilchen. Hierbei spielt die Erzeugung neuer meist sehr kurzlebiger Teilchen eine wichtige Rolle. Die Untersuchung dieser Streuexperimente ist eine der wichtigsten Methoden der Elementarteilchen-, Kern- und Astrophysik. So steht bei den heutigen Kernphysik-Experimenten immer mehr die Astrophysik im Vordergrund. Die offenen kosmischen Fragen nach dem Ursprung und der Entwicklung des Universums drängen nach Antworten. Seit die Menschen bewusst denken können, gibt es diese Neugier zu erfahren woraus das Universum besteht. Unser Bild des Universums wurde durch neue Erkenntnisse alleine in den letzten 30 Jahren mehrmals radikal verändert.
Besonders die Vielzahl und Häufigkeit der heute zu findenden Elemente wollen erklärt werden. Da nach heutigen Kenntnissen davon ausgegangen wird, dass kurz nach dem Urknall lediglich die leichten Elemente Wasserstoff, Helium und Lithium vorhanden waren. Hier versucht die aktuelle Forschung anzusetzen. Das Konzept der sogenannten „Nukleosynthese“ ist entwickelt worden und versucht das Entstehen aller schwereren Elemente zu erklären. So geht man heute davon aus, dass sich die weiteren Elemente bis hin zu Eisen durch Kernfusions-Prozesse innerhalb der verschiedenen Brennphasen von Sternen entwickelt haben - während alle schwereren Elemente durch neutronen-induzierte Prozesse entstanden sind. Die beiden großen Neutronenprozesse sind der r-Prozess (rapid neutron-capture process) und der s-Prozess (slow neutron-capture process). Während der r-Prozess wahrscheinlich in hochexplosiven Szenarien, wie den Supernovae, stattfindet, spielt sich der s-Prozess meist innerhalb Roter Riesen ab [Rei06].
Um diese Theorien zu belegen und zu unterstützen, ist es nötig diverse kernphysikalische Experimente auf der Erde durchzuführen. Hier versucht man den Bedingungen in den Sternen nahe zu kommen. Es werden hohe Energien und hohe Neutronenflüsse benötigt um schwerere Elemente durch Neutroneneinfangs- und Fusionsprozesse zu erzeugen. Ziel Motivation Einleitung ist es unter anderem nukleare Wirkungsquerschnitte diverser Reaktionen experimentell nachzuweisen und auf die Sternmodelle umzurechnen.
Die Schwierigkeit liegt hier nicht nur in der Erzeugung und Erhaltung dieser hohen Raten, sondern vielmehr auch in der Detektion der entstandenen Fragmente und Teilchen. Da diese Teilchen und subatomaren Partikel nur eine jeweils sehr kurze Lebensdauer besitzen, ist es eine große Herausforderung möglichst effiziente und effektive Detektoren zu entwickeln. Damit diese Detektoren in den jeweiligen Experimenten dann möglichst optimal arbeiten und die gewünschten Auflösungen liefern, ist es nötig gute Kalibrierungsmöglichkeiten im Voraus auszunutzen.