Refine
Year of publication
Document Type
- Master's Thesis (86) (remove)
Language
- German (86) (remove)
Has Fulltext
- yes (86)
Keywords
- Beschleunigerphysik (2)
- E-Learning (2)
- Erwachsenenbildung (2)
- Experiment (2)
- Ionenstrahl (2)
- Kinder- und Jugendliteratur (2)
- Konstruktion (2)
- Lehren mit neuen Medien (2)
- Lehrerbildung (2)
- Lernen mit neuen Medien (2)
Institute
- Physik (41)
- Gesellschaftswissenschaften (11)
- Mathematik (6)
- Neuere Philologien (5)
- Informatik und Mathematik (4)
- Erziehungswissenschaften (3)
- Sportwissenschaften (3)
- Psychologie (2)
- Biochemie und Chemie (1)
- Geographie (1)
Nach dem einführenden Theorieteil werden in den darauffolgenden Kapiteln zuerst die Auslegung und die Vermessung der drei Tripletts an der GSI in Darmstadt beschrieben und dann versucht mit Hilfe von LORASR einen Akzeptanzrahmen der MEBT-Sektion (Medium Energy Beam Transport) für ein Teilchenpaket anzugeben. Anschließend werden die Ergebnisse aus Feldvermessung und CST EM STUDIO Feldsimulationen verglichen. Damit soll die Frage, inwieweit es mit Particle Tracking Simulationen, in denen mit in CST EM STUDIO simulierten und anschließend in BENDER importierten Feldern gearbeitet wird, möglich ist, zutreffende Aussagen zu machen, beantwortet werden. Im letzten Kapitel werden wiederum die Ergebnisse dieser Simulationen präsentiert und ihre Bedeutung, im Vergleich mit den erweiterten Untersuchungen der Transporteigenschaften durch verschiedene aus überlagerten Multipolfeldern generierten Magnetfelder, eingeordnet. Abschließend wird nochmals ein Fazit zur Aussagekraft der Ergebnisse und der Folgen für den Strahltransport gezogen und ein Ausblick auf die noch ausstehenden Schritte und weitere experimentelle Analyseoptionen gegeben.
Seit den 20er Jahren werden Teilchen durch verschiedenste Methoden beschleunigt und wechselwirken unter Laborbedingungen mit anderen Teilchen. Hierbei spielt die Erzeugung neuer meist sehr kurzlebiger Teilchen eine wichtige Rolle. Die Untersuchung dieser Streuexperimente ist eine der wichtigsten Methoden der Elementarteilchen-, Kern- und Astrophysik. So steht bei den heutigen Kernphysik-Experimenten immer mehr die Astrophysik im Vordergrund. Die offenen kosmischen Fragen nach dem Ursprung und der Entwicklung des Universums drängen nach Antworten. Seit die Menschen bewusst denken können, gibt es diese Neugier zu erfahren woraus das Universum besteht. Unser Bild des Universums wurde durch neue Erkenntnisse alleine in den letzten 30 Jahren mehrmals radikal verändert.
Besonders die Vielzahl und Häufigkeit der heute zu findenden Elemente wollen erklärt werden. Da nach heutigen Kenntnissen davon ausgegangen wird, dass kurz nach dem Urknall lediglich die leichten Elemente Wasserstoff, Helium und Lithium vorhanden waren. Hier versucht die aktuelle Forschung anzusetzen. Das Konzept der sogenannten „Nukleosynthese“ ist entwickelt worden und versucht das Entstehen aller schwereren Elemente zu erklären. So geht man heute davon aus, dass sich die weiteren Elemente bis hin zu Eisen durch Kernfusions-Prozesse innerhalb der verschiedenen Brennphasen von Sternen entwickelt haben - während alle schwereren Elemente durch neutronen-induzierte Prozesse entstanden sind. Die beiden großen Neutronenprozesse sind der r-Prozess (rapid neutron-capture process) und der s-Prozess (slow neutron-capture process). Während der r-Prozess wahrscheinlich in hochexplosiven Szenarien, wie den Supernovae, stattfindet, spielt sich der s-Prozess meist innerhalb Roter Riesen ab [Rei06].
Um diese Theorien zu belegen und zu unterstützen, ist es nötig diverse kernphysikalische Experimente auf der Erde durchzuführen. Hier versucht man den Bedingungen in den Sternen nahe zu kommen. Es werden hohe Energien und hohe Neutronenflüsse benötigt um schwerere Elemente durch Neutroneneinfangs- und Fusionsprozesse zu erzeugen. Ziel Motivation Einleitung ist es unter anderem nukleare Wirkungsquerschnitte diverser Reaktionen experimentell nachzuweisen und auf die Sternmodelle umzurechnen.
Die Schwierigkeit liegt hier nicht nur in der Erzeugung und Erhaltung dieser hohen Raten, sondern vielmehr auch in der Detektion der entstandenen Fragmente und Teilchen. Da diese Teilchen und subatomaren Partikel nur eine jeweils sehr kurze Lebensdauer besitzen, ist es eine große Herausforderung möglichst effiziente und effektive Detektoren zu entwickeln. Damit diese Detektoren in den jeweiligen Experimenten dann möglichst optimal arbeiten und die gewünschten Auflösungen liefern, ist es nötig gute Kalibrierungsmöglichkeiten im Voraus auszunutzen.
Der langsame Neutronen-Einfangprozess (s-Prozess) ist weitgehend verstanden und erforscht. Dies liegt vor allem daran, dass er im Gegensatz zu r- und p- Prozess hauptsächlich an stabilen Nukliden abläuft. Auch ist die Anzahl relevanter Reaktionen (Netzwerk) vergleichsweise klein.
Dennoch gibt es im s-Prozess viele ungeklärte Fragen. Eine dieser Fragen ist die Häufigkeitsverteilung von 86Kr in Staubkörnern von Meteoriten. Mit bisherigen Berechnungen und Simulationen dieser Szenarien konnte die Häufigkeitsverteilung von 86Kr jedoch nicht erklärt werden.
In dieser Arbeit werden die besonderen Eigenschaften von 85Kr, insbesondere sein Isomerzustand, vorgestellt und genauer untersucht. Die Häufigkeitsverteilung von 86Kr im s-Prozess wird entscheidend durch die Eigenschaften 85Kr beeinflusst. Mit den gewonnenen Daten aus dieser Arbeit wurde eine erste Simulation erstellt, die einen möglichenWeg aufzeigt, das Rätsel um die Häufigkeitsverteilung zu lösen.
Ziel der nuklearen Astrophysik ist es, die solare Häufigkeitsverteilung der Elemente zu erklären (siehe Seite 10, Abb. 1.1). Die Elemente bis zur Eisengruppe sind dabei unmittelbar nach dem Urknall und während verschiedener Brennphasen in Sternen durch Kernfusion entstanden. Da die Bindungsenergie pro Nukleon der Elemente in der Eisengruppe am höchsten ist, ist für den Aufbau schwererer Elemente keine Energiegewinnung durch Fusion geladener Teilchen mehr möglich und Neutroneneinfänge und Betazerfälle spielen die entscheidende Rolle für die Nukleosynthese. In Abhängigkeit von der Neutronendichte und der Temperatur wird dabei zwischen dem langsamen Neutroneneinfangprozess, dem s-Prozess, und dem schnellen Neutroneneinfangprozess, dem r-Prozess, unterschieden. Während der r-Prozess weit abseits der stabilen Isotope an der Neutronenabbruchkante statt findet, verläuft der Reaktionspfad des s-Prozesses entlang der stabilen Isotope am "Tal der Stabilität".
Mit einem COLTRIMS Reaktions-Mikroskop wurde die Doppelionisation von Argon durch Laserpulse gemessen, um die Energiequantisierung im Allgemeinen und den Recollision Mechanismus zu untersuchen. Mit der Abhängigkeit der Doppelionisationsrate von der Elliptizität des Lichts liegt ein starker Hinweis auf ein Modell vor, welches Rescattering beinhaltet. Außerdem ist durch die Messung der Doppelionisationsrate gewährleistet, dass in einem Intensitätsintervall gemessen wurde, welches der nicht-sequentiellen Doppelionisation zugeschrieben wird.
Recollision-Ionization scheint für die in einem bestimmten Intensitätsintervall beobachtete erhöhte Doppelionisation verantwortlich zu sein. Das sollte zu ATI-Peaks in der Summenenergie der ausgelösten Elektronen führen. Diese werden in der vorliegenden Arbeit erstmalig beobachtet. Außerdem sind nicht erwartete ATI-Peaks im Energiespektrum der einzelnen Elektronen sichtbar, welche der direkten Stoßionisation widersprechen.
Dadurch liegt der Schluss nahe, dass der Hauptmechanismus der Doppelionisation in diesem Intensitätsbereich ein anderer Effekt ist: RESI (Recollision Excitation and Subsequent Ionization). Hierbei wird zunächst das zweite Elektron beim Stoß mit dem ersten angeregt. Das erste Elektron bleibt im Kontinuum und wird durch den Laser beschleunigt. Beim nächsten Feldmaximum wird das angeregte Elektron tunnelionisiert, wodurch ebenfalls ATI-Peaks im Energiespektrum dieses Elektrons erzeugt werden.
Als mögliche Zwischenzustände werden 3s23p4(1D)4s (2D) und 3s23p4(1D)3d (2P) identifiziert, die zu dem beobachteten angeregten Endzustand 3s23p4(1D) führen.
In der vorliegenden Arbeit wurden Messungen zur Plasmadynamik eines Lorentz-Drift- Beschleunigers (LDB) durchgeführt. Dieser basiert auf einer koaxialen Elektrodengeometrie. Bei einem Überschlag führt der entstehende Stromfluss zu einemMagnetfeld, sodass die gebildeten Ladungsträger durch die resultierende Lorentzkraft beschleunigt werden. Es hat sich gezeigt, dass die Abhängigkeit von Durchbruchspannung und Druck dem charakteristischen Verlauf einer Paschenkurve folgt.
Die Strom-Spannungs-Charakteristik des Versuchsaufbaus wurde in Konfigurationen mit und ohne Funkenstrecke untersucht. Mit Hilfe von diesem als Schalter fungierenden Spark-Gaps konnte bei Durchbruchspannungen gemessen werden, die oberhalb des Selbstdurchbruchs liegen.
Es zeigte sich, dass die im Versuchaufbau verwendete Funkenstrecke keinen wesentlichen Einfluss auf die Entladung hat. Es kommt an der Funkenstrecke lediglich zu einem Spannungsabfall im Bereich einiger hundert Volt, der den Verlauf derEntladung im LDB allerdings nicht beeinflusst.
Der Lorentz-Drift-Beschleuniger könnte in Zukunft zur Erzeugung eines Druckgradienten verwendet werden, indem Teilchen von einem Rezipienten in einen Zweiten beschleunigt werden. Als Voruntersuchung zur Eingnung dieses als Lorentz-Drift-Ventil bezeichneten Konzeptes wurden Messungen durchgeführt, die den Einfluss der Durchbruchspannung auf die Teilchenbeschleunigung mit Hilfe eines piezokeramischen Elementes untersuchen. So wurde der magnetische Druck bzw. die entsprechende Kraft einer Entladungswolke in Abhängigkeit von Durchbruchspannungen bis etwa 9,5 kV untersucht. Es hat sich gezeigt, dass der Einsatz von hohen Spannungen sinnvoll ist, da sich die auf das Piezoelement einwirkende Kraft quadratisch zur Durchbruchspannung verhält. So wurde die maximale Kraft von 0,44N bei einer Zündspannung von 9,52 kV gemessen.
Zudem wurde untersucht, in welchem Druckbereich der Einfluss der Druckwelle zu messen und wie sich die Geschwindigkeit der Ausbreitung der Druckwelle bei verschiedenen Durchbruchspannungen verhält. Bei einer Entfernung von 231mm zwischen Elektrodengeometrie und Piezoelement hat sich gezeigt, dass im Druckbereich unterhalb von etwa 0,2mbar kein wesentlicher Einfluss des Gasdruckes auf die Piezospannung erkennbar ist. Dies lässt sich durch die geringe Teilchenanzahl im Arbeitsgas begründen, sodass Teilchenstöße vernachlässigt werden können. Die maximale gemessene Geschwindigkeit der durch die Entladung verursachten Druckwelle liegt bei 55 km s ± 10%.
Die gemessene Plasmadynamik lässt darauf schließen, dass das Konzept eines gepulsten Lorentz-Drift-Ventils insbesondere mit hohen Durchbruchspannungen realisierbar ist. Zur Erzeugung eines dauerhaften Druckgradienten müsste die Repetitionsrate allerdings ausreichend hoch sein, sodass der rückfließende Gasdurchsatz geringer ist als die durch den LDB erzeugte Drift. Geht man von der Schallgeschwindigkeit als Rückflussgeschwindigkeit der Teilchen aus, so sind mindestens Repetitionszeiten im Bereich einer Millisekunde erforderlich.
Ergänzend zu den durchgeführten Untersuchungen ist es sinnvoll, die bisherigen Messungen durch Einbau eines Triggers zu verifizieren. Ein Trigger erzeugt eine Vorentladung mit deren Hilfe die eigentliche Entladung auch im Bereich unterhalb des Selbstdurchbruchs gezündet werden kann.
Das Ziel dieser Masterarbeit ist die Auslegung des Kickers für den Bunch-Kompressor des FRANZ-Projektes. Anhand eines Modells wurden die verschiedenen Möglichkeiten der Einkopplung sowie das Feld zwischen den Kondensatorplatten bereits untersucht. In der vorliegenden Arbeit wird der Kicker mit Hilfe des Programms CST Microwave Studio erstellt und optimiert, sodass er nach Abschluss der Untersuchungen in die Fertigung gehen kann. Dabei ist der erste Schwerpunkt der Untersuchungen die Auslegung und Optimierung der Kondensatorplatten, die für die Auslenkung der Mikro-Bunche im FRANZ-Projekt verantwortlich sind. Zu Beginn der Masterarbeit gab es gezielte Winkelverteilungen, die der Kicker im Rahmen des FRANZ-Projektes erreichen sollte. Nachdem ein Erreichen dieser Werte nur bedingt möglich war, wurden verschiedene Abschnitte des FRANZ-Projektes neu überdacht und die Anforderungen an den Kicker änderten sich dadurch grundlegend. Aus diesem Grund wurde der Kicker zu Beginn der Arbeit für eine Frequenz von 5 MHz ausgelegt, wohingegen er im Rahmen der neuen Anforderungen für eine Resonanzfrequenz von 2,57 MHz ausgelegt wurde. Die Untersuchung der optimalen Resonanzfrequenz für die Anforderungen des Kickers stellt den zweiten Schwerpunkt dieser Arbeit dar.
Als es in den 1920er und 1930er Jahren zur Entdeckung des expandierenden Raums, gemessen über die kosmologische Rotverschiebung, kommt, wird daraus erstmals die Idee eines kleinsten Ursprungspunkts zu Beginn der Zeit postuliert. Es dauerte jedoch weitere 30 Jahre, bis das Konzept des „Big Bang“ als Ursprungsmodell veröffentlicht wurde [Lum07]. Seitdem untersuchen Wissenschaftler fortschreitend die Theorie des Big Bang. Der Zustand der Materie zum Zeitpunkt Null ist nach wie vor ungeklärt, ab ca. 10 exp (-44) Sekunden nach dem Urknall wird in der Theorie des Big Bang davon ausgegangen, dass sich die Materie im Zustand des Quark-Gluon-Plasmas befand. Zunächst galt es eine experimentelle Bestätigung für die generelle Existenz eines solchen Zustands zu finden. Die experimentelle Suche nach dem Quark-Gluon-Plasma im Labor begann vor fast 30 Jahren am Bevalac in Berkley [Gus84], dort konnte bei Niobium-Kollisionen kollektiver Fluss beobachtet werden. Zehn Jahre später begannen die Messungen des Schwerionen-Forschungsprogramms am CERN1. Im Jahr 1994 wurden dort die ersten Schwerionenkollisionen durchgeführt, von denen man sich erhoffte, dass sie zu einer kurzzeitigen Erzeugung des Quark-Gluon-Plasmas führen. Im Jahr 2000 gab es dann eine zusammenfassende Pressemitteilung des CERN, in der die Messungen eines neuartigen Materiezustands beschrieben wurden [CER00]. Weitere fünf Jahre später wurde ein Bericht der bis dahin erreichten Ergebnisse der vier Quark-Gluon-Plasma Experimente am Relativistic Heavy Ion Collider (RHIC) des Brookhaven National Labratory veröffentlicht [BNL05]. Dabei konnten einige Ergebnisse aus den Messungen am CERN bestätigt werden, andere hingegen nicht. Die Annahme, das Quark-Gluon-Plasma verhalte sich wie ein Gas, musste beispielsweise nach den Messungen am RHIC verworfen werden. Diese zeigen, dass das Verhalten des Quark-Gluon-Plasma eher dem von Flüssigkeiten ähnelt [BNL05].
Seit den ersten Schritten zur Untersuchung des Quark-Gluon-Plasma am CERN, in denen vor allem die Messung der Existenz des Quark-Gluon-Plasmas an sich im Vordergrund stand, soll der Phasenübergang nun quantitativ untersucht werden. Dazu werden Dichte und Temperatur der betrachteten Materie variiert und die vorhandene Zustandsphase gemessen. Eines dieser Experimente soll das Compressed Baryonic Matter (CBM) Experiment werden. Das Ziel des Experiments ist die Untersuchung von Materie bei sehr hohen Dichten, aber im Vergleich zu anderen aktuellen Experimenten relativ niedrigen Temperaturen. Im Jahr 2009 wurde der erste Spatenstich auf dem Gelände der Gesellschaft für Schwerionenforschung in Darmstadt für den Bau der Facility for Antiproton and Proton Research (FAIR) getätigt. Mit Hilfe der FAIR-Beschleuniger soll dann das CBM Experiment das Quark-Gluon-Plasma bei hohen Materiedichten mit bisher nicht erreichter Statistik untersuchen können. Jedoch gerade das Erreichen solch hoher Ereignisraten stellt nicht nur eine zentrale Herausforderung an die Beschleuniger dar, sondern auch an die messenden Detektoren. Diese Arbeit beschäftigt sich mit der Entwicklung eines Transition Radiation Detektors für das CBM Experiment.
Nach einer kurzen Einführung in die generelle Untersuchung des Quark-Gluon-Plasmas folgt die Beschreibung des geplanten Aufbaus des CBM Experiments mit dessen Subsystemen. Danach wird die theoretische und praktische Funktionsweise eines Transition-Radiation Detektors (TRD) erklärt, um darauf aufbauend die Charakterisierung und Signalanalyse der entwickelten TRD-Prototypen darzustellen. Abschließend werden die Ergebnisse in Bezug auf den für das CBM Experiment zu entwickelnden Detektor diskutiert.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
Im Rahmen dieser Arbeit wurde eine JTAG-Ansteuerung für MIMOSA26-Sensoren basierend auf FPGA-Boards entwickelt. Als VHDL-Code ist die Implementierung anpassbar. Jede JTAG-Chain wird durch einen unabhängigen JTAG-Chain-Controller angesteuert, so dass sich begrenzt durch die Zahl der I/O-Leitungen und die Ressourcen die Anzahl der JTAG-Chain-Controller auf einem FPGA einstellen lässt. Die Anpassbarkeit hat sich bereits bei der Strahlzeit am CERN im November 2012 gezeigt, für die eine Version mit drei JTAG-Chain-Controllern auf einem FPGA und Ausgängen auf einem SCSI-Kabel synthetisiert wurde. Dabei wurde die Prototyp-Frontend-Elektronik Version 1 verwendet. Außerdem ist die Größe des pro Sensor verwendeten Speichers (in Zweierpotenzen) im VHDL-Code einstellbar, um auch eventuelle zukünftige Sensoren mit größeren Registern zu unterstützen.
Aus dieser Sicht sollte die Implementierung mit kleinen Anpassungen im finalen MVD verwendbar sein, es gibt jedoch wie immer noch Verbesserungsmöglichkeiten, z.B. die Verwendung eines externen Speichers. Des Weiteren fehlt noch eine grafische Benutzeroberfläche für den finalen MVD, wobei wie bei den anderen Detektoren von CBM dazu eine Steuerung basierend auf EPICS entwickelt werden sollte, um eine einheitliche Oberfläche zu erreichen.
Auf Seiten der Elektronik für ded finalen MVD gibt es noch einige offene Fragen, vor allem bei der Entwicklung der Zuleitungen für die Sensoren. Die Signale auf den Flexprint-Kabeln zeigen bereits bei kurzen JTAG-Chains ein hohes Übersprechen (Abschnitt 9.1.2), das zu hoch werden könnte, wenn man Sensor-Module mit mehr als einem Sensor (wie für den finalen MVD geplant, siehe Kapitel 3) an das bisher verwendete Chain-FPC anschließt.. Es kann jedoch auch gut sein, dass das Übersprechen gar kein Problem darstellen wird. Prinzipiell besteht die Möglichkeit, dass sich das Übersprechen z.B. durch Einfügen einer Masseschicht in Kabel und Boards reduzieren lässt, was in Simulationen gezeigt wurde (siehe Kapitel 8). Jedoch wurden in diesen Simulationen die Steckverbinder und eventuelle Fehlanpassungen der Boards vernachlässigt, weshalb nicht sicher ist, ob bzw. wie gut sich dies praktisch umsetzen lässt. In jedem Fall stellen die betrachteten Möglichkeiten, das Übersprechen zu reduzieren, einen erhöhten Aufwand dar. Daher erscheint es sinnvoll, zuerst eine konkrete Geometrie für die Elektronik des finalen MVD zu entwerfen1, und für diese zu ermitteln, ob das Übersprechen ein Problem darstellt.
Dabei stellt sich die wichtige Frage, wie viele Sensoren auf einem Sensor-Modul mit einem einlagigen Kabel in der zur Verfügung stehenden Breite angeschlossen werden können, da mindestens vier zusätzliche Datenleitungen für jeden weiteren Sensor erforderlich sind.
In dieser Arbeit wurde der mittlere Transversalimpuls 〈pT〉 für nicht identifizierte, geladene Hadronen in pp und Pb–Pb Kollisionen bestimmt. Dazu wurden die pT -Spektren mit verschiedenen Funktionen bis pT = 0 extrapoliert. Die 〈pT〉 -Abhängigkeit wurde sowohl für die Anzahl der gemessen Teilchen nacc , als auch für die Anzahl der geladene Spuren nch gezeigt. Im Rahmen der Zentralitätsabhängigkeit wurde für periphere Ereignisse (70% bis 80 %) 〈pT〉 = 550, 1MeV/c gemessen. Der mittlere Transversalimpuls steigt bis auf 〈pT〉 = 628, 9MeV/c für Zentralitäten von 5% - 20% und verringert sich dann auf 〈pT〉 = 626, 8MeV/c für die zentralsten Kollisionen (0% - 5%) ab. Der Vergleich zu pp und Pb–Pb Kollisionen zeigte Gemeinsamkeiten für niedrige Multiplizitäten und ein sich unterscheidendes Verhalten für höhere Multiplizitäten.
Neben der Bestimmung der systematischen Unsicherheiten ist ein nächster Schritt die Unterscheidung zwischen hadronischer und elektromagnetischer Wechselwirkung für geringe Multiplizitäten in Pb–Pb Kollisionen. Eine Möglichkeit zur Unterscheidung wurde bereits mit Hilfe des ZDC gezeigt [Opp11]. Ebenfalls die Unterschiede zwischen pp und Pb–Pb betrifft eine Untersuchung der 〈pT〉 -Entwicklung für Jets und den sie umgebenden Hintergrund.
Eine allgemeine Erweiterung der Analyse stellt die Untersuchung von 〈pT〉 für identifizierte Teilchen da. Diese Analyse würde vor allem die besonderen PID Fähigkeiten von ALICE nutzen und könnte die schon beobachteten Unterschiede der NA49 Kollaboration[NA499] bei höheren Energien untersuchen
Der Hoppe-Baum ist eine zufällig wachsende, diskrete Baumstuktur, wobei die stochastische Dynamik durch die Entwicklung der Hoppe Urne wie folgt gegeben ist: Die ausgezeichnete Kugel mit der die Hoppe Urne startet entspricht der Wurzel des Hoppe Baumes. In der Hoppe Urne wird diese Kugel mit Wahrscheinlichkeit proportional zu einem Parameter theta>0 gezogen, alle anderen Kugeln werden mit Wahrscheinlichkeit proportional zu 1 gezogen. Wann immer eine Kugel gezogen wird, wird sie zusammen mit einer neuen Kugel in die Urne zurückgelegt, was in unserem Baum dem Einfügen eines neuen Kindes an den gezogenen Knoten entspricht. Im Spezialfall theta=1 erhält man einen zufälligen rekursiven Baum.
In der Arbeit werden Erwartungswerte, Varianzen und Grenzwertsätze für Tiefe, Höhe, Pfadlänge und die Anzahl der Blätter gegeben.
Im Rahmen dieser Arbeit wurde die Analyse von Dielektronen im Bereich niedriger Massen für zwei unterschiedliche Magnetfeldstärken des ALICE-L3-Magneten untersucht. Hierfür wurden zwei Arten von Simulationen, volle Simulationen und schnelle Simulationen, jeweils für die Magnetfeldeinstellungen 0, 2 T und 0, 5 T erstellt und verglichen. Zunächst wurde die Konsistenz der vollen und schnellen Simulationen anhand von Monte Carlo Truth Spektren überprüft. Es zeigte sich eine gute Übereinstimmung der invarianten Massenspektren mit Ausnahme der f-Resonanz, die in den schnellen Simulationen fast 3-mal höher lag. Dann wurden die vollen Simulationen der Magnetfeldeinstellung 0, 5 T mit ALICEMessdaten desselben Magnetfeldes verglichen. Hierbei zeigte sich, dass die Messdaten im Hinblick auf die Transversalimpulsverteilung der einzelnen Elektronen um einen Faktor 1, 2 bis 2 und im Hinblick auf die Transversalimpulsverteilung der Paare um einen Faktor 2 bis 2, 5 über den Simulationen lagen. Dies konnte zum Teil auf eine Kontamination durch Pionen zurückgeführt werden. Das Signal-Untergrund-Verhältnis war mit 0, 99 für die Simulationen 6-mal größer als das der Messdaten mit 0, 16. Die normierte Signifikanz der Simulationen von 0, 0044 lag 3,5-mal über dem Wert 0, 0012 der Messdaten. Für die schnellen Simulationen wurden die Effizienzen für einzelne Elektronen benötigt. Diese wurden mithilfe von Boxensimulationen erstellt. Es wurde zwischen den Elektronidentifikationsmethoden TOF optional und TOF required und den Magnetfeldstärken 0, 2 T und 0, 5 T unterschieden. Die Boxensimulationen ergaben, dass bei einem Magnetfeld von 0, 2 T insgesamt mehr Elektronen rekonstruiert und identifiziert werden konnten. Außerdem konnte die Analyse zu niedrigeren Transversalimpulsen hin ausgedehnt werden. Die schnellen Simulationen zeigten, dass eine Reduktion des Magnetfeldes von 0, 5 T auf 0, 2 T eine Erhöhung der Anzahl an gemessenen Paaren um einem Faktor 2, 0 für die Elektronidentifikation TOF optional und um einem Faktor 6, 0 für die Elektronidentifikation TOF required zur Folge hat. Die vollen Simulationen der Elektronidentifikation TOF optional ergaben nach Reduktion des Magnetfeldes eine Verbesserung des Signal-zu-Untergrund-Verhältnisses um 11% von 0, 98 auf 1, 11. Die Signifikanz konnte von 0, 0043 auf 0, 0060, d.h. um 40%, verbessert werden. Für die Elektronidentifikation TOF required erhielt man ein Signal-zu-Untergrund-Verhältnis von 16, 5 (0, q 2 T) und 19, 1 (0, 2 T). Jedoch war die normierte Signifikanz (sgn = sqrt((s exp 2)/2*B)* (1/sqrt(NEv)))) für das reduzierte Magnetfeld 100% höher und lag bei 0, 086, während sie für 0, 5 T einen Wert von 0, 0043 hatte. In der vorliegenden Arbeit konnte gezeigt werden, dass eine Reduktion der Magnetfeldstärke des ALICE-L3-Magneten von 0, 5 T auf 0, 2 T zu Verbesserungen in der Messung von Elektron-Positron-Paaren führt. Als Fazit kann angenommen werden, dass eine Datennahme bei einem reduzierten Magnetfeld von 0, 2 T sinnvoll erscheint.
Inhalt dieser Arbeit ist die Entwicklung einer digitalen Korpusanwendung zur türkeitürkischen Dialektologie, in welcher der Inhalt des in Kapitel 3.1 beschriebenen Wörterbuchs komplett enthalten und umfangreich durchsuchbar sein soll. Da das Dialektwörterbuch insgesamt 126.468 Einträge enthält, ist eine manuelle Recherche darin äußerst zeitintensiv und unkomfortabel. Selbst die Suche innerhalb einer digitalen Version, die z. B. in einer Word-Datei gespeichert sein kann, ist nicht komfortabel möglich, sobald Optionen bzw. Einschränkungen getätigt werden sollen, wie z. B. die Beschränkung der Ergebnisse auf das Vorkommen in einer bestimmten Provinz. Daher ist es das Ziel der Entwicklung, den Anwendern folgende Suchmöglichkeiten zu bieten: Das Wörterbuch soll entweder komplett im Volltext durchsucht werden können, oder nur innerhalb des Lemmas1. Dabei soll jeweils die Angabe einer oder mehrerer Provinzen möglich sein, sodass die Suchergebnisse nur jene Einträge beinhalten, in denen Suchbegriff und Provinz in der gleichen Zeile enthalten sind. Die Treffer der Suche sollen farbig hervorgehoben sein, damit insbesondere bei großen Wörterbucheinträgen nicht manuell nach den darin enthaltenen Suchbegriffen gesucht werden muss, sondern diese dem Anwender direkt auffallen. Außerdem ist es wünschenswert, mittels Platzhaltern und sogenannten Coversymbolen nach Wortformen und phonetisch bedingten Allomorphen suchen zu können. Letzteres ist für Linguisten, die sich mit dem Türkischen beschäftigen, bei der Eingabe der Suchbegriffe äußerst praktisch, da das Türkische eine vokalharmonische Sprache ist, in der phonetisch bedingte Varianten üblicherweise durch die Schreibung mit Coversymbolen dargestellt werden: z. B. -lAr für die Pluralallomorphe -lar und -ler...
Diese Arbeit beschäftigt sich mit dem Aufbau und der Kalibrierung eines Neutronendetektorarrays für niedrige Energien (Low Energy Neutron detector Array, kurz „LENA“) am kommenden R³B-Aufbau (Reactions with Relativistic Radioactive Beams) am FAIR (Facility for Antiproton and Ion Research) an der GSI in Darmstadt. Die Detektion niederenergetischer Neutronen im Bereich von 100 keV bis 1 MeV ist nötig, um Ladungsaustauschreaktionen, speziell (p,n)-Reaktionen in inverser Kinematik zu untersuchen. In diesem Energiebereich ist die Detektion äußerst schwierig, da Methoden für thermische als auch hochenergetische (100 MeV bis 1 GeV) Neutronen versagen. Neben dem Aufbau des Detektors wird die Bedeutung des Experiments für die nukleare Astrophysik verdeutlicht. Der theoretische Teil dieser Arbeit legt Grundlagen zum Verständnis für den Nachweis von Neutronen, die Funktionsweise des LENA-Detektors und den damit nachweisbaren Kernreaktionen. Des Weiteren wurde eine Simulation des Detektors mit GEANT4 (GEometry And Tracking), einer C++ orientierten Plattform für Simulationen von Wechselwirkungen von Detektormaterial mit Teilchen, durchgeführt. Die Ergebnisse wurden zur Auswertung von Messungen, die im Rahmen einer Strahlzeit im März 2011 an der Physikalisch Technischen Bundesanstalt (PTB) in Braunschweig durchgeführt wurden, herangezogen. Ziel der Arbeit ist es, die Effizienz des Detektors zu bestimmen.
Im September 2005 wurden von der HADES-Kollaboration an der GSI in Darmstadt Daten der Schwerionen-Reaktion Ar+KCl bei 1,76A GeV aufgenommen. Neben den Pionen und Dileptonen wurden bereits fast alle Teilchen mit Seltsamkeitsinhalt rekonstruiert. In dieser Arbeit wird zum ersten Mal eine Analyse der leichten Fragmente Deuteronen, Tritonen und 3Helium mit HADES durchgeführt.
Die gemessenen Multiplizitäten wurden mit einem statistischen Hadronisationsmodell verglichen und zeigen gute Übereinstimmung mit diesem. Dies legt die Vermutung nahe, dass das System Ar+KCl bei 1,76A GeV einen hohen Grad an Thermalisierung erreicht. Zu einer weiteren Untersuchung dieser Hypothese wurden die sogenannten effektiven Temperaturen Teff der Teilchen der chemischen Ausfriertemperatur aus dem statistischen Modellfit gegenübergestellt. Bei der effektiven Temperatur handelt es sich um die inversen Steigungsparameter von Boltzmann-Fits an die transversalen Massenspektren mt-m0 bei Schwerpunktsrapidität. Diese Temperatur entspricht bei einer isotropen, statischen Quelle der kinetischen Ausfriertemperatur und sollte somit unterhalb oder gleich der chemischen Ausfriertemperatur sein. Im Falle der effektiven Temperaturen der Ar+KCl-Daten liegen diese jedoch systematisch höher und die Teilchen ohne Seltsamkeitsinhalt zeigen einen massenabhängigen Anstieg, welcher eine radiale kollektive Anregung des Systems vermuten lässt.
Die transversalen Massenspektren der leichten Fragmente werden unter der Annahme eines thermalisierten Systems mit Boltzmann-Funktionen angepasst. Daraus werden die effektiven Temperaturen von Teff,Deuteronen = (139,5 ± 34,9) MeV und Teff,T ritonen = (247,9 ± 62,0) MeV extrahiert, was die Annahme von kollektivem Fluss der Teilchen zu unterstützen scheint. Vergleicht man diese Werte mit den effektiven Temperaturen der leichteren Teilchen, kann mithilfe einer linearen Funktion die kinetische Ausfriertemperatur Tkin = (74,7 ± 5,8) MeV und radiale Flussgeschwindigkeit βr = 0,37 ± 0,13 bestimmt werden. In einem zweiten Ansatz werden daher die Spektren mit Siemens-Rasmussen-Funktionen, die eine radiale Ausdehnung mit einbeziehen, angepasst und daraus die globalen Parameter T = (74 ± 7) MeV und βr = 0,36 ± 0,02 bestimmt. Diese Werte liegen an der oberen Grenze in dem für diesen Energiebereich erwarteten Bereich.
Die Siemens-Rasmussen-Funktionen liefern eine bessere Beschreibung der transversalen Massenspektren und werden zur Extrapolation der nicht abgedeckten transversalen Massenbereiche genutzt. Die Integration liefert die Verteilung der Zählrate als Funktion der Rapidität. Diese Verteilung zeigt zwei Maxima nahe Strahl- und Target-Rapidität, was im Widerspruch zu einer statischen, thermischen Quelle der Teilchen steht.
Das CBM-Experiment an der zukünftigen FAIR Beschleunigeranlage zielt unter anderem darauf, Open-Charm-Teilchen zu rekonstruieren, die in Schwerionenkollisionen im Energiebereich von 10 bis 40 AGeV erzeugt werden. Ein für diese Teilchenrekonstruktion essentieller Detektor ist der Mikro-Vertex-Detektor (MVD).
Im Rahmen der Entwicklungsarbeiten für diesen Detektor werden regelmäßig Detektorsimulationen durchgeführt. Bei einer dieser Simulationen [CAD11], wurden nach Einführung eines verbesserten Simulationsmodells des Detektors, Einbrüche in Rekonstruktionseffizienz für Open-Charm Teilchen festgestellt. Als mögliche Ursache wurde eine Überlastung der Software für die Spurrekonstruktion von CBM vermutet, die erstmals mit realistischen Trefferdichten auf den MVD-Stationen konfrontiert war. Zusätzlich wurde in der Simulation die Geometrie eines MVD mit nur zwei Detektorebenen verwendet. Auch der durch die kleine Anzahl an MVD-Stationen große Abstand zwischen MVD und STS (Silicon-Tracking-System) und dessen potentiell ungünstiger Einfluss auf die Spurrekonstruktion konnte als Ursache für den beobachteten Einbruch der Rekonstruktionseffizienz nicht ausgeschlossen werden.
Die Aufgabe dieser Arbeit bestand in der Prüfung, ob der beobachtete Einbruch der Rekonstruktionseffizienz des Detektorsystems tatsächlich auf eine Überlastung der Spurrekonstruktionssoftware zurückzuführen ist. Darüber hinaus sollte festgestellt werden, ob mögliche konstruktive Verbesserungen im MVD (zusätzliche Detektorstationen) diesem Effekt entgegen wirken können...
Lights, Camera, Action : zur Synthese von Film und Drama im interkulturellen Englischunterricht
(2012)
In Folge der Globalisierung und der stetig fortschreitenden digitalen Vernetzung ist die Welt zu einem überschaubaren, gar intimen, Ort geworden, in dem Individuen unterschiedlicher Kulturen, trotz enormer geographischer Distanzen, mittels eines breiten Angebots elektronischer Medien, regelmäßig miteinander in Kontakt treten. Die interkulturell-mediale Kommunikation und Interaktion hat sich als ein wesentliches Charakteristikum des modernen Lebens etabliert. Wir leben in einer „„mediatized„ world, a social and cultural environment which is permeated by the media […]“ (Voigts-Virchow 2005: 5). Der Großteil der Weltbevölkerung ist heute online. Die Menschen korrespondieren via Emails und Skype, verbringen ihre Freizeit in Chatrooms, schließen Freundschaften mit Fremden auf Facebook, twittern ihren Lebensalltag, sehen sich Videos auf YouTube an, frönen der ungesühnten Internetpiraterie mit FileSharing, richten sich auf MySpace häuslich im Internet ein, konstruieren ihren eigenen Webcontent und reisen mit Google Maps virtuell um den Globus. In der multikulturellen und –medialen Welt kann folglich ein jeder zum Kosmopolit werden, ohne je das eigene Haus verlassen zu müssen. Kinder und Jugendliche im Besonderen nutzen die Medien, um mit Altersgenossen aus anderen Ländern zu kommunizieren, neue Interessen zu entdecken, Geschichten auszutauschen und Erfahrungen zu teilen. Sie verfügen in dieser Hinsicht über eine „virtuelle Autonomie“ (Porcher 2006: 190-191), die es ihnen ermöglicht sich in einen interkulturellen Diskurs einzuschalten.
Angesichts dieser medialen und kulturellen Pluralisierung werden die bildungspolitischen und pädagogischen Forderungen nach der Ausbildung von medienspezifischen und interkulturellen Kompetenzen immer dringlicher (vgl. Kessler & Küppers 2008: 3/Frederking et al. 2008: 69). Medien- und Kulturkompetenz gelten nicht nur als Grundlage für eine gesunde Entwicklung und professionellen Erfolg, sondern werden vielmehr als Fundament eines friedlichen und intakten internationalen Zusammenlebens in Form eines toleranten und respektvollen interkulturellen Dialogs erachtet (vgl. Sercu et al. 2005). Wurden in diesem Zusammenhang in der Schule anfänglich noch die affektiven und reflexiven Fähigkeiten der Schüler verstärkt in den Fokus genommen, vornehmlich um eine Abkehr vom Ethnozentrismus durch die Bewusstmachung der eigenen kulturellenDeterminiertheit zu bewirken, hat sich im Rahmen der überschwänglichen Mediennutzung und dem Anstieg direkter und indirekter interkultureller Begegnungen1 das Bildungsethos herausgebildet Schüler2 zum praktischen Umgang mit medialer und kultureller Vielfalt zu befähigen, kurzum ihre Handlungskompetenzen zu entwickeln. Im fachdidaktischen Diskurs der Fremdsprachenbildung wird in diesem Fall generell von der Vorbereitung auf den Ernstfall gesprochen. Die Schüler sollen dazu ausgebildet werden mit Mitgliedern einer fremden Kultur kompetent interagieren zu können. Im Idealfall sollen sie sogar fähig sein als Mediatoren zwischen Individuen mit unterschiedlich kulturell geprägten Sicht- und Verhaltensweisen zu vermitteln (vgl. Fechler 2008).
Ich schließe mich der allgemeinen Auffassung an, dass das Konzept einer interkulturellen Handlungskompetenz eine enorme Bedeutsamkeit mit Blick auf ein multikulturelles, globales Gemeinschaftsleben aufweist, besonders im Kontext einer dominanten Medienpräsenz. Kinder und Jugendliche werden heutzutage regelmäßig mit interkulturellen Handlungssituationen konfrontiert, sei es nun in Form eines Chats, einer Forumsdiskussion oder eines Filmabends. In dieser Hinsicht stellt die Förderung substanzieller Medien- und Kulturkompetenzen das vorrangigste Ziel im Schulunterricht dar. Hier stellt sich nun die Frage ob traditionelle Unterrichtsmodelle den externen soziokulturellen Entwicklungen Rechnung tragen können. Ich persönlich vertrete die These, dass medienspezifische und interkulturelle Kompetenzen nur über den Gebrauch von Unterrichtsinstrumenten, die sich an der Lebenswelt und an den Interessen der Schüler orientieren, d.h. zeitgemäß und ansprechend sind, überzeugend und einprägsam vermittelt werden können. Das Lehrwerk ist zweifellos ein wirksames Unterrichtsmedium, entspricht aber nicht mehr dem Zeitgeist. Es müssen daher neue, innovative und anregende Lehr- und Lernmittel erschlossen werden, welche sich allerdings auch für den regelmäßigen Unterrichtseinsatz eignen und nicht nur gelegentlich als didaktische Bonbons Verwendung finden. Aus dem weiten Reservoir der neuen Medien erscheint mir in dieser Beziehung der Film als das geeignetste Medium. Es ist sowohl unterrichtspraktikabel als auch schülerrelevant. Zudem verfügt es über ein hohes interkulturelles Potenzial. Ähnlich verhält es sich auch mit der Dramapädagogik, deren motivierende und interkulturell förderliche Effekte ich selbst bereits in mehreren selbst geleiteten Unterrichtsstunden und einem Studienseminar an der Goethe UniversitätFrankfurt erfahren habe. Sowohl beim Film als auch bei der Dramapädagogik handelt es sich um zwar fachdidaktisch grundierte, doch um in der Praxis marginalisierte Unterrichtsmittel. Ich bin der Meinung, dass es an der Zeit ist Film und Drama3 im Mainstream des Unterrichts zu etablieren.
Dementsprechend hat die vorliegende Arbeit4 zum Ziel das interkulturelle Potenzial des Mediums Film und der Dramapädagogik auszuloten und einen Ansatz aufzuzeigen wie über die Synthese filmischer und dramatischer Stil- und Unterrichtsmittel die interkulturelle kommunikative Kompetenz bzw. die interkulturelle Handlungs- und Mediationskompetenz in Verbindung mit medienspezifischen Fertigkeiten im Englischunterricht gefördert werden kann.5 Einem derartigen Unterfangen muss meiner Ansicht nach zuallererst eine Auseinandersetzung mit den integralen Bestandteilen der Filmdidaktik und der Dramapädagogik vorausgehen. Bevor ich mich damit jedoch ausführlicher befasse, möchte ich zuerst den kontextuellen Rahmen der Arbeit skizzieren (Kapitel 1). Anschließend werde ich im zweiten und dritten Kapitel eine Bestandsaufnahme von Film und Drama vornehmen und die wesentlichen didaktisch-methodischen Elemente beider Konzepte im Hinblick auf den interkulturellen Schwerpunkt der Arbeit diskutieren. Besondere Aufmerksamkeit soll hier dem Konzept der Critical Incidents zukommen. Beim Film soll außerdem noch ein kurzer Einblick in die technischen Spezifika des Mediums gegeben und deren Verwertbarkeit im interkulturellen Englischunterricht deutlich gemacht werden.
In Kapitel 4 soll anschließend die Synthese von Film und Drama im interkulturellen Englischunterricht en détail thematisiert werden. Hierfür möchte ich zuerst das Konzept der interkulturellen kommunikativen Kompetenz (kurz IKK) vorstellen. In der Folge werde ich nach einer Auflistung wesentlicher Schnittpunkte von Film und Drama meinUnterrichtsschema über die Erstellung konkreter Kompetenzmodelle theoretisch fundieren und an expliziten Filmbeispielen belegen. Hier soll ebenfalls das Feld der Medienkompetenz eröffnet und in Beziehung mit der IKK gesetzt werden. Mit der Formulierung der filmdramatischen Methode wird schließlich der Übergang zum praktischen Teil vorbereitet (Kapitel 5). Hier werde ich das von mir konzipierte Unterrichtsmodell illustrieren und mit Blick auf Umsetzungsproblematiken und curriculare Richtlinien kritisch reflektieren. Im finalen Kapitel werde ich abschließend Bilanz ziehen, die wesentlichen Resultate der Arbeit resümieren und einen Ausblick vornehmen, der die Grenzen und Perspektiven der Arbeit erörtert.
Optimierung der Rekonstruktionsparameter zur Messung von Quarkonia im zentralen ALICE Detektor
(2011)
Seit den ersten Kollisionen im November 2009 läuft der LHC am CERN und dringt in noch nie dagewesene Energiebereiche vor. Die Schwerionenkollisionen innerhalb des ALICE Detektors sollen Aufschluss über die stark wechselwirkende Materie und ihre verschiedenen Phasen geben. Dem liegt die Untersuchung des Quark-Gluon-Plasmas zugrunde. Eine Signatur des Quark-Gluon-Plasmas ist die Rate von produzierten Quarkonia. Diese zerfallen in Leptonenpaare und sind damit zu identifizieren.
In der vorliegenden Arbeit wird diese Rate zur Messung von Quarkonia aufgegriffen und untersucht. Bei der Untersuchung der Simulation durch die Selektion der e++e--Paare, die ausschließlich aus einem J/y stammen, lässt sich ein Massenspektrum produzieren, das im Rahmen dieser Arbeit genauer betrachtet wurde. Durch die genaue Untersuchung der Bremsstrahlung und deren Lokalisierung lässt sich zeigen, dass besonders der ITS ein hohes Maß an Bremsstrahlungsprozessen mit sich bringt, was auf die große Materialanhäufung zurückzuführen ist. Um dies näher zu untersuchen, wurde das Augenmerk auf den ITS gelegt. Eines der wichtigsten Merkmale, die den Bremsstrahlungsprozess beschreiben, ist der Energieverlust. Durch die Bethe-Heitler-Funktion lässt sich der gesamte Detektor nur bedingt beschreiben. Erst die Betrachtung, die sich mit einer Einschränkung auf den ITS und den Azimutwinkel beschäftigt, zeigt eine genaue Beschreibung durch die Parameter der Funktion.
Nach der genauen Beschreibung der Bremsstrahlung wurden verschiedene Methoden entwickelt, in denen die Bremsstrahlungsprozesse innerhalb des invarianten Massenspektums der e++e--Paare ausgeschnitten werden können. Die Methoden der Selektion durch die Anzahl der Spurpunkte sowie die Selektion durch die Position der Spurpunkte zeigen, dass bereits minimale Selektionen ein sehr gutes Signal ergeben. Durch den Vergleich mit den herkömmlichen Selektionen SPDany und SPDfirst, zeigt sich, dass hierbei viel Signal verloren geht und diese Methode für bestimmte Analysen optimiert werden kann.
Durch die Anwendung auf die Datensätze, die während einer Strahlzeit im Jahr 2010 genommen wurden, bestätigte sich die Vermutung. Durch die Selektion von SPDany wird das Signal reduziert. Vergleicht man die Anzahl der Einträge im Signalbereich durch die Reduktion der Teilchen ohne Spurpunkte im ITS (NITSpunkten>0) zu der Anzahl der Einträge durch SPDany, ergibt dies eine Verminderung von bis zu 40%. Die Ursache für den großen Verlust innerhalb des Signalbereichs wird zusätzlich verstärkt, indem der SPD durch Kühlungsprobleme ausgeschaltet ist.
Eine weitere Methode, die untersucht wurde, war die Reduktion der Auswirkungen von Bremsstrahlung mit Hilfe der Kinkanalyse. Diese Methode ließ keine qualitativen Rückschlüsse auf die Analyse der Bremsstrahlung zu.
Dennoch zeigt das Ergebnis, dass das Signal von J/y’s in Proton-Proton Kollisionen um mehr als 40% mehr Einträge verbessert werden kann und sich dieses Prinzip nicht nur theoretisch in den simulierten Daten niederschlägt sondern auch in den untersuchten Datensätzen. Nun gilt es, diese Methode auch in anderen Studien einzubauen, um so eine alltagstaugliche Überprüfung der Erkenntnisse zu gewährleisten.
Das Compressed Baryonic Matter Experiment (CBM) wird im Rahmen der Facility for Antiproton and Ion Research (FAIR) entwickelt, um das Phasendiagramm stark wechselwirkender Materie vorwiegend im Bereich hoher Dichte ausgiebig zu studieren. Dazu sollen Kollisionen schwerer Ionen durchgeführt werden und die Reaktionsprodukte mit hoher Präzision in Teilchendetektoren gemessen und identfiziert werden. Eine wichtige Aufgabe besteht in der Unterscheidung von Elektronen und Pionen, zu der ein Übergangsstrahlungszähler (Transition Radiation Detector) beiträgt. Übergangsstrahlung wird im relevanten Impulsbereich dieser Teilchen nur von Elektronen emittiert und soll im Detektor registriert werden.
In der vorliegenden Arbeit wird die Entwicklung dieses Detektors auf Basis von Vieldrahtproportionalkammern (Multiwire Proportional Chamber ) hauptsächlich anhand von Simulationen diskutiert, aber auch erste Testmessungen eines Prototypen vorgestellt. Der Schwerpunkt der Simulationen eines einzelnen Detektors liegt in der Untersuchung der Effiienz in Abhängigkeit seiner Dicke.
Der Übergangsstrahlungszähler für CBM wird aus mehreren Detektorlagen bestehen. Daher wird außerdem die Effizienz des Gesamtsystems analysiert, indem verschiedene Methoden zur Kombination der einzelnen Signale angewendet werden. Darüber hinaus wird die Effizienz des verfolgten Detektorkonzepts in Abhängigkeit des Radiators, der Anzahl der Detektorlagen, sowie des Teilchenimpulses präsentiert.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.
Mit dieser Arbeit konnte die Funktionsweise von gekoppelten Resonatoren erklärt werden. Das Verhalten von induktiv gekoppelten Beschleunigerkavitäten wurde näher studiert. Dabei wurde verstanden, wie sich Verstimmungen auf die Resonatoren auswirken und was zu tun ist um die Spannungsamplituden des gekoppelten Systems zu beeinflussen. Zudem wurden die Grundlagen für den gekoppelten Betrieb des FRANZ-Beschleunigers gelegt.
Ein Schtetl in der Stadt – Jüdische Identitätsräume in Texten von Martin Beradt und Sammy Gronemann
(2010)
The concern of this thesis is a discussion of the way German-Jewish identity manifests itself in two literary texts before and after 1933. Using the examples of Sammy Gronemann’s novel Tohuwabohu and Martin Beradt’s Die Straße der kleinen Ewigkeit, it offers a textual analysis of two works which share close connections in terms of subject matter, style, and their respective authors’ background, but are historically divided by the fundamental experience of the rise of National Socialism in Germany.
I argue that space is a crucial factor through which identity is constituted in each text, both of which use and partially subvert the romanticized image of the Eastern European shtetl brought to Germany by authors such as Arnold Zweig in the aftermath of World War I. Space in this context always has a twofold quality to it. It functions as a space of identity, but also as a space of identification through which a group of people label others as either belonging or not belonging to a specific space. Furthermore, both texts reject monolithic definitions of Jewish identity, emphasizing instead the diversity of Jewish life in Europe before the Rise of National Socialism.
Die Arbeit befasst sich mit einer Vereinfachung des von Devroye (1999) geprägten Begriffs der random split trees und verallgemeinert diesen im Sinne von Janson (2019) auf unbeschränkten Verzweigungsgrad. Diese Verallgemeinerung deckt auch preferential attachment trees mit linearen Gewichten ab, wofür ein Beweis von Janson (2019) aufbereitet wird. Zusätzlich bleiben die von Devroye (1999) nachgewiesenen Eigenschaften über die Tiefe der hinzugefügten Knoten erhalten.