Refine
Year of publication
Document Type
- Master's Thesis (129) (remove)
Has Fulltext
- yes (129)
Keywords
- Beschleunigerphysik (2)
- E-Learning (2)
- Erwachsenenbildung (2)
- Experiment (2)
- Ionenstrahl (2)
- Kinder- und Jugendliteratur (2)
- Konstruktion (2)
- Lehren mit neuen Medien (2)
- Lehrerbildung (2)
- Lernen mit neuen Medien (2)
Institute
- Physik (61)
- Gesellschaftswissenschaften (11)
- Informatik und Mathematik (10)
- Mathematik (7)
- Informatik (6)
- Neuere Philologien (5)
- Geowissenschaften (4)
- Erziehungswissenschaften (3)
- Sportwissenschaften (3)
- Psychologie (2)
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
Seit den 20er Jahren werden Teilchen durch verschiedenste Methoden beschleunigt und wechselwirken unter Laborbedingungen mit anderen Teilchen. Hierbei spielt die Erzeugung neuer meist sehr kurzlebiger Teilchen eine wichtige Rolle. Die Untersuchung dieser Streuexperimente ist eine der wichtigsten Methoden der Elementarteilchen-, Kern- und Astrophysik. So steht bei den heutigen Kernphysik-Experimenten immer mehr die Astrophysik im Vordergrund. Die offenen kosmischen Fragen nach dem Ursprung und der Entwicklung des Universums drängen nach Antworten. Seit die Menschen bewusst denken können, gibt es diese Neugier zu erfahren woraus das Universum besteht. Unser Bild des Universums wurde durch neue Erkenntnisse alleine in den letzten 30 Jahren mehrmals radikal verändert.
Besonders die Vielzahl und Häufigkeit der heute zu findenden Elemente wollen erklärt werden. Da nach heutigen Kenntnissen davon ausgegangen wird, dass kurz nach dem Urknall lediglich die leichten Elemente Wasserstoff, Helium und Lithium vorhanden waren. Hier versucht die aktuelle Forschung anzusetzen. Das Konzept der sogenannten „Nukleosynthese“ ist entwickelt worden und versucht das Entstehen aller schwereren Elemente zu erklären. So geht man heute davon aus, dass sich die weiteren Elemente bis hin zu Eisen durch Kernfusions-Prozesse innerhalb der verschiedenen Brennphasen von Sternen entwickelt haben - während alle schwereren Elemente durch neutronen-induzierte Prozesse entstanden sind. Die beiden großen Neutronenprozesse sind der r-Prozess (rapid neutron-capture process) und der s-Prozess (slow neutron-capture process). Während der r-Prozess wahrscheinlich in hochexplosiven Szenarien, wie den Supernovae, stattfindet, spielt sich der s-Prozess meist innerhalb Roter Riesen ab [Rei06].
Um diese Theorien zu belegen und zu unterstützen, ist es nötig diverse kernphysikalische Experimente auf der Erde durchzuführen. Hier versucht man den Bedingungen in den Sternen nahe zu kommen. Es werden hohe Energien und hohe Neutronenflüsse benötigt um schwerere Elemente durch Neutroneneinfangs- und Fusionsprozesse zu erzeugen. Ziel Motivation Einleitung ist es unter anderem nukleare Wirkungsquerschnitte diverser Reaktionen experimentell nachzuweisen und auf die Sternmodelle umzurechnen.
Die Schwierigkeit liegt hier nicht nur in der Erzeugung und Erhaltung dieser hohen Raten, sondern vielmehr auch in der Detektion der entstandenen Fragmente und Teilchen. Da diese Teilchen und subatomaren Partikel nur eine jeweils sehr kurze Lebensdauer besitzen, ist es eine große Herausforderung möglichst effiziente und effektive Detektoren zu entwickeln. Damit diese Detektoren in den jeweiligen Experimenten dann möglichst optimal arbeiten und die gewünschten Auflösungen liefern, ist es nötig gute Kalibrierungsmöglichkeiten im Voraus auszunutzen.
Asymptotic giant branch (AGB) stars are initially low and intermediate mass stars undergoing recurrent hydrogen and helium shell burning. During the advanced stage of stellar evolution AGB stars follow after the helium core burning ceased and are located in the AGB of the Hertzsprung-Russell Diagram. One characteristic is their ability of element synthesis, especially carbon and nitrogen, which they eject in large amounts into the interstellar medium. But AGB stars also feature a slow-neutron capture process called s-process which forms approximately 50 % of all elements between Fe and Bi. The initial mass function emphasizes the importance of the synthesized ejecta of AGB stars since they are much more abundant than massive stars. Therefore, the abundance evolution of many elements in the universe is drastically affected by AGB stars. In order to understand chemical evolution in the universe their behavior must be known since their first appearance. In previous times less heavy elements were produced and available. Hence AGB stars with lower heavy element content, which means lower metallicity, must be investigated. They appear to behave substantially differently than stars of higher metallicity. Another issue is that AGB stars have mass-dependent characteristics from which follows a division into low-mass, massive and super AGB stars. Super AGB stars have the most open issues due to their large masses and initial mass boundaries that separate them from massive stars. Due to large spectroscopic surveys in the last years, many low metallicity stars have been analyzed. These findings make it necessary to complement those studies through stellar modeling. This work makes a step in this direction. The AGB star masses under investigation are 1M⊙, 1.65M⊙, 2M⊙, 3M⊙, 4M⊙, 5M⊙, 6M⊙ and 7M⊙ which include low-mass, massive and super AGB stars. Metallicities of Z = 6 x 10 exp-3 and Z = 1 x 10 exp-4 (for comparison, solar Z ~ 0.02) were chosen. These results are an extension of already available data, covering solar and half-solar metallicity, but without super AGB stars. Therefore physics input includes mainly well-established approaches rather than new theories. New physical approaches are included due to the low metallicity which makes the results a unique set of models. Additionally, extensive s-process network calculations lead to production factors of all included elements and isotopes. The s-process signatures of those stars were analyzed. The stellar evolution simulations presented in this work have been utilized for rate and especially sensitivity studies. One approach done was to analyze s-process branchings at 95Zr and 85Kr for stars at 3M⊙ with Z = 1 x 10 exp-2 and Z = 1 x 10 exp-3 respectively.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
In this work we study basic properties of unstable particles and scalar hadronic resonances, respectively, within simple quantum mechanical and quantum field theoretical (effective) models. The term 'particle' is usually assigned to entities, described by physical theories, that are able to propagate over sufficiently large time scales (e.g. from a source to a detector) and hence could be identified in experiments - one especially should be able to measure some of their distinct properties like spin or charge. Nevertheless, it is well known that there exists a huge amount of unstable particles to which it seems difficult to allocate such definite values for their mass and decay width. In fact, for extremely short-lived members of that species, so called resonances, the theoretical description turns out to be highly complicated and requires some very interesting concepts of complex analysis.
In the first chapter, we start with the basic ideas of quantum field theory. In particular, we introduce the Feynman propagator for unstable scalar resonances and motivate the idea that this kind of correlation function should possess complex poles which parameterize the mass and decay width of the considered particle. We also brie
y discuss the problematic scalar sector in particle physics, emphasizing that hadronic loop contributions, given by strongly coupled hadronic intermediate states, dominate its dynamics. After that, the second chapter is dedicated to the method of analytic continuation of complex functions through branch cuts. As will be seen in the upcoming sections, this method is crucial in order to describe physics of scalar resonances because the relevant functions to be investigated (namely, the Feynman propagator of interacting quantm field theories) will also have branch cuts in the complex energy plane due to the already mentioned loop contributions. As is consensus among the physical community, the understanding of the physical behaviour of resonances requires a deeper insight of what is going on beyond the branch cut. This will lead us to the idea of a Riemann surface, a one-dimensional complex manifold on which the Feynman propagator is defined.
We then apply these concepts to a simple non-relativistic Lee model in the third chapter and demonstrate the physical implications, i.e., the motion of the propagator poles and the behaviour of the spectral function. Besides that, we investigate the time evolution of a particle described by such a model. All this will serve as a detailed preparation in order to encounter the rich phenomena occuring on the Riemann surface in quantum field theory. In the last chapter, we finally concentrate on a simple quantm field theoretical model which describes the decay of a scalar state into two (pseudo)scalar ones. It is investigated how the motion of the propagator poles is in
uenced by loop contributions of the two (pseudo)scalar particles. We perform a numerical study for a hadronic system involving a scalar seed state (alias the σ-meson) that couples to pions. The unexpected emergence of a putative stable state below the two-pion threshold is investigated and it is claeifieed under which conditions such a stable state appears.
This work deals with the determination of the scale parameter ΛM̄S̄ from lattice QCD and perturbation theory results of the static quark-antiquark potential for nf = 2. The investigation is done in momentum space. Lattice methods as well as perturbation theory calculations are introduced. Another part of this work concerns the calculation of the quark-antiquark potential from gauge link configurations for nf = 2 + 1 + 1.
Ziel der nuklearen Astrophysik ist es, die solare Häufigkeitsverteilung der Elemente zu erklären (siehe Seite 10, Abb. 1.1). Die Elemente bis zur Eisengruppe sind dabei unmittelbar nach dem Urknall und während verschiedener Brennphasen in Sternen durch Kernfusion entstanden. Da die Bindungsenergie pro Nukleon der Elemente in der Eisengruppe am höchsten ist, ist für den Aufbau schwererer Elemente keine Energiegewinnung durch Fusion geladener Teilchen mehr möglich und Neutroneneinfänge und Betazerfälle spielen die entscheidende Rolle für die Nukleosynthese. In Abhängigkeit von der Neutronendichte und der Temperatur wird dabei zwischen dem langsamen Neutroneneinfangprozess, dem s-Prozess, und dem schnellen Neutroneneinfangprozess, dem r-Prozess, unterschieden. Während der r-Prozess weit abseits der stabilen Isotope an der Neutronenabbruchkante statt findet, verläuft der Reaktionspfad des s-Prozesses entlang der stabilen Isotope am "Tal der Stabilität".
Mithilfe einer (n,γ)-Aktivierung von Germanium am Forschungsreaktor TRIGA in Mainz wurde zum einen in Hinblick auf zukünftige Experiment an der NIF eine Sensitivitätsstudie durchgeführt. Zum anderen wurden die thermischen Neutroneneinfangquerschnitte von 74Ge und 76Ge jeweils für den Einfang in den Isomer- und Grundzustand gemessen, um die Abweichungen der Daten von [Hol93] und [Mug06] zu klären. Zusätzlich wurden die Halbwertszeiten der betrachteten radioaktiven Ge-Isotope bestimmt.
Origin of the German Novel
(1927)
Ein Schtetl in der Stadt – Jüdische Identitätsräume in Texten von Martin Beradt und Sammy Gronemann
(2010)
The concern of this thesis is a discussion of the way German-Jewish identity manifests itself in two literary texts before and after 1933. Using the examples of Sammy Gronemann’s novel Tohuwabohu and Martin Beradt’s Die Straße der kleinen Ewigkeit, it offers a textual analysis of two works which share close connections in terms of subject matter, style, and their respective authors’ background, but are historically divided by the fundamental experience of the rise of National Socialism in Germany.
I argue that space is a crucial factor through which identity is constituted in each text, both of which use and partially subvert the romanticized image of the Eastern European shtetl brought to Germany by authors such as Arnold Zweig in the aftermath of World War I. Space in this context always has a twofold quality to it. It functions as a space of identity, but also as a space of identification through which a group of people label others as either belonging or not belonging to a specific space. Furthermore, both texts reject monolithic definitions of Jewish identity, emphasizing instead the diversity of Jewish life in Europe before the Rise of National Socialism.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.
ω(782) und ϕ(1020) Mesonenproduktion durch Dielektronen in pp-Kollisionen bei √s = 7 TeV mit ALICE
(2013)
Die Niedrigmassendielektronen (Elektron-Positron Paare mit kleiner invarianten Masse) sind wichtige experimentelle Sonden, um die Eigenschaften des in ultra-relativistischen Schwerionenkollisionen erzeugten heißen und dichten Mediums zu untersuchen. Elektronen koppeln nicht an die starke Wechselwirkung, weshalb sie wichtige Informationen über die gesamten Kollisionsphasen geben. Die Zerfälle von ω(782) und ϕ(1020)-Mesonen in Dielektronen ermöglichen es, besonders wichtige Informationen über ihre In-Medium-Eigenschaften zu erhalten, da Proton-Proton (pp)-Kollisionen als mediumfreie Referenz angenommen werden. Außerdem sind pp-Kollisionen auch für sich genommen interessant, um die Teilchenproduktion im Energiebereich des LHC (Large Hadron Collider) zu untersuchen.
In dieser Analyse werden die Elektronen im mittleren Rapiditätsbereich von |η| < 0.8 mit ITS (Inner Tracking System), TPC (Time Projection Chamber) und TOF (Time of Flight) gemessen.
Die transversalen Impulsspektren der ω(782) und ϕ(1020)-Mesonen im e+e--Zerfallskanal in pp-Kollisionen bei p √s = 7 TeV werden gezeigt. Das transversale Impulsspektrum des ω(782)-Mesons im e+e--Zerfallskanal wird mit den pT-Spektren in den µ+µ--und in den π0π+π--Zerfallskanälen verglichen, während das pT-Spektrum vom ϕ(1020)-Meson im e+e--Zerfallskanal mit den pT-Spektren in µ+µ-- und K+K--Zerfallskanälen verglichen wird.
Experimente und Simulationen zur Filterung und Injektion in einen toroidalen Ionenspeicherring
(2014)
Die in dieser Arbeit durchgeführten theoretischen Untersuchungen, Simulationen und Experimente hatten das Ziel, die Erforschung der Injektion in sowie des Transports von Ionenstrahlen bestehend aus verschiedenen, einzelnen Wasserstoffionenspezies durch toroidale Magnetfeldstrukturen zu ermöglichen. Dazu wurde im Rahmen dieser Arbeit ein neues Filter- und Detektorsystem für Wasserstoffionenstrahlen – ein Filterkanal – entwickelt, aufgebaut und untersucht. Zunächst wurde mittels theoretischer Betrachtungen das Konzept des Kanals und die Funktionalität der Filterung sowie Vermessung der Strahlzusammensetzung analysiert. Danach wurde der Kanal mit Hilfe von Simulationen ausgelegt und anschließend nach genauen Vorgaben gebaut. Gleichzeitig wurde mittels weiterer Simulationen das Strahlverhalten im Kanal genauer analysiert und zusätzlich die Auswirkungen verschiedener Parameter auf das Filterverhalten des Kanals untersucht. Anschließend wurde der zusammengebaute Kanal mittels Experimenten erforscht. Dabei wurden mehrere Experimente mit verschiedenen Quellen- und Strahlparametern durchgeführt, wobei vor allem die Filtereigenschaften sowie die Vermessung der Strahlzusammensetzung umfangreich untersucht und im Bezug auf die Funktionalität des Filterkanals diskutiert wurden.
Des Weiteren befasste sich diese Arbeit mit dem Aufbau des Injektionsexperiments zur Untersuchung der Injektion eines Wasserstoffionenstrahls zwischen zwei Toroidsegmente. Dazu wurde ein höhenverstellbarer Injektor samt Hochspannungsterminal und Peripherie entwickelt, aufgebaut und in Betrieb genommen. Dieser besteht aus einer Volumenionenquelle, einer neu entwickelten Faraday-Tasse sowie einem Solenoid. Die Faraday-Tasse, welche zur Vermessung des Quellenstroms im neuen Injektor sowie zusätzlich zur Vermessung des Ionenstrahlstroms hinter dem Filterkanal eingesetzt wird, wurde dabei im Rahmen dieser Arbeit entwickelt, experimentell durchgemessen und auf ihre Funktionalität geprüft. Im Zusammenhang mit dem Hochspannungsterminal für den neuen Injektor wurden die verschiedenen Möglichkeiten für die Verschaltung einer Volumenionenquelle mit dem dazugehörigen Hochspannungsterminal diskutiert und der Zusammenhang zur Strahlenergie hergestellt.
Mittels theoretischer Rechnungen wurde der aufgrund der RxB Drift benötigte Höhenunterschied zwischen Injektionskanal und Transportkanal für das Injektionsexperiment bestimmt und der neue Injektor auf den errechneten Bereich vorkonfiguriert. Zusätzlich wurde mittels Simulationen die optimale Strahlenergie bestimmt, bei der der Strahl beim Transport durch den Transportkanal angepasst ist und somit die Auswirkung der Driftsektion zwischen den beiden Toroidsegmenten sowie die Beeinflussung durch das Injektionssystem am geringsten sein sollten. In diesem Zusammenhang wurde auch auf die möglichen Geometrien zum Aufbau des Injektionsexperiments eingegangen und mittels der angesprochenen Untersuchungen eine Geometrie für den Aufbau des Injektionssystems festgelegt.
In der Literatur hat sich die Bestimmung der Erzählperspektive längst etabliert, aber genauso manifestiert sich auch in den visuellen Medien ein Erzähler, der das Geschehen zwar weniger mittels der Sprache, dafür im Wesentlichen über Bilder präsentiert. Durch die jeweils darin enthaltene Darstellung und die Verknüpfung der einzelnen Bilder sind diese Ausdruck einer bewussten Formung der Handlung. Der Begriff des Erzählens beschränkt sich somit nicht nur auf die Literatur, sondern trifft auch auf Visualisierungen jeglicher Art zu, da in diesen Fällen ebenso eine Instanz identifiziert werden kann, die hinter der Auswahl der Handlungselemente steht und diese perspektivisch formt. Dennoch kann der Erzähler hier nicht mehr, wie in der Literatur, im Sinne eines "Sprechers" aufgefasst werden, sondern versteht sich eher als abstraktes Konzept. Insbesondere in intermedialer Hinsicht stellt die Übertragung der Erzählperspektive von einem literarischen Text auf ein visuelles Medium eine Herausforderung dar, denn aufgrund des Medienwechsels verändern sich die Bedingungen des Erzählens. Umso schwieriger ist die Übertragung, wenn der literarische Text keinen durchweg logischen Handlungsverlauf aufweist, sondern Widersprüche und Uneindeutigkeiten im Erzählvorgang und in der Erzählperspektive beinhaltet, wie es auf Franz Kafkas 1914 entstandene Erzählung "In der Strafkolonie" zutrifft. Dieser Text dient zudem, wie auch viele andere von Kafkas Werken, als Projektionsfläche diverser, nicht selten konträrer, Deutungsansätze, die sich in der Forschungsliteratur herausgebildet haben. So wurden zahlreiche religiöse Bezüge in der Erzählung entdeckt, genauso wurde der Text aber als realistisch und somit als Kritik an Kolonialismus und Krieg verstanden. Bezug nehmend auf Kafkas Biographie und das Thema Strafe, das in zahlreichen seiner Werke zum Ausdruck kommt, wurde die Erzählung oftmals in psychoanalytischer Hinsicht gedeutet. Andererseits wurde die beschriebene Handlung auch weniger ernst genommen und vor allem auf die grotesken und ironischen Elemente verwiesen. Im Hinblick auf die unterschiedlichen Interpretationsansätze sind auch die Möglichkeiten der visuellen Umsetzung entsprechend vielfältig.
In dieser Arbeit wird anhand von drei Kurzfilmen und einem Comic, unter Berücksichtigung der spezifischen medialen Bedingungen, die Übertragung der Erzählung ins Visuelle analysiert. Dabei soll gezeigt werden, inwiefern die jeweilige Erzählperspektive die visuelle Wahrnehmung in den Filmen und im Comic bestimmt. In diesem Zusammenhang wird auch zu sehen sein, welche Deutung der Erzählung sich in der Visualisierung manifestiert und durch den Erzähler besonders hervorgehoben wird. Nicht zuletzt stellt sich dabei auch die Frage nach der Art der Umsetzung, d.h. ob bei der Adaption die Textnähe und der Inhalt im Vordergrund stehen oder ob vielmehr die Intention verfolgt wird, mit der Visualisierung der Erzählung ein neues und eigenes künstlerisches Werk zu schaffen, das dem Originaltext auf einer tiefergehenden Ebene begegnet.
Als es in den 1920er und 1930er Jahren zur Entdeckung des expandierenden Raums, gemessen über die kosmologische Rotverschiebung, kommt, wird daraus erstmals die Idee eines kleinsten Ursprungspunkts zu Beginn der Zeit postuliert. Es dauerte jedoch weitere 30 Jahre, bis das Konzept des „Big Bang“ als Ursprungsmodell veröffentlicht wurde [Lum07]. Seitdem untersuchen Wissenschaftler fortschreitend die Theorie des Big Bang. Der Zustand der Materie zum Zeitpunkt Null ist nach wie vor ungeklärt, ab ca. 10 exp (-44) Sekunden nach dem Urknall wird in der Theorie des Big Bang davon ausgegangen, dass sich die Materie im Zustand des Quark-Gluon-Plasmas befand. Zunächst galt es eine experimentelle Bestätigung für die generelle Existenz eines solchen Zustands zu finden. Die experimentelle Suche nach dem Quark-Gluon-Plasma im Labor begann vor fast 30 Jahren am Bevalac in Berkley [Gus84], dort konnte bei Niobium-Kollisionen kollektiver Fluss beobachtet werden. Zehn Jahre später begannen die Messungen des Schwerionen-Forschungsprogramms am CERN1. Im Jahr 1994 wurden dort die ersten Schwerionenkollisionen durchgeführt, von denen man sich erhoffte, dass sie zu einer kurzzeitigen Erzeugung des Quark-Gluon-Plasmas führen. Im Jahr 2000 gab es dann eine zusammenfassende Pressemitteilung des CERN, in der die Messungen eines neuartigen Materiezustands beschrieben wurden [CER00]. Weitere fünf Jahre später wurde ein Bericht der bis dahin erreichten Ergebnisse der vier Quark-Gluon-Plasma Experimente am Relativistic Heavy Ion Collider (RHIC) des Brookhaven National Labratory veröffentlicht [BNL05]. Dabei konnten einige Ergebnisse aus den Messungen am CERN bestätigt werden, andere hingegen nicht. Die Annahme, das Quark-Gluon-Plasma verhalte sich wie ein Gas, musste beispielsweise nach den Messungen am RHIC verworfen werden. Diese zeigen, dass das Verhalten des Quark-Gluon-Plasma eher dem von Flüssigkeiten ähnelt [BNL05].
Seit den ersten Schritten zur Untersuchung des Quark-Gluon-Plasma am CERN, in denen vor allem die Messung der Existenz des Quark-Gluon-Plasmas an sich im Vordergrund stand, soll der Phasenübergang nun quantitativ untersucht werden. Dazu werden Dichte und Temperatur der betrachteten Materie variiert und die vorhandene Zustandsphase gemessen. Eines dieser Experimente soll das Compressed Baryonic Matter (CBM) Experiment werden. Das Ziel des Experiments ist die Untersuchung von Materie bei sehr hohen Dichten, aber im Vergleich zu anderen aktuellen Experimenten relativ niedrigen Temperaturen. Im Jahr 2009 wurde der erste Spatenstich auf dem Gelände der Gesellschaft für Schwerionenforschung in Darmstadt für den Bau der Facility for Antiproton and Proton Research (FAIR) getätigt. Mit Hilfe der FAIR-Beschleuniger soll dann das CBM Experiment das Quark-Gluon-Plasma bei hohen Materiedichten mit bisher nicht erreichter Statistik untersuchen können. Jedoch gerade das Erreichen solch hoher Ereignisraten stellt nicht nur eine zentrale Herausforderung an die Beschleuniger dar, sondern auch an die messenden Detektoren. Diese Arbeit beschäftigt sich mit der Entwicklung eines Transition Radiation Detektors für das CBM Experiment.
Nach einer kurzen Einführung in die generelle Untersuchung des Quark-Gluon-Plasmas folgt die Beschreibung des geplanten Aufbaus des CBM Experiments mit dessen Subsystemen. Danach wird die theoretische und praktische Funktionsweise eines Transition-Radiation Detektors (TRD) erklärt, um darauf aufbauend die Charakterisierung und Signalanalyse der entwickelten TRD-Prototypen darzustellen. Abschließend werden die Ergebnisse in Bezug auf den für das CBM Experiment zu entwickelnden Detektor diskutiert.
Representations of the reasons and actions of terrorists have appeared in German literature tracing back to the age of Sturm und Drang of the 18th century, most notably in Heinrich von Kleist's Michael Kohlhaas and Friedrich Schiller's Die Räuber, and more recently since the radical actions of the Red Army Faction during the late 1960s and early 1970s, such as in Uli Edel's film, The Baader Meinhof Complex. By referring to Walter Benjamin's system of natural law and positive law, which provides definitions of differing codes of ethics with relation to state laws and personal ethics, one should be able to understand that Michael Kohlhaas, Karl Moor, and the members of the RAF are indeed represented as terrorists. However, their actions and motives are not without an internal ethics, which conflicts with that of their respective state-sanctioned authorities. This thesis reveals the similarities and differences in motives, methods, and use of violence in Schiller, Kleist, and representations of the RAF and explores how the turn to terrorism can arise from a logical realization that ideologies of state law do not align with the personal sense of justice and law of the individual.
Im Rahmen dieser Arbeit wurde die Analyse von Dielektronen im Bereich niedriger Massen für zwei unterschiedliche Magnetfeldstärken des ALICE-L3-Magneten untersucht. Hierfür wurden zwei Arten von Simulationen, volle Simulationen und schnelle Simulationen, jeweils für die Magnetfeldeinstellungen 0, 2 T und 0, 5 T erstellt und verglichen. Zunächst wurde die Konsistenz der vollen und schnellen Simulationen anhand von Monte Carlo Truth Spektren überprüft. Es zeigte sich eine gute Übereinstimmung der invarianten Massenspektren mit Ausnahme der f-Resonanz, die in den schnellen Simulationen fast 3-mal höher lag. Dann wurden die vollen Simulationen der Magnetfeldeinstellung 0, 5 T mit ALICEMessdaten desselben Magnetfeldes verglichen. Hierbei zeigte sich, dass die Messdaten im Hinblick auf die Transversalimpulsverteilung der einzelnen Elektronen um einen Faktor 1, 2 bis 2 und im Hinblick auf die Transversalimpulsverteilung der Paare um einen Faktor 2 bis 2, 5 über den Simulationen lagen. Dies konnte zum Teil auf eine Kontamination durch Pionen zurückgeführt werden. Das Signal-Untergrund-Verhältnis war mit 0, 99 für die Simulationen 6-mal größer als das der Messdaten mit 0, 16. Die normierte Signifikanz der Simulationen von 0, 0044 lag 3,5-mal über dem Wert 0, 0012 der Messdaten. Für die schnellen Simulationen wurden die Effizienzen für einzelne Elektronen benötigt. Diese wurden mithilfe von Boxensimulationen erstellt. Es wurde zwischen den Elektronidentifikationsmethoden TOF optional und TOF required und den Magnetfeldstärken 0, 2 T und 0, 5 T unterschieden. Die Boxensimulationen ergaben, dass bei einem Magnetfeld von 0, 2 T insgesamt mehr Elektronen rekonstruiert und identifiziert werden konnten. Außerdem konnte die Analyse zu niedrigeren Transversalimpulsen hin ausgedehnt werden. Die schnellen Simulationen zeigten, dass eine Reduktion des Magnetfeldes von 0, 5 T auf 0, 2 T eine Erhöhung der Anzahl an gemessenen Paaren um einem Faktor 2, 0 für die Elektronidentifikation TOF optional und um einem Faktor 6, 0 für die Elektronidentifikation TOF required zur Folge hat. Die vollen Simulationen der Elektronidentifikation TOF optional ergaben nach Reduktion des Magnetfeldes eine Verbesserung des Signal-zu-Untergrund-Verhältnisses um 11% von 0, 98 auf 1, 11. Die Signifikanz konnte von 0, 0043 auf 0, 0060, d.h. um 40%, verbessert werden. Für die Elektronidentifikation TOF required erhielt man ein Signal-zu-Untergrund-Verhältnis von 16, 5 (0, q 2 T) und 19, 1 (0, 2 T). Jedoch war die normierte Signifikanz (sgn = sqrt((s exp 2)/2*B)* (1/sqrt(NEv)))) für das reduzierte Magnetfeld 100% höher und lag bei 0, 086, während sie für 0, 5 T einen Wert von 0, 0043 hatte. In der vorliegenden Arbeit konnte gezeigt werden, dass eine Reduktion der Magnetfeldstärke des ALICE-L3-Magneten von 0, 5 T auf 0, 2 T zu Verbesserungen in der Messung von Elektron-Positron-Paaren führt. Als Fazit kann angenommen werden, dass eine Datennahme bei einem reduzierten Magnetfeld von 0, 2 T sinnvoll erscheint.
Zeitreihen von spontan auftretenden Topograpfien elektrischer Felder an der Kopfoberfläche, die durch eine Elektroenzephalografie (EEG) gemessen werden, zeigen Zeiträume („EEG-Microstates“), während denen die Topografie quasi-stabil ist. Diese EEG-Microstates werden üblicherweise dadurch analysiert, dass die zu spezifischen Zeitpunkten beobachteten Ausprägungen des EEGs in eine kleine Anzahl von prototypischen Topografien („Karten“) eingeteilt werden. Dadurch erhält man eine diskrete Kartensequenz.
Um die Struktur der Übergangswahrscheinlichkeiten in experimentellen Kartensequenzen zu beschreiben, werden diese Sequenzen durch eine reduzierte Markov-Kette modelliert mit nur einem Parameter pro Karte. Die Markov-Ketten können mithilfe von zwei bestimmten stochastischen Prozessen konstruiert werden. Durch den einen Prozess werden zufällige Intervalle definiert, die zufällig den verschiedenen Karten zugeordnet werden. Durch den anderen Prozess werden zufällige Abtastungszeitpunkte bestimmt, zu denen die Karte des jeweils aktuellen Intervalls abgelesen wird.
Neben der Motivation und Vorstellung des Markov-Ketten-Modells werden in dieser Arbeit Schätzer für die Modellparameter vorgeschlagen und diskutiert sowie ihre asymptotischen Varianzen hergeleitet. Zudem wird ein Anpassungstest durchgeführt und es werden Abwandlungen des Modells untersucht.
Inhalt dieser Arbeit ist die Entwicklung einer digitalen Korpusanwendung zur türkeitürkischen Dialektologie, in welcher der Inhalt des in Kapitel 3.1 beschriebenen Wörterbuchs komplett enthalten und umfangreich durchsuchbar sein soll. Da das Dialektwörterbuch insgesamt 126.468 Einträge enthält, ist eine manuelle Recherche darin äußerst zeitintensiv und unkomfortabel. Selbst die Suche innerhalb einer digitalen Version, die z. B. in einer Word-Datei gespeichert sein kann, ist nicht komfortabel möglich, sobald Optionen bzw. Einschränkungen getätigt werden sollen, wie z. B. die Beschränkung der Ergebnisse auf das Vorkommen in einer bestimmten Provinz. Daher ist es das Ziel der Entwicklung, den Anwendern folgende Suchmöglichkeiten zu bieten: Das Wörterbuch soll entweder komplett im Volltext durchsucht werden können, oder nur innerhalb des Lemmas1. Dabei soll jeweils die Angabe einer oder mehrerer Provinzen möglich sein, sodass die Suchergebnisse nur jene Einträge beinhalten, in denen Suchbegriff und Provinz in der gleichen Zeile enthalten sind. Die Treffer der Suche sollen farbig hervorgehoben sein, damit insbesondere bei großen Wörterbucheinträgen nicht manuell nach den darin enthaltenen Suchbegriffen gesucht werden muss, sondern diese dem Anwender direkt auffallen. Außerdem ist es wünschenswert, mittels Platzhaltern und sogenannten Coversymbolen nach Wortformen und phonetisch bedingten Allomorphen suchen zu können. Letzteres ist für Linguisten, die sich mit dem Türkischen beschäftigen, bei der Eingabe der Suchbegriffe äußerst praktisch, da das Türkische eine vokalharmonische Sprache ist, in der phonetisch bedingte Varianten üblicherweise durch die Schreibung mit Coversymbolen dargestellt werden: z. B. -lAr für die Pluralallomorphe -lar und -ler...
Lights, Camera, Action : zur Synthese von Film und Drama im interkulturellen Englischunterricht
(2012)
In Folge der Globalisierung und der stetig fortschreitenden digitalen Vernetzung ist die Welt zu einem überschaubaren, gar intimen, Ort geworden, in dem Individuen unterschiedlicher Kulturen, trotz enormer geographischer Distanzen, mittels eines breiten Angebots elektronischer Medien, regelmäßig miteinander in Kontakt treten. Die interkulturell-mediale Kommunikation und Interaktion hat sich als ein wesentliches Charakteristikum des modernen Lebens etabliert. Wir leben in einer „„mediatized„ world, a social and cultural environment which is permeated by the media […]“ (Voigts-Virchow 2005: 5). Der Großteil der Weltbevölkerung ist heute online. Die Menschen korrespondieren via Emails und Skype, verbringen ihre Freizeit in Chatrooms, schließen Freundschaften mit Fremden auf Facebook, twittern ihren Lebensalltag, sehen sich Videos auf YouTube an, frönen der ungesühnten Internetpiraterie mit FileSharing, richten sich auf MySpace häuslich im Internet ein, konstruieren ihren eigenen Webcontent und reisen mit Google Maps virtuell um den Globus. In der multikulturellen und –medialen Welt kann folglich ein jeder zum Kosmopolit werden, ohne je das eigene Haus verlassen zu müssen. Kinder und Jugendliche im Besonderen nutzen die Medien, um mit Altersgenossen aus anderen Ländern zu kommunizieren, neue Interessen zu entdecken, Geschichten auszutauschen und Erfahrungen zu teilen. Sie verfügen in dieser Hinsicht über eine „virtuelle Autonomie“ (Porcher 2006: 190-191), die es ihnen ermöglicht sich in einen interkulturellen Diskurs einzuschalten.
Angesichts dieser medialen und kulturellen Pluralisierung werden die bildungspolitischen und pädagogischen Forderungen nach der Ausbildung von medienspezifischen und interkulturellen Kompetenzen immer dringlicher (vgl. Kessler & Küppers 2008: 3/Frederking et al. 2008: 69). Medien- und Kulturkompetenz gelten nicht nur als Grundlage für eine gesunde Entwicklung und professionellen Erfolg, sondern werden vielmehr als Fundament eines friedlichen und intakten internationalen Zusammenlebens in Form eines toleranten und respektvollen interkulturellen Dialogs erachtet (vgl. Sercu et al. 2005). Wurden in diesem Zusammenhang in der Schule anfänglich noch die affektiven und reflexiven Fähigkeiten der Schüler verstärkt in den Fokus genommen, vornehmlich um eine Abkehr vom Ethnozentrismus durch die Bewusstmachung der eigenen kulturellenDeterminiertheit zu bewirken, hat sich im Rahmen der überschwänglichen Mediennutzung und dem Anstieg direkter und indirekter interkultureller Begegnungen1 das Bildungsethos herausgebildet Schüler2 zum praktischen Umgang mit medialer und kultureller Vielfalt zu befähigen, kurzum ihre Handlungskompetenzen zu entwickeln. Im fachdidaktischen Diskurs der Fremdsprachenbildung wird in diesem Fall generell von der Vorbereitung auf den Ernstfall gesprochen. Die Schüler sollen dazu ausgebildet werden mit Mitgliedern einer fremden Kultur kompetent interagieren zu können. Im Idealfall sollen sie sogar fähig sein als Mediatoren zwischen Individuen mit unterschiedlich kulturell geprägten Sicht- und Verhaltensweisen zu vermitteln (vgl. Fechler 2008).
Ich schließe mich der allgemeinen Auffassung an, dass das Konzept einer interkulturellen Handlungskompetenz eine enorme Bedeutsamkeit mit Blick auf ein multikulturelles, globales Gemeinschaftsleben aufweist, besonders im Kontext einer dominanten Medienpräsenz. Kinder und Jugendliche werden heutzutage regelmäßig mit interkulturellen Handlungssituationen konfrontiert, sei es nun in Form eines Chats, einer Forumsdiskussion oder eines Filmabends. In dieser Hinsicht stellt die Förderung substanzieller Medien- und Kulturkompetenzen das vorrangigste Ziel im Schulunterricht dar. Hier stellt sich nun die Frage ob traditionelle Unterrichtsmodelle den externen soziokulturellen Entwicklungen Rechnung tragen können. Ich persönlich vertrete die These, dass medienspezifische und interkulturelle Kompetenzen nur über den Gebrauch von Unterrichtsinstrumenten, die sich an der Lebenswelt und an den Interessen der Schüler orientieren, d.h. zeitgemäß und ansprechend sind, überzeugend und einprägsam vermittelt werden können. Das Lehrwerk ist zweifellos ein wirksames Unterrichtsmedium, entspricht aber nicht mehr dem Zeitgeist. Es müssen daher neue, innovative und anregende Lehr- und Lernmittel erschlossen werden, welche sich allerdings auch für den regelmäßigen Unterrichtseinsatz eignen und nicht nur gelegentlich als didaktische Bonbons Verwendung finden. Aus dem weiten Reservoir der neuen Medien erscheint mir in dieser Beziehung der Film als das geeignetste Medium. Es ist sowohl unterrichtspraktikabel als auch schülerrelevant. Zudem verfügt es über ein hohes interkulturelles Potenzial. Ähnlich verhält es sich auch mit der Dramapädagogik, deren motivierende und interkulturell förderliche Effekte ich selbst bereits in mehreren selbst geleiteten Unterrichtsstunden und einem Studienseminar an der Goethe UniversitätFrankfurt erfahren habe. Sowohl beim Film als auch bei der Dramapädagogik handelt es sich um zwar fachdidaktisch grundierte, doch um in der Praxis marginalisierte Unterrichtsmittel. Ich bin der Meinung, dass es an der Zeit ist Film und Drama3 im Mainstream des Unterrichts zu etablieren.
Dementsprechend hat die vorliegende Arbeit4 zum Ziel das interkulturelle Potenzial des Mediums Film und der Dramapädagogik auszuloten und einen Ansatz aufzuzeigen wie über die Synthese filmischer und dramatischer Stil- und Unterrichtsmittel die interkulturelle kommunikative Kompetenz bzw. die interkulturelle Handlungs- und Mediationskompetenz in Verbindung mit medienspezifischen Fertigkeiten im Englischunterricht gefördert werden kann.5 Einem derartigen Unterfangen muss meiner Ansicht nach zuallererst eine Auseinandersetzung mit den integralen Bestandteilen der Filmdidaktik und der Dramapädagogik vorausgehen. Bevor ich mich damit jedoch ausführlicher befasse, möchte ich zuerst den kontextuellen Rahmen der Arbeit skizzieren (Kapitel 1). Anschließend werde ich im zweiten und dritten Kapitel eine Bestandsaufnahme von Film und Drama vornehmen und die wesentlichen didaktisch-methodischen Elemente beider Konzepte im Hinblick auf den interkulturellen Schwerpunkt der Arbeit diskutieren. Besondere Aufmerksamkeit soll hier dem Konzept der Critical Incidents zukommen. Beim Film soll außerdem noch ein kurzer Einblick in die technischen Spezifika des Mediums gegeben und deren Verwertbarkeit im interkulturellen Englischunterricht deutlich gemacht werden.
In Kapitel 4 soll anschließend die Synthese von Film und Drama im interkulturellen Englischunterricht en détail thematisiert werden. Hierfür möchte ich zuerst das Konzept der interkulturellen kommunikativen Kompetenz (kurz IKK) vorstellen. In der Folge werde ich nach einer Auflistung wesentlicher Schnittpunkte von Film und Drama meinUnterrichtsschema über die Erstellung konkreter Kompetenzmodelle theoretisch fundieren und an expliziten Filmbeispielen belegen. Hier soll ebenfalls das Feld der Medienkompetenz eröffnet und in Beziehung mit der IKK gesetzt werden. Mit der Formulierung der filmdramatischen Methode wird schließlich der Übergang zum praktischen Teil vorbereitet (Kapitel 5). Hier werde ich das von mir konzipierte Unterrichtsmodell illustrieren und mit Blick auf Umsetzungsproblematiken und curriculare Richtlinien kritisch reflektieren. Im finalen Kapitel werde ich abschließend Bilanz ziehen, die wesentlichen Resultate der Arbeit resümieren und einen Ausblick vornehmen, der die Grenzen und Perspektiven der Arbeit erörtert.
Der Hoppe-Baum ist eine zufällig wachsende, diskrete Baumstuktur, wobei die stochastische Dynamik durch die Entwicklung der Hoppe Urne wie folgt gegeben ist: Die ausgezeichnete Kugel mit der die Hoppe Urne startet entspricht der Wurzel des Hoppe Baumes. In der Hoppe Urne wird diese Kugel mit Wahrscheinlichkeit proportional zu einem Parameter theta>0 gezogen, alle anderen Kugeln werden mit Wahrscheinlichkeit proportional zu 1 gezogen. Wann immer eine Kugel gezogen wird, wird sie zusammen mit einer neuen Kugel in die Urne zurückgelegt, was in unserem Baum dem Einfügen eines neuen Kindes an den gezogenen Knoten entspricht. Im Spezialfall theta=1 erhält man einen zufälligen rekursiven Baum.
In der Arbeit werden Erwartungswerte, Varianzen und Grenzwertsätze für Tiefe, Höhe, Pfadlänge und die Anzahl der Blätter gegeben.
The ALICE Time Projection Chamber (TPC) is the main tracking detector of ALICE which was designed to perform well at multiplicities of up to 20000 charged primary and secondary tracks emerging from Pb-Pb collisions. Successful operation of such a large and complex detector requires an elaborate calibration and commissioning. The main goal for the calibration procedures is to provide the information needed for the offline software for the reconstruction of the particle tracks with sufficient precision so that the design performance can be achieved. For a precise reconstruction of particle tracks in the TPC, the calibration of the drift velocity, which in conjunction with the drift time provides the z position of the traversing particles, is essential. In this thesis, an online method for the calibration of the drift velocity is presented. It uses the TPC Laser System which generates 336 straight tracks within the active volume of the TPC. A subset of these tracks, showing sufficiently small distortions, is used in the analysis. The resulting time dependent drift velocity correction parameters are entered into a database and provide start values for the offline reconstruction chain of ALICE. Even though no particle tracking information is used, the online drift velocity calibration is in agreement with the full offline calibration including tracking on the level of about 2 x 10 exp (-4). In chapter 2, a short overview of the ALICE detector, as well as the data taking model of the ALICE, is given. In chapter 3, the TPC detector is described in detail. Lastly in chapter 4, the online drift velocity calibration method is presented, together with a detailed description of the TPC laser system.
As a part of this thesis, a Monte Carlo-based code has been developed capable of simulating the transition of proton beam properties to neutron beam properties as it occurs in the Li-7(p, n)Be-7 reaction. It is able to reproduce not only the angle-integrated energy distributions but it is also capable of predicting the angle-dependent neutron spectra as measured at Forschungszentrum Karlsruhe (Karlsruhe, Germany) and Physikalisch-Technische Bundesanstalt (Braunschweig, Germany). Since the code retains all three spatial dimensions as well as all three velocity dimensions, it provides very detailed information on the neutron beam. The resulting data can aid in many different aspects, for example it can be used in shielding construction, or for lithium target design. In this work, the code is used to predict the neutron beam properties expected at the Frankfurt Neutron Source at Stern-Gerlach-Zentrum (FRANZ) facility. For different proton beam energies, the neutron distribution in x/p_x, y/p_y, and z/p_z is shown as well as a Mollweide projection, which illustrates the kinematic collimation effect that limits the neutron cone opening angle to less than 180 degree.
This study analyzes storyline structure in three Hausa home videos; Mai Kudi (The Rich Man), Sanafahna (with time truth shall dawn) and Albashi (Salary). The study measures storyline structure in these films against a Hollywood film industry model of story writing “the Hero's Journey”. It uses narrative analysis as its analytical tool, and narrative theory as its framework. After analyzing these videos, the study found that the major elements of storyline structure in Vogler's model formed the framework of the storyline structure in Hausa home videos analyzed. However, in spite of the preponderance of these elements within the storyline structure, there are significant variations to Vogler's model. Specifically, Vogler's model has some twelve stages spread on the universal structure of storytelling, i.e. beginning, middle and end. Few of these stages were found to exist in Hausa narrative structure, perhaps due to cultural differences between Western, Indian and Hausa cultures. The study therefore recommends screenwriters and producers to be aware of the existence of standard models of scriptwriting. It also recommends more training for script writers in the Hausa film industry.