Refine
Year of publication
Document Type
- Master's Thesis (86) (remove)
Language
- German (86) (remove)
Has Fulltext
- yes (86)
Keywords
- Beschleunigerphysik (2)
- E-Learning (2)
- Erwachsenenbildung (2)
- Experiment (2)
- Ionenstrahl (2)
- Kinder- und Jugendliteratur (2)
- Konstruktion (2)
- Lehren mit neuen Medien (2)
- Lehrerbildung (2)
- Lernen mit neuen Medien (2)
Institute
- Physik (41)
- Gesellschaftswissenschaften (11)
- Mathematik (6)
- Neuere Philologien (5)
- Informatik und Mathematik (4)
- Erziehungswissenschaften (3)
- Sportwissenschaften (3)
- Psychologie (2)
- Biochemie und Chemie (1)
- Geographie (1)
- Geowissenschaften (1)
- Geschichtswissenschaften (1)
- Informatik (1)
- Kulturwissenschaften (1)
- Philosophie (1)
- Sprachwissenschaften (1)
- Universitätsbibliothek (1)
Kinder und Jugendliche beschäftigen sich gerne mit audiovisuellen, auditiven und interaktiven Medien. Das Buch gerät im Mediengeflecht zunehmend in den Hintergrund. Um für die junge Zielgruppe attraktiv zu sein, setzen Verlage auf Bücher, die Themen, Geschichten und Darstellungsweisen aus anderen Medien aufgreifen. Dazu gehören auch die sogenannten Medienbegleitbücher, die in Bezug zu einem Film, einer Serie, einem Hörspiel oder einem digitalen Spiel stehen. Diese Bücher ermöglichen Kindern aufgrund der bereits bekannten Geschichten, Charaktere und Dialoge einen erleichterten Zugang zu Literatur und locken mit besonderen Gratifikationen, die vorlagenfreie Bücher nicht zu bieten haben. Daher sind sie als Lesestoffe auch für die Leseförderung interessant.
Diese Arbeit untersucht daher, welche Stellung Medienbegleitbücher im Kinder- und Jugendbuchmarkt sowie in der Leseförderung haben. Im ersten Teil liegt der Fokus auf der Produktion und Distribution von Begleitbüchern. Mithilfe einer Recherche im Katalog der Deutschen Nationalbibliothek wurden das Marktangebot erarbeitet und Rückschlüsse auf die Entwicklung des Genres gezogen. Jahresbestsellerlisten des Buchreport geben einen Eindruck vom Verkauf der Bücher. Forschungsliteratur zum Thema Lizenzen und Kommunikationspolitik in Verlagen ergänzt den Marktüberblick durch die Perspektive von Handel und Herstellung.
Im folgenden Kapitel werden unter Zuhilfenahme von Forschungsliteratur und Studien die Potenziale der Begleitbücher geschildert. Rezensionen und Bewertungen zu Medienbegleitbüchern auf LovelyBooks und Amazon geben Aufschluss über die Einstellung der Leser*innen und Beiträge in Zeitschriften der Kinder- und Jugendliteratur zeigen die Meinung der Vermittler*innen zu Begleitbüchern.
Der letzte Abschnitt der Arbeit beschäftigt sich mit dem Einsatz der Medienbegleitbücher in der Leseförderung. Stellvertretend für Angebote in der Familie und in Kindertagesstätten wurde die Arbeit der Stiftung Lesen Mainz betrachtet. Eine Analyse der Angebote und ein Experten-Interview geben nähere Einblicke in die Einbindung von Medienbegleitbüchern. Die Didaktik-Forschung gibt Auskunft über die Integration von Medienbegleitbüchern und Medienverbünden in den Unterricht. Im Bereich der außerschulischen Leseförderung wurde der Einsatz von Medienbegleitbüchern in den Lesestunden von Mentor e.V. Mainz mit einer Online-Umfrage unter den Mentor*innen untersucht. Der Katalog der Anna Seghers Bücherei Mainz zeigt das Angebot an Medienbegleitbüchern in Büchereien auf. Der Instagram-Account der Bücherei lässt Rückschlüsse über den Einsatz von Begleitbüchern in Aktionen zu.
Zusammenfassend konnte festgehalten werden, dass Medienbegleitbücher ein wichtiges Segment des Kinder- und Jugendbuchmarktes darstellen, hohe Umsätze generieren können und für den Handel von Bedeutung sind. Aufgrund des vielfältigen Angebots und der verschiedenen Vertriebswege können viele Zielgruppen angesprochen und erreicht sowie Barrieren zum Medium Buch abgebaut werden. Obwohl die Erfahrungen von Familienangehörigen und Mentor*innen belegen, dass sich Begleitbücher positiv auf die Lesemotivation und das Leseverhalten von Kindern und Jugendlichen auswirken können, werden sie in der Leseförderung bislang eher am Rande berücksichtigt. Sie werden zwar empfohlen, aber Konzepte für und Evaluationen von Projekten fehlen. Die Potenziale der Medienbegleitbücher und ihrer Medienverbünde werden daher nicht ausgeschöpft. Medienbegleitbücher sollten zunehmend in den Fokus gerückt und als Chance wahrgenommen werden, Heranwachsende für Bücher zu begeistern und ihre Lesefreude zu wecken.
Einleitung
Fantastische Literatur
- Feministische Fantastik
- Schwarze Figuren in der Fantastik
Black Speculative Fiction
- Black Speculative Fiction vs. Afrofuturism
- Die Frauen der Black Speculative Fiction
Schwarzer Feminismus
- Schwarzer Feminismus als Literaturtheorie
Analyse
- Autorinnenschaft
- Intersektionalität: Race, Class und Gender
- Von Unterdrückung zu Widerstand und Befreiung
- Verstummen und Stimme finden
- Stereotype dekonstruiert
Afrikas Einfluss
- Fazit
- Literaturverzeichnis
- Eigenständigkeitserklärung
The thesis delves into two research questions, drawing from the 2022 Final Report of the Colombian Truth Commission. It critically examines historical power differentials originating from the colonial period, probing their role in legitimizing and perpetuating violence against ethnic groups, women, and individuals diverging from cisgender or heteronormative norms within Colombian society. Additionally, the research explores the pervasive influence exerted by the colonial legacy on the foundational structures of Colombian societal organization. Employing discourse analysis as its methodological approach, the thesis undertakes the task of deconstructing and reconstructing the Report, thereby elucidating emergent and contingent discursive meanings that situate coloniality within the realms of cognition, language, and affect. Emphasizing the presence of counter-hegemonic knowledge within the Report, the thesis integrates its findings into a robust theoretical and conceptual framework, facilitating a nuanced and systematic comprehension of the underlying causes of violence perpetrated against marginalized groups and the environment. These causes are intricately linked to the intertwined and hybridized power structures that have endured since the colonial era.
Power structures of Eurocentric origin, alongside mental constructs imposed by European invaders over centuries — such as anthropocentrism, racism, internal colonialism, heteropatriarchy, cisnormativity, and classism — were gradually naturalized and institutionalized within Colombian society. This process has been perpetuated through the state's reproduction of these patterns since the inception of Colombia as a nation-state. Consequently, hierarchical discursive constructions, posited as universal and self-evident, have marginalized certain groups and justified environmental degradation. While the internal armed conflict exacerbated these issues, it did not create them; rather, it intensified pre-existing violences, targeting individuals, communities, and their territories.
The thesis also underscores the portrayal of otherness within the modern-colonial world-system, rooted in principles of domination and subalternity, perpetuating colonial patterns of thought and action, reinforcing the hegemonic cosmovision. Notions of superiority and inferiority that predate the establishment of the Colombian nation-state have influenced social categories, subject positions, and identities, resulting in disproportionate, differential, and cumulative harm inflicted upon subalternized population groups. This contributes to a culture of 'justified' violence.
The research underscores the profound entrenchment of coloniality in the structures of Colombian society and the various inherent logics of violence within its conflicts. Coloniality, a comprehensive framework encompassing colonial patterns of thought and action, originating from the invasion and conquest of Abya Yala, continuously shapes the contemporary realities of societies in diverse (re-)configurations, leaving indelible imprints. The effects of these dynamics are manifold, ranging from the imperative of monogamous sexuality according to Judeo-Christian principles as a self-evident norm to the view of nature as a resource rather than a unit comprising both people and environment. In other words, colonial patterns are deeply embedded in all structures of society. A key recommendation emerging from this thesis is to underscore the imperative to recognize and question the persistence of colonial patterns in social and individual lives.
The research urges recognition and interrogation of these persistent colonial patterns in societal and individual structures, advocating for transformative paradigms that challenge conventional thought patterns and foster self-reflection among Colombians. The report, functioning as a political instrument, holds the potential to significantly contribute to the formation of subjectivities that break away from the epistemic schemes of modernity/coloniality. The research and its findings create a political space for questioning the universalist notion of the Eurocentric civilizing project, the scientific rationality of the universal subject, and the presumed neutrality of its forms of knowledge. This opens avenues for questioning, disputing, and transforming entrenched paradigms.
Ausgehend von Scheffers Beschreibung Existentieller Probleme untersucht die Masterarbeit die Problembehandlung solcher. Dabei versucht sich der Autor an einer vorläufigen Begriffsdefinition Existentieller Apparate und untersucht im folgenden, wie sich diese von der Arbeitsweise, ihrer Struktur und anderer Merkmale von herkömmlichen Apparaten unterscheiden. Die Diskussion erfolgt anhand der Problembearbeitungskapazitäten von der Flüchtlingshilfe auf Lesbos, Impfzentren und der Fridays-for-Future-Bewegung, die jeweils für Sich genommen speziell nur im Kontext jeweiliger Existentieller Probleme existieren.
Bei der Bekleidungsmodellierung geht es um den Entwurf von Bekleidung von Personen, die beispielsweise in Szenen dargestellt werden können. Dabei stützt sich der Entwurf auf Informationen aus einer Datengrundlage. Die Darstellung von Szenen, in denen Personen dargestellt werden, stellt sich grundsätzlich als Zusammenspiel komplexer Teilaspekte dar. Dabei wird die Nachvollziehbarkeit einer modellierten Szene oder modellierter Avatare im Auge des Betrachters ganz wesentlich durch den Faktor passend gewählter Kleidung bestimmt.
In dieser Arbeit werden Ansätze und Verfahren vorgestellt, die zur Bekleidungsmodellierung auf Grundlage von Textdokumenten basieren. Dafür werden Möglichkeiten erörtert, die es erlauben Informationen aus Texten zu extrahieren und für die Modellierung einzusetzen.
Zur Bearbeitung der Aufgabenstellung wird zunächst ein aus dem Machine Learning bekanntes kontextuelles Modell hinsichtlich einer Mehrklassen-Klassifizierung trainiert und angewendet. Daraufhin wird die Erstellung einer eigenen Wissensressource, die sich auf textlicher Ebene mit dem Thema der Bekleidung auseinandersetzt, aufgebaut und mit zahlreichen Informationen aus bereits bestehenden Ressourcen popularisiert. Die neue Ressource wird in Form einer Graphdatenbank entworfen. Dabei werden Relationen zwischen den einzelnen Elementen mithilfe von statischen Modellen sowie einem kontextuellen Modell, dem BERT-Modell, erstellt. Schließlich wird auf Grundlage der entwickelten Graphdatenbank ein in der Programmiersprache Python entwickeltes Programm vorgestellt, dass Eingabetexte unter Hinzunahme der Informationen und Relationen innerhalb der Graphdatenbank verarbeitet und Kleidungsstücke detektiert.
Nach der theoretischen Aufarbeitung der entwickelten Ansätze werden die daraus resultierenden Ergebnisse diskutiert und bestehende Problematiken bei der Bearbeitung der Aufgabenstellung angesprochen. Abschließend wird die Arbeit zusammengefasst und Anregungen für die weitere Bearbeitung dieser Thematik vorgestellt.
Die Arbeit befasst sich mit zwei funktionalen Grenzwertsätzen für skalierte Linienzählprozesse von anzestralen Selektionsgraphen. Dazu werden zwei Modelle aus der mathematischen Populationsgenetik betrachtet. Wir führen zuerst das Moran-Modell mit gerichteter Selektion mit konstanter Populationsgröße N in kontinuierlicher Zeit und den Linienzählprozess des anzestralen Selektionsgraphen (MASP) gemäß Krone und Neuhauser (Theor. Popul. Biol. 1997) ein. Die Hauptaussage dieser Abschlussarbeit besagt, dass der passend standardisierte MASP im Fall der moderaten Selektion für N gegen unendlich in Verteilung gegen einen Ornstein-Uhlenbeck-Prozess konvergiert. Das zweite betrachtete Modell ist das Cannings-Modell mit gerichteter Selektion in diskreter Zeit, das gemäß Boenkost, González Casanova, Pokalyuk und Wakolbinger (Electron. J. Probab. 2021) eingeführt wird. Für ein Teilregime der moderat schwachen Selektion wird bewiesen, dass die reskalierten Fluktuationen des Linienzählprozesses des anzestralen Selektionsgraphen im Cannings-Modell ebenfalls in Verteilung gegen einen Ornstein-Uhlenbeck-Prozess konvergieren.
Das Buch im Buch als Archiv
(2022)
Die Masterarbeit von Svenja Blumenrath mit dem Titel "Das Buch im Buch als Archiv" ist eine interdisziplinäre Zusammenführung von Literaturwissenschaft und Archivstudien. Anhand von sieben ausgewählten kinder- und jugendliterarischen Werken analysiert die Autorin die Funktion des Buches im Buch als Archiv für die erzählte Welt. Die Ergebnisse zeigen, dass das Buch im Buch nicht nur als narrative Struktur dient, sondern auch als Archiv fungiert, das Erinnerungen und Wissen bewahren, aber auch verwehren kann. Diese Erkenntnisse bieten neue Einblicke in die Verbindung von Literatur und Archivwesen.
Caroline Ungher-Sabatier wird heute meist mit dem Altsolo bei der Uraufführung der 9. Symphonie Ludwig van Beethovens in Verbindung gebracht. Ihre größten Erfolge konnte sie jedoch mit der italienischen Oper in den 1830er Jahren feiern. Bisher fand ihre sängerische Laufbahn und ihre Kontakte in Wien – abgesehen von Franz Schubert und Beethoven – kaum Beachtung. Deswegen beschäftigt sich diese Masterarbeit eingehend mit der Künstlerin und Sängerin Caroline Ungher-Sabatier, deren Lebensweg mit der Stadt Wien verknüpft ist. Sie genoss dort ihre musikalische Ausbildung, kehrte, nach ihren großen Erfolgen in Italien, 1839 und 1840 für Gastspiele an das Kärntnertortheater zurück und hielt lebenslang ein Netzwerk zu berühmten und bekannten Persönlichkeiten in Wien aufrecht. Nach ihrem Bühnenabschied war Ungher-Sabatier als Gesangspädagogin tätig und setzte sich auch in Wien für ihre Schülerinnen ein.
Neben ihrer erfolgreichen Karriere in der italienischen Oper pflegte Ungher-Sabatier das deutsche Liedrepertoire und komponierte eigene Lieder.
Ihr Werdegang und ihre Rezeption in Wien werden anhand von zeitgenössischen Artikeln aus Zeitungen und Zeitschriften untersucht. Um einen tieferen Einblick in Caroline Ungher-Sabatiers Wiener Netzwerk nach ihrer Opernkarriere zu ermöglichen, wurden ihr Stammbuch und über hundert Briefe ausgewertet.
In den letzen 30 bis 40 Jahren sind Kommunen verstärkt dazu übergegangen die in ihrem Besitz befindlichen Flächen zu verkaufen und so ihre kommunalen Gestaltungsspielräume zu verlieren. Diese Privatisierungspolitik der „unternehmerischen Stadt“ hat verkannt, dass Boden für Kommunen ein endliches und essentielles Gut ist, welches nicht vermehrt werden kann.
Gerade in den lokalen Räumen der Kommunen wird der Kampf um den begrenzten Boden besonders sichtbar. Das Alltagsleben der Menschen wird dadurch bestimmt, ob Boden im Privateigentum ist und vorrangig der Kapitalvermehrung dient oder ob Boden ein gesellschaftliches Gemeingut ist. Die Privatisierung neoliberaler Kommunalpolitik hat – entgegen der Erwartungen – weder das Leben in den Städten besser noch günstiger gemacht. Die Kosten für Mieten und die privatisierten Leistungen aus Daseinsvorsorge sind in den letzten Jahrzehnten extrem gestiegen. Letztere wurden z. T. auch verkleinert oder vollkommen aufgegeben, wie z. B. der öffentliche Nahverkehr in ländlichen Räumen oder die Schließungen von Kultureinrichtungen, Jugendzentren oder Schwimmbädern.
Auf diese Phase neoliberaler Bodenpolitik ist zunehmend eine polanyische Gegenbewegung zu beobachten, die für den sozial-ökologischen Schutz eintritt. Die Menschen in den Kommunen wollen und können diese Entwicklung nicht weiter hinnehmen. Und auch die Lokalpolitik schwenkt z. T. um, indem sie Forderungen der Rekommunaliserung und sozialverträglicher Mieten unterstützt.
Trotz dieser progressiven Entwicklungen ist gerade die Vergabe von Gewerbeflächen nach wie vor durch ein neoliberales Paradigma der Standortkonkurrenz und Austerität geprägt. In diesem Sinne muss die Vergabe von Boden zuallererst ökonomisch sinnvoll sein. Andere Aspekte werden oft ausgeklammert, da sie unter Finanzierungsvorbehalt stehen. Diese Vergabepraxis ist quasi alternativlos und damit postpolitisch. Obwohl diese Entscheidungen die Kommunen langfristig prägen, werden soziale und ökologische Aspekte der ökonomischen Frage untergeordnet. Die Berücksichtigung von Gemeinwohlaspekten, die sich in einem Kriterienkatalog zur Gewerbeflächenvergabe wiederfinden können, bietet Kommunen die Möglichkeit, eine andere – gemeinwohlorientierte – Handlungsrationalität einzunehmen. Die Entscheidungsgrundlage für die Gewerbeflächenvergabe würden mit solchen Kriterien grundlegend neu justiert werden, da sie nicht mehr auf rein ökonomischen, sondern auf sozialen und ökologischen Werten beruht.
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie eine gemeinwohlorientierte Gewerbeflächenvergabe gestaltet werden kann, indem sie die kommunalen Handlungsspielräume erweitert und so einen Beitrag für eine sozial-ökologische Gegenbewegung zur neoliberalen Kommunalpolitik leistet. Sie kommt zu dem Ergebnis, dass für eine kommunale sozial-ökologische Transformation die Wirtschaft wieder stärker in die Gesellschaft eingebettet werden muss (Polanyi 1944). Eine dementsprechende Gewerbeflächenvergabe setzt daher auf die Dekommodifizierung der Flächen, d. h. sie fördert öffentliche und kollektive Eigentumsformen. Außerdem fördert sie kollektive sozial-ökologische Nutzungsformen der Flächen, die dem Gemeinwohl der Bewohner*innen in der Region dienen. Zur Umsetzung könnten Kommunen Gemeinwohl-Kriterien zur Gewerbeflächenvergabe aufstellen. In der vorliegenden Arbeit wird hierzu ein möglicher Kriterienkatalog entwickelt.
Die folgende Arbeit handelt von einer Text2Scene Anwendung, welche in der Virtual Reality (VR) umgesetzt wurde. Das System ermöglicht es den Usern aus einer Beschreibung einer Szene, diese virtuell nachzustellen. Dies bietet eine neue Art der Interaktion mit einem Text, die die visuelle Komponente hervorhebt und somit eine Geschichte auf neue Wege erfahrbar macht.
Dazu kann der User einen fertigen Text entweder vom Server zu laden oder einen eigenen erstellen, der dann automatisch verarbeitet wird. Dabei werden die vorhanden physischen Objekte im Text automatisch erkannt und dem User als 3D-Objekte in der virtuellen Umgebung zur Verfügung gestellt. Diese können dann manuell platziert werden und erzeugen dadurch die Szene, die im Ausgangstext beschrieben wurde. Das Ziel der Textverarbeitung ist eine möglichst genaue Beschreibung der Objekte, damit diese zielgerichtet in der Objektdatenbank gesucht werden können.
Bei der Textverarbeitung wird besonderer Wert auf das Erkennen von Teil-Ganz Beziehungen gelegt. Sodass Objekte, die im Text vorkommen und ein Holonym besitzen, automatisch mit diesem verknüpft werden. Gleichzeitig wird die Teil-Ganz Beziehung aber auch in die andere Richtung genauer betrachtet. Die Textverarbeitung soll ferner dazu in der Lage sein, Objekte genauer zu spezifizieren und an den Kontext des Textes anzupassen. Weiterhin wurde das Natural Language Processing (NLP) so ausgebaut, dass der Kontext des Textes erkannt wird und die Objekte entsprechend kategorisiert werden. Die Textverarbeitung wird mithilfe eines Neuronalen Netzes implementiert. Die verwendeten Tools zur Erkennung von Teil-Ganz Beziehungen, Kontext und Spezifikation von Objekten wurden anhand von Texteingaben nach der Genauigkeit der Ausgabe evaluiert.
Zur Nutzung der Textverarbeitung wurde eine virtuelle Szene entwickelt, die das Erstellen von eigenen Szenen aus vorher geladenen beziehungsweise eingegebenen Texten ermöglicht.
Dazu kann der Nutzer manuell oder automatisch Objekte laden lassen, die er dann platzieren kann.
Under pressure? : "Querdenken" - Kollektivierung als Praxisproblem einer Bewegung unter Druck
(2021)
Die vorliegende Arbeit untersucht eine lokale Telegram-Chatgruppe der Corona-Protestbewegung „Querdenken“ hinsichtlich deren Kollektivierungspraktiken. Das Erkenntnisinteresse liegt darin, zu untersuchen, wie die Gruppe in einer Zeit, in der durch häufige Demonstrationsverbote hoher Druck von außen auf sie einwirkt, Gemeinschaft herstellt. Analysiert werden dabei symbolische Grenzziehungspraktiken sowie die Mobilisierung leerer Signifikanten und – um einen Blick auf Kollektivierung als Praxisproblem zu werfen – die Konflikte, die innerhalb der Gruppe herrschen. Dabei zeigt sich eine antagonistische Identitätskonstitutionslogik, die sich anhand der privilegierten Signifikanten Demokratie vs. Diktatur konstituiert. Diese entwickeln ihre identitätsstiftende Kraft vor allem in der Attribution zu verschiedenen Subjektpositionen, von denen ‚die Politik‘ die zentrale Abgrenzungsposition für die Querdenker*innen darstellt. Weiterhin zeigt sich, dass die strategischen Konflikte, die aus dem Druck von außen resultieren, kontextabhängig gleichermaßen zersetzende wie integrative Kräfte entwickeln.
Das CBM-Experiment konzentriert sich auf die Untersuchung der Eigenschaften des Quark-Gluon-Plasmas bei hohen Netto-Baryonendichten und moderaten Temperaturen. An der zukünftigen Beschleunigeranlage FAIR an der GSI findet das Experiment, neben vielen anderen Experimenten, ihren Platz. Der TRD ist, neben dem RICH, STS und TOF, einer der zentralen Detektoren im CBM-Experiment. Der TRD nutzt dabei den physikalischen Effekt der Übergangsstrahlung, die durch ein geladenes Teilchen beim Durchqueren einer Grenze zweier Medien mit unterschiedlichen Dielektrizitätskonstanten mit einer gewissen Wahrscheinlichkeit entsteht, um Elektronen von Pionen trennen zu können. Im Jahr 2017 wurde an der DESY 4 TRD-Prototypen in einer Teststrahlzeit getestet. Dabei handelt es sich um große TRD-Module mit den Maßen 95 · 95 cm2 , was dem finalen Design sehr nahe kommt. Die Untersuchung der DESY-Daten in Kapitel 5 brachte große Problematiken in den Daten zum Vorschein. Die Hauptprobleme der DESY-Daten sind: 1) Bug des SPADIC-Chips 2.0, bei der FN-Trigger zeitlich verschoben wurden; 2) schwache und suboptimale Trigger-Bedingung, wodurch sehr viel Rauschen aufgenommen wurde. Die Daten müssen für weitere Auswertung aufbereitet werden, wobei sehr viel Information und Statistik verloren geht, da einige Daten durch diverse Probleme nicht mehr rekonstruierbar sind. Kapitel 6 beschäftigt sich mit der Simulation der Detektorantwort und geht genauer auf die einzelnen Schritte, die zur Simulation des vom SPADIC erzeugten Pulses benötigt werden, ein. Am Ende werden Ergebnisse aus beiden Datensätzen miteinander verglichen. Um einen optimalen Vergleich zu gewähren, wird die Simulation bestmöglich an die Einstellungen in der Teststrahlzeit angepasst. Hauptsächlich geht es um die Erhöhung des Gasgains und der Verschiebung der Peaking-Zeit des Pulses. Im Allgemeinen können wir in der Simulation einige Effekte, die auch in den DESY-Daten vorkommen, nachsimulieren. Wir erhalten zum Teil sehr unterschiedliche Ergebnisse in der Simulation, deren Richtigkeit nicht verifiziert werden kann, da die Daten aufgrund der Probleme unzuverlässig werden. Durch die Analyse der DESY-Daten konnten wir die Problematik in den Daten besser verstehen. Eine sinnvolle Anpassung der Simulation wird durch die Unzuverlässigkeit der DESY-Daten unmöglich. Für die Optimierung der Simulation müsste man einen Vergleich mit neueren, zuverlässigeren Daten aus zukünftigen Teststrahlzeiten nehmen.
Die vorliegende Arbeit liefert ein Versatzstück zu grundlagentheoretischen Überlegungen im Themenfeld Gesundheit. Dabei wird der Fokus insbesondere auf wissenschaftstheoretische, -soziologische und sozialpsychologische Reflektionen der gesundheitsbezogenen Diskurslandschaft im wissenschaftlichen Bereich gelegt. Diese werden nach gesellschaftsdiagnostischen Anteilen der Arbeit in reflektierter Art und Weise in einen diskursiven Vorschlag überführt, der wiederum für Gesundheit im universitären Setting wegweisend sein kann.
Der Akteurscharakter der BRICS-Staaten : eine qualitative Untersuchung mit der Grounded Theory
(2020)
Die Abschlussarbeit beschäftigt sich mit der zentralen Fragestellung: Welchen Akteurscharakter besitzen die BRICS-Staaten? Zur Beantwortung ist mit der Grounded Theory eine rekonstruktionslogische Herangehensweise gewählt worden, um das Phänomen zu untersuchen. Für den Forschungsprozess ist auf die Software MAXQDA zurückgegriffen worden. Als Ergebnis werden die BRICS-Staaten als „Kooperationsmodell der Nichteinmischung“ betitelt.
Diese Masterarbeit fragt nach Anschlussmöglichkeiten der Schriften Bruno Latours an die Postwachstumsdiskussion an der Friedrich-Schiller-Universität Jena. Im ersten Schritt wird die Jenaer Debatte um Degrowth in der Tradition der kritischen Theorie verortet und inhaltlich anhand der Begriffe der »Wachstumskritik« und der »sozial-ökologischen Transformation« rekonstruiert. Zweitens folgt die Rekonstruktion Latours anhand dreier Werkphasen seit Anfang der 90ger Jahre. Im dritten Schritt geht es darum, Latour mit der Jenaer Debatte ins Gespräch zu bringen. Dabei stößt der Autor auf einen sozial-theoretischen Graben zwischen beiden Denkschulen. Das darf allerdings nicht darüber hinwegtäuschen, dass Latours Werke viele praktische Anknüpfungspunkte bereithalten, wie eine sozial-ökologische Transformation im Sinne der Postwachstumsdebatte gelingen kann.
Das Konflikterleben von Schiedsrichtern im Amateurfußball : eine empirisch-qualitative Arbeit
(2020)
Bei der Austragung von Amateurfußballspielen nehmen Schiedsrichter die Rolle von Beobachtern ein, die bei Konflikten selbst zu Betroffenen werden können. Dabei treten auch extreme Formen wie Beleidigungen und Diskriminierungen sowie physische und psychische Gewalt auf. Anliegen der Masterthesis „Das Konflikterleben von Schiedsrichtern im Amateurfußball“ ist es, die Wahrnehmung von Schiedsrichtern in Bezug auf Konflikte im Amateurfußball empirisch-qualitativ zu erfassen und bisherige Forschungsansätze zu erweitern. Grundlage der Arbeit bilden vom Autor geführte problemzentrierte Interviews mit hessischen Unparteiischen, deren Auswertung neue Perspektiven im Gewaltdiskurs des Amateurfußballs anbietet.
Im Blickpunkt der Arbeit steht die Historiografie der Unternehmungen Friedrich I. Barbarossas 1154-1158 in der Lombardei. Während der hochgebildete Bischof Otto von Freising ein reges Forschungsinteresse darstellt, sind seine beiden Zeitgenossen, die eigenständige Berichte über die Ereignisse verfassten, in der Forschung weitestgehend unberücksichtigt geblieben. Durch einen Vergleich der 'Gesta' Bischofs Otto von Freising, des 'Libellus' des Lodesen Otto Morena und der 'Narratio' eines anonymen Schreibers aus Mailand zeigt diese Arbeit die Absichten der Autoren auf und fragt, inwieweit die sich widersprechenden Schilderungen als "alternativen Fakten" aufgefasst werden können.
Nach einem Abriss über den Begriff der "alternativen Fakten", dem im Zuge der Präsidentschaft von Donald Trump Aufmerksamkeit zuteilwurde und der hier als unbewusst oder bewusst erfolgte Verformung verstanden wird, der neuzeitlichen Rezeption Barbarossas sowie einer zeitlichen und räumlichen Einordnung werden die "Ausgangslagen" der Autoren betrachtet. Die Entstehung der 'Gesta' und ihr Verhältnis zu Ottos erstem Werk sind umstritten. Es zeigt sich, dass die Positionen Ottos von Freising und Otto Morenas kaiserfreundliche, diejenige des Mailänders Autors eine kaiserfeindliche Absicht erwarten lassen.
Eine kleinteilige Betrachtung der Vorworte/Prologe der Werke offenbart die selbst geäußerten Absichten. Die Anlehnung der 'Gesta' Ottos von Freising an einen durch oder im Auftrag Barbarossas verfassten Tatenbericht sowie seine Lobpreisungen des Kaisers stellen eine Färbung der Darstellung in Aussicht. Auch bei Otto Morena zeigt sich eine starke Verbundenheit zum Kaiser, die Zweifel an der Neutralität seines Werkes aufkommen lassen muss. Der anonyme Autor aus Mailand bekennt ausdrücklich, zum Nutzen der Nachwelt zu schreiben und reiht die Zerstörung Mailands 1162 als Endpunkt einer weitzurückreichenden Opfernarrative ein. Auch wenn ausdrückliche Ausfälle gegen den Kaiser unterbleiben, sind starke Zweifel an einer neutralen Darstellung angezeigt.
Die Beschäftigung mit den Ereignissen des Jahres 1154 zeigt "alternative" Darstellungen: Die Darstellung Ottos von Freising hält sich an die kaiserliche Vorlage und ist im Sinne des Kaisers gehalten, was sich auch bei Otto Morena zeigt, der darüber hinaus die Rolle Lodis betont. Die Mailänder "Gegendarstellung" hingegen lastet negative Ereignisse ausschließlich Barbarossa an.
Otto von Freising betont die lange geplante Kaiserkrönung in Rom und den Feldzug gegen die Normannen als Ausgangspunkt des ersten Italienzuges. Otto Morena legt den Beginn des Disputs zwischen Barbarossa und den Mailändern auf die Versammlung des Hofes in Konstanz, wo Klagen zweier Lodesen Anlass zu Friedrichs erstem Italienzug gegeben hätten. Der Anonymus aus Mailand wirft Barbarossa vor, mit dem Ziel der militärischen Unterwerfung aufgebrochen zu sein.
Otto von Freising übernahm die Darstellung Barbarossas von einem Bestechungsversuch der Mailänder, deren Konsuln anschließend seinen Zug durch verödete Landschaften geführt hätten, was auch Otto Morena zu berichten weiß. Der Mailänder Schreiber verschweigt dies und erzählt stattdessen von Misshandlungen der Mailänder durch das königliche Gefolge. Die Erstürmung der Burg Rosate stilisiert er als unbegründeten Gewaltakt, während die Schreiber aus Lodi und Freising rechtfertigend argumentieren.
Die unabhängig überlieferte 'Conventio', die 1158 nach der Belagerung Mailands zwischen der Stadt und dem Kaiser geschlossen wurde, beinhaltete neben Strafbestimmungen die Anerkennung der Hoheit des Kaisers unter Wahrung der kommunalen Herrschaftsform. Während Otto Morena ihre Bestimmungen nur höchst unvollständig wiedergab, sodass der Schluss naheliegt, dass er sie nicht kannte, lieferte der Mailänder Anonymus durch gezielte Auslassungen und Verfälschung ihrer Bestimmungen erneut "alternative Fakten" und erweckte den Anschein einer Rückkehr zu den "kaiserfernen" Jahren vor Barbarossa.
Bei genauer Betrachtung der auf dem Hoftag von Roncaglia 1158 festgestellten 'lex omnis iurisdictio' wird deutlich, dass diese entgegen der bisherigen Forschungsmeinung keinen Bruch der 'Conventio' darstellte. Eine Konfrontation der Darstellungen der Ereignisse im Januar 1159 in Mailand mit dem Augenzeugenberichts Vinzenz' von Prag zeigt, dass Otto Morena erneut nur knapp berichtet. Der Anonymus hingegen liefert eine "alternative" Darstellung, nach der die Gesandten des Kaisers gekommen waren, um das Recht zu brechen. Diese Tendenziösität wird auch bei der Einnahme der Burg Trezzo deutlich, über die ein Bericht von Ottos einstigem Kaplan Rahewin vorliegt.
Die Darstellungen offenbaren, dass ihre Autoren ihre Texte gezielt einzusetzen gedachten und so zu Produzenten "alternativen Fakten" wurden. Für den Historiker zeigt sich einmal mehr die Wichtigkeit einer quellenkritischen Arbeitsweise, wie sie Johannes Fried in seiner "Memorik" eindrucksvoll vertrat.
PROTACs sind ein Teil der nächsten Generation von pharmazeutischen Wirkstoffen und bieten einen komplett neuen Ansatz, um mit kleinen Molekülen in biochemische Signalwege einzugreifen. PROTACs adressieren hierbei sowohl das Zielprotein als auch den E3-Ligase-Komplex und bewirken die Degradation des Zielproteins. Insbesondere in der Behandlung von bestimmten Krebsarten zeigen PROTACs einen neuen vielversprechenden Ansatz. Durch Inhibition der 5-LO mit bekannten Inhibitoren wie Zileuton® oder CJ-13,610 konnte der Weiterentwicklung von Leukämie, auch bekannt als Blutkrebs, entgegen gewirkt werden, aber nicht aufgehalten werden. Hier sollen als neue Methode PROTACs eingesetzt werden, um der Überexpression der 5-LO in Leukämiezellen durch Degradation entgegenzuwirken.
Mit HK330 und CJ-13,610 als Leitstruktur wurden 17 PROTACs erfolgreich synthetisiert und charakterisiert.
Das Staatsangehörigkeitsrecht verankert rechtlich Vorstellungen über Zugehörigkeit und bestimmt wer vollumfängliche Rechte in einer Gesellschaft hat und wer nicht. Jahrzehntelang wurde Migration in Deutschland als etwas temporäres betrachtet. Im Staatsangehörigkeitsrecht galt bis zur Reform 1999/2000 weitgehend das „ius sanguinis“, das Abstammungsrecht, das auf einem rassistischen und völkischen Staatsverständnis beruht. Diese Reform bedeutete somit mehr als eine reine Gesetzesänderung. Sie war eine Anerkennung Deutschlands als Einwanderungsland und die Veränderung der Vorstellung deutscher Identität. Als Reaktion entbrannte infolge der Reformpläne eine hitzige, rassistische Debatte in der Öffentlichkeit über ebendiese Fragen, die unter dem polarisierten Schlagwort „Doppelpass“ verhandelt wurde. Es war die lauteste migrationspolitische Debatte dieser Zeit.
Kurze Zeit vor Beginn dieser Debatte war die rechtsterroristische Gruppe „Nationalsozialistischer Untergrund“ (NSU) abgetaucht, um einem Haftbefehl zu entgehen. Der NSU war ein deutsches, neonazistisches Netzwerk, in dessen Mittelpunkt drei Terrorist*innen standen. Sie verübten über einen Zeitraum von zwölf Jahren eine rassistische Mordserie an neun Personen türkischer, kurdischer und griechischer Herkunft sowie drei Sprengstoffanschläge auf migrantische Orte und ermordeten eine Polizistin. Den ersten ihrer Sprengstoffanschläge begingen sie nur einen Monat nach der Unterzeichnung der Reform. Wenige Monate nach dem Inkrafttreten des Gesetzes begannen sie mit dem Anschlag auf Enver Şimşek ihre rassistische Mordserie.
Diese Arbeit untersucht anhand der Struktur der Historisch-Materialistischen Politikanalyse das Migrationsregime um die Staatsangehörigkeitsreform von 1999/2000 und wie der NSU darin verortet werden kann.
Die Kontextanalyse stellt auf der Grundlage einer Literaturrecherche die relevanten historischen und strukturellen Faktoren der Debatte sowie des NSU dar. Im nächsten Schritt werden mithilfe einer Analyse von Zeitungsartikel aus dieser Zeit die relevanten Akteur*innen identifiziert und in die vier Hegemonieprojekte neoliberal, sozial, linksliberal-alternativ und konservativ gruppiert. Darauffolgend wird der Ablauf der Debatte in vier Phasen darstellt und als Aushandlung der vier Hegemonieprojekte rekonstruiert. Dabei zeigt sich, dass kein Projekt sich vollumfänglich durchsetzen und Hegemonie erreichen konnte, sie jedoch unterschiedlich stark in den Medien repräsentiert wurden.
Im letzten Schritt betrachtet diese Arbeit Verbindungen dieser Migrationsregime-Analyse zum NSU. Sie kommt zu dem Ergebnis, dass der NSU kein Akteur im Migrationsregime um die Staatsangehörigkeitsdebatte von 1998/99 war. Aufgrund der geringen Erkenntnisse über spezifische Meinungen des NSU zum Staatsangehörigkeitsrecht, können keine kausalen Beziehungen hergestellt werden. Dennoch zeigt diese Arbeit Gemeinsamkeiten in den Weltbildern, Annahmen und migrationspolitischen Zielen des NSU, des konservativen Hegemonieprojektes sowie Teilen der Bevölkerung auf. Dadurch wird ein Beitrag dazu geleistet den NSU als Produkt und Teil der deutschen Gesellschaft zu begreifen.
Ziel der Simulationsstudien in dieser Arbeit war es, die Leistungsfähigkeit des Transition Radiation Detectors zur Identifikation von leichten Kernen und Hyperkernen im CBM-Experiment zu untersuchen. Die Trennung von Helium und Deuterium
mithilfe ihres spezifischen Energieverlustes im TRD ist zentral, um eine Rekonstruktion des seltenen Hyperkerns 6 ΛΛHe mit einem hohen Signal-zu-Untergrund-Verhältnisse zu leisten. Zur Erfüllung der Anforderungen, die sich aus dem CBM-Forschungsprogramm ergeben, wird eine Auflösung des Energieverlustes dEdx von Helium von höchstens 30 % verlangt...
Jürgen Habermas und Talal Asad zählen zu den bedeutendsten Protagonisten des Diskurses um die postsäkulare Gesellschaft. In der vorliegenden Arbeit unternehme ich eine vergleichende Lektüre zentraler Schriften beider Autoren. Dabei versuche ich, möglichst präzise zu beschreiben, wie Habermas und Asad einen neuen Blickwinkel auf die Verhältnisbestimmung von Religion und Gesellschaft in der Gegenwart freigeben und plausibilisieren.
Einen zentralen Stellenwert schreibe ich der Tatsache zu, dass hierfür von beiden der Begriff der ‚Übersetzung‘ herangezogen wird. Ziel der Untersuchung ist es folglich, erste systematisierende Vorstöße bezüglich des Begriffspaars ‚Religion übersetzen‘ zu leisten. Dabei gilt es ein Bündel an Forschungsfragen zu beantworten: Wie wird der Begriff der Übersetzung verstanden? In welcher Art und Weise kommt Religion im Werk der Autoren zur Sprache? Auf welche Aspekte der Religion soll sich die Übersetzungsleistung beziehen? Wer sind die Subjekte dieser Übersetzung? Und schließlich, welche Chancen und Probleme bringen die beiden Ansätze für eine politiktheoretische Perspektive auf religiös-gesellschaftliche Fragestellungen mit sich?
Jede Gesellschaft oder Gemeinschaft wird von ihrer historischen Geschichte beeinflusst. Die gewachsenen Ansichten, Umgangsweisen und Strategien sind die Basis für die Weiterentwicklung jedes Gemeinwesens. Das Museum ist ein Ort der offenen und kritischen Auseinandersetzung mit dieser Geschichte und deren Wirkungen auf die Gegenwart. Es ist somit eine bildungspolitische Einrichtung, die aufgrund dieser gesellschaftlichen Aufgabe ihre besondere Bedeutung und Existenzberechtigung erhält. Museen sind in jeder Kultur und Gesellschaft ein wesentlicher Ort für die Fragen: Wo kommen wir her? Was verbindet uns? Besonderes in einer jungen Nation, die ihre Unabhängigkeit erst 1991 erlangt hat, ist eine Auseinandersetzung mit diesen Fragen dringend und wichtig.
Die Arbeit schlägt einen weiten Bogen vom Allgemeinen zum sehr Speziellen. Sie beginnt mit einer Darstellung der wichtigen Ansätzen und Studien zur Besucherforschung in Museen allgemein. Dabei wird nicht nur der Wandel in den Ansprüchen des Publikums aufgezeigt, sondern auch die Veränderungen der Konzeption und der Repräsentation der Museen selbst. Einen Schwerpunkt legt die Arbeit auf den Aspekt des Erzählens - das bedeutet, etwas sichtbar zu machen, was nicht offensichtlich ist: Kontexte, Reflexionen und Bezüge. Die Bedeutung der Kommunikation zwischen dem Museum und seinen Besuchern wurde in der Ethnologie bisher eher vernachlässigt.
Die vorliegende Arbeit befasst sich damit, wie die spezifische Durchführung eines besonderen psychologischen Laborexperiments in eine allgemeine, kausale Form übersetzt wird. Anstatt dazu formale Kriterien der Validität heranzuziehen, wird ein experimenteller Forschungsprozess ethnographisch begleitet.
Forschungsgegenstand ist ein Verhaltensexperiment aus der allgemeinen Psychologie zur Trainierbarkeit des Arbeitsgedächtnisses. Im Rahmen der Ethnographie werden teilnehmende Beobachtungen, Interviews und Dokumentensammlung kombiniert eingesetzt. Die Auswertung der Materialien erfolgt mithilfe der Situationsanalyse nach Clarke (2012), einer qualitativen Auswertungsmethode im Anschluss an die Grounded Theory.
In dieser Arbeit wird das Verhalten der Versuchsperson ins Zentrum gerückt, das die Messung in Gang setzt und hält und die Entstehung von zahlenförmigen Daten ermöglicht. Dazu wird in Orientierung an neueren Science & Technology Studies eine begriffliche Systematisierung der Experimentalpraxis aus dem empirischen Material herausgearbeitet, mit dem die Konstruktion und Transformation des Verhaltens der Versuchsperson im Verlauf des Datenerhebungs- Auswertungs- und Interpretationsprozesses beschrieben werden kann.
Die Ergebnisse der Ethnographie legen nahe, dass dieses Verhalten der Versuchsperson - korrespondierend zum kausal verfassten Endprodukt des Experiments - von der komplexen Erhebungssituation abhängig und paradoxerweise gleichzeitig unabhängig ist. Damit wird in Anlehnung an Latour (2002) zwischen konstruktivistischen und objektivistischen Positionen vermittelt. Zudem weisen die erforschten Praktiken die epistemische Stellung der Versuchsperson aus. Diese wird im Anschluss an die Terminologie von Rheinberger (2001/ 2006) als Mischform von epistemischem Ding (Neues) und technischem Ding (Bekanntes) bestimmt.
"Spielen und Sich-Bewegen sind elementare kindliche Bedürfnisse. Als positive Lebensäußerungen fördern sie Gesundheit und Wohlbefinden. Sie unterstützen die psychomotorische, emotionale und soziale Entwicklung und tragen zur Ausbildung kognitiver Strukturen bei. Durch Spiel und Bewegung macht das Kind Erfahrungen seiner selbst: Es erprobt Bewegungs- und Handlungsabläufe, lernt, sich einzuschätzen und erlebt eigenes Können und seine Grenzen. Im gemeinsamen Tun mit anderen Kindern entwickeln sich seine Kooperations- und Kommunikationsfähigkeit." (Hessisches Kultusministerium, 1995, S. 20)
In diesem Auszug aus dem Rahmenplan für den Sportunterricht in hessischen Grundschulen werden dem Sporttreiben neben gesundheitsfördernden vor allem charakterbildende Eigenschaften zugeschrieben. Laut der "Charta des Deutschen Sports" zählt Sport sogar zu den "nicht austauschbare[n] Faktoren der Bildung" und als wichtiger Baustein "zur Entfaltung der Persönlichkeit" (zit. nach Singer, 1986, S. 295). Damit werden hohe Erwartungen an die sportliche Betätigung von Kindern formuliert, die von einer gesamtheitlichen Förderung der individuellen Entwicklung durch die Partizipation am Sport ausgehen und ein geradezu lobpreisendes Bild von Bewegungspraktiken zeichnet.
Dass auch die Welt des Sports ihre negativen Seiten hat, ist nicht von der Hand zu weisen. Ein Blick in die Tageszeitung genügt, um über aktuelle Doping- und Korruptionsvorwürfe rund um Olympische Spiele, Manipulationsverdächtigungen gegenüber Schiedsrichtern oder gar staatlichen Einrichtungen oder randalierende und sich prügelnde Fangruppen informiert zu werden. Diese Thematiken lassen sich von der internationalen Bühne herunterbrechen bis auf den heimischen Fußballplatz vor der Haustür. Gerade auf diesem haben sich in den vergangenen Jahren, man darf mittlerweile gar von Dekaden sprechen, Szenen ereignet, die den im oben angestellten Zitat mit dem Sport verbundenen Ansprüchen nicht gerecht werden.
Gerade im Amateur- und Breitensportbereich des Fußballs ist im Allgemeinen eine rauere Atmosphäre wahrzunehmen, die sich nicht zuletzt in Spielabbrüchen und physischen Auseinandersetzungen äußert und sich nicht auf den Seniorenspielbetrieb beschränkt, sondern gar Junioren- und Kinderspiele umfasst. Diese ausgemachten Tendenzen waren letztendlich ausschlaggebend für die von Ralf Klohr, damals selbst als Nachwuchstrainer aktiv, 2007 vollzogene Gründung der "Fair-Play-Liga", die den angesprochenen Entwicklungen entgegenwirken und das Bildungspotenzial des Sports wieder mehr in den Vordergrund rücken und schützen soll. Die jüngsten Fußballinteressierten, also Kinder ab 4 Jahren, spielen dort nach modifizierten Regeln, die zur Erfüllung ihrer altersentsprechenden Bedürfnisse beitragen und diese sicherstellen sollen. Mittlerweile ist das Konzept deutschlandweit im Einsatz und eine etablierte Organisationsform des Kinderfußballs, mit der Klohr (2018) die "nglaubliche Kraft im Fußball" bemühen und diese über eine dem Straßenfußball ähnliche, aber nach seinen Vorstellungen verbesserte Herangehensweise zurückholen will:
"Ich sehe die Fair-Play-Liga mit Trainer als eine Qualitätssteigerung zum ‚alten‘ Bolzplatz. Ich sehe die Fair-Play-Liga als ‚modernen‘ Bolzplatz. Die Trainer haben in erster Linie einen Betreuungsauftrag. Auf dem modernen Bolzplatz können sie dafür sorgen, dass alle Kinder gerecht behandelt, also nicht, benachteiligt, werden."
Ebenso wie an den Schulsport sind an die Fair-Play-Liga durch ihre Selbstdefinition einige Erwartungen geknüpft. Die vorliegende Masterthesis macht es sich zum Ziel herauszuarbeiten, inwiefern die Initiative ihren eigens auferlegten Ansprüchen gerecht wird, welche Interaktionsverhältnisse sie hervorbringt und was sie im Sinne eines "Vermittlers" bestimmter Wertvorstellungen im Stande ist zu leisten.
Dafür soll zunächst einmal aufgezeigt werden, was dem Sport generell im Sinne eines Fairnessbegriffs und der damit verknüpften Werte tatsächlich an "Übermittlerpotenzial" innewohnt sowie was über das Fairnessverständnis von Kindern und Jugendlichen bekannt ist (Kapitel 2). Im Anschluss daran werden das vom Deutschen Fußball-Bund (DFB) verfolgte Ausbildungskonzept, die Grundmerkmale und Ziele der Fair-Play-Liga und bereits diesbezüglich durchgeführte Untersuchungen vorgestellt (Kapitel 3), ehe die eigenen Fragestellungen der Forschungsarbeit dargelegt werden (Kapitel 4).
Nach einer Beschreibung des methodischen Vorgehens in seiner Theorie und Praxis (Kapitel 5) folgen die Zusammenführung der im Forschungsprozess erzeugten Resultate und die daran anknüpfende Thesenbildung (Kapitel 6). In der anschließenden Diskussion sollen die Ergebnisse hinsichtlich ihrer Relevanz und ihrer Genese bewertet und interpretiert werden (Kapitel 7), sodass in einem letzten Schritt sowohl Handlungs- und Verbesserungsvorschläge gebündelt und Anregungen für weitere empirische Arbeiten gegeben werden können.
Die vorliegende Arbeit befasst sich damit, wie die spezifische Durchführung eines besonderen psychologischen Laborexperiments in eine allgemeine, kausale Form übersetzt wird. Anstatt dazu formale Kriterien der Validität heranzuziehen, wird ein experimenteller Forschungsprozess ethnographisch begleitet.
Forschungsgegenstand ist ein Verhaltensexperiment aus der allgemeinen Psychologie zur Trainierbarkeit des Arbeitsgedächtnisses. Im Rahmen der Ethnographie werden teilnehmende Beobachtungen, Interviews und Dokumentensammlung kombiniert eingesetzt. Die Auswertung der Materialien erfolgt mithilfe der Situationsanalyse nach Clarke (2012), einer qualitativen Auswertungsmethode im Anschluss an die Grounded Theory.
In dieser Arbeit wird das Verhalten der Versuchsperson ins Zentrum gerückt, das die Messung in Gang setzt und hält und die Entstehung von zahlenförmigen Daten ermöglicht. Dazu wird in Orientierung an neueren Science & Technology Studies eine begriffliche Systematisierung der Experimentalpraxis aus dem empirischen Material herausgearbeitet, mit dem die Konstruktion und Transformation des Verhaltens der Versuchsperson im Verlauf des Datenerhebungs- Auswertungs- und Interpretationsprozesses beschrieben werden kann.
Die Ergebnisse der Ethnographie legen nahe, dass dieses Verhalten der Versuchsperson - korrespondierend zum kausal verfassten Endprodukt des Experiments - von der komplexen Erhebungssituation abhängig und paradoxerweise gleichzeitig unabhängig ist. Damit wird in Anlehnung an Latour (2002) zwischen konstruktivistischen und objektivistischen Positionen vermittelt. Zudem weisen die erforschten Praktiken die epistemische Stellung der Versuchsperson aus. Diese wird im Anschluss an die Terminologie von Rheinberger (2001/ 2006) als Mischform von epistemischem Ding (Neues) und technischem Ding (Bekanntes) bestimmt.
Diese Arbeit untersucht die Perzeption der Vokale /a/, /ɐ/ und /ɐ̃/ durch deutsche erwachsene Portugiesischlerner. Ziel war herauszufinden, ob deutsche L1-Sprecher in der Lage sind, die genannten Laute zu unterscheiden, unter anderem in Abhängigkeit von ihrem Fremdsprachenniveau im EP.
Die Teilnehmer der Studie waren 27 deutsche Muttersprachler, die EP im Erwachsenenalter und zumeist an der Universität erlernen oder erlernt haben. Die Kontrollgruppe bildeten 33 portugiesische Muttersprachler. Beide Gruppen nahmen an einem Online-Perzeptionstest teil, dessen Aufbau sich an der Studie von Darcy und Krüger (2012) orientiert. Während des Tests mussten die Probanden aus einer Lautsequenz von drei einsilbigen Kunstwörtern mit der Silbenstruktur CVC dasjenige Kunstwort identifizieren, das einen anderen Vokal beinhaltete als die anderen zwei. Neben dem Perzeptionstest nahmen alle Teilnehmer an einem Einstufungstest für das EP teil, der aus einem C-Test und einem Vokabeltest bestand.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Gabor lenses were invented for focusing hadron beams by the electric field of a confined electron column. A homogenous magnetic field created by a solenoid confines electrons in transverse direction while a potential well created by a cylindrical electrode system confines them longitudinally.
In this thesis the investigation and characterization of a nonneutral electron plasma (NNP) in a Gabor lens with a toroidal magnetic confinement and a 30 degree-bent anode is presented. Motivated by fundamental research on NNPs in this special environment, diagnostic methods were investigated to characterize the plasma. As a non-invasive method a PCO camera is placed in front of the experimental setup. A ring of 31 photodiodes is used inside the plasma for light intensity and distribution measurements. The experimental data is evaluated and the following results will be presented.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Die Arbeit widmet sich der bisher wenig beachteten Demokratietheorie des neoliberalen Ökonomen und Sozialphilosophen Friedrich Hayeks. In seiner Ablehnung des Prinzips der Volkssouveränität scheint es Hayek nicht in erster Linie um die Kritik des demokratischen Elements zu gehen, sondern vielmehr um die moderne Idee staatlicher Souveränität schlechthin. Es ist folglich die Idee der Rechtssouveränität, so die grundlegende These, auf der Hayek seine doppelte Kritik von Naturrecht und Rechtspositivismus gründet. Entprechend ist der Staat in der von Hayek gezeichneten Utopie nicht länger Souverän, Ausdruck, Grund oder Herrscher (in) der Gesellschaft, sondern bloßes Mittel, um die "spontanen Ordnungen" der Gesellschaft (und der Märkte) zu schützen, ohne durch Gesetzgebung planen, gestalten oder intervenieren zu wollen. Allein solches, an den "Nomos" gebundenes, staatliches Handeln könne (und muss!) der "Meinung" der Menschen entsprechen. Die Klärung dieses sehr speziellen und auf David Hume zurückgehenden Verständnisses von "Meinung" erlaubt schließlich, das Denken Hayeks nicht nur hinsichtlich seines Souveränitätsbegriffs, sondern auch hinsichtlich seines Demokratiebegriffs vom Denken Carl Schmitts abzugrenzen. Entgegen dem prägenden Diskurs nach Cristi und Scheuerman, der die Kritik der hayekschen Theorie über die Problematisierung ihres schmittschen Gehalt unternimmt, soll die Arbeit den Blick dafür schärfen, dass der in Hayeks Theorie angelegte Autoritarismus auf eigenen philosophischen Füßen steht und sich nicht erschöpfend aus einem bewusst oder unbewusst übernommenen schmittschen Erbe erklären lässt.
Das Ziel dieser Arbeit ist die Untersuchung der stratosphärischen Meridionalzirkulation mit Hilfe von chemisch aktiven Spurengasen. Diese motiviert sich durch die Tatsache, dass der Klimawandel neben den viel erforschten Auswirkungen auf die Troposphäre, auch Reaktionen in der Stratosphäre zur Folge hat, welche bisher weit weniger tiefgehend untersucht wurden. Das macht die Stratosphäre zu einem aktuellen und frequentierten Forschungsgebiet der experimentellen und theoretischen Meteorologie. Neben vereinzelten hochaufgelösten in-situ Messungen und globalen Satellitendaten sind es hier vor allem globale numerische Klima-Chemiemodelle, die für Analysen genutzt werden. Für diese Arbeit wurden Daten des EMAC-Modells (engl.: ECHAM/MESSy Atmospheric Chemistry) ausgwertet, welche im Rahmen der ESCiMo (engl.: Earth System Chemistry integrated Modelling) Initiative vom MESSy-Konsortium (engl.: Modular Earth Submodel System) erstellt wurden. Die Zielsetzung dieser Arbeit war, ob sich etwaige Änderungen des stratosphärischen Transports anhand von modellierten, chemisch aktiven, idealisierten Spurengasen feststellen lassen. Idealisiert bedeutet hierbei, dass diese Gase ein konstantes Mischungsverhältnis am Erdboden aufweisen und den identischen chemischen Prozessen unterliegen wie die realistischen Tracer. Dies hat zur Folge, dass diese Spurengase somit nicht in das Strahlungsbudget des Modells rückkoppeln und ihre Verteilung nicht durch zeitliche troposphärische Trends beeinflusst wird. Zur Analyse des stratosphärischen Transports wurden die Differenzen der monatlich gemittelten Mischungsverhältnisse zweier Zeitpunkte der verschiedenen Substanzen im Vertikalprofil betrachtet und ausgewertet, wobei hier die photolytische Lebenszeit und die Zeitskala des Transports zu berücksichtigen war. Um die Saisonalität von Transport und Chemie zu berücksichtigen, wurden dazu die Monate März, Juni, September und Dezember analysiert.
Die Resultate zeigten, dass chemisch aktive Substanzen in der Tat geeignet sind Änderungen in der Dynamik festzustellen. So stellte sich heraus, dass mit einer allgemeinen Intensivierung der stratosphärischen Meridionalzirkulation im kommenden Jahrhundert gerechnet werden kann, wobei hiervon besonders die untere Stratosphäre betroffen ist. Eine Differenzierung welche Komponente der Zirkulation (Residualtransport oder bidirektionale quasi-horizontale Mischung) hierbei von übergeordneter Bedeutung ist, konnte nicht spezifiziert werden. Um abzuschätzen, ob sich die Änderung der Zirkulation durch Änderungen in den Mischungsverhältnissen von chemisch aktiven Substanzen mit Hilfe von direkten Messungen nachweisen lässt, wurde die atmosphärische Variabilität des Modells bestimmt und mit den Veränderungen dieser Mischungsverhältnisse verglichen. Es zeigte sich, dass diese modellierte atmosphärische Variabilität zum Teil deutlich größer war, als die Differenzen der Mischungsverhältnisse und so ohne eine Vielzahl von in-situ Messungen keine eindeutige Aussage zulassen. Um eine statistisch valide Aussage treffen zu können, müssen daher mehrere Messreihen innerhalb eines Monats durchgeführt werden. Zudem stellte sich heraus, dass der Monat Juni der bestmögliche Messzeitraum ist, da hier die natürliche Variabilität am geringsten ist. Zuletzt wurden die Spurengase mit vergleichsweise kleiner chemischer Lebenszeit auf normierten N2O-Isoplethen untersucht und die Verschiebung dieser Kurve zwischen den zwei Zeitpunkten analysiert. Die so gewonnenen Resultate ließen den Schluss zu, dass sich auf diese Weise die atmosphärische Variabilität reduzieren lässt und bei Nutzung mit experimentellen Daten eine zu den Tracer-Differenzen konsistente Aussage zulässt. So bestärkte diese Methode die These, dass sich der stratosphärische Transport innerhalb des 21. Jahrhunderts wahrscheinlich verstärken wird.
Der Mittelmeerraum gilt im europäischen Kollektivgedächtnis als „Wiege Europas“ und Anfangspunkt „abendländischer“ Geschichte. Genauso markiert in gängigen Geschichtsnarrativen das Mittelmeer einen imaginären Bruch zwischen Orient und Okzident. „Der Islam“ kann so in europäischen Diskursen als „Fremdkörper“ konstruiert und aus der Vorstellung einer gemeinsamen kulturellen Identität ausgestoßen werden. Währenddessen vereint die Geschichte des Mittelmeerraums auf drei Kontinenten Christentum, Judentum und Islam. Nur eine Ausblendung der geschichtlichen Komplexität des Mittelmeerraums als kosmopolitischer Region ermöglicht es, die „abendländische“ als eine rein christliche oder jüdisch-christliche Geschichte aufzufassen.
Das islamische Erbe Europas resultiert etwa aus dem jahrhundertelangen Kulturaustausch während der islamischen Kolonisierung des europäischen Mittelmeerraums, die die süditalienische Insel Sizilien einst zu einem Teil Nordafrikas machte. Seit Anbeginn menschlicher Besiedlung ein Schmelztiegel der Kulturen, war Sizilien wie Andalusien im Mittelalter Teil des Maghrebs, des westlichen islamischen Reichs, und an dessen intellektuellen, wissenschaftlichen und philosophischen Errungenschaften beteiligt.
Zuvor sprachlich und religiös von Byzanz geprägt, kam die Insel im 9. Jahrhundert unter arabisch-islamischen Einfluss und wurde ab dem 11. Jahrhundert unter Normannen und Staufern dem lateinisch geprägten römisch-katholischen Christentum zugeführt. Eine Aufeinanderfolge sunnitischer und schiitischer Dynastien, die Entfremdung zwischen Ost- und Westkirche sowie die Präsenz einer vergleichsweise großen jüdischen Gemeinde erhöhen die konfessionelle Komplexität.
Noch lange nach der Ablösung der arabischen Herrschaft, die ihrerseits bewährte byzantinische Elemente in die Inselverwaltung integriert hatte, profitierten spätere Herrscher von den ökonomischen und wissenschaftlichen Strukturen der Muslime und förderten diese. Bis heute hat das arabisch-islamische Substrat Anteil an der Alltagskultur und Sprache, die die sizilianische Identität und das italienische nationale Narrativ konstituieren. Jahrhunderte nach der Vertreibung der Muslime aus Süditalien ist es vor allem in den Bereichen von Wortschatz, Volksliteratur, Orts-und Personennamen, in der Küche, Architektur und im Städtebild Italiens zu finden und wurde teils über Sizilien in ganz Europa verbreitet.
Während die Erzählung der italienischen Nationalgeschichte die arabische Vergangenheit oft ausblendete, traf sie in Sizilien, das von anderen Epochen nicht in gleichem Maße wirtschaftlich profitierte, seit der Aufklärung auf Hochachtung. Brückenbauende Narrative, die Italien als Teil einer mediterranen Hybridkultur definieren, reihen sich in Konzepte verschiedener Denker aus dem Mittelmeerraum ein, eine gemeinsame „mediterrane Kultur“ als zivilisatorische Brücke zu konstruieren im Dialog zwischen drei Kontinenten und drei bedeutenden Weltreligionen.
Das Hauptziel der vorliegenden Arbeit war es, die energieabhängigen Wirkungsquerschnitte von (γ,n)-Reaktionen für 169Tm, 170Yb, 176Yb und 130Te mittels der Photoaktivierungsmethode zu bestimmen.
Dazu wurden zunächst die Effizienzen der verwendeten Detektoren mithilfe von Simulationen korrigiert, da die verwendeten Targets eine ausgedehnte Geometrie aufweisen im Gegensatz zu den punktförmigen Eichquellen. Es hat sich herausgestellt, dass mit den Simulationen die Effizienzen der MCA-Detektoren energieabhängig korrigiert werden konnten, da die Simulationen die Form der gemessenen Effizienzen gut reproduzieren konnten. Bei den Effizienzen der LEPS-Detektoren hingegen konnte keine energieabhäangige Korrektur vorgenommen werden, da die LEPS-Detektoren aufgrund des geringen Abstandes zu den Detektoren hohe Summeneffekte zeigten. Im Rahmen dieser Arbeit konnten diese Summeneffekte jedoch nicht korrigiert bzw. berücksichtigt werden.
In dieser Arbeit wurde die Leistungsfähigkeit des neuen Inner Tracking System (ITS) in Bezug auf die Messung von Spektren der invarianten Masse von Dielektronpaaren im Rahmen des ALICE Experiments am LHC ausgewertet. Zu Beginn der Planungen zum zukünftigen ITS wurden zwei verschiedene Designmöglichkeiten in Betracht gezogen: Auf der einen Seite ein ITS, welches die Möglichkeit zur Teilchenidentifizierung mittels spezifischem Energieverlust pro Wegstrecke bietet und auf der anderen Seite ein ITS welches diese Möglichkeiten nicht hat. Es wurde untersucht, ob es zukünftig möglich sein wird aus der Steigung des Spektrums der invarianten Masse von Dileptonen zwischen 1,1 GeV/c2 < Mee < 2,0 GeV/c2 direkt die Temperatur des Quark-Gluon-Plasmas zu extrahieren. Weiterhin wurde geprüft welches der beiden Systeme diese Aufgabe besser erfüllt.
Das neue ITS bietet gegenüber dem alten ITS Vorteile, die in dieser Analyse genutzt wurden. Zuerst, siehe Abschnitt 3.4, wurde ein zweidimensionaler Schnitt auf den Öffnungswinkel und die invariante Masse angewandt um Elektronen und Positronen aus Dalitzzerfällen und Photonkonversionen zu identifizieren und für die folgende Analyse zu verwerfen. Hierzu wurde die verbesserte Spurfindungseffizienz hin zu kleinen Transversalimpulsen ausgenutzt, um die Anzahl an zu kombinierenden Teilchen und damit die Wahrscheinlichkeit richtige Paare zu finden, zu erhöhen. Allerdings können Teilchen, welche nur im ITS nachgewiesen werden können, nicht zweifelsfrei (ITSPID), beziehungsweise gar nicht (ITSnoPID) identifiziert werden. Die Simulationen ergeben, dass ein zukünftiges ITS mit der Möglichkeit zur Teilchenidentifizierung leicht bessere Werte in der Signifikanz und im Verhältnis von Signal zu Untergrund liefern kann.
Die verbesserte Vertexfindung wird zur Reduktion des Beitrags durch Elektronen und Positronen aus semileptonisch zerfallenden D-Mesonen (Abschnitt 3.4.4) ausgenutzt.
Die Elektronen und Positronen, welche nach den Schnitten in der Stichprobe blieben, wurden verwendet um den Untergrund zu simulieren (Abschnitt 3.4.5). Daraufhin wurde die Signifikanz und das Verhältnis von Signal zu Untergrund berechnet. Mit diesen Informationen (Abschnitt 3.5.3) wurde ein Spektrum der invarianten Masse von Dileptonen mit der zu erwartenden Anzahl von 2,5 · 109 zentralen Blei-Blei-Kollisionen erzeugt. Dies führt zu den in Abschnitt 3.5.4 gezeigten Spektren. Nach Abzug der Beiträge durch die semileptonischen D-Meson Zerfälle und durch den hadronischen Cocktail ist noch der zu erwartende Beitrag durch die thermische Strahlung (Abschnitt 1.5) im Spektrum vorhanden. Eine Parametrisierung dieser Kurve ergibt die Temperatur des Quark-Gluon-Plasmas.
Der Unterschied der ermittelten Messwerte der Temperatur zwischen dem zukünftigen ITS mit Teilchenidentifizierung und ohne ist gering (Abschnitt 3.5.5). Die Messung ergibt keine signifikanten Unterschiede zwischen beiden ITS Entwürfen. Aufgrund dieses Ergebnisses kann man sagen, dass für die Messung von Dileptonen im Niedrigmassenbereich keine ITS PID notwendig ist. In den mittlerweile veröffentlichten ITS Technical Design Report sind die Ergebnisse dieser Studie eingeflossen. Es wurde beschlossen, dass der ITSnoPID umgesetzt wird.
Da in der Run 3 Periode des CERN LHC die Kollisionsrate auf 50 kHz erhöht werden soll, muss die ALICE TPC umgebaut werden. Die Vieldrahtproportionalkammern mit Sperrgitter sollen gegen eine GEM-basierte Auslese ausgetauscht werden, um eine kontinuierliche Auslese zu ermöglichen.
Es wurde eine GEM-Testkammer, die mit drei und vier GEM-Folien betrieben werden kann, entwickelt und gebaut. GEM-Folien wurden unter dem Mikroskop auf Fehler untersucht und auf ihre Spannungsfestigkeit hin getestet sowie gerahmt und in die Kammer eingesetzt. Mit der fertigen kleinen TPC mit GEM-basierter Auslese wurden IBF und Energieauflösung gemessen. Ziel der Messungen war es, einen möglichst geringen IBF von unter 1 % zu erhalten, um so wenig wie möglich Feldverzerrungen im Driftvolumen der TPC zu erhalten, bei gleichzeitig guter Energieauflösung von mindestens 12 %, um eine gute Teilchenidentifikation in der TPC sicherzustellen.
Da standard GEM-Konfigurationen mit nur drei GEM-Folien zwar eine gute Energieauflösung, jedoch zu viel IBF aufweisen, wurden die Messungen hauptsächlich mit vier GEM-Folien durchgeführt. Es wurden zwei verschiedene Arten von GEM-Folien verwendet, Standard (S) und Large-Pitch (LP) GEM-Folien, die bei einem Großteil der Messungen in der S-LP-LP-S-Konfiguration angeordnet waren.
Es wurde festgestellt, dass sich IBF und Energieauflösung gegenläufig verhalten, bei besser werdendem IBF also die Energieauflösung schlechter wird und umgekehrt.
Es wurden zwei verschiedene Gasmischungen, Ne-CO2-N2 (90-10-5) und Ar-CO2 (90-10), untersucht. Mit Neon wurde bei einem Gain von 2000 gemessen, mit Argon nur bei einem Gain von 1000, da bei Argon die Anzahl der produzierten Elektronen pro cm etwa doppelt so groß ist.
Der IBF war mit beiden Gasmischungen etwa gleich groß. Die Energieauflösung war mit Argon jedoch aufgrund des niedrigeren Gains erheblich schlechter. Mit Ne-CO2-N2 (90-10-5) gelang es, einen Arbeitspunkt mit einer Energieauflösung von etwa 12 % und einem IBF von unter 1 % zu finden, mit Ar-CO2 (90-10) war dies jedoch nicht der Fall.
Für balancierte, irreduzible Pólya-Urnen-Modelle sind Grenzwertsätze für die normalisierte Anzahl von Kugeln einer Farbe bekannt. Für eine spezielle Urne, deren Dynamik mit "Randomised-Play-the-Winner Rule" bezeichnet wird, werden im Rahmen der bekannten Grenzwertsätze Konvergenzraten in Wasserstein-Metriken und in der Kolmogorov-Metrik im Falle eines nicht-normalverteilten Grenzwerts hergeleitet.
In der Arbeit wird ein Testverfahren zum Prüfen der Varianzhomogenität der Lebenszeiten eines Erneuerungsprozesses entwickelt. Das Verfahren basiert auf der "Filtered-Derivative"-Methode. Zur Herleitung des Annahmebereichs werden zunächst Bootstrap-Permutationen genutzt, bevor zu einer asymptotischen Methode übergangen wird. Ein entsprechender funktionaler Grenzwertsatz wird skizziert. Aufbauend auf dem Test wird ein Multiple-Filter-Algorithmus zur genauen Detektion der Varianz-Change-Points besprochen. Schließlich folgt die Inklusion von vorher detektierten Ratenänderungen in das Verfahren. Der Test und der Algorithmus werden in Simulationsstudien evaluiert. Abschließend erfolgt eine Anwendung auf EEG-Daten.
Optimierung von Phasen- und Ratenparametern in einem stochastischen Modell neuronaler Feueraktivität
(2014)
In unserem Gehirn wird Information von Neuronen durch die Emission von Spikes repräsentiert. Als wichtige Signalkomponenten werden hierbei die Rate (Anzahl Spikes), die Phase (zeitliche Verschiebung der Spikes) und synchrone Oszillationen (rhythmische Entladungen der Neuronen am selben Zyklus) diskutiert.
In dieser Arbeit wird untersucht, wie Rate und Phase für eine optimale Detektion miteinander kombiniert werden und abhängig vom gewählten Parameterbereich wird der Beitrag der Phase quantifiziert.
Dies wird anhand eines stochastischen Spiketrain-Modell untersucht, das hohe Ähnlichkeiten zu empirischen Spiketrains zeigt und die drei genannten Signalkomponenten beinhaltet. Das ELO-Modell („exponential lockig to a free oscillator“) ist in zwei Prozessstufen unterteilt: Im Hintergrund steht ein globaler Oszillationsprozess, der unabhängige und normal-verteilte Intervallabschnitte hervorbringt (Oszillation). An den Intervallgrenzen starten unabhängig, inhomogene Poisson-Prozesse (Synchronizität) mit exponentiell abnehmender Feuerrate, die durch eine stimulusspezifische Rate und Phase festgelegt ist.
Neben einer analytischen Bestimmung der optimalen Parameter im Falle reiner Raten- bzw. Phasencodierung, wird die gemeinsame Codierung anhand von Simulationsstudien analysiert.
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
Hauptbestandteil dieser Masterarbeit war es, ein neues COLTRIMS Experiment zu entwerfen und zu bauen. Den gesamten Aufbau mit allen dazugehörigen Komponenten wie verschiedensten Vakuumkomponenten sowie Detektoren und Elektronik unter realen Messbedingungen zu testen, bildete schließlich den Abschluss des praktischen Teils. Sowohl einige Kalibrationsmessungen mit dem neuen Aufbau, als auch die ersten Ergebnisse der Messungen mit der chiralen Substanz Bromchlorfluormethan wurden hier vorgestellt.
Ein Großteil der Projektarbeit bestand darin, Überlegungen für die vielen verschiedenen Bauteile anzustellen, diese mit Rücksprache erfahrener Gruppenmitglieder zu verbessern und schließlich zu konstruieren und zu zeichnen...
Eines der wichtigsten Experimente für Kernstrukturforschung und Messung stellarer Reaktionsraten ist das R3B-Experiment im Rahmen des FAIR-Projekts am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt. Der experimentelle Aufbau von R3B besteht aus mehreren einzelnen Teilchendetektoren für verschiedene Teilchensorten (Neutronen, Protonen, Spallationsund Spaltprodukte, Gammastrahlen), die alle möglichst vollständig detektiert und gemessen werden müssen. Für die Identifikation und Energiemessung schwerer, geladener Reaktionsprodukte ist eine sogenannte Time-of-Flight-Wall (Flugzeitwand) nötig. Der Name ergibt sich aus der Hauptaufgabe, der Flugzeitmessung für die Energiebestimmung der Teilchen, sowie der Geometrie eines solchen Detektors. Die in vorherigen Aufbauten verwendeten Detektoren diesen Typs erfüllen noch nicht die Anforderungen, die die Forschungsziele des R3B-Experiments stellen, daher wurde ein neues Design basierend auf Plastikszintillatoren entwickelt.
Für diese Arbeit wurde die theoretisch erreichbare Zeitauflösung des neuen Designs abgeschätzt sowie Testmessungen mit verschiedenen experimentellen Setups durchgeführt. Insbesondere wurde ein Prototyp der ToF-Wand im Rahmen einer Strahlzeit an der Beschleunigeranlage der GSI getestet. Die Ergebnisse dieser Messungen mit einem 58Ni28+-Strahl wurden im Hinblick auf Energie-, Zeit- und Ladungsauflösung sowie die Stabilität dieser Werte bei hohen Raten ausgewertet und so ein erster Eindruck von der Leistungsfähigkeit des Detektors und der Ausleseelektronik gewonnen und Einschränkungen und nötige Verbesserungen erkannt.
In dieser Arbeit wird der Strahltransport in einer Niederenergietransportsektion (LEBT) untersucht. Die Untersuchungen werden für die Betriebsmodi der im Aufbau befindlichen Neutronenquelle FRANZ an der Frankfurter Goethe-Universität durchgeführt. Hierbei wird die Akzeptanz eines Choppersystems nach der ersten Sektion des Transportwegs sowie die Akzeptanz des auf die zweite Sektion folgenden RFQ betrachtet und bestmöglich erfüllt. Die Auswirkungen durch die Raumladungswirkung des Ionenstrahls werden berücksichtigt, ebenso die mögliche thermische Belastung durch Strahlverlust an den Komponenten entlang des Strahlwegs. Weiterhin wird der Einfluss eines nicht optimierten Einschusses in den RFQ und die sich daraus ergebenden Strahleigenschaften am Ende des RFQs untersucht.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
In dieser Arbeit wird der Strahltransport in einem CH-Driftröhrenbeschleuniger untersucht. Hierfür wurden numerische Simulationen zur elektromagnetischen Feldverteilung und dem strahldynamischen Einfluss der CH-Driftröhrenkavität durchgeführt. Sie fungiert als Prototyp für CH-Strukturen im Injektor des MYRRHA-Projekts, einem beschleunigergetriebenen System (ADS) zur Transmutation radioaktiven Abfalls. Zudem wird sie an der im Aufbau befindlichen Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) an der Goethe-Universität Frankfurt am Main experimentell mit Strahl getestet werden. FRANZ dient neben dem Einsatz als Experimentierfeld für neuartige Beschleuniger- und Strahldiagnostikkonzepte vor allem der Forschung im Bereich nuklearer Astrophysik.
Experimente und Simulationen zur Filterung und Injektion in einen toroidalen Ionenspeicherring
(2014)
Die in dieser Arbeit durchgeführten theoretischen Untersuchungen, Simulationen und Experimente hatten das Ziel, die Erforschung der Injektion in sowie des Transports von Ionenstrahlen bestehend aus verschiedenen, einzelnen Wasserstoffionenspezies durch toroidale Magnetfeldstrukturen zu ermöglichen. Dazu wurde im Rahmen dieser Arbeit ein neues Filter- und Detektorsystem für Wasserstoffionenstrahlen – ein Filterkanal – entwickelt, aufgebaut und untersucht. Zunächst wurde mittels theoretischer Betrachtungen das Konzept des Kanals und die Funktionalität der Filterung sowie Vermessung der Strahlzusammensetzung analysiert. Danach wurde der Kanal mit Hilfe von Simulationen ausgelegt und anschließend nach genauen Vorgaben gebaut. Gleichzeitig wurde mittels weiterer Simulationen das Strahlverhalten im Kanal genauer analysiert und zusätzlich die Auswirkungen verschiedener Parameter auf das Filterverhalten des Kanals untersucht. Anschließend wurde der zusammengebaute Kanal mittels Experimenten erforscht. Dabei wurden mehrere Experimente mit verschiedenen Quellen- und Strahlparametern durchgeführt, wobei vor allem die Filtereigenschaften sowie die Vermessung der Strahlzusammensetzung umfangreich untersucht und im Bezug auf die Funktionalität des Filterkanals diskutiert wurden.
Des Weiteren befasste sich diese Arbeit mit dem Aufbau des Injektionsexperiments zur Untersuchung der Injektion eines Wasserstoffionenstrahls zwischen zwei Toroidsegmente. Dazu wurde ein höhenverstellbarer Injektor samt Hochspannungsterminal und Peripherie entwickelt, aufgebaut und in Betrieb genommen. Dieser besteht aus einer Volumenionenquelle, einer neu entwickelten Faraday-Tasse sowie einem Solenoid. Die Faraday-Tasse, welche zur Vermessung des Quellenstroms im neuen Injektor sowie zusätzlich zur Vermessung des Ionenstrahlstroms hinter dem Filterkanal eingesetzt wird, wurde dabei im Rahmen dieser Arbeit entwickelt, experimentell durchgemessen und auf ihre Funktionalität geprüft. Im Zusammenhang mit dem Hochspannungsterminal für den neuen Injektor wurden die verschiedenen Möglichkeiten für die Verschaltung einer Volumenionenquelle mit dem dazugehörigen Hochspannungsterminal diskutiert und der Zusammenhang zur Strahlenergie hergestellt.
Mittels theoretischer Rechnungen wurde der aufgrund der RxB Drift benötigte Höhenunterschied zwischen Injektionskanal und Transportkanal für das Injektionsexperiment bestimmt und der neue Injektor auf den errechneten Bereich vorkonfiguriert. Zusätzlich wurde mittels Simulationen die optimale Strahlenergie bestimmt, bei der der Strahl beim Transport durch den Transportkanal angepasst ist und somit die Auswirkung der Driftsektion zwischen den beiden Toroidsegmenten sowie die Beeinflussung durch das Injektionssystem am geringsten sein sollten. In diesem Zusammenhang wurde auch auf die möglichen Geometrien zum Aufbau des Injektionsexperiments eingegangen und mittels der angesprochenen Untersuchungen eine Geometrie für den Aufbau des Injektionssystems festgelegt.
Nichtinvasive Detektoren für ortsaufgelöste Strahlprofilmessungen gewinnen mit zunehmenden Strahlströmen und -energien immer mehr an Bedeutung. An der Universität Frankfurt im Institut für Angewandte Physik (IAP) wird ein “Figure Eight”-förmiger magnetostatischer Speichering mit Stellarator-Konfiguration (F8SR) entwickelt. Einige Aspekte der Strahldynamik in einem solchen Ring können mit einem experimentellen Aufbau am IAP untersucht werden. Die Herausforderung bei der Entwicklung eines Detektors an einem (F8SR) liegt auf der einen Seite darin den Strahl nichtinvasiv zu detektieren, und andererseits müssen magnetisch unempfindliche Komponenten für den Detektor ausgewählt werden. Dabei sollte der Detektor so flexibel sein, dass der Strahl entlang der Flugbahn transversal gemessen werden kann. In dieser Arbeit geht es um einen Detektor mit radial um den Strahl angeordneten Photodioden, mit deren Hilfe die strahlinduzierte Fluoreszenz detektiert wird und mit einem geeigneten Rekonstruktionsverfahren, Strahlposition und den Strahldurchmesser ermittelt werden kann. Die Messungen werden mit einem weiteren schon erprobten Detektor - einem Szintillationsschirm verglichen.
In der Literatur hat sich die Bestimmung der Erzählperspektive längst etabliert, aber genauso manifestiert sich auch in den visuellen Medien ein Erzähler, der das Geschehen zwar weniger mittels der Sprache, dafür im Wesentlichen über Bilder präsentiert. Durch die jeweils darin enthaltene Darstellung und die Verknüpfung der einzelnen Bilder sind diese Ausdruck einer bewussten Formung der Handlung. Der Begriff des Erzählens beschränkt sich somit nicht nur auf die Literatur, sondern trifft auch auf Visualisierungen jeglicher Art zu, da in diesen Fällen ebenso eine Instanz identifiziert werden kann, die hinter der Auswahl der Handlungselemente steht und diese perspektivisch formt. Dennoch kann der Erzähler hier nicht mehr, wie in der Literatur, im Sinne eines "Sprechers" aufgefasst werden, sondern versteht sich eher als abstraktes Konzept. Insbesondere in intermedialer Hinsicht stellt die Übertragung der Erzählperspektive von einem literarischen Text auf ein visuelles Medium eine Herausforderung dar, denn aufgrund des Medienwechsels verändern sich die Bedingungen des Erzählens. Umso schwieriger ist die Übertragung, wenn der literarische Text keinen durchweg logischen Handlungsverlauf aufweist, sondern Widersprüche und Uneindeutigkeiten im Erzählvorgang und in der Erzählperspektive beinhaltet, wie es auf Franz Kafkas 1914 entstandene Erzählung "In der Strafkolonie" zutrifft. Dieser Text dient zudem, wie auch viele andere von Kafkas Werken, als Projektionsfläche diverser, nicht selten konträrer, Deutungsansätze, die sich in der Forschungsliteratur herausgebildet haben. So wurden zahlreiche religiöse Bezüge in der Erzählung entdeckt, genauso wurde der Text aber als realistisch und somit als Kritik an Kolonialismus und Krieg verstanden. Bezug nehmend auf Kafkas Biographie und das Thema Strafe, das in zahlreichen seiner Werke zum Ausdruck kommt, wurde die Erzählung oftmals in psychoanalytischer Hinsicht gedeutet. Andererseits wurde die beschriebene Handlung auch weniger ernst genommen und vor allem auf die grotesken und ironischen Elemente verwiesen. Im Hinblick auf die unterschiedlichen Interpretationsansätze sind auch die Möglichkeiten der visuellen Umsetzung entsprechend vielfältig.
In dieser Arbeit wird anhand von drei Kurzfilmen und einem Comic, unter Berücksichtigung der spezifischen medialen Bedingungen, die Übertragung der Erzählung ins Visuelle analysiert. Dabei soll gezeigt werden, inwiefern die jeweilige Erzählperspektive die visuelle Wahrnehmung in den Filmen und im Comic bestimmt. In diesem Zusammenhang wird auch zu sehen sein, welche Deutung der Erzählung sich in der Visualisierung manifestiert und durch den Erzähler besonders hervorgehoben wird. Nicht zuletzt stellt sich dabei auch die Frage nach der Art der Umsetzung, d.h. ob bei der Adaption die Textnähe und der Inhalt im Vordergrund stehen oder ob vielmehr die Intention verfolgt wird, mit der Visualisierung der Erzählung ein neues und eigenes künstlerisches Werk zu schaffen, das dem Originaltext auf einer tiefergehenden Ebene begegnet.
Lernmodule wie Web Based Trainings (WBT) sind eine Methode um eLearning Inhalte anzubieten. Web Based Trainings basieren per Definition auf dem Word Wide Web (WWW). Durch die Entwicklung des Web zum Web 2.0 sind für Benutzer neue Möglichkeiten entstanden am Web teilzunehmen. Dadurch wurde auch das eLearning beeinflusst. In dieser Arbeit werden die Innovationen für den Autorenprozess von Web Based Trainings betrachtet. Ihre Nützlichkeit soll anhand dem Autorensystem LernBar deutlich gemacht werden. Die Analyse weiterer Autorensysteme verdeutlicht den aktuellen Stand. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer web-basierten LernBar verwendet. Das Konzept für Web 2.0 Based Training beschreibt den neuen Autorenprozess in der LernBar. Das neue Konzept ermöglicht Flexibilität, die zu neuen Einsatzszenarien führt. Schwierigkeiten in der Umsetzung werden diskutiert.
Zeitreihen von spontan auftretenden Topograpfien elektrischer Felder an der Kopfoberfläche, die durch eine Elektroenzephalografie (EEG) gemessen werden, zeigen Zeiträume („EEG-Microstates“), während denen die Topografie quasi-stabil ist. Diese EEG-Microstates werden üblicherweise dadurch analysiert, dass die zu spezifischen Zeitpunkten beobachteten Ausprägungen des EEGs in eine kleine Anzahl von prototypischen Topografien („Karten“) eingeteilt werden. Dadurch erhält man eine diskrete Kartensequenz.
Um die Struktur der Übergangswahrscheinlichkeiten in experimentellen Kartensequenzen zu beschreiben, werden diese Sequenzen durch eine reduzierte Markov-Kette modelliert mit nur einem Parameter pro Karte. Die Markov-Ketten können mithilfe von zwei bestimmten stochastischen Prozessen konstruiert werden. Durch den einen Prozess werden zufällige Intervalle definiert, die zufällig den verschiedenen Karten zugeordnet werden. Durch den anderen Prozess werden zufällige Abtastungszeitpunkte bestimmt, zu denen die Karte des jeweils aktuellen Intervalls abgelesen wird.
Neben der Motivation und Vorstellung des Markov-Ketten-Modells werden in dieser Arbeit Schätzer für die Modellparameter vorgeschlagen und diskutiert sowie ihre asymptotischen Varianzen hergeleitet. Zudem wird ein Anpassungstest durchgeführt und es werden Abwandlungen des Modells untersucht.
Mithilfe einer (n,γ)-Aktivierung von Germanium am Forschungsreaktor TRIGA in Mainz wurde zum einen in Hinblick auf zukünftige Experiment an der NIF eine Sensitivitätsstudie durchgeführt. Zum anderen wurden die thermischen Neutroneneinfangquerschnitte von 74Ge und 76Ge jeweils für den Einfang in den Isomer- und Grundzustand gemessen, um die Abweichungen der Daten von [Hol93] und [Mug06] zu klären. Zusätzlich wurden die Halbwertszeiten der betrachteten radioaktiven Ge-Isotope bestimmt.
ω(782) und ϕ(1020) Mesonenproduktion durch Dielektronen in pp-Kollisionen bei √s = 7 TeV mit ALICE
(2013)
Die Niedrigmassendielektronen (Elektron-Positron Paare mit kleiner invarianten Masse) sind wichtige experimentelle Sonden, um die Eigenschaften des in ultra-relativistischen Schwerionenkollisionen erzeugten heißen und dichten Mediums zu untersuchen. Elektronen koppeln nicht an die starke Wechselwirkung, weshalb sie wichtige Informationen über die gesamten Kollisionsphasen geben. Die Zerfälle von ω(782) und ϕ(1020)-Mesonen in Dielektronen ermöglichen es, besonders wichtige Informationen über ihre In-Medium-Eigenschaften zu erhalten, da Proton-Proton (pp)-Kollisionen als mediumfreie Referenz angenommen werden. Außerdem sind pp-Kollisionen auch für sich genommen interessant, um die Teilchenproduktion im Energiebereich des LHC (Large Hadron Collider) zu untersuchen.
In dieser Analyse werden die Elektronen im mittleren Rapiditätsbereich von |η| < 0.8 mit ITS (Inner Tracking System), TPC (Time Projection Chamber) und TOF (Time of Flight) gemessen.
Die transversalen Impulsspektren der ω(782) und ϕ(1020)-Mesonen im e+e--Zerfallskanal in pp-Kollisionen bei p √s = 7 TeV werden gezeigt. Das transversale Impulsspektrum des ω(782)-Mesons im e+e--Zerfallskanal wird mit den pT-Spektren in den µ+µ--und in den π0π+π--Zerfallskanälen verglichen, während das pT-Spektrum vom ϕ(1020)-Meson im e+e--Zerfallskanal mit den pT-Spektren in µ+µ-- und K+K--Zerfallskanälen verglichen wird.
Nach dem einführenden Theorieteil werden in den darauffolgenden Kapiteln zuerst die Auslegung und die Vermessung der drei Tripletts an der GSI in Darmstadt beschrieben und dann versucht mit Hilfe von LORASR einen Akzeptanzrahmen der MEBT-Sektion (Medium Energy Beam Transport) für ein Teilchenpaket anzugeben. Anschließend werden die Ergebnisse aus Feldvermessung und CST EM STUDIO Feldsimulationen verglichen. Damit soll die Frage, inwieweit es mit Particle Tracking Simulationen, in denen mit in CST EM STUDIO simulierten und anschließend in BENDER importierten Feldern gearbeitet wird, möglich ist, zutreffende Aussagen zu machen, beantwortet werden. Im letzten Kapitel werden wiederum die Ergebnisse dieser Simulationen präsentiert und ihre Bedeutung, im Vergleich mit den erweiterten Untersuchungen der Transporteigenschaften durch verschiedene aus überlagerten Multipolfeldern generierten Magnetfelder, eingeordnet. Abschließend wird nochmals ein Fazit zur Aussagekraft der Ergebnisse und der Folgen für den Strahltransport gezogen und ein Ausblick auf die noch ausstehenden Schritte und weitere experimentelle Analyseoptionen gegeben.
Seit den 20er Jahren werden Teilchen durch verschiedenste Methoden beschleunigt und wechselwirken unter Laborbedingungen mit anderen Teilchen. Hierbei spielt die Erzeugung neuer meist sehr kurzlebiger Teilchen eine wichtige Rolle. Die Untersuchung dieser Streuexperimente ist eine der wichtigsten Methoden der Elementarteilchen-, Kern- und Astrophysik. So steht bei den heutigen Kernphysik-Experimenten immer mehr die Astrophysik im Vordergrund. Die offenen kosmischen Fragen nach dem Ursprung und der Entwicklung des Universums drängen nach Antworten. Seit die Menschen bewusst denken können, gibt es diese Neugier zu erfahren woraus das Universum besteht. Unser Bild des Universums wurde durch neue Erkenntnisse alleine in den letzten 30 Jahren mehrmals radikal verändert.
Besonders die Vielzahl und Häufigkeit der heute zu findenden Elemente wollen erklärt werden. Da nach heutigen Kenntnissen davon ausgegangen wird, dass kurz nach dem Urknall lediglich die leichten Elemente Wasserstoff, Helium und Lithium vorhanden waren. Hier versucht die aktuelle Forschung anzusetzen. Das Konzept der sogenannten „Nukleosynthese“ ist entwickelt worden und versucht das Entstehen aller schwereren Elemente zu erklären. So geht man heute davon aus, dass sich die weiteren Elemente bis hin zu Eisen durch Kernfusions-Prozesse innerhalb der verschiedenen Brennphasen von Sternen entwickelt haben - während alle schwereren Elemente durch neutronen-induzierte Prozesse entstanden sind. Die beiden großen Neutronenprozesse sind der r-Prozess (rapid neutron-capture process) und der s-Prozess (slow neutron-capture process). Während der r-Prozess wahrscheinlich in hochexplosiven Szenarien, wie den Supernovae, stattfindet, spielt sich der s-Prozess meist innerhalb Roter Riesen ab [Rei06].
Um diese Theorien zu belegen und zu unterstützen, ist es nötig diverse kernphysikalische Experimente auf der Erde durchzuführen. Hier versucht man den Bedingungen in den Sternen nahe zu kommen. Es werden hohe Energien und hohe Neutronenflüsse benötigt um schwerere Elemente durch Neutroneneinfangs- und Fusionsprozesse zu erzeugen. Ziel Motivation Einleitung ist es unter anderem nukleare Wirkungsquerschnitte diverser Reaktionen experimentell nachzuweisen und auf die Sternmodelle umzurechnen.
Die Schwierigkeit liegt hier nicht nur in der Erzeugung und Erhaltung dieser hohen Raten, sondern vielmehr auch in der Detektion der entstandenen Fragmente und Teilchen. Da diese Teilchen und subatomaren Partikel nur eine jeweils sehr kurze Lebensdauer besitzen, ist es eine große Herausforderung möglichst effiziente und effektive Detektoren zu entwickeln. Damit diese Detektoren in den jeweiligen Experimenten dann möglichst optimal arbeiten und die gewünschten Auflösungen liefern, ist es nötig gute Kalibrierungsmöglichkeiten im Voraus auszunutzen.
Der langsame Neutronen-Einfangprozess (s-Prozess) ist weitgehend verstanden und erforscht. Dies liegt vor allem daran, dass er im Gegensatz zu r- und p- Prozess hauptsächlich an stabilen Nukliden abläuft. Auch ist die Anzahl relevanter Reaktionen (Netzwerk) vergleichsweise klein.
Dennoch gibt es im s-Prozess viele ungeklärte Fragen. Eine dieser Fragen ist die Häufigkeitsverteilung von 86Kr in Staubkörnern von Meteoriten. Mit bisherigen Berechnungen und Simulationen dieser Szenarien konnte die Häufigkeitsverteilung von 86Kr jedoch nicht erklärt werden.
In dieser Arbeit werden die besonderen Eigenschaften von 85Kr, insbesondere sein Isomerzustand, vorgestellt und genauer untersucht. Die Häufigkeitsverteilung von 86Kr im s-Prozess wird entscheidend durch die Eigenschaften 85Kr beeinflusst. Mit den gewonnenen Daten aus dieser Arbeit wurde eine erste Simulation erstellt, die einen möglichenWeg aufzeigt, das Rätsel um die Häufigkeitsverteilung zu lösen.
Ziel der nuklearen Astrophysik ist es, die solare Häufigkeitsverteilung der Elemente zu erklären (siehe Seite 10, Abb. 1.1). Die Elemente bis zur Eisengruppe sind dabei unmittelbar nach dem Urknall und während verschiedener Brennphasen in Sternen durch Kernfusion entstanden. Da die Bindungsenergie pro Nukleon der Elemente in der Eisengruppe am höchsten ist, ist für den Aufbau schwererer Elemente keine Energiegewinnung durch Fusion geladener Teilchen mehr möglich und Neutroneneinfänge und Betazerfälle spielen die entscheidende Rolle für die Nukleosynthese. In Abhängigkeit von der Neutronendichte und der Temperatur wird dabei zwischen dem langsamen Neutroneneinfangprozess, dem s-Prozess, und dem schnellen Neutroneneinfangprozess, dem r-Prozess, unterschieden. Während der r-Prozess weit abseits der stabilen Isotope an der Neutronenabbruchkante statt findet, verläuft der Reaktionspfad des s-Prozesses entlang der stabilen Isotope am "Tal der Stabilität".
Mit einem COLTRIMS Reaktions-Mikroskop wurde die Doppelionisation von Argon durch Laserpulse gemessen, um die Energiequantisierung im Allgemeinen und den Recollision Mechanismus zu untersuchen. Mit der Abhängigkeit der Doppelionisationsrate von der Elliptizität des Lichts liegt ein starker Hinweis auf ein Modell vor, welches Rescattering beinhaltet. Außerdem ist durch die Messung der Doppelionisationsrate gewährleistet, dass in einem Intensitätsintervall gemessen wurde, welches der nicht-sequentiellen Doppelionisation zugeschrieben wird.
Recollision-Ionization scheint für die in einem bestimmten Intensitätsintervall beobachtete erhöhte Doppelionisation verantwortlich zu sein. Das sollte zu ATI-Peaks in der Summenenergie der ausgelösten Elektronen führen. Diese werden in der vorliegenden Arbeit erstmalig beobachtet. Außerdem sind nicht erwartete ATI-Peaks im Energiespektrum der einzelnen Elektronen sichtbar, welche der direkten Stoßionisation widersprechen.
Dadurch liegt der Schluss nahe, dass der Hauptmechanismus der Doppelionisation in diesem Intensitätsbereich ein anderer Effekt ist: RESI (Recollision Excitation and Subsequent Ionization). Hierbei wird zunächst das zweite Elektron beim Stoß mit dem ersten angeregt. Das erste Elektron bleibt im Kontinuum und wird durch den Laser beschleunigt. Beim nächsten Feldmaximum wird das angeregte Elektron tunnelionisiert, wodurch ebenfalls ATI-Peaks im Energiespektrum dieses Elektrons erzeugt werden.
Als mögliche Zwischenzustände werden 3s23p4(1D)4s (2D) und 3s23p4(1D)3d (2P) identifiziert, die zu dem beobachteten angeregten Endzustand 3s23p4(1D) führen.
In der vorliegenden Arbeit wurden Messungen zur Plasmadynamik eines Lorentz-Drift- Beschleunigers (LDB) durchgeführt. Dieser basiert auf einer koaxialen Elektrodengeometrie. Bei einem Überschlag führt der entstehende Stromfluss zu einemMagnetfeld, sodass die gebildeten Ladungsträger durch die resultierende Lorentzkraft beschleunigt werden. Es hat sich gezeigt, dass die Abhängigkeit von Durchbruchspannung und Druck dem charakteristischen Verlauf einer Paschenkurve folgt.
Die Strom-Spannungs-Charakteristik des Versuchsaufbaus wurde in Konfigurationen mit und ohne Funkenstrecke untersucht. Mit Hilfe von diesem als Schalter fungierenden Spark-Gaps konnte bei Durchbruchspannungen gemessen werden, die oberhalb des Selbstdurchbruchs liegen.
Es zeigte sich, dass die im Versuchaufbau verwendete Funkenstrecke keinen wesentlichen Einfluss auf die Entladung hat. Es kommt an der Funkenstrecke lediglich zu einem Spannungsabfall im Bereich einiger hundert Volt, der den Verlauf derEntladung im LDB allerdings nicht beeinflusst.
Der Lorentz-Drift-Beschleuniger könnte in Zukunft zur Erzeugung eines Druckgradienten verwendet werden, indem Teilchen von einem Rezipienten in einen Zweiten beschleunigt werden. Als Voruntersuchung zur Eingnung dieses als Lorentz-Drift-Ventil bezeichneten Konzeptes wurden Messungen durchgeführt, die den Einfluss der Durchbruchspannung auf die Teilchenbeschleunigung mit Hilfe eines piezokeramischen Elementes untersuchen. So wurde der magnetische Druck bzw. die entsprechende Kraft einer Entladungswolke in Abhängigkeit von Durchbruchspannungen bis etwa 9,5 kV untersucht. Es hat sich gezeigt, dass der Einsatz von hohen Spannungen sinnvoll ist, da sich die auf das Piezoelement einwirkende Kraft quadratisch zur Durchbruchspannung verhält. So wurde die maximale Kraft von 0,44N bei einer Zündspannung von 9,52 kV gemessen.
Zudem wurde untersucht, in welchem Druckbereich der Einfluss der Druckwelle zu messen und wie sich die Geschwindigkeit der Ausbreitung der Druckwelle bei verschiedenen Durchbruchspannungen verhält. Bei einer Entfernung von 231mm zwischen Elektrodengeometrie und Piezoelement hat sich gezeigt, dass im Druckbereich unterhalb von etwa 0,2mbar kein wesentlicher Einfluss des Gasdruckes auf die Piezospannung erkennbar ist. Dies lässt sich durch die geringe Teilchenanzahl im Arbeitsgas begründen, sodass Teilchenstöße vernachlässigt werden können. Die maximale gemessene Geschwindigkeit der durch die Entladung verursachten Druckwelle liegt bei 55 km s ± 10%.
Die gemessene Plasmadynamik lässt darauf schließen, dass das Konzept eines gepulsten Lorentz-Drift-Ventils insbesondere mit hohen Durchbruchspannungen realisierbar ist. Zur Erzeugung eines dauerhaften Druckgradienten müsste die Repetitionsrate allerdings ausreichend hoch sein, sodass der rückfließende Gasdurchsatz geringer ist als die durch den LDB erzeugte Drift. Geht man von der Schallgeschwindigkeit als Rückflussgeschwindigkeit der Teilchen aus, so sind mindestens Repetitionszeiten im Bereich einer Millisekunde erforderlich.
Ergänzend zu den durchgeführten Untersuchungen ist es sinnvoll, die bisherigen Messungen durch Einbau eines Triggers zu verifizieren. Ein Trigger erzeugt eine Vorentladung mit deren Hilfe die eigentliche Entladung auch im Bereich unterhalb des Selbstdurchbruchs gezündet werden kann.
Das Ziel dieser Masterarbeit ist die Auslegung des Kickers für den Bunch-Kompressor des FRANZ-Projektes. Anhand eines Modells wurden die verschiedenen Möglichkeiten der Einkopplung sowie das Feld zwischen den Kondensatorplatten bereits untersucht. In der vorliegenden Arbeit wird der Kicker mit Hilfe des Programms CST Microwave Studio erstellt und optimiert, sodass er nach Abschluss der Untersuchungen in die Fertigung gehen kann. Dabei ist der erste Schwerpunkt der Untersuchungen die Auslegung und Optimierung der Kondensatorplatten, die für die Auslenkung der Mikro-Bunche im FRANZ-Projekt verantwortlich sind. Zu Beginn der Masterarbeit gab es gezielte Winkelverteilungen, die der Kicker im Rahmen des FRANZ-Projektes erreichen sollte. Nachdem ein Erreichen dieser Werte nur bedingt möglich war, wurden verschiedene Abschnitte des FRANZ-Projektes neu überdacht und die Anforderungen an den Kicker änderten sich dadurch grundlegend. Aus diesem Grund wurde der Kicker zu Beginn der Arbeit für eine Frequenz von 5 MHz ausgelegt, wohingegen er im Rahmen der neuen Anforderungen für eine Resonanzfrequenz von 2,57 MHz ausgelegt wurde. Die Untersuchung der optimalen Resonanzfrequenz für die Anforderungen des Kickers stellt den zweiten Schwerpunkt dieser Arbeit dar.
Als es in den 1920er und 1930er Jahren zur Entdeckung des expandierenden Raums, gemessen über die kosmologische Rotverschiebung, kommt, wird daraus erstmals die Idee eines kleinsten Ursprungspunkts zu Beginn der Zeit postuliert. Es dauerte jedoch weitere 30 Jahre, bis das Konzept des „Big Bang“ als Ursprungsmodell veröffentlicht wurde [Lum07]. Seitdem untersuchen Wissenschaftler fortschreitend die Theorie des Big Bang. Der Zustand der Materie zum Zeitpunkt Null ist nach wie vor ungeklärt, ab ca. 10 exp (-44) Sekunden nach dem Urknall wird in der Theorie des Big Bang davon ausgegangen, dass sich die Materie im Zustand des Quark-Gluon-Plasmas befand. Zunächst galt es eine experimentelle Bestätigung für die generelle Existenz eines solchen Zustands zu finden. Die experimentelle Suche nach dem Quark-Gluon-Plasma im Labor begann vor fast 30 Jahren am Bevalac in Berkley [Gus84], dort konnte bei Niobium-Kollisionen kollektiver Fluss beobachtet werden. Zehn Jahre später begannen die Messungen des Schwerionen-Forschungsprogramms am CERN1. Im Jahr 1994 wurden dort die ersten Schwerionenkollisionen durchgeführt, von denen man sich erhoffte, dass sie zu einer kurzzeitigen Erzeugung des Quark-Gluon-Plasmas führen. Im Jahr 2000 gab es dann eine zusammenfassende Pressemitteilung des CERN, in der die Messungen eines neuartigen Materiezustands beschrieben wurden [CER00]. Weitere fünf Jahre später wurde ein Bericht der bis dahin erreichten Ergebnisse der vier Quark-Gluon-Plasma Experimente am Relativistic Heavy Ion Collider (RHIC) des Brookhaven National Labratory veröffentlicht [BNL05]. Dabei konnten einige Ergebnisse aus den Messungen am CERN bestätigt werden, andere hingegen nicht. Die Annahme, das Quark-Gluon-Plasma verhalte sich wie ein Gas, musste beispielsweise nach den Messungen am RHIC verworfen werden. Diese zeigen, dass das Verhalten des Quark-Gluon-Plasma eher dem von Flüssigkeiten ähnelt [BNL05].
Seit den ersten Schritten zur Untersuchung des Quark-Gluon-Plasma am CERN, in denen vor allem die Messung der Existenz des Quark-Gluon-Plasmas an sich im Vordergrund stand, soll der Phasenübergang nun quantitativ untersucht werden. Dazu werden Dichte und Temperatur der betrachteten Materie variiert und die vorhandene Zustandsphase gemessen. Eines dieser Experimente soll das Compressed Baryonic Matter (CBM) Experiment werden. Das Ziel des Experiments ist die Untersuchung von Materie bei sehr hohen Dichten, aber im Vergleich zu anderen aktuellen Experimenten relativ niedrigen Temperaturen. Im Jahr 2009 wurde der erste Spatenstich auf dem Gelände der Gesellschaft für Schwerionenforschung in Darmstadt für den Bau der Facility for Antiproton and Proton Research (FAIR) getätigt. Mit Hilfe der FAIR-Beschleuniger soll dann das CBM Experiment das Quark-Gluon-Plasma bei hohen Materiedichten mit bisher nicht erreichter Statistik untersuchen können. Jedoch gerade das Erreichen solch hoher Ereignisraten stellt nicht nur eine zentrale Herausforderung an die Beschleuniger dar, sondern auch an die messenden Detektoren. Diese Arbeit beschäftigt sich mit der Entwicklung eines Transition Radiation Detektors für das CBM Experiment.
Nach einer kurzen Einführung in die generelle Untersuchung des Quark-Gluon-Plasmas folgt die Beschreibung des geplanten Aufbaus des CBM Experiments mit dessen Subsystemen. Danach wird die theoretische und praktische Funktionsweise eines Transition-Radiation Detektors (TRD) erklärt, um darauf aufbauend die Charakterisierung und Signalanalyse der entwickelten TRD-Prototypen darzustellen. Abschließend werden die Ergebnisse in Bezug auf den für das CBM Experiment zu entwickelnden Detektor diskutiert.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
Im Rahmen dieser Arbeit wurde eine JTAG-Ansteuerung für MIMOSA26-Sensoren basierend auf FPGA-Boards entwickelt. Als VHDL-Code ist die Implementierung anpassbar. Jede JTAG-Chain wird durch einen unabhängigen JTAG-Chain-Controller angesteuert, so dass sich begrenzt durch die Zahl der I/O-Leitungen und die Ressourcen die Anzahl der JTAG-Chain-Controller auf einem FPGA einstellen lässt. Die Anpassbarkeit hat sich bereits bei der Strahlzeit am CERN im November 2012 gezeigt, für die eine Version mit drei JTAG-Chain-Controllern auf einem FPGA und Ausgängen auf einem SCSI-Kabel synthetisiert wurde. Dabei wurde die Prototyp-Frontend-Elektronik Version 1 verwendet. Außerdem ist die Größe des pro Sensor verwendeten Speichers (in Zweierpotenzen) im VHDL-Code einstellbar, um auch eventuelle zukünftige Sensoren mit größeren Registern zu unterstützen.
Aus dieser Sicht sollte die Implementierung mit kleinen Anpassungen im finalen MVD verwendbar sein, es gibt jedoch wie immer noch Verbesserungsmöglichkeiten, z.B. die Verwendung eines externen Speichers. Des Weiteren fehlt noch eine grafische Benutzeroberfläche für den finalen MVD, wobei wie bei den anderen Detektoren von CBM dazu eine Steuerung basierend auf EPICS entwickelt werden sollte, um eine einheitliche Oberfläche zu erreichen.
Auf Seiten der Elektronik für ded finalen MVD gibt es noch einige offene Fragen, vor allem bei der Entwicklung der Zuleitungen für die Sensoren. Die Signale auf den Flexprint-Kabeln zeigen bereits bei kurzen JTAG-Chains ein hohes Übersprechen (Abschnitt 9.1.2), das zu hoch werden könnte, wenn man Sensor-Module mit mehr als einem Sensor (wie für den finalen MVD geplant, siehe Kapitel 3) an das bisher verwendete Chain-FPC anschließt.. Es kann jedoch auch gut sein, dass das Übersprechen gar kein Problem darstellen wird. Prinzipiell besteht die Möglichkeit, dass sich das Übersprechen z.B. durch Einfügen einer Masseschicht in Kabel und Boards reduzieren lässt, was in Simulationen gezeigt wurde (siehe Kapitel 8). Jedoch wurden in diesen Simulationen die Steckverbinder und eventuelle Fehlanpassungen der Boards vernachlässigt, weshalb nicht sicher ist, ob bzw. wie gut sich dies praktisch umsetzen lässt. In jedem Fall stellen die betrachteten Möglichkeiten, das Übersprechen zu reduzieren, einen erhöhten Aufwand dar. Daher erscheint es sinnvoll, zuerst eine konkrete Geometrie für die Elektronik des finalen MVD zu entwerfen1, und für diese zu ermitteln, ob das Übersprechen ein Problem darstellt.
Dabei stellt sich die wichtige Frage, wie viele Sensoren auf einem Sensor-Modul mit einem einlagigen Kabel in der zur Verfügung stehenden Breite angeschlossen werden können, da mindestens vier zusätzliche Datenleitungen für jeden weiteren Sensor erforderlich sind.
In dieser Arbeit wurde der mittlere Transversalimpuls 〈pT〉 für nicht identifizierte, geladene Hadronen in pp und Pb–Pb Kollisionen bestimmt. Dazu wurden die pT -Spektren mit verschiedenen Funktionen bis pT = 0 extrapoliert. Die 〈pT〉 -Abhängigkeit wurde sowohl für die Anzahl der gemessen Teilchen nacc , als auch für die Anzahl der geladene Spuren nch gezeigt. Im Rahmen der Zentralitätsabhängigkeit wurde für periphere Ereignisse (70% bis 80 %) 〈pT〉 = 550, 1MeV/c gemessen. Der mittlere Transversalimpuls steigt bis auf 〈pT〉 = 628, 9MeV/c für Zentralitäten von 5% - 20% und verringert sich dann auf 〈pT〉 = 626, 8MeV/c für die zentralsten Kollisionen (0% - 5%) ab. Der Vergleich zu pp und Pb–Pb Kollisionen zeigte Gemeinsamkeiten für niedrige Multiplizitäten und ein sich unterscheidendes Verhalten für höhere Multiplizitäten.
Neben der Bestimmung der systematischen Unsicherheiten ist ein nächster Schritt die Unterscheidung zwischen hadronischer und elektromagnetischer Wechselwirkung für geringe Multiplizitäten in Pb–Pb Kollisionen. Eine Möglichkeit zur Unterscheidung wurde bereits mit Hilfe des ZDC gezeigt [Opp11]. Ebenfalls die Unterschiede zwischen pp und Pb–Pb betrifft eine Untersuchung der 〈pT〉 -Entwicklung für Jets und den sie umgebenden Hintergrund.
Eine allgemeine Erweiterung der Analyse stellt die Untersuchung von 〈pT〉 für identifizierte Teilchen da. Diese Analyse würde vor allem die besonderen PID Fähigkeiten von ALICE nutzen und könnte die schon beobachteten Unterschiede der NA49 Kollaboration[NA499] bei höheren Energien untersuchen
Der Hoppe-Baum ist eine zufällig wachsende, diskrete Baumstuktur, wobei die stochastische Dynamik durch die Entwicklung der Hoppe Urne wie folgt gegeben ist: Die ausgezeichnete Kugel mit der die Hoppe Urne startet entspricht der Wurzel des Hoppe Baumes. In der Hoppe Urne wird diese Kugel mit Wahrscheinlichkeit proportional zu einem Parameter theta>0 gezogen, alle anderen Kugeln werden mit Wahrscheinlichkeit proportional zu 1 gezogen. Wann immer eine Kugel gezogen wird, wird sie zusammen mit einer neuen Kugel in die Urne zurückgelegt, was in unserem Baum dem Einfügen eines neuen Kindes an den gezogenen Knoten entspricht. Im Spezialfall theta=1 erhält man einen zufälligen rekursiven Baum.
In der Arbeit werden Erwartungswerte, Varianzen und Grenzwertsätze für Tiefe, Höhe, Pfadlänge und die Anzahl der Blätter gegeben.
Im Rahmen dieser Arbeit wurde die Analyse von Dielektronen im Bereich niedriger Massen für zwei unterschiedliche Magnetfeldstärken des ALICE-L3-Magneten untersucht. Hierfür wurden zwei Arten von Simulationen, volle Simulationen und schnelle Simulationen, jeweils für die Magnetfeldeinstellungen 0, 2 T und 0, 5 T erstellt und verglichen. Zunächst wurde die Konsistenz der vollen und schnellen Simulationen anhand von Monte Carlo Truth Spektren überprüft. Es zeigte sich eine gute Übereinstimmung der invarianten Massenspektren mit Ausnahme der f-Resonanz, die in den schnellen Simulationen fast 3-mal höher lag. Dann wurden die vollen Simulationen der Magnetfeldeinstellung 0, 5 T mit ALICEMessdaten desselben Magnetfeldes verglichen. Hierbei zeigte sich, dass die Messdaten im Hinblick auf die Transversalimpulsverteilung der einzelnen Elektronen um einen Faktor 1, 2 bis 2 und im Hinblick auf die Transversalimpulsverteilung der Paare um einen Faktor 2 bis 2, 5 über den Simulationen lagen. Dies konnte zum Teil auf eine Kontamination durch Pionen zurückgeführt werden. Das Signal-Untergrund-Verhältnis war mit 0, 99 für die Simulationen 6-mal größer als das der Messdaten mit 0, 16. Die normierte Signifikanz der Simulationen von 0, 0044 lag 3,5-mal über dem Wert 0, 0012 der Messdaten. Für die schnellen Simulationen wurden die Effizienzen für einzelne Elektronen benötigt. Diese wurden mithilfe von Boxensimulationen erstellt. Es wurde zwischen den Elektronidentifikationsmethoden TOF optional und TOF required und den Magnetfeldstärken 0, 2 T und 0, 5 T unterschieden. Die Boxensimulationen ergaben, dass bei einem Magnetfeld von 0, 2 T insgesamt mehr Elektronen rekonstruiert und identifiziert werden konnten. Außerdem konnte die Analyse zu niedrigeren Transversalimpulsen hin ausgedehnt werden. Die schnellen Simulationen zeigten, dass eine Reduktion des Magnetfeldes von 0, 5 T auf 0, 2 T eine Erhöhung der Anzahl an gemessenen Paaren um einem Faktor 2, 0 für die Elektronidentifikation TOF optional und um einem Faktor 6, 0 für die Elektronidentifikation TOF required zur Folge hat. Die vollen Simulationen der Elektronidentifikation TOF optional ergaben nach Reduktion des Magnetfeldes eine Verbesserung des Signal-zu-Untergrund-Verhältnisses um 11% von 0, 98 auf 1, 11. Die Signifikanz konnte von 0, 0043 auf 0, 0060, d.h. um 40%, verbessert werden. Für die Elektronidentifikation TOF required erhielt man ein Signal-zu-Untergrund-Verhältnis von 16, 5 (0, q 2 T) und 19, 1 (0, 2 T). Jedoch war die normierte Signifikanz (sgn = sqrt((s exp 2)/2*B)* (1/sqrt(NEv)))) für das reduzierte Magnetfeld 100% höher und lag bei 0, 086, während sie für 0, 5 T einen Wert von 0, 0043 hatte. In der vorliegenden Arbeit konnte gezeigt werden, dass eine Reduktion der Magnetfeldstärke des ALICE-L3-Magneten von 0, 5 T auf 0, 2 T zu Verbesserungen in der Messung von Elektron-Positron-Paaren führt. Als Fazit kann angenommen werden, dass eine Datennahme bei einem reduzierten Magnetfeld von 0, 2 T sinnvoll erscheint.
Inhalt dieser Arbeit ist die Entwicklung einer digitalen Korpusanwendung zur türkeitürkischen Dialektologie, in welcher der Inhalt des in Kapitel 3.1 beschriebenen Wörterbuchs komplett enthalten und umfangreich durchsuchbar sein soll. Da das Dialektwörterbuch insgesamt 126.468 Einträge enthält, ist eine manuelle Recherche darin äußerst zeitintensiv und unkomfortabel. Selbst die Suche innerhalb einer digitalen Version, die z. B. in einer Word-Datei gespeichert sein kann, ist nicht komfortabel möglich, sobald Optionen bzw. Einschränkungen getätigt werden sollen, wie z. B. die Beschränkung der Ergebnisse auf das Vorkommen in einer bestimmten Provinz. Daher ist es das Ziel der Entwicklung, den Anwendern folgende Suchmöglichkeiten zu bieten: Das Wörterbuch soll entweder komplett im Volltext durchsucht werden können, oder nur innerhalb des Lemmas1. Dabei soll jeweils die Angabe einer oder mehrerer Provinzen möglich sein, sodass die Suchergebnisse nur jene Einträge beinhalten, in denen Suchbegriff und Provinz in der gleichen Zeile enthalten sind. Die Treffer der Suche sollen farbig hervorgehoben sein, damit insbesondere bei großen Wörterbucheinträgen nicht manuell nach den darin enthaltenen Suchbegriffen gesucht werden muss, sondern diese dem Anwender direkt auffallen. Außerdem ist es wünschenswert, mittels Platzhaltern und sogenannten Coversymbolen nach Wortformen und phonetisch bedingten Allomorphen suchen zu können. Letzteres ist für Linguisten, die sich mit dem Türkischen beschäftigen, bei der Eingabe der Suchbegriffe äußerst praktisch, da das Türkische eine vokalharmonische Sprache ist, in der phonetisch bedingte Varianten üblicherweise durch die Schreibung mit Coversymbolen dargestellt werden: z. B. -lAr für die Pluralallomorphe -lar und -ler...
Diese Arbeit beschäftigt sich mit dem Aufbau und der Kalibrierung eines Neutronendetektorarrays für niedrige Energien (Low Energy Neutron detector Array, kurz „LENA“) am kommenden R³B-Aufbau (Reactions with Relativistic Radioactive Beams) am FAIR (Facility for Antiproton and Ion Research) an der GSI in Darmstadt. Die Detektion niederenergetischer Neutronen im Bereich von 100 keV bis 1 MeV ist nötig, um Ladungsaustauschreaktionen, speziell (p,n)-Reaktionen in inverser Kinematik zu untersuchen. In diesem Energiebereich ist die Detektion äußerst schwierig, da Methoden für thermische als auch hochenergetische (100 MeV bis 1 GeV) Neutronen versagen. Neben dem Aufbau des Detektors wird die Bedeutung des Experiments für die nukleare Astrophysik verdeutlicht. Der theoretische Teil dieser Arbeit legt Grundlagen zum Verständnis für den Nachweis von Neutronen, die Funktionsweise des LENA-Detektors und den damit nachweisbaren Kernreaktionen. Des Weiteren wurde eine Simulation des Detektors mit GEANT4 (GEometry And Tracking), einer C++ orientierten Plattform für Simulationen von Wechselwirkungen von Detektormaterial mit Teilchen, durchgeführt. Die Ergebnisse wurden zur Auswertung von Messungen, die im Rahmen einer Strahlzeit im März 2011 an der Physikalisch Technischen Bundesanstalt (PTB) in Braunschweig durchgeführt wurden, herangezogen. Ziel der Arbeit ist es, die Effizienz des Detektors zu bestimmen.
Im September 2005 wurden von der HADES-Kollaboration an der GSI in Darmstadt Daten der Schwerionen-Reaktion Ar+KCl bei 1,76A GeV aufgenommen. Neben den Pionen und Dileptonen wurden bereits fast alle Teilchen mit Seltsamkeitsinhalt rekonstruiert. In dieser Arbeit wird zum ersten Mal eine Analyse der leichten Fragmente Deuteronen, Tritonen und 3Helium mit HADES durchgeführt.
Die gemessenen Multiplizitäten wurden mit einem statistischen Hadronisationsmodell verglichen und zeigen gute Übereinstimmung mit diesem. Dies legt die Vermutung nahe, dass das System Ar+KCl bei 1,76A GeV einen hohen Grad an Thermalisierung erreicht. Zu einer weiteren Untersuchung dieser Hypothese wurden die sogenannten effektiven Temperaturen Teff der Teilchen der chemischen Ausfriertemperatur aus dem statistischen Modellfit gegenübergestellt. Bei der effektiven Temperatur handelt es sich um die inversen Steigungsparameter von Boltzmann-Fits an die transversalen Massenspektren mt-m0 bei Schwerpunktsrapidität. Diese Temperatur entspricht bei einer isotropen, statischen Quelle der kinetischen Ausfriertemperatur und sollte somit unterhalb oder gleich der chemischen Ausfriertemperatur sein. Im Falle der effektiven Temperaturen der Ar+KCl-Daten liegen diese jedoch systematisch höher und die Teilchen ohne Seltsamkeitsinhalt zeigen einen massenabhängigen Anstieg, welcher eine radiale kollektive Anregung des Systems vermuten lässt.
Die transversalen Massenspektren der leichten Fragmente werden unter der Annahme eines thermalisierten Systems mit Boltzmann-Funktionen angepasst. Daraus werden die effektiven Temperaturen von Teff,Deuteronen = (139,5 ± 34,9) MeV und Teff,T ritonen = (247,9 ± 62,0) MeV extrahiert, was die Annahme von kollektivem Fluss der Teilchen zu unterstützen scheint. Vergleicht man diese Werte mit den effektiven Temperaturen der leichteren Teilchen, kann mithilfe einer linearen Funktion die kinetische Ausfriertemperatur Tkin = (74,7 ± 5,8) MeV und radiale Flussgeschwindigkeit βr = 0,37 ± 0,13 bestimmt werden. In einem zweiten Ansatz werden daher die Spektren mit Siemens-Rasmussen-Funktionen, die eine radiale Ausdehnung mit einbeziehen, angepasst und daraus die globalen Parameter T = (74 ± 7) MeV und βr = 0,36 ± 0,02 bestimmt. Diese Werte liegen an der oberen Grenze in dem für diesen Energiebereich erwarteten Bereich.
Die Siemens-Rasmussen-Funktionen liefern eine bessere Beschreibung der transversalen Massenspektren und werden zur Extrapolation der nicht abgedeckten transversalen Massenbereiche genutzt. Die Integration liefert die Verteilung der Zählrate als Funktion der Rapidität. Diese Verteilung zeigt zwei Maxima nahe Strahl- und Target-Rapidität, was im Widerspruch zu einer statischen, thermischen Quelle der Teilchen steht.
Das CBM-Experiment an der zukünftigen FAIR Beschleunigeranlage zielt unter anderem darauf, Open-Charm-Teilchen zu rekonstruieren, die in Schwerionenkollisionen im Energiebereich von 10 bis 40 AGeV erzeugt werden. Ein für diese Teilchenrekonstruktion essentieller Detektor ist der Mikro-Vertex-Detektor (MVD).
Im Rahmen der Entwicklungsarbeiten für diesen Detektor werden regelmäßig Detektorsimulationen durchgeführt. Bei einer dieser Simulationen [CAD11], wurden nach Einführung eines verbesserten Simulationsmodells des Detektors, Einbrüche in Rekonstruktionseffizienz für Open-Charm Teilchen festgestellt. Als mögliche Ursache wurde eine Überlastung der Software für die Spurrekonstruktion von CBM vermutet, die erstmals mit realistischen Trefferdichten auf den MVD-Stationen konfrontiert war. Zusätzlich wurde in der Simulation die Geometrie eines MVD mit nur zwei Detektorebenen verwendet. Auch der durch die kleine Anzahl an MVD-Stationen große Abstand zwischen MVD und STS (Silicon-Tracking-System) und dessen potentiell ungünstiger Einfluss auf die Spurrekonstruktion konnte als Ursache für den beobachteten Einbruch der Rekonstruktionseffizienz nicht ausgeschlossen werden.
Die Aufgabe dieser Arbeit bestand in der Prüfung, ob der beobachtete Einbruch der Rekonstruktionseffizienz des Detektorsystems tatsächlich auf eine Überlastung der Spurrekonstruktionssoftware zurückzuführen ist. Darüber hinaus sollte festgestellt werden, ob mögliche konstruktive Verbesserungen im MVD (zusätzliche Detektorstationen) diesem Effekt entgegen wirken können...
Lights, Camera, Action : zur Synthese von Film und Drama im interkulturellen Englischunterricht
(2012)
In Folge der Globalisierung und der stetig fortschreitenden digitalen Vernetzung ist die Welt zu einem überschaubaren, gar intimen, Ort geworden, in dem Individuen unterschiedlicher Kulturen, trotz enormer geographischer Distanzen, mittels eines breiten Angebots elektronischer Medien, regelmäßig miteinander in Kontakt treten. Die interkulturell-mediale Kommunikation und Interaktion hat sich als ein wesentliches Charakteristikum des modernen Lebens etabliert. Wir leben in einer „„mediatized„ world, a social and cultural environment which is permeated by the media […]“ (Voigts-Virchow 2005: 5). Der Großteil der Weltbevölkerung ist heute online. Die Menschen korrespondieren via Emails und Skype, verbringen ihre Freizeit in Chatrooms, schließen Freundschaften mit Fremden auf Facebook, twittern ihren Lebensalltag, sehen sich Videos auf YouTube an, frönen der ungesühnten Internetpiraterie mit FileSharing, richten sich auf MySpace häuslich im Internet ein, konstruieren ihren eigenen Webcontent und reisen mit Google Maps virtuell um den Globus. In der multikulturellen und –medialen Welt kann folglich ein jeder zum Kosmopolit werden, ohne je das eigene Haus verlassen zu müssen. Kinder und Jugendliche im Besonderen nutzen die Medien, um mit Altersgenossen aus anderen Ländern zu kommunizieren, neue Interessen zu entdecken, Geschichten auszutauschen und Erfahrungen zu teilen. Sie verfügen in dieser Hinsicht über eine „virtuelle Autonomie“ (Porcher 2006: 190-191), die es ihnen ermöglicht sich in einen interkulturellen Diskurs einzuschalten.
Angesichts dieser medialen und kulturellen Pluralisierung werden die bildungspolitischen und pädagogischen Forderungen nach der Ausbildung von medienspezifischen und interkulturellen Kompetenzen immer dringlicher (vgl. Kessler & Küppers 2008: 3/Frederking et al. 2008: 69). Medien- und Kulturkompetenz gelten nicht nur als Grundlage für eine gesunde Entwicklung und professionellen Erfolg, sondern werden vielmehr als Fundament eines friedlichen und intakten internationalen Zusammenlebens in Form eines toleranten und respektvollen interkulturellen Dialogs erachtet (vgl. Sercu et al. 2005). Wurden in diesem Zusammenhang in der Schule anfänglich noch die affektiven und reflexiven Fähigkeiten der Schüler verstärkt in den Fokus genommen, vornehmlich um eine Abkehr vom Ethnozentrismus durch die Bewusstmachung der eigenen kulturellenDeterminiertheit zu bewirken, hat sich im Rahmen der überschwänglichen Mediennutzung und dem Anstieg direkter und indirekter interkultureller Begegnungen1 das Bildungsethos herausgebildet Schüler2 zum praktischen Umgang mit medialer und kultureller Vielfalt zu befähigen, kurzum ihre Handlungskompetenzen zu entwickeln. Im fachdidaktischen Diskurs der Fremdsprachenbildung wird in diesem Fall generell von der Vorbereitung auf den Ernstfall gesprochen. Die Schüler sollen dazu ausgebildet werden mit Mitgliedern einer fremden Kultur kompetent interagieren zu können. Im Idealfall sollen sie sogar fähig sein als Mediatoren zwischen Individuen mit unterschiedlich kulturell geprägten Sicht- und Verhaltensweisen zu vermitteln (vgl. Fechler 2008).
Ich schließe mich der allgemeinen Auffassung an, dass das Konzept einer interkulturellen Handlungskompetenz eine enorme Bedeutsamkeit mit Blick auf ein multikulturelles, globales Gemeinschaftsleben aufweist, besonders im Kontext einer dominanten Medienpräsenz. Kinder und Jugendliche werden heutzutage regelmäßig mit interkulturellen Handlungssituationen konfrontiert, sei es nun in Form eines Chats, einer Forumsdiskussion oder eines Filmabends. In dieser Hinsicht stellt die Förderung substanzieller Medien- und Kulturkompetenzen das vorrangigste Ziel im Schulunterricht dar. Hier stellt sich nun die Frage ob traditionelle Unterrichtsmodelle den externen soziokulturellen Entwicklungen Rechnung tragen können. Ich persönlich vertrete die These, dass medienspezifische und interkulturelle Kompetenzen nur über den Gebrauch von Unterrichtsinstrumenten, die sich an der Lebenswelt und an den Interessen der Schüler orientieren, d.h. zeitgemäß und ansprechend sind, überzeugend und einprägsam vermittelt werden können. Das Lehrwerk ist zweifellos ein wirksames Unterrichtsmedium, entspricht aber nicht mehr dem Zeitgeist. Es müssen daher neue, innovative und anregende Lehr- und Lernmittel erschlossen werden, welche sich allerdings auch für den regelmäßigen Unterrichtseinsatz eignen und nicht nur gelegentlich als didaktische Bonbons Verwendung finden. Aus dem weiten Reservoir der neuen Medien erscheint mir in dieser Beziehung der Film als das geeignetste Medium. Es ist sowohl unterrichtspraktikabel als auch schülerrelevant. Zudem verfügt es über ein hohes interkulturelles Potenzial. Ähnlich verhält es sich auch mit der Dramapädagogik, deren motivierende und interkulturell förderliche Effekte ich selbst bereits in mehreren selbst geleiteten Unterrichtsstunden und einem Studienseminar an der Goethe UniversitätFrankfurt erfahren habe. Sowohl beim Film als auch bei der Dramapädagogik handelt es sich um zwar fachdidaktisch grundierte, doch um in der Praxis marginalisierte Unterrichtsmittel. Ich bin der Meinung, dass es an der Zeit ist Film und Drama3 im Mainstream des Unterrichts zu etablieren.
Dementsprechend hat die vorliegende Arbeit4 zum Ziel das interkulturelle Potenzial des Mediums Film und der Dramapädagogik auszuloten und einen Ansatz aufzuzeigen wie über die Synthese filmischer und dramatischer Stil- und Unterrichtsmittel die interkulturelle kommunikative Kompetenz bzw. die interkulturelle Handlungs- und Mediationskompetenz in Verbindung mit medienspezifischen Fertigkeiten im Englischunterricht gefördert werden kann.5 Einem derartigen Unterfangen muss meiner Ansicht nach zuallererst eine Auseinandersetzung mit den integralen Bestandteilen der Filmdidaktik und der Dramapädagogik vorausgehen. Bevor ich mich damit jedoch ausführlicher befasse, möchte ich zuerst den kontextuellen Rahmen der Arbeit skizzieren (Kapitel 1). Anschließend werde ich im zweiten und dritten Kapitel eine Bestandsaufnahme von Film und Drama vornehmen und die wesentlichen didaktisch-methodischen Elemente beider Konzepte im Hinblick auf den interkulturellen Schwerpunkt der Arbeit diskutieren. Besondere Aufmerksamkeit soll hier dem Konzept der Critical Incidents zukommen. Beim Film soll außerdem noch ein kurzer Einblick in die technischen Spezifika des Mediums gegeben und deren Verwertbarkeit im interkulturellen Englischunterricht deutlich gemacht werden.
In Kapitel 4 soll anschließend die Synthese von Film und Drama im interkulturellen Englischunterricht en détail thematisiert werden. Hierfür möchte ich zuerst das Konzept der interkulturellen kommunikativen Kompetenz (kurz IKK) vorstellen. In der Folge werde ich nach einer Auflistung wesentlicher Schnittpunkte von Film und Drama meinUnterrichtsschema über die Erstellung konkreter Kompetenzmodelle theoretisch fundieren und an expliziten Filmbeispielen belegen. Hier soll ebenfalls das Feld der Medienkompetenz eröffnet und in Beziehung mit der IKK gesetzt werden. Mit der Formulierung der filmdramatischen Methode wird schließlich der Übergang zum praktischen Teil vorbereitet (Kapitel 5). Hier werde ich das von mir konzipierte Unterrichtsmodell illustrieren und mit Blick auf Umsetzungsproblematiken und curriculare Richtlinien kritisch reflektieren. Im finalen Kapitel werde ich abschließend Bilanz ziehen, die wesentlichen Resultate der Arbeit resümieren und einen Ausblick vornehmen, der die Grenzen und Perspektiven der Arbeit erörtert.
Optimierung der Rekonstruktionsparameter zur Messung von Quarkonia im zentralen ALICE Detektor
(2011)
Seit den ersten Kollisionen im November 2009 läuft der LHC am CERN und dringt in noch nie dagewesene Energiebereiche vor. Die Schwerionenkollisionen innerhalb des ALICE Detektors sollen Aufschluss über die stark wechselwirkende Materie und ihre verschiedenen Phasen geben. Dem liegt die Untersuchung des Quark-Gluon-Plasmas zugrunde. Eine Signatur des Quark-Gluon-Plasmas ist die Rate von produzierten Quarkonia. Diese zerfallen in Leptonenpaare und sind damit zu identifizieren.
In der vorliegenden Arbeit wird diese Rate zur Messung von Quarkonia aufgegriffen und untersucht. Bei der Untersuchung der Simulation durch die Selektion der e++e--Paare, die ausschließlich aus einem J/y stammen, lässt sich ein Massenspektrum produzieren, das im Rahmen dieser Arbeit genauer betrachtet wurde. Durch die genaue Untersuchung der Bremsstrahlung und deren Lokalisierung lässt sich zeigen, dass besonders der ITS ein hohes Maß an Bremsstrahlungsprozessen mit sich bringt, was auf die große Materialanhäufung zurückzuführen ist. Um dies näher zu untersuchen, wurde das Augenmerk auf den ITS gelegt. Eines der wichtigsten Merkmale, die den Bremsstrahlungsprozess beschreiben, ist der Energieverlust. Durch die Bethe-Heitler-Funktion lässt sich der gesamte Detektor nur bedingt beschreiben. Erst die Betrachtung, die sich mit einer Einschränkung auf den ITS und den Azimutwinkel beschäftigt, zeigt eine genaue Beschreibung durch die Parameter der Funktion.
Nach der genauen Beschreibung der Bremsstrahlung wurden verschiedene Methoden entwickelt, in denen die Bremsstrahlungsprozesse innerhalb des invarianten Massenspektums der e++e--Paare ausgeschnitten werden können. Die Methoden der Selektion durch die Anzahl der Spurpunkte sowie die Selektion durch die Position der Spurpunkte zeigen, dass bereits minimale Selektionen ein sehr gutes Signal ergeben. Durch den Vergleich mit den herkömmlichen Selektionen SPDany und SPDfirst, zeigt sich, dass hierbei viel Signal verloren geht und diese Methode für bestimmte Analysen optimiert werden kann.
Durch die Anwendung auf die Datensätze, die während einer Strahlzeit im Jahr 2010 genommen wurden, bestätigte sich die Vermutung. Durch die Selektion von SPDany wird das Signal reduziert. Vergleicht man die Anzahl der Einträge im Signalbereich durch die Reduktion der Teilchen ohne Spurpunkte im ITS (NITSpunkten>0) zu der Anzahl der Einträge durch SPDany, ergibt dies eine Verminderung von bis zu 40%. Die Ursache für den großen Verlust innerhalb des Signalbereichs wird zusätzlich verstärkt, indem der SPD durch Kühlungsprobleme ausgeschaltet ist.
Eine weitere Methode, die untersucht wurde, war die Reduktion der Auswirkungen von Bremsstrahlung mit Hilfe der Kinkanalyse. Diese Methode ließ keine qualitativen Rückschlüsse auf die Analyse der Bremsstrahlung zu.
Dennoch zeigt das Ergebnis, dass das Signal von J/y’s in Proton-Proton Kollisionen um mehr als 40% mehr Einträge verbessert werden kann und sich dieses Prinzip nicht nur theoretisch in den simulierten Daten niederschlägt sondern auch in den untersuchten Datensätzen. Nun gilt es, diese Methode auch in anderen Studien einzubauen, um so eine alltagstaugliche Überprüfung der Erkenntnisse zu gewährleisten.
Das Compressed Baryonic Matter Experiment (CBM) wird im Rahmen der Facility for Antiproton and Ion Research (FAIR) entwickelt, um das Phasendiagramm stark wechselwirkender Materie vorwiegend im Bereich hoher Dichte ausgiebig zu studieren. Dazu sollen Kollisionen schwerer Ionen durchgeführt werden und die Reaktionsprodukte mit hoher Präzision in Teilchendetektoren gemessen und identfiziert werden. Eine wichtige Aufgabe besteht in der Unterscheidung von Elektronen und Pionen, zu der ein Übergangsstrahlungszähler (Transition Radiation Detector) beiträgt. Übergangsstrahlung wird im relevanten Impulsbereich dieser Teilchen nur von Elektronen emittiert und soll im Detektor registriert werden.
In der vorliegenden Arbeit wird die Entwicklung dieses Detektors auf Basis von Vieldrahtproportionalkammern (Multiwire Proportional Chamber ) hauptsächlich anhand von Simulationen diskutiert, aber auch erste Testmessungen eines Prototypen vorgestellt. Der Schwerpunkt der Simulationen eines einzelnen Detektors liegt in der Untersuchung der Effiienz in Abhängigkeit seiner Dicke.
Der Übergangsstrahlungszähler für CBM wird aus mehreren Detektorlagen bestehen. Daher wird außerdem die Effizienz des Gesamtsystems analysiert, indem verschiedene Methoden zur Kombination der einzelnen Signale angewendet werden. Darüber hinaus wird die Effizienz des verfolgten Detektorkonzepts in Abhängigkeit des Radiators, der Anzahl der Detektorlagen, sowie des Teilchenimpulses präsentiert.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.
Mit dieser Arbeit konnte die Funktionsweise von gekoppelten Resonatoren erklärt werden. Das Verhalten von induktiv gekoppelten Beschleunigerkavitäten wurde näher studiert. Dabei wurde verstanden, wie sich Verstimmungen auf die Resonatoren auswirken und was zu tun ist um die Spannungsamplituden des gekoppelten Systems zu beeinflussen. Zudem wurden die Grundlagen für den gekoppelten Betrieb des FRANZ-Beschleunigers gelegt.
Ein Schtetl in der Stadt – Jüdische Identitätsräume in Texten von Martin Beradt und Sammy Gronemann
(2010)
The concern of this thesis is a discussion of the way German-Jewish identity manifests itself in two literary texts before and after 1933. Using the examples of Sammy Gronemann’s novel Tohuwabohu and Martin Beradt’s Die Straße der kleinen Ewigkeit, it offers a textual analysis of two works which share close connections in terms of subject matter, style, and their respective authors’ background, but are historically divided by the fundamental experience of the rise of National Socialism in Germany.
I argue that space is a crucial factor through which identity is constituted in each text, both of which use and partially subvert the romanticized image of the Eastern European shtetl brought to Germany by authors such as Arnold Zweig in the aftermath of World War I. Space in this context always has a twofold quality to it. It functions as a space of identity, but also as a space of identification through which a group of people label others as either belonging or not belonging to a specific space. Furthermore, both texts reject monolithic definitions of Jewish identity, emphasizing instead the diversity of Jewish life in Europe before the Rise of National Socialism.
Die Arbeit befasst sich mit einer Vereinfachung des von Devroye (1999) geprägten Begriffs der random split trees und verallgemeinert diesen im Sinne von Janson (2019) auf unbeschränkten Verzweigungsgrad. Diese Verallgemeinerung deckt auch preferential attachment trees mit linearen Gewichten ab, wofür ein Beweis von Janson (2019) aufbereitet wird. Zusätzlich bleiben die von Devroye (1999) nachgewiesenen Eigenschaften über die Tiefe der hinzugefügten Knoten erhalten.