Master's Thesis
Refine
Year of publication
Document Type
- Master's Thesis (129) (remove)
Has Fulltext
- yes (129) (remove)
Keywords
- Beschleunigerphysik (2)
- E-Learning (2)
- Erwachsenenbildung (2)
- Experiment (2)
- Ionenstrahl (2)
- Kinder- und Jugendliteratur (2)
- Konstruktion (2)
- Lehren mit neuen Medien (2)
- Lehrerbildung (2)
- Lernen mit neuen Medien (2)
- Machine Learning (2)
- Mediendidaktik (2)
- NLP (2)
- Objektivität (2)
- Psychologie (2)
- Science & Technology Studies (2)
- Strahldynamik (2)
- Toroidales Magnetfeld (2)
- WaterGAP (2)
- global water model (2)
- neue Medien (2)
- (n (1)
- AI Safety (1)
- ALICE (1)
- Accelerator Physics (1)
- Activism (1)
- Alternative zum Westen (1)
- App ecosystem (1)
- Apparate (1)
- Archivwesen (1)
- Autonomous Driving (1)
- BRICS (1)
- BRICS-Staaten (1)
- Bayesian Inference (1)
- Beam Dynamic (1)
- Beradt, Martin (1)
- Berlin (1)
- Berlin <Motiv> (1)
- Bert (1)
- Beryllium-7 (1)
- Beschneidung <Frau> (1)
- Black Speculative Fiction (1)
- Bodenpolitik (1)
- Brics (1)
- Bruno Latour (1)
- Buch im Buch (1)
- CBM (1)
- Carl Schmitt (1)
- Citizenship Law (1)
- Climate forcing (1)
- Colombia (1)
- Colombian Truth Commission (1)
- Colonial legacy (1)
- Coloniality (1)
- Comic (1)
- Comicroman (1)
- Computational Data Analysis (1)
- Continuous Integration (1)
- Coronaproteste (1)
- DNN Robustness (1)
- David Hume (1)
- Deep Learning (1)
- Degrowth (1)
- Derleme Sözlüğü (1)
- Dialektologie (1)
- Digital Divide (1)
- Diskursanalyse (1)
- Elektronenwolke (1)
- Empowerment (1)
- Ethnologie (1)
- Ethnomethodologie und Kategorienanalyse (1)
- Existentielle Probleme (1)
- FEBID (1)
- FRANZ (1)
- Fair-Play-Liga (1)
- Fairness (1)
- Fantastik (1)
- Faraday-Tasse (1)
- Film (1)
- Filterkanal (1)
- Final Report (1)
- Flucht (1)
- Fluctuation Spectroscopy (1)
- Französische Literatur (1)
- Fridays for Future (1)
- Friedrich I., Heiliges Römisches Reich, Kaiser (1)
- Fußball (1)
- GEM (1)
- Gabor lens (1)
- Gabor-Linse (1)
- Gemeingut (1)
- Gemeinwohl-Ökonomie (1)
- Genitalverstümmelung (1)
- Geschichtsschreibung (1)
- Gesundheit (1)
- Gesundheitsberichterstattung (1)
- Gesundheitsbildung (1)
- Gesundheitserziehung (1)
- Gesundheitsförderung (1)
- Gesundheitswissenschaften (1)
- Gewerbeflächen (1)
- Google Bert (1)
- Gronemann, Sammy (1)
- HEP-Computing (1)
- Halbleiterdetektor (1)
- Handeln (1)
- Handlung <Literatur> (1)
- Hausa (1)
- Hausa language (1)
- Hausa-Sprache (1)
- Hayek, Friedrich A. von (1)
- Hochschulschrift (1)
- IS post-adoption (1)
- Identity (1)
- Identität (1)
- Impfzentrum (1)
- Impulsspektrometer (1)
- Injektionssystem (1)
- Insel <Motiv> (1)
- Interaktionsverhältnisse (1)
- Internationale Institutionen (1)
- Intimchirurgie (1)
- Ionbeam (1)
- Isolation (1)
- Jewish (1)
- Judentum (1)
- Kafka, Franz / In der Strafkolonie (1)
- Kinder- und Jugendbuchmarkt (1)
- Kooperationsmodell (1)
- Korpus (1)
- Korpusanwendung (1)
- Korpuslinguistik (1)
- Kosmetische Chirurgie (1)
- Krankheit (1)
- Kriterienkatalog (1)
- Kritische Theorie (1)
- Kurzfilm (1)
- Leseförderung (1)
- Liberalismus (1)
- Linear Preferential Attachment Trees (1)
- Linux Container (1)
- Lipoxygenase (1)
- Literarischer Feminismus (1)
- Lithium-7 (1)
- Lodi Vecchio (1)
- MIMIC-III (1)
- Magnetism (1)
- Magnetspektrometer (1)
- Mailand (1)
- Material Culture (1)
- Medienbegleitbücher (1)
- Medienverbund (1)
- Mittelalter (1)
- Mobile platforms (1)
- Model calibration (1)
- Model validation (1)
- Monte-Carlo-Simulation (1)
- Morena, Otto (1)
- NSU (1)
- National Socialist Underground (1)
- Nationalsozialistischer Untergrund (1)
- Natural Language Processing (1)
- Neoliberalismus (1)
- Neutronenquelle (1)
- Neutronenspektrum (1)
- New Development Bank (1)
- Nichteinmischung (1)
- Nigeria (1)
- Otto, Frisingensis (1)
- PROTAC (1)
- Particle Accelerator (1)
- Pedestrian Detection (1)
- Phantastik (1)
- Phasenraum (1)
- Photodioden (1)
- Polanyi (1)
- Politische Theorie (1)
- Postsäkularismus (1)
- Postwachstum (1)
- Praxis- und Diskurstheorie (1)
- Problemarbeit (1)
- Protonenstrahl (1)
- Querdenken (1)
- RFQ (1)
- Random Split Trees (1)
- Raum (1)
- Rechtssouveränität (1)
- Reinforcement Learning (1)
- Rekommunalisierung (1)
- Religion (1)
- Rezeption (1)
- STS (1)
- Schwarze feministische Literaturtheorie (1)
- Schwarze Literatur (1)
- Schwarzer Feminismus (1)
- Schönheit (1)
- Schönheitschirurgie (1)
- Sekundärelektronen (1)
- Smartphones (1)
- Social Inequalities (1)
- Software updates (1)
- Souveränität (1)
- Sozialwissenschaften (1)
- Space (1)
- Speicherring (1)
- Staatsangehörigkeitsrecht (1)
- Stauferzeit (1)
- Strahldiagnosemethode (1)
- Szintillationsschirm (1)
- Säkularisierung (1)
- Säkularismus (1)
- TPC (1)
- Teilchenbeschleuniger (1)
- Text2Scene (1)
- Transimpedanzverstärker (1)
- Turkey (1)
- Turkish (1)
- Türkisch (1)
- Verhalten (1)
- Verschwörungstheorien (1)
- Versuchsperson (1)
- Video (1)
- Vincentius, Pragensis (1)
- Virtual Reality (1)
- Visuelle Wahrnehmung (1)
- Vulva (1)
- Wertevermittlung (1)
- Wissenschaftstheorie (1)
- Wissensrepräsentation (1)
- application (1)
- beam dynamics (1)
- black hole (1)
- catastrophe modeling (1)
- central limit theorem (1)
- climate change (1)
- confinement (1)
- corpora (1)
- corpus (1)
- corpus application (1)
- corpus linguistics (1)
- data analysis (1)
- deformable model (1)
- density (1)
- developement (1)
- dialectology (1)
- dictionary (1)
- doubly stochastic point process (1)
- electron (1)
- energy balance (1)
- evaluation (1)
- faraday cup (1)
- film (1)
- filter channel (1)
- firing patterns (1)
- flexible bilingualism (1)
- fringe tree (1)
- gamma) Reaktionen (1)
- gamma) reactions (1)
- global water balance (1)
- high energy physics (1)
- independence number (1)
- injection system (1)
- kinematic collimation (1)
- kinematische Kollimation (1)
- kommunale Transformation (1)
- language ideologies (1)
- machine learning (1)
- model development (1)
- momentum spectrometer (1)
- multilingualism (1)
- neoliberale Stadt (1)
- neural ordinary differential equation (1)
- patricia trie (1)
- phase coding (1)
- point process (1)
- poisson process (1)
- prediction quality (1)
- quantum (1)
- quantum gravity (1)
- random tree (1)
- representation learning (1)
- risk theory (1)
- river discharge datasets (1)
- s-Prozess (1)
- shape prior (1)
- sozial-ökologische Transformation (1)
- spike train (1)
- spontane Ordnungen (1)
- starke Magnetfelder (1)
- statistical shape analysis (1)
- story line (1)
- stroke (1)
- teachers' attitudes (1)
- toroidal magnetic field (1)
- total water storage anomalies (1)
- translanguaging (1)
- unternehmerische Stadt (1)
- video (1)
- water temperature (1)
- zerstörungsfrei (1)
Institute
- Physik (61)
- Gesellschaftswissenschaften (11)
- Informatik und Mathematik (10)
- Mathematik (7)
- Informatik (6)
- Neuere Philologien (5)
- Geowissenschaften (4)
- Erziehungswissenschaften (3)
- Sportwissenschaften (3)
- Psychologie (2)
This study analyzes storyline structure in three Hausa home videos; Mai Kudi (The Rich Man), Sanafahna (with time truth shall dawn) and Albashi (Salary). The study measures storyline structure in these films against a Hollywood film industry model of story writing “the Hero's Journey”. It uses narrative analysis as its analytical tool, and narrative theory as its framework. After analyzing these videos, the study found that the major elements of storyline structure in Vogler's model formed the framework of the storyline structure in Hausa home videos analyzed. However, in spite of the preponderance of these elements within the storyline structure, there are significant variations to Vogler's model. Specifically, Vogler's model has some twelve stages spread on the universal structure of storytelling, i.e. beginning, middle and end. Few of these stages were found to exist in Hausa narrative structure, perhaps due to cultural differences between Western, Indian and Hausa cultures. The study therefore recommends screenwriters and producers to be aware of the existence of standard models of scriptwriting. It also recommends more training for script writers in the Hausa film industry.
WaterGAP (Water - Global Assessment and Prognosis) is a tool for modeling global water use and water availability. It participates among other models in the ISIMIP initiative (The Inter-Sectoral Impact Model Intercomparison Project). As part of this initiative, the water temperature should be calculated by participating hydrological models because it plays a vital role in many chemical, physical and biological processes. Therefore, the subject of this master thesis is to implement the physically based surface water temperature computation after VAN BEEK ET AL. (2012) and WANDERS ET AL. (2019) into WaterGAP and compare the results to the statistical regression approach by PUNZET ET AL. (2012). The computation is validated with observed water temperature data obtained from the GEMStat water quality database. The results are good for arctic and temperate latitudes. Surface water temperatures for tropical rivers are overestimated, most likely due to the overestimation of precipitation temperatures, incoming radiation and groundwater temperatures. The comparison with the regression model by PUNZET ET AL. (2012) shows matching results. The regression model even matches with WaterGAP results for most of the simulations of the future under climate change conditions, where the regression model should stop working due to changing environmental parameters. Several assumptions had to be made in order to implement the water temperature calculation in Water-GAP. These include, e.g., discharge temperatures for power plant cooling water, precipitation and surface runoff temperatures. For model improvements, perhaps three different values for the different regions of the world should be used to cool down the precipitation and surface runoff. The model could also be improved by refining the ice formation calculation, especially for the conditions when the ice melts, breaks up and is transported downstream. Furthermore, the feedback to the river channel roughness could be implemented if ice has formed. The WaterGAP model upgraded with the water temperature calculation will help the ISIMIP initiative in the future.
In der Arbeit wird ein Testverfahren zum Prüfen der Varianzhomogenität der Lebenszeiten eines Erneuerungsprozesses entwickelt. Das Verfahren basiert auf der "Filtered-Derivative"-Methode. Zur Herleitung des Annahmebereichs werden zunächst Bootstrap-Permutationen genutzt, bevor zu einer asymptotischen Methode übergangen wird. Ein entsprechender funktionaler Grenzwertsatz wird skizziert. Aufbauend auf dem Test wird ein Multiple-Filter-Algorithmus zur genauen Detektion der Varianz-Change-Points besprochen. Schließlich folgt die Inklusion von vorher detektierten Ratenänderungen in das Verfahren. Der Test und der Algorithmus werden in Simulationsstudien evaluiert. Abschließend erfolgt eine Anwendung auf EEG-Daten.
Einleitung
Fantastische Literatur
- Feministische Fantastik
- Schwarze Figuren in der Fantastik
Black Speculative Fiction
- Black Speculative Fiction vs. Afrofuturism
- Die Frauen der Black Speculative Fiction
Schwarzer Feminismus
- Schwarzer Feminismus als Literaturtheorie
Analyse
- Autorinnenschaft
- Intersektionalität: Race, Class und Gender
- Von Unterdrückung zu Widerstand und Befreiung
- Verstummen und Stimme finden
- Stereotype dekonstruiert
Afrikas Einfluss
- Fazit
- Literaturverzeichnis
- Eigenständigkeitserklärung
The ALICE Time Projection Chamber (TPC) is the main tracking detector of ALICE which was designed to perform well at multiplicities of up to 20000 charged primary and secondary tracks emerging from Pb-Pb collisions. Successful operation of such a large and complex detector requires an elaborate calibration and commissioning. The main goal for the calibration procedures is to provide the information needed for the offline software for the reconstruction of the particle tracks with sufficient precision so that the design performance can be achieved. For a precise reconstruction of particle tracks in the TPC, the calibration of the drift velocity, which in conjunction with the drift time provides the z position of the traversing particles, is essential. In this thesis, an online method for the calibration of the drift velocity is presented. It uses the TPC Laser System which generates 336 straight tracks within the active volume of the TPC. A subset of these tracks, showing sufficiently small distortions, is used in the analysis. The resulting time dependent drift velocity correction parameters are entered into a database and provide start values for the offline reconstruction chain of ALICE. Even though no particle tracking information is used, the online drift velocity calibration is in agreement with the full offline calibration including tracking on the level of about 2 x 10 exp (-4). In chapter 2, a short overview of the ALICE detector, as well as the data taking model of the ALICE, is given. In chapter 3, the TPC detector is described in detail. Lastly in chapter 4, the online drift velocity calibration method is presented, together with a detailed description of the TPC laser system.
Nichtinvasive Detektoren für ortsaufgelöste Strahlprofilmessungen gewinnen mit zunehmenden Strahlströmen und -energien immer mehr an Bedeutung. An der Universität Frankfurt im Institut für Angewandte Physik (IAP) wird ein “Figure Eight”-förmiger magnetostatischer Speichering mit Stellarator-Konfiguration (F8SR) entwickelt. Einige Aspekte der Strahldynamik in einem solchen Ring können mit einem experimentellen Aufbau am IAP untersucht werden. Die Herausforderung bei der Entwicklung eines Detektors an einem (F8SR) liegt auf der einen Seite darin den Strahl nichtinvasiv zu detektieren, und andererseits müssen magnetisch unempfindliche Komponenten für den Detektor ausgewählt werden. Dabei sollte der Detektor so flexibel sein, dass der Strahl entlang der Flugbahn transversal gemessen werden kann. In dieser Arbeit geht es um einen Detektor mit radial um den Strahl angeordneten Photodioden, mit deren Hilfe die strahlinduzierte Fluoreszenz detektiert wird und mit einem geeigneten Rekonstruktionsverfahren, Strahlposition und den Strahldurchmesser ermittelt werden kann. Die Messungen werden mit einem weiteren schon erprobten Detektor - einem Szintillationsschirm verglichen.
Da in der Run 3 Periode des CERN LHC die Kollisionsrate auf 50 kHz erhöht werden soll, muss die ALICE TPC umgebaut werden. Die Vieldrahtproportionalkammern mit Sperrgitter sollen gegen eine GEM-basierte Auslese ausgetauscht werden, um eine kontinuierliche Auslese zu ermöglichen.
Es wurde eine GEM-Testkammer, die mit drei und vier GEM-Folien betrieben werden kann, entwickelt und gebaut. GEM-Folien wurden unter dem Mikroskop auf Fehler untersucht und auf ihre Spannungsfestigkeit hin getestet sowie gerahmt und in die Kammer eingesetzt. Mit der fertigen kleinen TPC mit GEM-basierter Auslese wurden IBF und Energieauflösung gemessen. Ziel der Messungen war es, einen möglichst geringen IBF von unter 1 % zu erhalten, um so wenig wie möglich Feldverzerrungen im Driftvolumen der TPC zu erhalten, bei gleichzeitig guter Energieauflösung von mindestens 12 %, um eine gute Teilchenidentifikation in der TPC sicherzustellen.
Da standard GEM-Konfigurationen mit nur drei GEM-Folien zwar eine gute Energieauflösung, jedoch zu viel IBF aufweisen, wurden die Messungen hauptsächlich mit vier GEM-Folien durchgeführt. Es wurden zwei verschiedene Arten von GEM-Folien verwendet, Standard (S) und Large-Pitch (LP) GEM-Folien, die bei einem Großteil der Messungen in der S-LP-LP-S-Konfiguration angeordnet waren.
Es wurde festgestellt, dass sich IBF und Energieauflösung gegenläufig verhalten, bei besser werdendem IBF also die Energieauflösung schlechter wird und umgekehrt.
Es wurden zwei verschiedene Gasmischungen, Ne-CO2-N2 (90-10-5) und Ar-CO2 (90-10), untersucht. Mit Neon wurde bei einem Gain von 2000 gemessen, mit Argon nur bei einem Gain von 1000, da bei Argon die Anzahl der produzierten Elektronen pro cm etwa doppelt so groß ist.
Der IBF war mit beiden Gasmischungen etwa gleich groß. Die Energieauflösung war mit Argon jedoch aufgrund des niedrigeren Gains erheblich schlechter. Mit Ne-CO2-N2 (90-10-5) gelang es, einen Arbeitspunkt mit einer Energieauflösung von etwa 12 % und einem IBF von unter 1 % zu finden, mit Ar-CO2 (90-10) war dies jedoch nicht der Fall.
Das Ziel dieser Masterarbeit ist die Auslegung des Kickers für den Bunch-Kompressor des FRANZ-Projektes. Anhand eines Modells wurden die verschiedenen Möglichkeiten der Einkopplung sowie das Feld zwischen den Kondensatorplatten bereits untersucht. In der vorliegenden Arbeit wird der Kicker mit Hilfe des Programms CST Microwave Studio erstellt und optimiert, sodass er nach Abschluss der Untersuchungen in die Fertigung gehen kann. Dabei ist der erste Schwerpunkt der Untersuchungen die Auslegung und Optimierung der Kondensatorplatten, die für die Auslenkung der Mikro-Bunche im FRANZ-Projekt verantwortlich sind. Zu Beginn der Masterarbeit gab es gezielte Winkelverteilungen, die der Kicker im Rahmen des FRANZ-Projektes erreichen sollte. Nachdem ein Erreichen dieser Werte nur bedingt möglich war, wurden verschiedene Abschnitte des FRANZ-Projektes neu überdacht und die Anforderungen an den Kicker änderten sich dadurch grundlegend. Aus diesem Grund wurde der Kicker zu Beginn der Arbeit für eine Frequenz von 5 MHz ausgelegt, wohingegen er im Rahmen der neuen Anforderungen für eine Resonanzfrequenz von 2,57 MHz ausgelegt wurde. Die Untersuchung der optimalen Resonanzfrequenz für die Anforderungen des Kickers stellt den zweiten Schwerpunkt dieser Arbeit dar.
The aim of this thesis is finding a geometric configuration that allows electron insertion into a Gabor plasma lens in order to increase the density of the confined electrons and provide ignition conditions at parameters where ignition is not possible. First, simulations using CST and bender were conducted to investigate several geometric configurations in terms of their performance of inserting electrons manually. One particular design has been chosen as a basis for an experiment. In order to prepare the experiment, further simulations using the code bender have been conducted to investigate the density distribution that is formed inside the Gabor lens when inserting electrons transversally in compliance with the chosen design. Additionally, bender was used to investigate the impact of the initial electron energy on the distribution inside the lens. Simulations with and without space charge effects have shown a significant impact of the space charge effects on the resulting density dstribution. Therefore, space charge effects have proven to be the major electron redistribution process. A given electron source was characterised in order to find the performance under the conditions inside a Gabor lens. In particular, a transversal magnetic field that will be present in the experiment has to be compensated by shielding the inner regions of the source by a μ-metal layer. Using a μ-metal shield, transversal magnetic fields are sufficiently tolerable to perform measurements in a Gabor lens. Additionally, operating close to 100 eV electron energy yields a maximum in the emitted current. Adding a Wehnelt cylinder to the electron source furthermore improves the extracted current to roughly 1 mA. A test stand consisting of a newly designed anode for the Gabor lens, as well as a terminal for the electron source, was constructed. The electron source was thoroughly characterised in the environment of the Gabor lens and the ignition properties of the new system were evaluated. In further experiments, electron beam assisted ignition by increasing the residual gas pressure was observed and the impact of the position of the electron source on the ignition properties was investigated. In addition, ignition of a sub-critical state, that is a state consisting of potential, magnetic field and pressure that did not yet perform ignition by itself, was performed by increasing the extracted current from the electron source. Finally, the electron source was used to influence a pre-ignited plasma. The density was measured, which was increased by the use of the electron source in most cases. This project is part of the EDEN collaboration (Electron DENsity boosting) of the NNP Group at IAP Frankfurt with INFN institutes in Bologna and Catania.
Electron identification with a likelihood method and measurements of di-electrons for the CBM-TRD
(2017)
In this work a likelihood method has been implemented and investigated as particle identification algorithm for the CBM-TRD.
The creation of the probability distributions for the likelihood method via V0-topologies seems to be feasible and the purity of the obtained samples is sufficient for the usage in the likelihood method.
The comparison between the ANN and the likelihood method shows no differences in the identification performance. The pion suppression factor reaches the same values for the same electron identification efficiencies and the yields of the resulting di-lepton signals are comparable. The signal-to-background ratios for both methods have the same values and show a value of about 10−2 in the invariant mass range of minv = 1.5 - 2.5 GeV/c2, which is expected to be sufficient to provide access to the thermal in-medium and QGP radiation.
The investigation of a detector system without a TRD shows no pion suppression for a momentum above p = 6 GeV/c. Therefore, the background contributions increase drastically and the signal-to-background ratio decreases at all invariant masses, but especially in the invariant mass range of minv = 1.5 - 2.5 GeV/c2.
The background contributions in the invariant mass range of minv = 1.5 - 2.5 GeV/c 2 are also influenced by the selected electron identification efficiency of the TRD, which significantly shifts the fraction of the eπ contributions relative to the total number of pairs.
Ziel der nuklearen Astrophysik ist es, die solare Häufigkeitsverteilung der Elemente zu erklären (siehe Seite 10, Abb. 1.1). Die Elemente bis zur Eisengruppe sind dabei unmittelbar nach dem Urknall und während verschiedener Brennphasen in Sternen durch Kernfusion entstanden. Da die Bindungsenergie pro Nukleon der Elemente in der Eisengruppe am höchsten ist, ist für den Aufbau schwererer Elemente keine Energiegewinnung durch Fusion geladener Teilchen mehr möglich und Neutroneneinfänge und Betazerfälle spielen die entscheidende Rolle für die Nukleosynthese. In Abhängigkeit von der Neutronendichte und der Temperatur wird dabei zwischen dem langsamen Neutroneneinfangprozess, dem s-Prozess, und dem schnellen Neutroneneinfangprozess, dem r-Prozess, unterschieden. Während der r-Prozess weit abseits der stabilen Isotope an der Neutronenabbruchkante statt findet, verläuft der Reaktionspfad des s-Prozesses entlang der stabilen Isotope am "Tal der Stabilität".
Origin of the German Novel
(1927)
Virtual machines are for the most part not used inside of high-energy physics (HEP) environments. Even though they provide a high degree of isolation, the performance overhead they introduce is too great for them to be used. With the rising number of container technologies and their increasing separation capabilities, HEP-environments are evaluating if they could utilize the technology. The container images are small and self-contained which allows them to be easily distributed throughout the global environment. They also offer a near native performance while at the same time aproviding an often acceptable level of isolation. Only the needed services and libraries are packed into an image and executed directly by the host kernel. This work compared the performance impact of the three container technologies Docker, rkt and Singularity. The host kernel was additionally hardened with grsecurity and PaX to strengthen its security and make an exploitation from inside a container harder. The execution time of a physics simulation was used as a benchmark. The results show that the different container technologies have a different impact on the performance. The performance loss on a stock kernel is small; in some cases they were even faster than no container. Docker showed overall the best performance on a stock kernel. The difference on a hardened kernel was bigger than on a stock kernel, but in favor of the container technologies. rkt showed performed in almost all cases better than all the others.
Das Buch im Buch als Archiv
(2022)
Die Masterarbeit von Svenja Blumenrath mit dem Titel "Das Buch im Buch als Archiv" ist eine interdisziplinäre Zusammenführung von Literaturwissenschaft und Archivstudien. Anhand von sieben ausgewählten kinder- und jugendliterarischen Werken analysiert die Autorin die Funktion des Buches im Buch als Archiv für die erzählte Welt. Die Ergebnisse zeigen, dass das Buch im Buch nicht nur als narrative Struktur dient, sondern auch als Archiv fungiert, das Erinnerungen und Wissen bewahren, aber auch verwehren kann. Diese Erkenntnisse bieten neue Einblicke in die Verbindung von Literatur und Archivwesen.
Jede Gesellschaft oder Gemeinschaft wird von ihrer historischen Geschichte beeinflusst. Die gewachsenen Ansichten, Umgangsweisen und Strategien sind die Basis für die Weiterentwicklung jedes Gemeinwesens. Das Museum ist ein Ort der offenen und kritischen Auseinandersetzung mit dieser Geschichte und deren Wirkungen auf die Gegenwart. Es ist somit eine bildungspolitische Einrichtung, die aufgrund dieser gesellschaftlichen Aufgabe ihre besondere Bedeutung und Existenzberechtigung erhält. Museen sind in jeder Kultur und Gesellschaft ein wesentlicher Ort für die Fragen: Wo kommen wir her? Was verbindet uns? Besonderes in einer jungen Nation, die ihre Unabhängigkeit erst 1991 erlangt hat, ist eine Auseinandersetzung mit diesen Fragen dringend und wichtig.
Die Arbeit schlägt einen weiten Bogen vom Allgemeinen zum sehr Speziellen. Sie beginnt mit einer Darstellung der wichtigen Ansätzen und Studien zur Besucherforschung in Museen allgemein. Dabei wird nicht nur der Wandel in den Ansprüchen des Publikums aufgezeigt, sondern auch die Veränderungen der Konzeption und der Repräsentation der Museen selbst. Einen Schwerpunkt legt die Arbeit auf den Aspekt des Erzählens - das bedeutet, etwas sichtbar zu machen, was nicht offensichtlich ist: Kontexte, Reflexionen und Bezüge. Die Bedeutung der Kommunikation zwischen dem Museum und seinen Besuchern wurde in der Ethnologie bisher eher vernachlässigt.
Goal-Conditioned Reinforcement Learning (GCRL) is a popular framework for training agents to solve multiple tasks in a single environment. It is cru- cial to train an agent on a diverse set of goals to ensure that it can learn to generalize to unseen downstream goals. Therefore, current algorithms try to learn to reach goals while simultaneously exploring the environment for new ones (Aubret et al., 2021; Mendonca et al., 2021). This creates a form of the prominent exploration-exploitation dilemma. To relieve the pres- sure of a single agent having to optimize for two competing objectives at once, this thesis proposes the novel algorithm family Goal-Conditioned Re- inforcement Learning with Prior Intrinsic Exploration (GC-π), which sep- arates exploration and goal learning into distinct phases. In the first ex- ploration phase, an intrinsically motivated agent explores the environment and collects a rich dataset of states and actions. This dataset is then used to learn a representation space, which acts as the distance metric for the goal- conditioned reward signal. In the final phase, a goal-conditioned policy is trained with the help of the representation space, and its training goals are randomly sampled from the dataset collected during the exploration phase. Multiple variations of these three phases have been extensively evaluated in the classic AntMaze MuJoCo environment (Nachum et al., 2018). The fi- nal results show that the proposed algorithms are able to fully explore the environment and solve all downstream goals while using every dimension of the state space for the goal space. This makes the approach more flexible compared to previous GCRL work, which only ever uses a small subset of the dimensions for the goals (S. Li et al., 2021a; Pong et al., 2020).
Cleaning an ion beam from unwanted fractions is crucial for intense ion beams. This thesis will explore separation methods using a collimation channel, electric and magnetic dipoles and a velocity selector for low intensity beams on an experimental basis. In addition, statistical data of degassing events during the commissioning of a pentode extraction system for beam energies from 20 - 120keV will be presented.
Das Konflikterleben von Schiedsrichtern im Amateurfußball : eine empirisch-qualitative Arbeit
(2020)
Bei der Austragung von Amateurfußballspielen nehmen Schiedsrichter die Rolle von Beobachtern ein, die bei Konflikten selbst zu Betroffenen werden können. Dabei treten auch extreme Formen wie Beleidigungen und Diskriminierungen sowie physische und psychische Gewalt auf. Anliegen der Masterthesis „Das Konflikterleben von Schiedsrichtern im Amateurfußball“ ist es, die Wahrnehmung von Schiedsrichtern in Bezug auf Konflikte im Amateurfußball empirisch-qualitativ zu erfassen und bisherige Forschungsansätze zu erweitern. Grundlage der Arbeit bilden vom Autor geführte problemzentrierte Interviews mit hessischen Unparteiischen, deren Auswertung neue Perspektiven im Gewaltdiskurs des Amateurfußballs anbietet.
Representations of the reasons and actions of terrorists have appeared in German literature tracing back to the age of Sturm und Drang of the 18th century, most notably in Heinrich von Kleist's Michael Kohlhaas and Friedrich Schiller's Die Räuber, and more recently since the radical actions of the Red Army Faction during the late 1960s and early 1970s, such as in Uli Edel's film, The Baader Meinhof Complex. By referring to Walter Benjamin's system of natural law and positive law, which provides definitions of differing codes of ethics with relation to state laws and personal ethics, one should be able to understand that Michael Kohlhaas, Karl Moor, and the members of the RAF are indeed represented as terrorists. However, their actions and motives are not without an internal ethics, which conflicts with that of their respective state-sanctioned authorities. This thesis reveals the similarities and differences in motives, methods, and use of violence in Schiller, Kleist, and representations of the RAF and explores how the turn to terrorism can arise from a logical realization that ideologies of state law do not align with the personal sense of justice and law of the individual.
Nach dem einführenden Theorieteil werden in den darauffolgenden Kapiteln zuerst die Auslegung und die Vermessung der drei Tripletts an der GSI in Darmstadt beschrieben und dann versucht mit Hilfe von LORASR einen Akzeptanzrahmen der MEBT-Sektion (Medium Energy Beam Transport) für ein Teilchenpaket anzugeben. Anschließend werden die Ergebnisse aus Feldvermessung und CST EM STUDIO Feldsimulationen verglichen. Damit soll die Frage, inwieweit es mit Particle Tracking Simulationen, in denen mit in CST EM STUDIO simulierten und anschließend in BENDER importierten Feldern gearbeitet wird, möglich ist, zutreffende Aussagen zu machen, beantwortet werden. Im letzten Kapitel werden wiederum die Ergebnisse dieser Simulationen präsentiert und ihre Bedeutung, im Vergleich mit den erweiterten Untersuchungen der Transporteigenschaften durch verschiedene aus überlagerten Multipolfeldern generierten Magnetfelder, eingeordnet. Abschließend wird nochmals ein Fazit zur Aussagekraft der Ergebnisse und der Folgen für den Strahltransport gezogen und ein Ausblick auf die noch ausstehenden Schritte und weitere experimentelle Analyseoptionen gegeben.
Als es in den 1920er und 1930er Jahren zur Entdeckung des expandierenden Raums, gemessen über die kosmologische Rotverschiebung, kommt, wird daraus erstmals die Idee eines kleinsten Ursprungspunkts zu Beginn der Zeit postuliert. Es dauerte jedoch weitere 30 Jahre, bis das Konzept des „Big Bang“ als Ursprungsmodell veröffentlicht wurde [Lum07]. Seitdem untersuchen Wissenschaftler fortschreitend die Theorie des Big Bang. Der Zustand der Materie zum Zeitpunkt Null ist nach wie vor ungeklärt, ab ca. 10 exp (-44) Sekunden nach dem Urknall wird in der Theorie des Big Bang davon ausgegangen, dass sich die Materie im Zustand des Quark-Gluon-Plasmas befand. Zunächst galt es eine experimentelle Bestätigung für die generelle Existenz eines solchen Zustands zu finden. Die experimentelle Suche nach dem Quark-Gluon-Plasma im Labor begann vor fast 30 Jahren am Bevalac in Berkley [Gus84], dort konnte bei Niobium-Kollisionen kollektiver Fluss beobachtet werden. Zehn Jahre später begannen die Messungen des Schwerionen-Forschungsprogramms am CERN1. Im Jahr 1994 wurden dort die ersten Schwerionenkollisionen durchgeführt, von denen man sich erhoffte, dass sie zu einer kurzzeitigen Erzeugung des Quark-Gluon-Plasmas führen. Im Jahr 2000 gab es dann eine zusammenfassende Pressemitteilung des CERN, in der die Messungen eines neuartigen Materiezustands beschrieben wurden [CER00]. Weitere fünf Jahre später wurde ein Bericht der bis dahin erreichten Ergebnisse der vier Quark-Gluon-Plasma Experimente am Relativistic Heavy Ion Collider (RHIC) des Brookhaven National Labratory veröffentlicht [BNL05]. Dabei konnten einige Ergebnisse aus den Messungen am CERN bestätigt werden, andere hingegen nicht. Die Annahme, das Quark-Gluon-Plasma verhalte sich wie ein Gas, musste beispielsweise nach den Messungen am RHIC verworfen werden. Diese zeigen, dass das Verhalten des Quark-Gluon-Plasma eher dem von Flüssigkeiten ähnelt [BNL05].
Seit den ersten Schritten zur Untersuchung des Quark-Gluon-Plasma am CERN, in denen vor allem die Messung der Existenz des Quark-Gluon-Plasmas an sich im Vordergrund stand, soll der Phasenübergang nun quantitativ untersucht werden. Dazu werden Dichte und Temperatur der betrachteten Materie variiert und die vorhandene Zustandsphase gemessen. Eines dieser Experimente soll das Compressed Baryonic Matter (CBM) Experiment werden. Das Ziel des Experiments ist die Untersuchung von Materie bei sehr hohen Dichten, aber im Vergleich zu anderen aktuellen Experimenten relativ niedrigen Temperaturen. Im Jahr 2009 wurde der erste Spatenstich auf dem Gelände der Gesellschaft für Schwerionenforschung in Darmstadt für den Bau der Facility for Antiproton and Proton Research (FAIR) getätigt. Mit Hilfe der FAIR-Beschleuniger soll dann das CBM Experiment das Quark-Gluon-Plasma bei hohen Materiedichten mit bisher nicht erreichter Statistik untersuchen können. Jedoch gerade das Erreichen solch hoher Ereignisraten stellt nicht nur eine zentrale Herausforderung an die Beschleuniger dar, sondern auch an die messenden Detektoren. Diese Arbeit beschäftigt sich mit der Entwicklung eines Transition Radiation Detektors für das CBM Experiment.
Nach einer kurzen Einführung in die generelle Untersuchung des Quark-Gluon-Plasmas folgt die Beschreibung des geplanten Aufbaus des CBM Experiments mit dessen Subsystemen. Danach wird die theoretische und praktische Funktionsweise eines Transition-Radiation Detektors (TRD) erklärt, um darauf aufbauend die Charakterisierung und Signalanalyse der entwickelten TRD-Prototypen darzustellen. Abschließend werden die Ergebnisse in Bezug auf den für das CBM Experiment zu entwickelnden Detektor diskutiert.
In the second half of the last century, a brave idea of providing aid to developing countries not only because of humanitarian reasons, but also because of a global economic interdependency was born. International organizations shared this view with a great enthusiasm and significantly increased their engagement in low-income countries believing that these nations need to and can be helped. This movement stirred an interest of the academia and, as a result, research on the outcomes of international donors’ engagement in recipient countries started.
The main aim of this thesis is to analyze a broad spectrum of literature on aid effectiveness in developing countries and to summarize the main findings concerning an impact of state fragility and conflict on the efficiency of donor engagement. However, the main focus of this research lies in an own empirical analysis of some well-established hypotheses, as well as in a statistical testing of the outcomes obtained by other authors in a relevant field of study.
The effectiveness of foreign aid...
Die Arbeit befasst sich mit einer Vereinfachung des von Devroye (1999) geprägten Begriffs der random split trees und verallgemeinert diesen im Sinne von Janson (2019) auf unbeschränkten Verzweigungsgrad. Diese Verallgemeinerung deckt auch preferential attachment trees mit linearen Gewichten ab, wofür ein Beweis von Janson (2019) aufbereitet wird. Zusätzlich bleiben die von Devroye (1999) nachgewiesenen Eigenschaften über die Tiefe der hinzugefügten Knoten erhalten.
Kinder und Jugendliche beschäftigen sich gerne mit audiovisuellen, auditiven und interaktiven Medien. Das Buch gerät im Mediengeflecht zunehmend in den Hintergrund. Um für die junge Zielgruppe attraktiv zu sein, setzen Verlage auf Bücher, die Themen, Geschichten und Darstellungsweisen aus anderen Medien aufgreifen. Dazu gehören auch die sogenannten Medienbegleitbücher, die in Bezug zu einem Film, einer Serie, einem Hörspiel oder einem digitalen Spiel stehen. Diese Bücher ermöglichen Kindern aufgrund der bereits bekannten Geschichten, Charaktere und Dialoge einen erleichterten Zugang zu Literatur und locken mit besonderen Gratifikationen, die vorlagenfreie Bücher nicht zu bieten haben. Daher sind sie als Lesestoffe auch für die Leseförderung interessant.
Diese Arbeit untersucht daher, welche Stellung Medienbegleitbücher im Kinder- und Jugendbuchmarkt sowie in der Leseförderung haben. Im ersten Teil liegt der Fokus auf der Produktion und Distribution von Begleitbüchern. Mithilfe einer Recherche im Katalog der Deutschen Nationalbibliothek wurden das Marktangebot erarbeitet und Rückschlüsse auf die Entwicklung des Genres gezogen. Jahresbestsellerlisten des Buchreport geben einen Eindruck vom Verkauf der Bücher. Forschungsliteratur zum Thema Lizenzen und Kommunikationspolitik in Verlagen ergänzt den Marktüberblick durch die Perspektive von Handel und Herstellung.
Im folgenden Kapitel werden unter Zuhilfenahme von Forschungsliteratur und Studien die Potenziale der Begleitbücher geschildert. Rezensionen und Bewertungen zu Medienbegleitbüchern auf LovelyBooks und Amazon geben Aufschluss über die Einstellung der Leser*innen und Beiträge in Zeitschriften der Kinder- und Jugendliteratur zeigen die Meinung der Vermittler*innen zu Begleitbüchern.
Der letzte Abschnitt der Arbeit beschäftigt sich mit dem Einsatz der Medienbegleitbücher in der Leseförderung. Stellvertretend für Angebote in der Familie und in Kindertagesstätten wurde die Arbeit der Stiftung Lesen Mainz betrachtet. Eine Analyse der Angebote und ein Experten-Interview geben nähere Einblicke in die Einbindung von Medienbegleitbüchern. Die Didaktik-Forschung gibt Auskunft über die Integration von Medienbegleitbüchern und Medienverbünden in den Unterricht. Im Bereich der außerschulischen Leseförderung wurde der Einsatz von Medienbegleitbüchern in den Lesestunden von Mentor e.V. Mainz mit einer Online-Umfrage unter den Mentor*innen untersucht. Der Katalog der Anna Seghers Bücherei Mainz zeigt das Angebot an Medienbegleitbüchern in Büchereien auf. Der Instagram-Account der Bücherei lässt Rückschlüsse über den Einsatz von Begleitbüchern in Aktionen zu.
Zusammenfassend konnte festgehalten werden, dass Medienbegleitbücher ein wichtiges Segment des Kinder- und Jugendbuchmarktes darstellen, hohe Umsätze generieren können und für den Handel von Bedeutung sind. Aufgrund des vielfältigen Angebots und der verschiedenen Vertriebswege können viele Zielgruppen angesprochen und erreicht sowie Barrieren zum Medium Buch abgebaut werden. Obwohl die Erfahrungen von Familienangehörigen und Mentor*innen belegen, dass sich Begleitbücher positiv auf die Lesemotivation und das Leseverhalten von Kindern und Jugendlichen auswirken können, werden sie in der Leseförderung bislang eher am Rande berücksichtigt. Sie werden zwar empfohlen, aber Konzepte für und Evaluationen von Projekten fehlen. Die Potenziale der Medienbegleitbücher und ihrer Medienverbünde werden daher nicht ausgeschöpft. Medienbegleitbücher sollten zunehmend in den Fokus gerückt und als Chance wahrgenommen werden, Heranwachsende für Bücher zu begeistern und ihre Lesefreude zu wecken.
In der Literatur hat sich die Bestimmung der Erzählperspektive längst etabliert, aber genauso manifestiert sich auch in den visuellen Medien ein Erzähler, der das Geschehen zwar weniger mittels der Sprache, dafür im Wesentlichen über Bilder präsentiert. Durch die jeweils darin enthaltene Darstellung und die Verknüpfung der einzelnen Bilder sind diese Ausdruck einer bewussten Formung der Handlung. Der Begriff des Erzählens beschränkt sich somit nicht nur auf die Literatur, sondern trifft auch auf Visualisierungen jeglicher Art zu, da in diesen Fällen ebenso eine Instanz identifiziert werden kann, die hinter der Auswahl der Handlungselemente steht und diese perspektivisch formt. Dennoch kann der Erzähler hier nicht mehr, wie in der Literatur, im Sinne eines "Sprechers" aufgefasst werden, sondern versteht sich eher als abstraktes Konzept. Insbesondere in intermedialer Hinsicht stellt die Übertragung der Erzählperspektive von einem literarischen Text auf ein visuelles Medium eine Herausforderung dar, denn aufgrund des Medienwechsels verändern sich die Bedingungen des Erzählens. Umso schwieriger ist die Übertragung, wenn der literarische Text keinen durchweg logischen Handlungsverlauf aufweist, sondern Widersprüche und Uneindeutigkeiten im Erzählvorgang und in der Erzählperspektive beinhaltet, wie es auf Franz Kafkas 1914 entstandene Erzählung "In der Strafkolonie" zutrifft. Dieser Text dient zudem, wie auch viele andere von Kafkas Werken, als Projektionsfläche diverser, nicht selten konträrer, Deutungsansätze, die sich in der Forschungsliteratur herausgebildet haben. So wurden zahlreiche religiöse Bezüge in der Erzählung entdeckt, genauso wurde der Text aber als realistisch und somit als Kritik an Kolonialismus und Krieg verstanden. Bezug nehmend auf Kafkas Biographie und das Thema Strafe, das in zahlreichen seiner Werke zum Ausdruck kommt, wurde die Erzählung oftmals in psychoanalytischer Hinsicht gedeutet. Andererseits wurde die beschriebene Handlung auch weniger ernst genommen und vor allem auf die grotesken und ironischen Elemente verwiesen. Im Hinblick auf die unterschiedlichen Interpretationsansätze sind auch die Möglichkeiten der visuellen Umsetzung entsprechend vielfältig.
In dieser Arbeit wird anhand von drei Kurzfilmen und einem Comic, unter Berücksichtigung der spezifischen medialen Bedingungen, die Übertragung der Erzählung ins Visuelle analysiert. Dabei soll gezeigt werden, inwiefern die jeweilige Erzählperspektive die visuelle Wahrnehmung in den Filmen und im Comic bestimmt. In diesem Zusammenhang wird auch zu sehen sein, welche Deutung der Erzählung sich in der Visualisierung manifestiert und durch den Erzähler besonders hervorgehoben wird. Nicht zuletzt stellt sich dabei auch die Frage nach der Art der Umsetzung, d.h. ob bei der Adaption die Textnähe und der Inhalt im Vordergrund stehen oder ob vielmehr die Intention verfolgt wird, mit der Visualisierung der Erzählung ein neues und eigenes künstlerisches Werk zu schaffen, das dem Originaltext auf einer tiefergehenden Ebene begegnet.
Seit den 20er Jahren werden Teilchen durch verschiedenste Methoden beschleunigt und wechselwirken unter Laborbedingungen mit anderen Teilchen. Hierbei spielt die Erzeugung neuer meist sehr kurzlebiger Teilchen eine wichtige Rolle. Die Untersuchung dieser Streuexperimente ist eine der wichtigsten Methoden der Elementarteilchen-, Kern- und Astrophysik. So steht bei den heutigen Kernphysik-Experimenten immer mehr die Astrophysik im Vordergrund. Die offenen kosmischen Fragen nach dem Ursprung und der Entwicklung des Universums drängen nach Antworten. Seit die Menschen bewusst denken können, gibt es diese Neugier zu erfahren woraus das Universum besteht. Unser Bild des Universums wurde durch neue Erkenntnisse alleine in den letzten 30 Jahren mehrmals radikal verändert.
Besonders die Vielzahl und Häufigkeit der heute zu findenden Elemente wollen erklärt werden. Da nach heutigen Kenntnissen davon ausgegangen wird, dass kurz nach dem Urknall lediglich die leichten Elemente Wasserstoff, Helium und Lithium vorhanden waren. Hier versucht die aktuelle Forschung anzusetzen. Das Konzept der sogenannten „Nukleosynthese“ ist entwickelt worden und versucht das Entstehen aller schwereren Elemente zu erklären. So geht man heute davon aus, dass sich die weiteren Elemente bis hin zu Eisen durch Kernfusions-Prozesse innerhalb der verschiedenen Brennphasen von Sternen entwickelt haben - während alle schwereren Elemente durch neutronen-induzierte Prozesse entstanden sind. Die beiden großen Neutronenprozesse sind der r-Prozess (rapid neutron-capture process) und der s-Prozess (slow neutron-capture process). Während der r-Prozess wahrscheinlich in hochexplosiven Szenarien, wie den Supernovae, stattfindet, spielt sich der s-Prozess meist innerhalb Roter Riesen ab [Rei06].
Um diese Theorien zu belegen und zu unterstützen, ist es nötig diverse kernphysikalische Experimente auf der Erde durchzuführen. Hier versucht man den Bedingungen in den Sternen nahe zu kommen. Es werden hohe Energien und hohe Neutronenflüsse benötigt um schwerere Elemente durch Neutroneneinfangs- und Fusionsprozesse zu erzeugen. Ziel Motivation Einleitung ist es unter anderem nukleare Wirkungsquerschnitte diverser Reaktionen experimentell nachzuweisen und auf die Sternmodelle umzurechnen.
Die Schwierigkeit liegt hier nicht nur in der Erzeugung und Erhaltung dieser hohen Raten, sondern vielmehr auch in der Detektion der entstandenen Fragmente und Teilchen. Da diese Teilchen und subatomaren Partikel nur eine jeweils sehr kurze Lebensdauer besitzen, ist es eine große Herausforderung möglichst effiziente und effektive Detektoren zu entwickeln. Damit diese Detektoren in den jeweiligen Experimenten dann möglichst optimal arbeiten und die gewünschten Auflösungen liefern, ist es nötig gute Kalibrierungsmöglichkeiten im Voraus auszunutzen.
Das CBM-Experiment konzentriert sich auf die Untersuchung der Eigenschaften des Quark-Gluon-Plasmas bei hohen Netto-Baryonendichten und moderaten Temperaturen. An der zukünftigen Beschleunigeranlage FAIR an der GSI findet das Experiment, neben vielen anderen Experimenten, ihren Platz. Der TRD ist, neben dem RICH, STS und TOF, einer der zentralen Detektoren im CBM-Experiment. Der TRD nutzt dabei den physikalischen Effekt der Übergangsstrahlung, die durch ein geladenes Teilchen beim Durchqueren einer Grenze zweier Medien mit unterschiedlichen Dielektrizitätskonstanten mit einer gewissen Wahrscheinlichkeit entsteht, um Elektronen von Pionen trennen zu können. Im Jahr 2017 wurde an der DESY 4 TRD-Prototypen in einer Teststrahlzeit getestet. Dabei handelt es sich um große TRD-Module mit den Maßen 95 · 95 cm2 , was dem finalen Design sehr nahe kommt. Die Untersuchung der DESY-Daten in Kapitel 5 brachte große Problematiken in den Daten zum Vorschein. Die Hauptprobleme der DESY-Daten sind: 1) Bug des SPADIC-Chips 2.0, bei der FN-Trigger zeitlich verschoben wurden; 2) schwache und suboptimale Trigger-Bedingung, wodurch sehr viel Rauschen aufgenommen wurde. Die Daten müssen für weitere Auswertung aufbereitet werden, wobei sehr viel Information und Statistik verloren geht, da einige Daten durch diverse Probleme nicht mehr rekonstruierbar sind. Kapitel 6 beschäftigt sich mit der Simulation der Detektorantwort und geht genauer auf die einzelnen Schritte, die zur Simulation des vom SPADIC erzeugten Pulses benötigt werden, ein. Am Ende werden Ergebnisse aus beiden Datensätzen miteinander verglichen. Um einen optimalen Vergleich zu gewähren, wird die Simulation bestmöglich an die Einstellungen in der Teststrahlzeit angepasst. Hauptsächlich geht es um die Erhöhung des Gasgains und der Verschiebung der Peaking-Zeit des Pulses. Im Allgemeinen können wir in der Simulation einige Effekte, die auch in den DESY-Daten vorkommen, nachsimulieren. Wir erhalten zum Teil sehr unterschiedliche Ergebnisse in der Simulation, deren Richtigkeit nicht verifiziert werden kann, da die Daten aufgrund der Probleme unzuverlässig werden. Durch die Analyse der DESY-Daten konnten wir die Problematik in den Daten besser verstehen. Eine sinnvolle Anpassung der Simulation wird durch die Unzuverlässigkeit der DESY-Daten unmöglich. Für die Optimierung der Simulation müsste man einen Vergleich mit neueren, zuverlässigeren Daten aus zukünftigen Teststrahlzeiten nehmen.
Eines der wichtigsten Experimente für Kernstrukturforschung und Messung stellarer Reaktionsraten ist das R3B-Experiment im Rahmen des FAIR-Projekts am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt. Der experimentelle Aufbau von R3B besteht aus mehreren einzelnen Teilchendetektoren für verschiedene Teilchensorten (Neutronen, Protonen, Spallationsund Spaltprodukte, Gammastrahlen), die alle möglichst vollständig detektiert und gemessen werden müssen. Für die Identifikation und Energiemessung schwerer, geladener Reaktionsprodukte ist eine sogenannte Time-of-Flight-Wall (Flugzeitwand) nötig. Der Name ergibt sich aus der Hauptaufgabe, der Flugzeitmessung für die Energiebestimmung der Teilchen, sowie der Geometrie eines solchen Detektors. Die in vorherigen Aufbauten verwendeten Detektoren diesen Typs erfüllen noch nicht die Anforderungen, die die Forschungsziele des R3B-Experiments stellen, daher wurde ein neues Design basierend auf Plastikszintillatoren entwickelt.
Für diese Arbeit wurde die theoretisch erreichbare Zeitauflösung des neuen Designs abgeschätzt sowie Testmessungen mit verschiedenen experimentellen Setups durchgeführt. Insbesondere wurde ein Prototyp der ToF-Wand im Rahmen einer Strahlzeit an der Beschleunigeranlage der GSI getestet. Die Ergebnisse dieser Messungen mit einem 58Ni28+-Strahl wurden im Hinblick auf Energie-, Zeit- und Ladungsauflösung sowie die Stabilität dieser Werte bei hohen Raten ausgewertet und so ein erster Eindruck von der Leistungsfähigkeit des Detektors und der Ausleseelektronik gewonnen und Einschränkungen und nötige Verbesserungen erkannt.
Ziel der Simulationsstudien in dieser Arbeit war es, die Leistungsfähigkeit des Transition Radiation Detectors zur Identifikation von leichten Kernen und Hyperkernen im CBM-Experiment zu untersuchen. Die Trennung von Helium und Deuterium
mithilfe ihres spezifischen Energieverlustes im TRD ist zentral, um eine Rekonstruktion des seltenen Hyperkerns 6 ΛΛHe mit einem hohen Signal-zu-Untergrund-Verhältnisse zu leisten. Zur Erfüllung der Anforderungen, die sich aus dem CBM-Forschungsprogramm ergeben, wird eine Auflösung des Energieverlustes dEdx von Helium von höchstens 30 % verlangt...
Ein Schtetl in der Stadt – Jüdische Identitätsräume in Texten von Martin Beradt und Sammy Gronemann
(2010)
The concern of this thesis is a discussion of the way German-Jewish identity manifests itself in two literary texts before and after 1933. Using the examples of Sammy Gronemann’s novel Tohuwabohu and Martin Beradt’s Die Straße der kleinen Ewigkeit, it offers a textual analysis of two works which share close connections in terms of subject matter, style, and their respective authors’ background, but are historically divided by the fundamental experience of the rise of National Socialism in Germany.
I argue that space is a crucial factor through which identity is constituted in each text, both of which use and partially subvert the romanticized image of the Eastern European shtetl brought to Germany by authors such as Arnold Zweig in the aftermath of World War I. Space in this context always has a twofold quality to it. It functions as a space of identity, but also as a space of identification through which a group of people label others as either belonging or not belonging to a specific space. Furthermore, both texts reject monolithic definitions of Jewish identity, emphasizing instead the diversity of Jewish life in Europe before the Rise of National Socialism.
The internet has often been considered a 'technology of freedom' – a nearly revolutionary tool believed to flatten social hierarchies and democratize access to media by 'giving voice' to everybody equally. Contradictory to this point of view, research has shown the existence of a 'digital divide,' the phenomenon that access to and use of the internet, as well as the outcomes derived from this use, correlate with pre-existing inequalities.
Based on ethnographic fieldwork among activists in Dakar, Senegal, this thesis analyzes how inequalities shape and are shaped by the relationships between activists and smartphones. Do smartphones indeed flatten social hierarchies, or are inequalities rather reproduced – or even reinforced – through them?
Zeitreihen von spontan auftretenden Topograpfien elektrischer Felder an der Kopfoberfläche, die durch eine Elektroenzephalografie (EEG) gemessen werden, zeigen Zeiträume („EEG-Microstates“), während denen die Topografie quasi-stabil ist. Diese EEG-Microstates werden üblicherweise dadurch analysiert, dass die zu spezifischen Zeitpunkten beobachteten Ausprägungen des EEGs in eine kleine Anzahl von prototypischen Topografien („Karten“) eingeteilt werden. Dadurch erhält man eine diskrete Kartensequenz.
Um die Struktur der Übergangswahrscheinlichkeiten in experimentellen Kartensequenzen zu beschreiben, werden diese Sequenzen durch eine reduzierte Markov-Kette modelliert mit nur einem Parameter pro Karte. Die Markov-Ketten können mithilfe von zwei bestimmten stochastischen Prozessen konstruiert werden. Durch den einen Prozess werden zufällige Intervalle definiert, die zufällig den verschiedenen Karten zugeordnet werden. Durch den anderen Prozess werden zufällige Abtastungszeitpunkte bestimmt, zu denen die Karte des jeweils aktuellen Intervalls abgelesen wird.
Neben der Motivation und Vorstellung des Markov-Ketten-Modells werden in dieser Arbeit Schätzer für die Modellparameter vorgeschlagen und diskutiert sowie ihre asymptotischen Varianzen hergeleitet. Zudem wird ein Anpassungstest durchgeführt und es werden Abwandlungen des Modells untersucht.
Das Ziel dieser Arbeit ist die Untersuchung der stratosphärischen Meridionalzirkulation mit Hilfe von chemisch aktiven Spurengasen. Diese motiviert sich durch die Tatsache, dass der Klimawandel neben den viel erforschten Auswirkungen auf die Troposphäre, auch Reaktionen in der Stratosphäre zur Folge hat, welche bisher weit weniger tiefgehend untersucht wurden. Das macht die Stratosphäre zu einem aktuellen und frequentierten Forschungsgebiet der experimentellen und theoretischen Meteorologie. Neben vereinzelten hochaufgelösten in-situ Messungen und globalen Satellitendaten sind es hier vor allem globale numerische Klima-Chemiemodelle, die für Analysen genutzt werden. Für diese Arbeit wurden Daten des EMAC-Modells (engl.: ECHAM/MESSy Atmospheric Chemistry) ausgwertet, welche im Rahmen der ESCiMo (engl.: Earth System Chemistry integrated Modelling) Initiative vom MESSy-Konsortium (engl.: Modular Earth Submodel System) erstellt wurden. Die Zielsetzung dieser Arbeit war, ob sich etwaige Änderungen des stratosphärischen Transports anhand von modellierten, chemisch aktiven, idealisierten Spurengasen feststellen lassen. Idealisiert bedeutet hierbei, dass diese Gase ein konstantes Mischungsverhältnis am Erdboden aufweisen und den identischen chemischen Prozessen unterliegen wie die realistischen Tracer. Dies hat zur Folge, dass diese Spurengase somit nicht in das Strahlungsbudget des Modells rückkoppeln und ihre Verteilung nicht durch zeitliche troposphärische Trends beeinflusst wird. Zur Analyse des stratosphärischen Transports wurden die Differenzen der monatlich gemittelten Mischungsverhältnisse zweier Zeitpunkte der verschiedenen Substanzen im Vertikalprofil betrachtet und ausgewertet, wobei hier die photolytische Lebenszeit und die Zeitskala des Transports zu berücksichtigen war. Um die Saisonalität von Transport und Chemie zu berücksichtigen, wurden dazu die Monate März, Juni, September und Dezember analysiert.
Die Resultate zeigten, dass chemisch aktive Substanzen in der Tat geeignet sind Änderungen in der Dynamik festzustellen. So stellte sich heraus, dass mit einer allgemeinen Intensivierung der stratosphärischen Meridionalzirkulation im kommenden Jahrhundert gerechnet werden kann, wobei hiervon besonders die untere Stratosphäre betroffen ist. Eine Differenzierung welche Komponente der Zirkulation (Residualtransport oder bidirektionale quasi-horizontale Mischung) hierbei von übergeordneter Bedeutung ist, konnte nicht spezifiziert werden. Um abzuschätzen, ob sich die Änderung der Zirkulation durch Änderungen in den Mischungsverhältnissen von chemisch aktiven Substanzen mit Hilfe von direkten Messungen nachweisen lässt, wurde die atmosphärische Variabilität des Modells bestimmt und mit den Veränderungen dieser Mischungsverhältnisse verglichen. Es zeigte sich, dass diese modellierte atmosphärische Variabilität zum Teil deutlich größer war, als die Differenzen der Mischungsverhältnisse und so ohne eine Vielzahl von in-situ Messungen keine eindeutige Aussage zulassen. Um eine statistisch valide Aussage treffen zu können, müssen daher mehrere Messreihen innerhalb eines Monats durchgeführt werden. Zudem stellte sich heraus, dass der Monat Juni der bestmögliche Messzeitraum ist, da hier die natürliche Variabilität am geringsten ist. Zuletzt wurden die Spurengase mit vergleichsweise kleiner chemischer Lebenszeit auf normierten N2O-Isoplethen untersucht und die Verschiebung dieser Kurve zwischen den zwei Zeitpunkten analysiert. Die so gewonnenen Resultate ließen den Schluss zu, dass sich auf diese Weise die atmosphärische Variabilität reduzieren lässt und bei Nutzung mit experimentellen Daten eine zu den Tracer-Differenzen konsistente Aussage zulässt. So bestärkte diese Methode die These, dass sich der stratosphärische Transport innerhalb des 21. Jahrhunderts wahrscheinlich verstärken wird.
The Time Projection Chamber (TPC), a large gaseous detector, is the main particle identification device of the ALICE experiment at the CERN LHC. The desired performance of the TPC defines the requirements for the gas mixture used in the detector. The active volume was filled with either Ne-CO2 (90-10) or Ne-CO2-N2 (90-10-5) during the first LHC running period. For LHC Run 2 the gas mixture is changed to Ar-CO2. Calculations of relevant gas properties are performed for Ar-based gas mixtures and compared to Ne-based gas mixtures to identify the most suitable Ar mixture. The drift velocity of ions in Ar is lower than in Ne. The closing time of the gating grid has to be adjusted accordingly to avoid drift field distortions due to back-drifting ions. The drift times of ions in the TPC readout chambers are calculated for the respective gas mixtures to determine the time to collect all ions from the amplification region. For LHC Run 3 the TPC readout chambers will be upgraded. The Multiwire Proportional Chambers (MWPCs) will be replaced by readout chambers based on Gas Electron Multipliers (GEMs) which are operated in continuous mode. As a consequence an ion backflow of the order of 1% causes significant space-charge distortions in the TPC drift volume. Similar distortions are expected in data taken specifically for the study of space-charge effects at the end of Run 1. The gating grid of the MWPCs is operated in the open state allowing the ions from the amplification region to enter the drift volume. The magnitude of the distortions in this data is measured and compared to the expectations for the TPC upgrade and results from current simulations.
Der Akteurscharakter der BRICS-Staaten : eine qualitative Untersuchung mit der Grounded Theory
(2020)
Die Abschlussarbeit beschäftigt sich mit der zentralen Fragestellung: Welchen Akteurscharakter besitzen die BRICS-Staaten? Zur Beantwortung ist mit der Grounded Theory eine rekonstruktionslogische Herangehensweise gewählt worden, um das Phänomen zu untersuchen. Für den Forschungsprozess ist auf die Software MAXQDA zurückgegriffen worden. Als Ergebnis werden die BRICS-Staaten als „Kooperationsmodell der Nichteinmischung“ betitelt.
Mit einem COLTRIMS Reaktions-Mikroskop wurde die Doppelionisation von Argon durch Laserpulse gemessen, um die Energiequantisierung im Allgemeinen und den Recollision Mechanismus zu untersuchen. Mit der Abhängigkeit der Doppelionisationsrate von der Elliptizität des Lichts liegt ein starker Hinweis auf ein Modell vor, welches Rescattering beinhaltet. Außerdem ist durch die Messung der Doppelionisationsrate gewährleistet, dass in einem Intensitätsintervall gemessen wurde, welches der nicht-sequentiellen Doppelionisation zugeschrieben wird.
Recollision-Ionization scheint für die in einem bestimmten Intensitätsintervall beobachtete erhöhte Doppelionisation verantwortlich zu sein. Das sollte zu ATI-Peaks in der Summenenergie der ausgelösten Elektronen führen. Diese werden in der vorliegenden Arbeit erstmalig beobachtet. Außerdem sind nicht erwartete ATI-Peaks im Energiespektrum der einzelnen Elektronen sichtbar, welche der direkten Stoßionisation widersprechen.
Dadurch liegt der Schluss nahe, dass der Hauptmechanismus der Doppelionisation in diesem Intensitätsbereich ein anderer Effekt ist: RESI (Recollision Excitation and Subsequent Ionization). Hierbei wird zunächst das zweite Elektron beim Stoß mit dem ersten angeregt. Das erste Elektron bleibt im Kontinuum und wird durch den Laser beschleunigt. Beim nächsten Feldmaximum wird das angeregte Elektron tunnelionisiert, wodurch ebenfalls ATI-Peaks im Energiespektrum dieses Elektrons erzeugt werden.
Als mögliche Zwischenzustände werden 3s23p4(1D)4s (2D) und 3s23p4(1D)3d (2P) identifiziert, die zu dem beobachteten angeregten Endzustand 3s23p4(1D) führen.
Anisotropic collective flow of protons resulting from non-central heavy ion collisions is a unique hadronic observable providing information about the early stage of the nuclear collision. The analysis of collective flow in the energy regime between 1-2 AGeV enables the study of the phase diagram of hadronic matter at a high baryochemical potential µb, as well as the analysis of the equation of state at densities up to the threefold of the ground state density ρ0.
The algorithms of the standard event plane method and the scalar product method are used to analyse directed and elliptic flow of protons in a centrality range of 0-40 % most central events.
Prior to the analysis of experimental data, the respective influence of the reconstruction procedure on the algorithms is examined using Monte Carlo simulations based on the Ultra relativistic Quantum Molecular Dynamics (UrQMD) model.
Subsequently, experimental data measured in April 2012 with the High Acceptance DiElectron Spectrometer (HADES) is analysed using both methods. About 7.3 · 109 Au+Au events at a kinetic beam energy of 1.23 AGeV, equivalent to a centre of mass energy of √sNN = 2.42 GeV were recorded. A multi-differential analysis is feasible as the HADES detector provides a good transverse momentum and rapidity coverage.
Both algorithms result in identical values for directed and elliptic flow across all centrality classes within the observable phase space of protons. The calculated integrated value of v2 at mid rapidity is in good agreement with world data.
Im Rahmen dieser Arbeit wurde die Analyse von Dielektronen im Bereich niedriger Massen für zwei unterschiedliche Magnetfeldstärken des ALICE-L3-Magneten untersucht. Hierfür wurden zwei Arten von Simulationen, volle Simulationen und schnelle Simulationen, jeweils für die Magnetfeldeinstellungen 0, 2 T und 0, 5 T erstellt und verglichen. Zunächst wurde die Konsistenz der vollen und schnellen Simulationen anhand von Monte Carlo Truth Spektren überprüft. Es zeigte sich eine gute Übereinstimmung der invarianten Massenspektren mit Ausnahme der f-Resonanz, die in den schnellen Simulationen fast 3-mal höher lag. Dann wurden die vollen Simulationen der Magnetfeldeinstellung 0, 5 T mit ALICEMessdaten desselben Magnetfeldes verglichen. Hierbei zeigte sich, dass die Messdaten im Hinblick auf die Transversalimpulsverteilung der einzelnen Elektronen um einen Faktor 1, 2 bis 2 und im Hinblick auf die Transversalimpulsverteilung der Paare um einen Faktor 2 bis 2, 5 über den Simulationen lagen. Dies konnte zum Teil auf eine Kontamination durch Pionen zurückgeführt werden. Das Signal-Untergrund-Verhältnis war mit 0, 99 für die Simulationen 6-mal größer als das der Messdaten mit 0, 16. Die normierte Signifikanz der Simulationen von 0, 0044 lag 3,5-mal über dem Wert 0, 0012 der Messdaten. Für die schnellen Simulationen wurden die Effizienzen für einzelne Elektronen benötigt. Diese wurden mithilfe von Boxensimulationen erstellt. Es wurde zwischen den Elektronidentifikationsmethoden TOF optional und TOF required und den Magnetfeldstärken 0, 2 T und 0, 5 T unterschieden. Die Boxensimulationen ergaben, dass bei einem Magnetfeld von 0, 2 T insgesamt mehr Elektronen rekonstruiert und identifiziert werden konnten. Außerdem konnte die Analyse zu niedrigeren Transversalimpulsen hin ausgedehnt werden. Die schnellen Simulationen zeigten, dass eine Reduktion des Magnetfeldes von 0, 5 T auf 0, 2 T eine Erhöhung der Anzahl an gemessenen Paaren um einem Faktor 2, 0 für die Elektronidentifikation TOF optional und um einem Faktor 6, 0 für die Elektronidentifikation TOF required zur Folge hat. Die vollen Simulationen der Elektronidentifikation TOF optional ergaben nach Reduktion des Magnetfeldes eine Verbesserung des Signal-zu-Untergrund-Verhältnisses um 11% von 0, 98 auf 1, 11. Die Signifikanz konnte von 0, 0043 auf 0, 0060, d.h. um 40%, verbessert werden. Für die Elektronidentifikation TOF required erhielt man ein Signal-zu-Untergrund-Verhältnis von 16, 5 (0, q 2 T) und 19, 1 (0, 2 T). Jedoch war die normierte Signifikanz (sgn = sqrt((s exp 2)/2*B)* (1/sqrt(NEv)))) für das reduzierte Magnetfeld 100% höher und lag bei 0, 086, während sie für 0, 5 T einen Wert von 0, 0043 hatte. In der vorliegenden Arbeit konnte gezeigt werden, dass eine Reduktion der Magnetfeldstärke des ALICE-L3-Magneten von 0, 5 T auf 0, 2 T zu Verbesserungen in der Messung von Elektron-Positron-Paaren führt. Als Fazit kann angenommen werden, dass eine Datennahme bei einem reduzierten Magnetfeld von 0, 2 T sinnvoll erscheint.
Diese Arbeit untersucht die Perzeption der Vokale /a/, /ɐ/ und /ɐ̃/ durch deutsche erwachsene Portugiesischlerner. Ziel war herauszufinden, ob deutsche L1-Sprecher in der Lage sind, die genannten Laute zu unterscheiden, unter anderem in Abhängigkeit von ihrem Fremdsprachenniveau im EP.
Die Teilnehmer der Studie waren 27 deutsche Muttersprachler, die EP im Erwachsenenalter und zumeist an der Universität erlernen oder erlernt haben. Die Kontrollgruppe bildeten 33 portugiesische Muttersprachler. Beide Gruppen nahmen an einem Online-Perzeptionstest teil, dessen Aufbau sich an der Studie von Darcy und Krüger (2012) orientiert. Während des Tests mussten die Probanden aus einer Lautsequenz von drei einsilbigen Kunstwörtern mit der Silbenstruktur CVC dasjenige Kunstwort identifizieren, das einen anderen Vokal beinhaltete als die anderen zwei. Neben dem Perzeptionstest nahmen alle Teilnehmer an einem Einstufungstest für das EP teil, der aus einem C-Test und einem Vokabeltest bestand.
Autonomous steering of an electric bicycle based on sensor fusion using model predictive control
(2019)
In this thesis a control and steering module for an autonomous bicycle was developed. Based on sensor fusion and model predictive control, the module is able to trace routes autonomously.
The system is developed to run on a Raspberry Pi. An ultrasonic sensor and a 2D Lidar sensor are used for distance measurements. The vehicle’s position is determined by using GPS signals. Additionally, a camera is used to capture pictures for the roadside detection. In order to recognize the road and the position of the vehicle on it, computer vision techniques are used. The captured images are denoised, Canny edge detection is performed and a perspective transformation is applied. Thereafter a sliding window algorithm selects the edges belonging to the roadside and a second order polynomial is fitted to the selected data. Based on this, the road curvature and the lateral position of the vehicle on the road are calculated. The implemented software is thus able to detect straight and curved roads as well as the vehicle’s lateral offset.
A route planning module was implemented to navigate the vehicle from the start to the destination coordinates. This is done by creating an abstract graph of the roads and using Dijkstra’s algorithm to determine the shortest path.
Four MPC controllers were implemented to control the movements of the vehicle. They are based on state space equations derived from the linear single-track vehicle model. This relatively straightforward model makes it possible to predict the vehicle behavior and is efficient to compute. Each controller was built with different parameters for different vehicle speeds to account for the non-linearity of the system. The controllers simulate the future states of the system at each timeslot and select appropriate control signals for steering, throttle and brakes.
In this thesis, all the components of the steering and control module were individually validated. It was established that the each individual component works as expected and certain constraints and accuracy limits were identified. Finally, the closed loop capabilities of the system were assessed using a test vehicle. Despite some limitations imposed by this setup, it was shown that the control module is indeed capable of autonomously navigating a vehicle and avoiding collisions.
"Spielen und Sich-Bewegen sind elementare kindliche Bedürfnisse. Als positive Lebensäußerungen fördern sie Gesundheit und Wohlbefinden. Sie unterstützen die psychomotorische, emotionale und soziale Entwicklung und tragen zur Ausbildung kognitiver Strukturen bei. Durch Spiel und Bewegung macht das Kind Erfahrungen seiner selbst: Es erprobt Bewegungs- und Handlungsabläufe, lernt, sich einzuschätzen und erlebt eigenes Können und seine Grenzen. Im gemeinsamen Tun mit anderen Kindern entwickeln sich seine Kooperations- und Kommunikationsfähigkeit." (Hessisches Kultusministerium, 1995, S. 20)
In diesem Auszug aus dem Rahmenplan für den Sportunterricht in hessischen Grundschulen werden dem Sporttreiben neben gesundheitsfördernden vor allem charakterbildende Eigenschaften zugeschrieben. Laut der "Charta des Deutschen Sports" zählt Sport sogar zu den "nicht austauschbare[n] Faktoren der Bildung" und als wichtiger Baustein "zur Entfaltung der Persönlichkeit" (zit. nach Singer, 1986, S. 295). Damit werden hohe Erwartungen an die sportliche Betätigung von Kindern formuliert, die von einer gesamtheitlichen Förderung der individuellen Entwicklung durch die Partizipation am Sport ausgehen und ein geradezu lobpreisendes Bild von Bewegungspraktiken zeichnet.
Dass auch die Welt des Sports ihre negativen Seiten hat, ist nicht von der Hand zu weisen. Ein Blick in die Tageszeitung genügt, um über aktuelle Doping- und Korruptionsvorwürfe rund um Olympische Spiele, Manipulationsverdächtigungen gegenüber Schiedsrichtern oder gar staatlichen Einrichtungen oder randalierende und sich prügelnde Fangruppen informiert zu werden. Diese Thematiken lassen sich von der internationalen Bühne herunterbrechen bis auf den heimischen Fußballplatz vor der Haustür. Gerade auf diesem haben sich in den vergangenen Jahren, man darf mittlerweile gar von Dekaden sprechen, Szenen ereignet, die den im oben angestellten Zitat mit dem Sport verbundenen Ansprüchen nicht gerecht werden.
Gerade im Amateur- und Breitensportbereich des Fußballs ist im Allgemeinen eine rauere Atmosphäre wahrzunehmen, die sich nicht zuletzt in Spielabbrüchen und physischen Auseinandersetzungen äußert und sich nicht auf den Seniorenspielbetrieb beschränkt, sondern gar Junioren- und Kinderspiele umfasst. Diese ausgemachten Tendenzen waren letztendlich ausschlaggebend für die von Ralf Klohr, damals selbst als Nachwuchstrainer aktiv, 2007 vollzogene Gründung der "Fair-Play-Liga", die den angesprochenen Entwicklungen entgegenwirken und das Bildungspotenzial des Sports wieder mehr in den Vordergrund rücken und schützen soll. Die jüngsten Fußballinteressierten, also Kinder ab 4 Jahren, spielen dort nach modifizierten Regeln, die zur Erfüllung ihrer altersentsprechenden Bedürfnisse beitragen und diese sicherstellen sollen. Mittlerweile ist das Konzept deutschlandweit im Einsatz und eine etablierte Organisationsform des Kinderfußballs, mit der Klohr (2018) die "nglaubliche Kraft im Fußball" bemühen und diese über eine dem Straßenfußball ähnliche, aber nach seinen Vorstellungen verbesserte Herangehensweise zurückholen will:
"Ich sehe die Fair-Play-Liga mit Trainer als eine Qualitätssteigerung zum ‚alten‘ Bolzplatz. Ich sehe die Fair-Play-Liga als ‚modernen‘ Bolzplatz. Die Trainer haben in erster Linie einen Betreuungsauftrag. Auf dem modernen Bolzplatz können sie dafür sorgen, dass alle Kinder gerecht behandelt, also nicht, benachteiligt, werden."
Ebenso wie an den Schulsport sind an die Fair-Play-Liga durch ihre Selbstdefinition einige Erwartungen geknüpft. Die vorliegende Masterthesis macht es sich zum Ziel herauszuarbeiten, inwiefern die Initiative ihren eigens auferlegten Ansprüchen gerecht wird, welche Interaktionsverhältnisse sie hervorbringt und was sie im Sinne eines "Vermittlers" bestimmter Wertvorstellungen im Stande ist zu leisten.
Dafür soll zunächst einmal aufgezeigt werden, was dem Sport generell im Sinne eines Fairnessbegriffs und der damit verknüpften Werte tatsächlich an "Übermittlerpotenzial" innewohnt sowie was über das Fairnessverständnis von Kindern und Jugendlichen bekannt ist (Kapitel 2). Im Anschluss daran werden das vom Deutschen Fußball-Bund (DFB) verfolgte Ausbildungskonzept, die Grundmerkmale und Ziele der Fair-Play-Liga und bereits diesbezüglich durchgeführte Untersuchungen vorgestellt (Kapitel 3), ehe die eigenen Fragestellungen der Forschungsarbeit dargelegt werden (Kapitel 4).
Nach einer Beschreibung des methodischen Vorgehens in seiner Theorie und Praxis (Kapitel 5) folgen die Zusammenführung der im Forschungsprozess erzeugten Resultate und die daran anknüpfende Thesenbildung (Kapitel 6). In der anschließenden Diskussion sollen die Ergebnisse hinsichtlich ihrer Relevanz und ihrer Genese bewertet und interpretiert werden (Kapitel 7), sodass in einem letzten Schritt sowohl Handlungs- und Verbesserungsvorschläge gebündelt und Anregungen für weitere empirische Arbeiten gegeben werden können.