Universitätspublikationen
Refine
Year of publication
Document Type
- Master's Thesis (81) (remove)
Language
- German (81) (remove)
Has Fulltext
- yes (81)
Is part of the Bibliography
- no (81)
Keywords
- Beschleunigerphysik (2)
- E-Learning (2)
- Erwachsenenbildung (2)
- Experiment (2)
- Ionenstrahl (2)
- Konstruktion (2)
- Lehren mit neuen Medien (2)
- Lehrerbildung (2)
- Lernen mit neuen Medien (2)
- Mediendidaktik (2)
Institute
- Physik (41)
- Gesellschaftswissenschaften (11)
- Mathematik (6)
- Informatik und Mathematik (4)
- Erziehungswissenschaften (3)
- Neuere Philologien (3)
- Sportwissenschaften (3)
- Psychologie (2)
- Biochemie und Chemie (1)
- Geographie (1)
Das Buch im Buch als Archiv
(2022)
Die Masterarbeit von Svenja Blumenrath mit dem Titel "Das Buch im Buch als Archiv" ist eine interdisziplinäre Zusammenführung von Literaturwissenschaft und Archivstudien. Anhand von sieben ausgewählten kinder- und jugendliterarischen Werken analysiert die Autorin die Funktion des Buches im Buch als Archiv für die erzählte Welt. Die Ergebnisse zeigen, dass das Buch im Buch nicht nur als narrative Struktur dient, sondern auch als Archiv fungiert, das Erinnerungen und Wissen bewahren, aber auch verwehren kann. Diese Erkenntnisse bieten neue Einblicke in die Verbindung von Literatur und Archivwesen.
Das Staatsangehörigkeitsrecht verankert rechtlich Vorstellungen über Zugehörigkeit und bestimmt wer vollumfängliche Rechte in einer Gesellschaft hat und wer nicht. Jahrzehntelang wurde Migration in Deutschland als etwas temporäres betrachtet. Im Staatsangehörigkeitsrecht galt bis zur Reform 1999/2000 weitgehend das „ius sanguinis“, das Abstammungsrecht, das auf einem rassistischen und völkischen Staatsverständnis beruht. Diese Reform bedeutete somit mehr als eine reine Gesetzesänderung. Sie war eine Anerkennung Deutschlands als Einwanderungsland und die Veränderung der Vorstellung deutscher Identität. Als Reaktion entbrannte infolge der Reformpläne eine hitzige, rassistische Debatte in der Öffentlichkeit über ebendiese Fragen, die unter dem polarisierten Schlagwort „Doppelpass“ verhandelt wurde. Es war die lauteste migrationspolitische Debatte dieser Zeit.
Kurze Zeit vor Beginn dieser Debatte war die rechtsterroristische Gruppe „Nationalsozialistischer Untergrund“ (NSU) abgetaucht, um einem Haftbefehl zu entgehen. Der NSU war ein deutsches, neonazistisches Netzwerk, in dessen Mittelpunkt drei Terrorist*innen standen. Sie verübten über einen Zeitraum von zwölf Jahren eine rassistische Mordserie an neun Personen türkischer, kurdischer und griechischer Herkunft sowie drei Sprengstoffanschläge auf migrantische Orte und ermordeten eine Polizistin. Den ersten ihrer Sprengstoffanschläge begingen sie nur einen Monat nach der Unterzeichnung der Reform. Wenige Monate nach dem Inkrafttreten des Gesetzes begannen sie mit dem Anschlag auf Enver Şimşek ihre rassistische Mordserie.
Diese Arbeit untersucht anhand der Struktur der Historisch-Materialistischen Politikanalyse das Migrationsregime um die Staatsangehörigkeitsreform von 1999/2000 und wie der NSU darin verortet werden kann.
Die Kontextanalyse stellt auf der Grundlage einer Literaturrecherche die relevanten historischen und strukturellen Faktoren der Debatte sowie des NSU dar. Im nächsten Schritt werden mithilfe einer Analyse von Zeitungsartikel aus dieser Zeit die relevanten Akteur*innen identifiziert und in die vier Hegemonieprojekte neoliberal, sozial, linksliberal-alternativ und konservativ gruppiert. Darauffolgend wird der Ablauf der Debatte in vier Phasen darstellt und als Aushandlung der vier Hegemonieprojekte rekonstruiert. Dabei zeigt sich, dass kein Projekt sich vollumfänglich durchsetzen und Hegemonie erreichen konnte, sie jedoch unterschiedlich stark in den Medien repräsentiert wurden.
Im letzten Schritt betrachtet diese Arbeit Verbindungen dieser Migrationsregime-Analyse zum NSU. Sie kommt zu dem Ergebnis, dass der NSU kein Akteur im Migrationsregime um die Staatsangehörigkeitsdebatte von 1998/99 war. Aufgrund der geringen Erkenntnisse über spezifische Meinungen des NSU zum Staatsangehörigkeitsrecht, können keine kausalen Beziehungen hergestellt werden. Dennoch zeigt diese Arbeit Gemeinsamkeiten in den Weltbildern, Annahmen und migrationspolitischen Zielen des NSU, des konservativen Hegemonieprojektes sowie Teilen der Bevölkerung auf. Dadurch wird ein Beitrag dazu geleistet den NSU als Produkt und Teil der deutschen Gesellschaft zu begreifen.
Under pressure? : "Querdenken" - Kollektivierung als Praxisproblem einer Bewegung unter Druck
(2021)
Die vorliegende Arbeit untersucht eine lokale Telegram-Chatgruppe der Corona-Protestbewegung „Querdenken“ hinsichtlich deren Kollektivierungspraktiken. Das Erkenntnisinteresse liegt darin, zu untersuchen, wie die Gruppe in einer Zeit, in der durch häufige Demonstrationsverbote hoher Druck von außen auf sie einwirkt, Gemeinschaft herstellt. Analysiert werden dabei symbolische Grenzziehungspraktiken sowie die Mobilisierung leerer Signifikanten und – um einen Blick auf Kollektivierung als Praxisproblem zu werfen – die Konflikte, die innerhalb der Gruppe herrschen. Dabei zeigt sich eine antagonistische Identitätskonstitutionslogik, die sich anhand der privilegierten Signifikanten Demokratie vs. Diktatur konstituiert. Diese entwickeln ihre identitätsstiftende Kraft vor allem in der Attribution zu verschiedenen Subjektpositionen, von denen ‚die Politik‘ die zentrale Abgrenzungsposition für die Querdenker*innen darstellt. Weiterhin zeigt sich, dass die strategischen Konflikte, die aus dem Druck von außen resultieren, kontextabhängig gleichermaßen zersetzende wie integrative Kräfte entwickeln.
Ausgehend von Scheffers Beschreibung Existentieller Probleme untersucht die Masterarbeit die Problembehandlung solcher. Dabei versucht sich der Autor an einer vorläufigen Begriffsdefinition Existentieller Apparate und untersucht im folgenden, wie sich diese von der Arbeitsweise, ihrer Struktur und anderer Merkmale von herkömmlichen Apparaten unterscheiden. Die Diskussion erfolgt anhand der Problembearbeitungskapazitäten von der Flüchtlingshilfe auf Lesbos, Impfzentren und der Fridays-for-Future-Bewegung, die jeweils für Sich genommen speziell nur im Kontext jeweiliger Existentieller Probleme existieren.
The thesis delves into two research questions, drawing from the 2022 Final Report of the Colombian Truth Commission. It critically examines historical power differentials originating from the colonial period, probing their role in legitimizing and perpetuating violence against ethnic groups, women, and individuals diverging from cisgender or heteronormative norms within Colombian society. Additionally, the research explores the pervasive influence exerted by the colonial legacy on the foundational structures of Colombian societal organization. Employing discourse analysis as its methodological approach, the thesis undertakes the task of deconstructing and reconstructing the Report, thereby elucidating emergent and contingent discursive meanings that situate coloniality within the realms of cognition, language, and affect. Emphasizing the presence of counter-hegemonic knowledge within the Report, the thesis integrates its findings into a robust theoretical and conceptual framework, facilitating a nuanced and systematic comprehension of the underlying causes of violence perpetrated against marginalized groups and the environment. These causes are intricately linked to the intertwined and hybridized power structures that have endured since the colonial era.
Power structures of Eurocentric origin, alongside mental constructs imposed by European invaders over centuries — such as anthropocentrism, racism, internal colonialism, heteropatriarchy, cisnormativity, and classism — were gradually naturalized and institutionalized within Colombian society. This process has been perpetuated through the state's reproduction of these patterns since the inception of Colombia as a nation-state. Consequently, hierarchical discursive constructions, posited as universal and self-evident, have marginalized certain groups and justified environmental degradation. While the internal armed conflict exacerbated these issues, it did not create them; rather, it intensified pre-existing violences, targeting individuals, communities, and their territories.
The thesis also underscores the portrayal of otherness within the modern-colonial world-system, rooted in principles of domination and subalternity, perpetuating colonial patterns of thought and action, reinforcing the hegemonic cosmovision. Notions of superiority and inferiority that predate the establishment of the Colombian nation-state have influenced social categories, subject positions, and identities, resulting in disproportionate, differential, and cumulative harm inflicted upon subalternized population groups. This contributes to a culture of 'justified' violence.
The research underscores the profound entrenchment of coloniality in the structures of Colombian society and the various inherent logics of violence within its conflicts. Coloniality, a comprehensive framework encompassing colonial patterns of thought and action, originating from the invasion and conquest of Abya Yala, continuously shapes the contemporary realities of societies in diverse (re-)configurations, leaving indelible imprints. The effects of these dynamics are manifold, ranging from the imperative of monogamous sexuality according to Judeo-Christian principles as a self-evident norm to the view of nature as a resource rather than a unit comprising both people and environment. In other words, colonial patterns are deeply embedded in all structures of society. A key recommendation emerging from this thesis is to underscore the imperative to recognize and question the persistence of colonial patterns in social and individual lives.
The research urges recognition and interrogation of these persistent colonial patterns in societal and individual structures, advocating for transformative paradigms that challenge conventional thought patterns and foster self-reflection among Colombians. The report, functioning as a political instrument, holds the potential to significantly contribute to the formation of subjectivities that break away from the epistemic schemes of modernity/coloniality. The research and its findings create a political space for questioning the universalist notion of the Eurocentric civilizing project, the scientific rationality of the universal subject, and the presumed neutrality of its forms of knowledge. This opens avenues for questioning, disputing, and transforming entrenched paradigms.
Die Arbeit befasst sich mit einer Vereinfachung des von Devroye (1999) geprägten Begriffs der random split trees und verallgemeinert diesen im Sinne von Janson (2019) auf unbeschränkten Verzweigungsgrad. Diese Verallgemeinerung deckt auch preferential attachment trees mit linearen Gewichten ab, wofür ein Beweis von Janson (2019) aufbereitet wird. Zusätzlich bleiben die von Devroye (1999) nachgewiesenen Eigenschaften über die Tiefe der hinzugefügten Knoten erhalten.
Ziel der Simulationsstudien in dieser Arbeit war es, die Leistungsfähigkeit des Transition Radiation Detectors zur Identifikation von leichten Kernen und Hyperkernen im CBM-Experiment zu untersuchen. Die Trennung von Helium und Deuterium
mithilfe ihres spezifischen Energieverlustes im TRD ist zentral, um eine Rekonstruktion des seltenen Hyperkerns 6 ΛΛHe mit einem hohen Signal-zu-Untergrund-Verhältnisse zu leisten. Zur Erfüllung der Anforderungen, die sich aus dem CBM-Forschungsprogramm ergeben, wird eine Auflösung des Energieverlustes dEdx von Helium von höchstens 30 % verlangt...
Das CBM-Experiment konzentriert sich auf die Untersuchung der Eigenschaften des Quark-Gluon-Plasmas bei hohen Netto-Baryonendichten und moderaten Temperaturen. An der zukünftigen Beschleunigeranlage FAIR an der GSI findet das Experiment, neben vielen anderen Experimenten, ihren Platz. Der TRD ist, neben dem RICH, STS und TOF, einer der zentralen Detektoren im CBM-Experiment. Der TRD nutzt dabei den physikalischen Effekt der Übergangsstrahlung, die durch ein geladenes Teilchen beim Durchqueren einer Grenze zweier Medien mit unterschiedlichen Dielektrizitätskonstanten mit einer gewissen Wahrscheinlichkeit entsteht, um Elektronen von Pionen trennen zu können. Im Jahr 2017 wurde an der DESY 4 TRD-Prototypen in einer Teststrahlzeit getestet. Dabei handelt es sich um große TRD-Module mit den Maßen 95 · 95 cm2 , was dem finalen Design sehr nahe kommt. Die Untersuchung der DESY-Daten in Kapitel 5 brachte große Problematiken in den Daten zum Vorschein. Die Hauptprobleme der DESY-Daten sind: 1) Bug des SPADIC-Chips 2.0, bei der FN-Trigger zeitlich verschoben wurden; 2) schwache und suboptimale Trigger-Bedingung, wodurch sehr viel Rauschen aufgenommen wurde. Die Daten müssen für weitere Auswertung aufbereitet werden, wobei sehr viel Information und Statistik verloren geht, da einige Daten durch diverse Probleme nicht mehr rekonstruierbar sind. Kapitel 6 beschäftigt sich mit der Simulation der Detektorantwort und geht genauer auf die einzelnen Schritte, die zur Simulation des vom SPADIC erzeugten Pulses benötigt werden, ein. Am Ende werden Ergebnisse aus beiden Datensätzen miteinander verglichen. Um einen optimalen Vergleich zu gewähren, wird die Simulation bestmöglich an die Einstellungen in der Teststrahlzeit angepasst. Hauptsächlich geht es um die Erhöhung des Gasgains und der Verschiebung der Peaking-Zeit des Pulses. Im Allgemeinen können wir in der Simulation einige Effekte, die auch in den DESY-Daten vorkommen, nachsimulieren. Wir erhalten zum Teil sehr unterschiedliche Ergebnisse in der Simulation, deren Richtigkeit nicht verifiziert werden kann, da die Daten aufgrund der Probleme unzuverlässig werden. Durch die Analyse der DESY-Daten konnten wir die Problematik in den Daten besser verstehen. Eine sinnvolle Anpassung der Simulation wird durch die Unzuverlässigkeit der DESY-Daten unmöglich. Für die Optimierung der Simulation müsste man einen Vergleich mit neueren, zuverlässigeren Daten aus zukünftigen Teststrahlzeiten nehmen.
Bei der Bekleidungsmodellierung geht es um den Entwurf von Bekleidung von Personen, die beispielsweise in Szenen dargestellt werden können. Dabei stützt sich der Entwurf auf Informationen aus einer Datengrundlage. Die Darstellung von Szenen, in denen Personen dargestellt werden, stellt sich grundsätzlich als Zusammenspiel komplexer Teilaspekte dar. Dabei wird die Nachvollziehbarkeit einer modellierten Szene oder modellierter Avatare im Auge des Betrachters ganz wesentlich durch den Faktor passend gewählter Kleidung bestimmt.
In dieser Arbeit werden Ansätze und Verfahren vorgestellt, die zur Bekleidungsmodellierung auf Grundlage von Textdokumenten basieren. Dafür werden Möglichkeiten erörtert, die es erlauben Informationen aus Texten zu extrahieren und für die Modellierung einzusetzen.
Zur Bearbeitung der Aufgabenstellung wird zunächst ein aus dem Machine Learning bekanntes kontextuelles Modell hinsichtlich einer Mehrklassen-Klassifizierung trainiert und angewendet. Daraufhin wird die Erstellung einer eigenen Wissensressource, die sich auf textlicher Ebene mit dem Thema der Bekleidung auseinandersetzt, aufgebaut und mit zahlreichen Informationen aus bereits bestehenden Ressourcen popularisiert. Die neue Ressource wird in Form einer Graphdatenbank entworfen. Dabei werden Relationen zwischen den einzelnen Elementen mithilfe von statischen Modellen sowie einem kontextuellen Modell, dem BERT-Modell, erstellt. Schließlich wird auf Grundlage der entwickelten Graphdatenbank ein in der Programmiersprache Python entwickeltes Programm vorgestellt, dass Eingabetexte unter Hinzunahme der Informationen und Relationen innerhalb der Graphdatenbank verarbeitet und Kleidungsstücke detektiert.
Nach der theoretischen Aufarbeitung der entwickelten Ansätze werden die daraus resultierenden Ergebnisse diskutiert und bestehende Problematiken bei der Bearbeitung der Aufgabenstellung angesprochen. Abschließend wird die Arbeit zusammengefasst und Anregungen für die weitere Bearbeitung dieser Thematik vorgestellt.
Der Akteurscharakter der BRICS-Staaten : eine qualitative Untersuchung mit der Grounded Theory
(2020)
Die Abschlussarbeit beschäftigt sich mit der zentralen Fragestellung: Welchen Akteurscharakter besitzen die BRICS-Staaten? Zur Beantwortung ist mit der Grounded Theory eine rekonstruktionslogische Herangehensweise gewählt worden, um das Phänomen zu untersuchen. Für den Forschungsprozess ist auf die Software MAXQDA zurückgegriffen worden. Als Ergebnis werden die BRICS-Staaten als „Kooperationsmodell der Nichteinmischung“ betitelt.
Diese Masterarbeit fragt nach Anschlussmöglichkeiten der Schriften Bruno Latours an die Postwachstumsdiskussion an der Friedrich-Schiller-Universität Jena. Im ersten Schritt wird die Jenaer Debatte um Degrowth in der Tradition der kritischen Theorie verortet und inhaltlich anhand der Begriffe der »Wachstumskritik« und der »sozial-ökologischen Transformation« rekonstruiert. Zweitens folgt die Rekonstruktion Latours anhand dreier Werkphasen seit Anfang der 90ger Jahre. Im dritten Schritt geht es darum, Latour mit der Jenaer Debatte ins Gespräch zu bringen. Dabei stößt der Autor auf einen sozial-theoretischen Graben zwischen beiden Denkschulen. Das darf allerdings nicht darüber hinwegtäuschen, dass Latours Werke viele praktische Anknüpfungspunkte bereithalten, wie eine sozial-ökologische Transformation im Sinne der Postwachstumsdebatte gelingen kann.
Die Arbeit befasst sich mit zwei funktionalen Grenzwertsätzen für skalierte Linienzählprozesse von anzestralen Selektionsgraphen. Dazu werden zwei Modelle aus der mathematischen Populationsgenetik betrachtet. Wir führen zuerst das Moran-Modell mit gerichteter Selektion mit konstanter Populationsgröße N in kontinuierlicher Zeit und den Linienzählprozess des anzestralen Selektionsgraphen (MASP) gemäß Krone und Neuhauser (Theor. Popul. Biol. 1997) ein. Die Hauptaussage dieser Abschlussarbeit besagt, dass der passend standardisierte MASP im Fall der moderaten Selektion für N gegen unendlich in Verteilung gegen einen Ornstein-Uhlenbeck-Prozess konvergiert. Das zweite betrachtete Modell ist das Cannings-Modell mit gerichteter Selektion in diskreter Zeit, das gemäß Boenkost, González Casanova, Pokalyuk und Wakolbinger (Electron. J. Probab. 2021) eingeführt wird. Für ein Teilregime der moderat schwachen Selektion wird bewiesen, dass die reskalierten Fluktuationen des Linienzählprozesses des anzestralen Selektionsgraphen im Cannings-Modell ebenfalls in Verteilung gegen einen Ornstein-Uhlenbeck-Prozess konvergieren.
Die folgende Arbeit handelt von einer Text2Scene Anwendung, welche in der Virtual Reality (VR) umgesetzt wurde. Das System ermöglicht es den Usern aus einer Beschreibung einer Szene, diese virtuell nachzustellen. Dies bietet eine neue Art der Interaktion mit einem Text, die die visuelle Komponente hervorhebt und somit eine Geschichte auf neue Wege erfahrbar macht.
Dazu kann der User einen fertigen Text entweder vom Server zu laden oder einen eigenen erstellen, der dann automatisch verarbeitet wird. Dabei werden die vorhanden physischen Objekte im Text automatisch erkannt und dem User als 3D-Objekte in der virtuellen Umgebung zur Verfügung gestellt. Diese können dann manuell platziert werden und erzeugen dadurch die Szene, die im Ausgangstext beschrieben wurde. Das Ziel der Textverarbeitung ist eine möglichst genaue Beschreibung der Objekte, damit diese zielgerichtet in der Objektdatenbank gesucht werden können.
Bei der Textverarbeitung wird besonderer Wert auf das Erkennen von Teil-Ganz Beziehungen gelegt. Sodass Objekte, die im Text vorkommen und ein Holonym besitzen, automatisch mit diesem verknüpft werden. Gleichzeitig wird die Teil-Ganz Beziehung aber auch in die andere Richtung genauer betrachtet. Die Textverarbeitung soll ferner dazu in der Lage sein, Objekte genauer zu spezifizieren und an den Kontext des Textes anzupassen. Weiterhin wurde das Natural Language Processing (NLP) so ausgebaut, dass der Kontext des Textes erkannt wird und die Objekte entsprechend kategorisiert werden. Die Textverarbeitung wird mithilfe eines Neuronalen Netzes implementiert. Die verwendeten Tools zur Erkennung von Teil-Ganz Beziehungen, Kontext und Spezifikation von Objekten wurden anhand von Texteingaben nach der Genauigkeit der Ausgabe evaluiert.
Zur Nutzung der Textverarbeitung wurde eine virtuelle Szene entwickelt, die das Erstellen von eigenen Szenen aus vorher geladenen beziehungsweise eingegebenen Texten ermöglicht.
Dazu kann der Nutzer manuell oder automatisch Objekte laden lassen, die er dann platzieren kann.
Jede Gesellschaft oder Gemeinschaft wird von ihrer historischen Geschichte beeinflusst. Die gewachsenen Ansichten, Umgangsweisen und Strategien sind die Basis für die Weiterentwicklung jedes Gemeinwesens. Das Museum ist ein Ort der offenen und kritischen Auseinandersetzung mit dieser Geschichte und deren Wirkungen auf die Gegenwart. Es ist somit eine bildungspolitische Einrichtung, die aufgrund dieser gesellschaftlichen Aufgabe ihre besondere Bedeutung und Existenzberechtigung erhält. Museen sind in jeder Kultur und Gesellschaft ein wesentlicher Ort für die Fragen: Wo kommen wir her? Was verbindet uns? Besonderes in einer jungen Nation, die ihre Unabhängigkeit erst 1991 erlangt hat, ist eine Auseinandersetzung mit diesen Fragen dringend und wichtig.
Die Arbeit schlägt einen weiten Bogen vom Allgemeinen zum sehr Speziellen. Sie beginnt mit einer Darstellung der wichtigen Ansätzen und Studien zur Besucherforschung in Museen allgemein. Dabei wird nicht nur der Wandel in den Ansprüchen des Publikums aufgezeigt, sondern auch die Veränderungen der Konzeption und der Repräsentation der Museen selbst. Einen Schwerpunkt legt die Arbeit auf den Aspekt des Erzählens - das bedeutet, etwas sichtbar zu machen, was nicht offensichtlich ist: Kontexte, Reflexionen und Bezüge. Die Bedeutung der Kommunikation zwischen dem Museum und seinen Besuchern wurde in der Ethnologie bisher eher vernachlässigt.
PROTACs sind ein Teil der nächsten Generation von pharmazeutischen Wirkstoffen und bieten einen komplett neuen Ansatz, um mit kleinen Molekülen in biochemische Signalwege einzugreifen. PROTACs adressieren hierbei sowohl das Zielprotein als auch den E3-Ligase-Komplex und bewirken die Degradation des Zielproteins. Insbesondere in der Behandlung von bestimmten Krebsarten zeigen PROTACs einen neuen vielversprechenden Ansatz. Durch Inhibition der 5-LO mit bekannten Inhibitoren wie Zileuton® oder CJ-13,610 konnte der Weiterentwicklung von Leukämie, auch bekannt als Blutkrebs, entgegen gewirkt werden, aber nicht aufgehalten werden. Hier sollen als neue Methode PROTACs eingesetzt werden, um der Überexpression der 5-LO in Leukämiezellen durch Degradation entgegenzuwirken.
Mit HK330 und CJ-13,610 als Leitstruktur wurden 17 PROTACs erfolgreich synthetisiert und charakterisiert.
Das Konflikterleben von Schiedsrichtern im Amateurfußball : eine empirisch-qualitative Arbeit
(2020)
Bei der Austragung von Amateurfußballspielen nehmen Schiedsrichter die Rolle von Beobachtern ein, die bei Konflikten selbst zu Betroffenen werden können. Dabei treten auch extreme Formen wie Beleidigungen und Diskriminierungen sowie physische und psychische Gewalt auf. Anliegen der Masterthesis „Das Konflikterleben von Schiedsrichtern im Amateurfußball“ ist es, die Wahrnehmung von Schiedsrichtern in Bezug auf Konflikte im Amateurfußball empirisch-qualitativ zu erfassen und bisherige Forschungsansätze zu erweitern. Grundlage der Arbeit bilden vom Autor geführte problemzentrierte Interviews mit hessischen Unparteiischen, deren Auswertung neue Perspektiven im Gewaltdiskurs des Amateurfußballs anbietet.
In den letzen 30 bis 40 Jahren sind Kommunen verstärkt dazu übergegangen die in ihrem Besitz befindlichen Flächen zu verkaufen und so ihre kommunalen Gestaltungsspielräume zu verlieren. Diese Privatisierungspolitik der „unternehmerischen Stadt“ hat verkannt, dass Boden für Kommunen ein endliches und essentielles Gut ist, welches nicht vermehrt werden kann.
Gerade in den lokalen Räumen der Kommunen wird der Kampf um den begrenzten Boden besonders sichtbar. Das Alltagsleben der Menschen wird dadurch bestimmt, ob Boden im Privateigentum ist und vorrangig der Kapitalvermehrung dient oder ob Boden ein gesellschaftliches Gemeingut ist. Die Privatisierung neoliberaler Kommunalpolitik hat – entgegen der Erwartungen – weder das Leben in den Städten besser noch günstiger gemacht. Die Kosten für Mieten und die privatisierten Leistungen aus Daseinsvorsorge sind in den letzten Jahrzehnten extrem gestiegen. Letztere wurden z. T. auch verkleinert oder vollkommen aufgegeben, wie z. B. der öffentliche Nahverkehr in ländlichen Räumen oder die Schließungen von Kultureinrichtungen, Jugendzentren oder Schwimmbädern.
Auf diese Phase neoliberaler Bodenpolitik ist zunehmend eine polanyische Gegenbewegung zu beobachten, die für den sozial-ökologischen Schutz eintritt. Die Menschen in den Kommunen wollen und können diese Entwicklung nicht weiter hinnehmen. Und auch die Lokalpolitik schwenkt z. T. um, indem sie Forderungen der Rekommunaliserung und sozialverträglicher Mieten unterstützt.
Trotz dieser progressiven Entwicklungen ist gerade die Vergabe von Gewerbeflächen nach wie vor durch ein neoliberales Paradigma der Standortkonkurrenz und Austerität geprägt. In diesem Sinne muss die Vergabe von Boden zuallererst ökonomisch sinnvoll sein. Andere Aspekte werden oft ausgeklammert, da sie unter Finanzierungsvorbehalt stehen. Diese Vergabepraxis ist quasi alternativlos und damit postpolitisch. Obwohl diese Entscheidungen die Kommunen langfristig prägen, werden soziale und ökologische Aspekte der ökonomischen Frage untergeordnet. Die Berücksichtigung von Gemeinwohlaspekten, die sich in einem Kriterienkatalog zur Gewerbeflächenvergabe wiederfinden können, bietet Kommunen die Möglichkeit, eine andere – gemeinwohlorientierte – Handlungsrationalität einzunehmen. Die Entscheidungsgrundlage für die Gewerbeflächenvergabe würden mit solchen Kriterien grundlegend neu justiert werden, da sie nicht mehr auf rein ökonomischen, sondern auf sozialen und ökologischen Werten beruht.
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie eine gemeinwohlorientierte Gewerbeflächenvergabe gestaltet werden kann, indem sie die kommunalen Handlungsspielräume erweitert und so einen Beitrag für eine sozial-ökologische Gegenbewegung zur neoliberalen Kommunalpolitik leistet. Sie kommt zu dem Ergebnis, dass für eine kommunale sozial-ökologische Transformation die Wirtschaft wieder stärker in die Gesellschaft eingebettet werden muss (Polanyi 1944). Eine dementsprechende Gewerbeflächenvergabe setzt daher auf die Dekommodifizierung der Flächen, d. h. sie fördert öffentliche und kollektive Eigentumsformen. Außerdem fördert sie kollektive sozial-ökologische Nutzungsformen der Flächen, die dem Gemeinwohl der Bewohner*innen in der Region dienen. Zur Umsetzung könnten Kommunen Gemeinwohl-Kriterien zur Gewerbeflächenvergabe aufstellen. In der vorliegenden Arbeit wird hierzu ein möglicher Kriterienkatalog entwickelt.
Die vorliegende Arbeit liefert ein Versatzstück zu grundlagentheoretischen Überlegungen im Themenfeld Gesundheit. Dabei wird der Fokus insbesondere auf wissenschaftstheoretische, -soziologische und sozialpsychologische Reflektionen der gesundheitsbezogenen Diskurslandschaft im wissenschaftlichen Bereich gelegt. Diese werden nach gesellschaftsdiagnostischen Anteilen der Arbeit in reflektierter Art und Weise in einen diskursiven Vorschlag überführt, der wiederum für Gesundheit im universitären Setting wegweisend sein kann.
Im Blickpunkt der Arbeit steht die Historiografie der Unternehmungen Friedrich I. Barbarossas 1154-1158 in der Lombardei. Während der hochgebildete Bischof Otto von Freising ein reges Forschungsinteresse darstellt, sind seine beiden Zeitgenossen, die eigenständige Berichte über die Ereignisse verfassten, in der Forschung weitestgehend unberücksichtigt geblieben. Durch einen Vergleich der 'Gesta' Bischofs Otto von Freising, des 'Libellus' des Lodesen Otto Morena und der 'Narratio' eines anonymen Schreibers aus Mailand zeigt diese Arbeit die Absichten der Autoren auf und fragt, inwieweit die sich widersprechenden Schilderungen als "alternativen Fakten" aufgefasst werden können.
Nach einem Abriss über den Begriff der "alternativen Fakten", dem im Zuge der Präsidentschaft von Donald Trump Aufmerksamkeit zuteilwurde und der hier als unbewusst oder bewusst erfolgte Verformung verstanden wird, der neuzeitlichen Rezeption Barbarossas sowie einer zeitlichen und räumlichen Einordnung werden die "Ausgangslagen" der Autoren betrachtet. Die Entstehung der 'Gesta' und ihr Verhältnis zu Ottos erstem Werk sind umstritten. Es zeigt sich, dass die Positionen Ottos von Freising und Otto Morenas kaiserfreundliche, diejenige des Mailänders Autors eine kaiserfeindliche Absicht erwarten lassen.
Eine kleinteilige Betrachtung der Vorworte/Prologe der Werke offenbart die selbst geäußerten Absichten. Die Anlehnung der 'Gesta' Ottos von Freising an einen durch oder im Auftrag Barbarossas verfassten Tatenbericht sowie seine Lobpreisungen des Kaisers stellen eine Färbung der Darstellung in Aussicht. Auch bei Otto Morena zeigt sich eine starke Verbundenheit zum Kaiser, die Zweifel an der Neutralität seines Werkes aufkommen lassen muss. Der anonyme Autor aus Mailand bekennt ausdrücklich, zum Nutzen der Nachwelt zu schreiben und reiht die Zerstörung Mailands 1162 als Endpunkt einer weitzurückreichenden Opfernarrative ein. Auch wenn ausdrückliche Ausfälle gegen den Kaiser unterbleiben, sind starke Zweifel an einer neutralen Darstellung angezeigt.
Die Beschäftigung mit den Ereignissen des Jahres 1154 zeigt "alternative" Darstellungen: Die Darstellung Ottos von Freising hält sich an die kaiserliche Vorlage und ist im Sinne des Kaisers gehalten, was sich auch bei Otto Morena zeigt, der darüber hinaus die Rolle Lodis betont. Die Mailänder "Gegendarstellung" hingegen lastet negative Ereignisse ausschließlich Barbarossa an.
Otto von Freising betont die lange geplante Kaiserkrönung in Rom und den Feldzug gegen die Normannen als Ausgangspunkt des ersten Italienzuges. Otto Morena legt den Beginn des Disputs zwischen Barbarossa und den Mailändern auf die Versammlung des Hofes in Konstanz, wo Klagen zweier Lodesen Anlass zu Friedrichs erstem Italienzug gegeben hätten. Der Anonymus aus Mailand wirft Barbarossa vor, mit dem Ziel der militärischen Unterwerfung aufgebrochen zu sein.
Otto von Freising übernahm die Darstellung Barbarossas von einem Bestechungsversuch der Mailänder, deren Konsuln anschließend seinen Zug durch verödete Landschaften geführt hätten, was auch Otto Morena zu berichten weiß. Der Mailänder Schreiber verschweigt dies und erzählt stattdessen von Misshandlungen der Mailänder durch das königliche Gefolge. Die Erstürmung der Burg Rosate stilisiert er als unbegründeten Gewaltakt, während die Schreiber aus Lodi und Freising rechtfertigend argumentieren.
Die unabhängig überlieferte 'Conventio', die 1158 nach der Belagerung Mailands zwischen der Stadt und dem Kaiser geschlossen wurde, beinhaltete neben Strafbestimmungen die Anerkennung der Hoheit des Kaisers unter Wahrung der kommunalen Herrschaftsform. Während Otto Morena ihre Bestimmungen nur höchst unvollständig wiedergab, sodass der Schluss naheliegt, dass er sie nicht kannte, lieferte der Mailänder Anonymus durch gezielte Auslassungen und Verfälschung ihrer Bestimmungen erneut "alternative Fakten" und erweckte den Anschein einer Rückkehr zu den "kaiserfernen" Jahren vor Barbarossa.
Bei genauer Betrachtung der auf dem Hoftag von Roncaglia 1158 festgestellten 'lex omnis iurisdictio' wird deutlich, dass diese entgegen der bisherigen Forschungsmeinung keinen Bruch der 'Conventio' darstellte. Eine Konfrontation der Darstellungen der Ereignisse im Januar 1159 in Mailand mit dem Augenzeugenberichts Vinzenz' von Prag zeigt, dass Otto Morena erneut nur knapp berichtet. Der Anonymus hingegen liefert eine "alternative" Darstellung, nach der die Gesandten des Kaisers gekommen waren, um das Recht zu brechen. Diese Tendenziösität wird auch bei der Einnahme der Burg Trezzo deutlich, über die ein Bericht von Ottos einstigem Kaplan Rahewin vorliegt.
Die Darstellungen offenbaren, dass ihre Autoren ihre Texte gezielt einzusetzen gedachten und so zu Produzenten "alternativen Fakten" wurden. Für den Historiker zeigt sich einmal mehr die Wichtigkeit einer quellenkritischen Arbeitsweise, wie sie Johannes Fried in seiner "Memorik" eindrucksvoll vertrat.
Die Arbeit widmet sich der bisher wenig beachteten Demokratietheorie des neoliberalen Ökonomen und Sozialphilosophen Friedrich Hayeks. In seiner Ablehnung des Prinzips der Volkssouveränität scheint es Hayek nicht in erster Linie um die Kritik des demokratischen Elements zu gehen, sondern vielmehr um die moderne Idee staatlicher Souveränität schlechthin. Es ist folglich die Idee der Rechtssouveränität, so die grundlegende These, auf der Hayek seine doppelte Kritik von Naturrecht und Rechtspositivismus gründet. Entprechend ist der Staat in der von Hayek gezeichneten Utopie nicht länger Souverän, Ausdruck, Grund oder Herrscher (in) der Gesellschaft, sondern bloßes Mittel, um die "spontanen Ordnungen" der Gesellschaft (und der Märkte) zu schützen, ohne durch Gesetzgebung planen, gestalten oder intervenieren zu wollen. Allein solches, an den "Nomos" gebundenes, staatliches Handeln könne (und muss!) der "Meinung" der Menschen entsprechen. Die Klärung dieses sehr speziellen und auf David Hume zurückgehenden Verständnisses von "Meinung" erlaubt schließlich, das Denken Hayeks nicht nur hinsichtlich seines Souveränitätsbegriffs, sondern auch hinsichtlich seines Demokratiebegriffs vom Denken Carl Schmitts abzugrenzen. Entgegen dem prägenden Diskurs nach Cristi und Scheuerman, der die Kritik der hayekschen Theorie über die Problematisierung ihres schmittschen Gehalt unternimmt, soll die Arbeit den Blick dafür schärfen, dass der in Hayeks Theorie angelegte Autoritarismus auf eigenen philosophischen Füßen steht und sich nicht erschöpfend aus einem bewusst oder unbewusst übernommenen schmittschen Erbe erklären lässt.
Diese Arbeit untersucht die Perzeption der Vokale /a/, /ɐ/ und /ɐ̃/ durch deutsche erwachsene Portugiesischlerner. Ziel war herauszufinden, ob deutsche L1-Sprecher in der Lage sind, die genannten Laute zu unterscheiden, unter anderem in Abhängigkeit von ihrem Fremdsprachenniveau im EP.
Die Teilnehmer der Studie waren 27 deutsche Muttersprachler, die EP im Erwachsenenalter und zumeist an der Universität erlernen oder erlernt haben. Die Kontrollgruppe bildeten 33 portugiesische Muttersprachler. Beide Gruppen nahmen an einem Online-Perzeptionstest teil, dessen Aufbau sich an der Studie von Darcy und Krüger (2012) orientiert. Während des Tests mussten die Probanden aus einer Lautsequenz von drei einsilbigen Kunstwörtern mit der Silbenstruktur CVC dasjenige Kunstwort identifizieren, das einen anderen Vokal beinhaltete als die anderen zwei. Neben dem Perzeptionstest nahmen alle Teilnehmer an einem Einstufungstest für das EP teil, der aus einem C-Test und einem Vokabeltest bestand.
Jürgen Habermas und Talal Asad zählen zu den bedeutendsten Protagonisten des Diskurses um die postsäkulare Gesellschaft. In der vorliegenden Arbeit unternehme ich eine vergleichende Lektüre zentraler Schriften beider Autoren. Dabei versuche ich, möglichst präzise zu beschreiben, wie Habermas und Asad einen neuen Blickwinkel auf die Verhältnisbestimmung von Religion und Gesellschaft in der Gegenwart freigeben und plausibilisieren.
Einen zentralen Stellenwert schreibe ich der Tatsache zu, dass hierfür von beiden der Begriff der ‚Übersetzung‘ herangezogen wird. Ziel der Untersuchung ist es folglich, erste systematisierende Vorstöße bezüglich des Begriffspaars ‚Religion übersetzen‘ zu leisten. Dabei gilt es ein Bündel an Forschungsfragen zu beantworten: Wie wird der Begriff der Übersetzung verstanden? In welcher Art und Weise kommt Religion im Werk der Autoren zur Sprache? Auf welche Aspekte der Religion soll sich die Übersetzungsleistung beziehen? Wer sind die Subjekte dieser Übersetzung? Und schließlich, welche Chancen und Probleme bringen die beiden Ansätze für eine politiktheoretische Perspektive auf religiös-gesellschaftliche Fragestellungen mit sich?
"Spielen und Sich-Bewegen sind elementare kindliche Bedürfnisse. Als positive Lebensäußerungen fördern sie Gesundheit und Wohlbefinden. Sie unterstützen die psychomotorische, emotionale und soziale Entwicklung und tragen zur Ausbildung kognitiver Strukturen bei. Durch Spiel und Bewegung macht das Kind Erfahrungen seiner selbst: Es erprobt Bewegungs- und Handlungsabläufe, lernt, sich einzuschätzen und erlebt eigenes Können und seine Grenzen. Im gemeinsamen Tun mit anderen Kindern entwickeln sich seine Kooperations- und Kommunikationsfähigkeit." (Hessisches Kultusministerium, 1995, S. 20)
In diesem Auszug aus dem Rahmenplan für den Sportunterricht in hessischen Grundschulen werden dem Sporttreiben neben gesundheitsfördernden vor allem charakterbildende Eigenschaften zugeschrieben. Laut der "Charta des Deutschen Sports" zählt Sport sogar zu den "nicht austauschbare[n] Faktoren der Bildung" und als wichtiger Baustein "zur Entfaltung der Persönlichkeit" (zit. nach Singer, 1986, S. 295). Damit werden hohe Erwartungen an die sportliche Betätigung von Kindern formuliert, die von einer gesamtheitlichen Förderung der individuellen Entwicklung durch die Partizipation am Sport ausgehen und ein geradezu lobpreisendes Bild von Bewegungspraktiken zeichnet.
Dass auch die Welt des Sports ihre negativen Seiten hat, ist nicht von der Hand zu weisen. Ein Blick in die Tageszeitung genügt, um über aktuelle Doping- und Korruptionsvorwürfe rund um Olympische Spiele, Manipulationsverdächtigungen gegenüber Schiedsrichtern oder gar staatlichen Einrichtungen oder randalierende und sich prügelnde Fangruppen informiert zu werden. Diese Thematiken lassen sich von der internationalen Bühne herunterbrechen bis auf den heimischen Fußballplatz vor der Haustür. Gerade auf diesem haben sich in den vergangenen Jahren, man darf mittlerweile gar von Dekaden sprechen, Szenen ereignet, die den im oben angestellten Zitat mit dem Sport verbundenen Ansprüchen nicht gerecht werden.
Gerade im Amateur- und Breitensportbereich des Fußballs ist im Allgemeinen eine rauere Atmosphäre wahrzunehmen, die sich nicht zuletzt in Spielabbrüchen und physischen Auseinandersetzungen äußert und sich nicht auf den Seniorenspielbetrieb beschränkt, sondern gar Junioren- und Kinderspiele umfasst. Diese ausgemachten Tendenzen waren letztendlich ausschlaggebend für die von Ralf Klohr, damals selbst als Nachwuchstrainer aktiv, 2007 vollzogene Gründung der "Fair-Play-Liga", die den angesprochenen Entwicklungen entgegenwirken und das Bildungspotenzial des Sports wieder mehr in den Vordergrund rücken und schützen soll. Die jüngsten Fußballinteressierten, also Kinder ab 4 Jahren, spielen dort nach modifizierten Regeln, die zur Erfüllung ihrer altersentsprechenden Bedürfnisse beitragen und diese sicherstellen sollen. Mittlerweile ist das Konzept deutschlandweit im Einsatz und eine etablierte Organisationsform des Kinderfußballs, mit der Klohr (2018) die "nglaubliche Kraft im Fußball" bemühen und diese über eine dem Straßenfußball ähnliche, aber nach seinen Vorstellungen verbesserte Herangehensweise zurückholen will:
"Ich sehe die Fair-Play-Liga mit Trainer als eine Qualitätssteigerung zum ‚alten‘ Bolzplatz. Ich sehe die Fair-Play-Liga als ‚modernen‘ Bolzplatz. Die Trainer haben in erster Linie einen Betreuungsauftrag. Auf dem modernen Bolzplatz können sie dafür sorgen, dass alle Kinder gerecht behandelt, also nicht, benachteiligt, werden."
Ebenso wie an den Schulsport sind an die Fair-Play-Liga durch ihre Selbstdefinition einige Erwartungen geknüpft. Die vorliegende Masterthesis macht es sich zum Ziel herauszuarbeiten, inwiefern die Initiative ihren eigens auferlegten Ansprüchen gerecht wird, welche Interaktionsverhältnisse sie hervorbringt und was sie im Sinne eines "Vermittlers" bestimmter Wertvorstellungen im Stande ist zu leisten.
Dafür soll zunächst einmal aufgezeigt werden, was dem Sport generell im Sinne eines Fairnessbegriffs und der damit verknüpften Werte tatsächlich an "Übermittlerpotenzial" innewohnt sowie was über das Fairnessverständnis von Kindern und Jugendlichen bekannt ist (Kapitel 2). Im Anschluss daran werden das vom Deutschen Fußball-Bund (DFB) verfolgte Ausbildungskonzept, die Grundmerkmale und Ziele der Fair-Play-Liga und bereits diesbezüglich durchgeführte Untersuchungen vorgestellt (Kapitel 3), ehe die eigenen Fragestellungen der Forschungsarbeit dargelegt werden (Kapitel 4).
Nach einer Beschreibung des methodischen Vorgehens in seiner Theorie und Praxis (Kapitel 5) folgen die Zusammenführung der im Forschungsprozess erzeugten Resultate und die daran anknüpfende Thesenbildung (Kapitel 6). In der anschließenden Diskussion sollen die Ergebnisse hinsichtlich ihrer Relevanz und ihrer Genese bewertet und interpretiert werden (Kapitel 7), sodass in einem letzten Schritt sowohl Handlungs- und Verbesserungsvorschläge gebündelt und Anregungen für weitere empirische Arbeiten gegeben werden können.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
Gabor lenses were invented for focusing hadron beams by the electric field of a confined electron column. A homogenous magnetic field created by a solenoid confines electrons in transverse direction while a potential well created by a cylindrical electrode system confines them longitudinally.
In this thesis the investigation and characterization of a nonneutral electron plasma (NNP) in a Gabor lens with a toroidal magnetic confinement and a 30 degree-bent anode is presented. Motivated by fundamental research on NNPs in this special environment, diagnostic methods were investigated to characterize the plasma. As a non-invasive method a PCO camera is placed in front of the experimental setup. A ring of 31 photodiodes is used inside the plasma for light intensity and distribution measurements. The experimental data is evaluated and the following results will be presented.
Die vorliegende Arbeit befasst sich damit, wie die spezifische Durchführung eines besonderen psychologischen Laborexperiments in eine allgemeine, kausale Form übersetzt wird. Anstatt dazu formale Kriterien der Validität heranzuziehen, wird ein experimenteller Forschungsprozess ethnographisch begleitet.
Forschungsgegenstand ist ein Verhaltensexperiment aus der allgemeinen Psychologie zur Trainierbarkeit des Arbeitsgedächtnisses. Im Rahmen der Ethnographie werden teilnehmende Beobachtungen, Interviews und Dokumentensammlung kombiniert eingesetzt. Die Auswertung der Materialien erfolgt mithilfe der Situationsanalyse nach Clarke (2012), einer qualitativen Auswertungsmethode im Anschluss an die Grounded Theory.
In dieser Arbeit wird das Verhalten der Versuchsperson ins Zentrum gerückt, das die Messung in Gang setzt und hält und die Entstehung von zahlenförmigen Daten ermöglicht. Dazu wird in Orientierung an neueren Science & Technology Studies eine begriffliche Systematisierung der Experimentalpraxis aus dem empirischen Material herausgearbeitet, mit dem die Konstruktion und Transformation des Verhaltens der Versuchsperson im Verlauf des Datenerhebungs- Auswertungs- und Interpretationsprozesses beschrieben werden kann.
Die Ergebnisse der Ethnographie legen nahe, dass dieses Verhalten der Versuchsperson - korrespondierend zum kausal verfassten Endprodukt des Experiments - von der komplexen Erhebungssituation abhängig und paradoxerweise gleichzeitig unabhängig ist. Damit wird in Anlehnung an Latour (2002) zwischen konstruktivistischen und objektivistischen Positionen vermittelt. Zudem weisen die erforschten Praktiken die epistemische Stellung der Versuchsperson aus. Diese wird im Anschluss an die Terminologie von Rheinberger (2001/ 2006) als Mischform von epistemischem Ding (Neues) und technischem Ding (Bekanntes) bestimmt.
Die vorliegende Arbeit befasst sich damit, wie die spezifische Durchführung eines besonderen psychologischen Laborexperiments in eine allgemeine, kausale Form übersetzt wird. Anstatt dazu formale Kriterien der Validität heranzuziehen, wird ein experimenteller Forschungsprozess ethnographisch begleitet.
Forschungsgegenstand ist ein Verhaltensexperiment aus der allgemeinen Psychologie zur Trainierbarkeit des Arbeitsgedächtnisses. Im Rahmen der Ethnographie werden teilnehmende Beobachtungen, Interviews und Dokumentensammlung kombiniert eingesetzt. Die Auswertung der Materialien erfolgt mithilfe der Situationsanalyse nach Clarke (2012), einer qualitativen Auswertungsmethode im Anschluss an die Grounded Theory.
In dieser Arbeit wird das Verhalten der Versuchsperson ins Zentrum gerückt, das die Messung in Gang setzt und hält und die Entstehung von zahlenförmigen Daten ermöglicht. Dazu wird in Orientierung an neueren Science & Technology Studies eine begriffliche Systematisierung der Experimentalpraxis aus dem empirischen Material herausgearbeitet, mit dem die Konstruktion und Transformation des Verhaltens der Versuchsperson im Verlauf des Datenerhebungs- Auswertungs- und Interpretationsprozesses beschrieben werden kann.
Die Ergebnisse der Ethnographie legen nahe, dass dieses Verhalten der Versuchsperson - korrespondierend zum kausal verfassten Endprodukt des Experiments - von der komplexen Erhebungssituation abhängig und paradoxerweise gleichzeitig unabhängig ist. Damit wird in Anlehnung an Latour (2002) zwischen konstruktivistischen und objektivistischen Positionen vermittelt. Zudem weisen die erforschten Praktiken die epistemische Stellung der Versuchsperson aus. Diese wird im Anschluss an die Terminologie von Rheinberger (2001/ 2006) als Mischform von epistemischem Ding (Neues) und technischem Ding (Bekanntes) bestimmt.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Das Ziel dieser Arbeit ist die Untersuchung der stratosphärischen Meridionalzirkulation mit Hilfe von chemisch aktiven Spurengasen. Diese motiviert sich durch die Tatsache, dass der Klimawandel neben den viel erforschten Auswirkungen auf die Troposphäre, auch Reaktionen in der Stratosphäre zur Folge hat, welche bisher weit weniger tiefgehend untersucht wurden. Das macht die Stratosphäre zu einem aktuellen und frequentierten Forschungsgebiet der experimentellen und theoretischen Meteorologie. Neben vereinzelten hochaufgelösten in-situ Messungen und globalen Satellitendaten sind es hier vor allem globale numerische Klima-Chemiemodelle, die für Analysen genutzt werden. Für diese Arbeit wurden Daten des EMAC-Modells (engl.: ECHAM/MESSy Atmospheric Chemistry) ausgwertet, welche im Rahmen der ESCiMo (engl.: Earth System Chemistry integrated Modelling) Initiative vom MESSy-Konsortium (engl.: Modular Earth Submodel System) erstellt wurden. Die Zielsetzung dieser Arbeit war, ob sich etwaige Änderungen des stratosphärischen Transports anhand von modellierten, chemisch aktiven, idealisierten Spurengasen feststellen lassen. Idealisiert bedeutet hierbei, dass diese Gase ein konstantes Mischungsverhältnis am Erdboden aufweisen und den identischen chemischen Prozessen unterliegen wie die realistischen Tracer. Dies hat zur Folge, dass diese Spurengase somit nicht in das Strahlungsbudget des Modells rückkoppeln und ihre Verteilung nicht durch zeitliche troposphärische Trends beeinflusst wird. Zur Analyse des stratosphärischen Transports wurden die Differenzen der monatlich gemittelten Mischungsverhältnisse zweier Zeitpunkte der verschiedenen Substanzen im Vertikalprofil betrachtet und ausgewertet, wobei hier die photolytische Lebenszeit und die Zeitskala des Transports zu berücksichtigen war. Um die Saisonalität von Transport und Chemie zu berücksichtigen, wurden dazu die Monate März, Juni, September und Dezember analysiert.
Die Resultate zeigten, dass chemisch aktive Substanzen in der Tat geeignet sind Änderungen in der Dynamik festzustellen. So stellte sich heraus, dass mit einer allgemeinen Intensivierung der stratosphärischen Meridionalzirkulation im kommenden Jahrhundert gerechnet werden kann, wobei hiervon besonders die untere Stratosphäre betroffen ist. Eine Differenzierung welche Komponente der Zirkulation (Residualtransport oder bidirektionale quasi-horizontale Mischung) hierbei von übergeordneter Bedeutung ist, konnte nicht spezifiziert werden. Um abzuschätzen, ob sich die Änderung der Zirkulation durch Änderungen in den Mischungsverhältnissen von chemisch aktiven Substanzen mit Hilfe von direkten Messungen nachweisen lässt, wurde die atmosphärische Variabilität des Modells bestimmt und mit den Veränderungen dieser Mischungsverhältnisse verglichen. Es zeigte sich, dass diese modellierte atmosphärische Variabilität zum Teil deutlich größer war, als die Differenzen der Mischungsverhältnisse und so ohne eine Vielzahl von in-situ Messungen keine eindeutige Aussage zulassen. Um eine statistisch valide Aussage treffen zu können, müssen daher mehrere Messreihen innerhalb eines Monats durchgeführt werden. Zudem stellte sich heraus, dass der Monat Juni der bestmögliche Messzeitraum ist, da hier die natürliche Variabilität am geringsten ist. Zuletzt wurden die Spurengase mit vergleichsweise kleiner chemischer Lebenszeit auf normierten N2O-Isoplethen untersucht und die Verschiebung dieser Kurve zwischen den zwei Zeitpunkten analysiert. Die so gewonnenen Resultate ließen den Schluss zu, dass sich auf diese Weise die atmosphärische Variabilität reduzieren lässt und bei Nutzung mit experimentellen Daten eine zu den Tracer-Differenzen konsistente Aussage zulässt. So bestärkte diese Methode die These, dass sich der stratosphärische Transport innerhalb des 21. Jahrhunderts wahrscheinlich verstärken wird.
Für balancierte, irreduzible Pólya-Urnen-Modelle sind Grenzwertsätze für die normalisierte Anzahl von Kugeln einer Farbe bekannt. Für eine spezielle Urne, deren Dynamik mit "Randomised-Play-the-Winner Rule" bezeichnet wird, werden im Rahmen der bekannten Grenzwertsätze Konvergenzraten in Wasserstein-Metriken und in der Kolmogorov-Metrik im Falle eines nicht-normalverteilten Grenzwerts hergeleitet.
Lernmodule wie Web Based Trainings (WBT) sind eine Methode um eLearning Inhalte anzubieten. Web Based Trainings basieren per Definition auf dem Word Wide Web (WWW). Durch die Entwicklung des Web zum Web 2.0 sind für Benutzer neue Möglichkeiten entstanden am Web teilzunehmen. Dadurch wurde auch das eLearning beeinflusst. In dieser Arbeit werden die Innovationen für den Autorenprozess von Web Based Trainings betrachtet. Ihre Nützlichkeit soll anhand dem Autorensystem LernBar deutlich gemacht werden. Die Analyse weiterer Autorensysteme verdeutlicht den aktuellen Stand. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer web-basierten LernBar verwendet. Das Konzept für Web 2.0 Based Training beschreibt den neuen Autorenprozess in der LernBar. Das neue Konzept ermöglicht Flexibilität, die zu neuen Einsatzszenarien führt. Schwierigkeiten in der Umsetzung werden diskutiert.
Optimierung der Rekonstruktionsparameter zur Messung von Quarkonia im zentralen ALICE Detektor
(2011)
Seit den ersten Kollisionen im November 2009 läuft der LHC am CERN und dringt in noch nie dagewesene Energiebereiche vor. Die Schwerionenkollisionen innerhalb des ALICE Detektors sollen Aufschluss über die stark wechselwirkende Materie und ihre verschiedenen Phasen geben. Dem liegt die Untersuchung des Quark-Gluon-Plasmas zugrunde. Eine Signatur des Quark-Gluon-Plasmas ist die Rate von produzierten Quarkonia. Diese zerfallen in Leptonenpaare und sind damit zu identifizieren.
In der vorliegenden Arbeit wird diese Rate zur Messung von Quarkonia aufgegriffen und untersucht. Bei der Untersuchung der Simulation durch die Selektion der e++e--Paare, die ausschließlich aus einem J/y stammen, lässt sich ein Massenspektrum produzieren, das im Rahmen dieser Arbeit genauer betrachtet wurde. Durch die genaue Untersuchung der Bremsstrahlung und deren Lokalisierung lässt sich zeigen, dass besonders der ITS ein hohes Maß an Bremsstrahlungsprozessen mit sich bringt, was auf die große Materialanhäufung zurückzuführen ist. Um dies näher zu untersuchen, wurde das Augenmerk auf den ITS gelegt. Eines der wichtigsten Merkmale, die den Bremsstrahlungsprozess beschreiben, ist der Energieverlust. Durch die Bethe-Heitler-Funktion lässt sich der gesamte Detektor nur bedingt beschreiben. Erst die Betrachtung, die sich mit einer Einschränkung auf den ITS und den Azimutwinkel beschäftigt, zeigt eine genaue Beschreibung durch die Parameter der Funktion.
Nach der genauen Beschreibung der Bremsstrahlung wurden verschiedene Methoden entwickelt, in denen die Bremsstrahlungsprozesse innerhalb des invarianten Massenspektums der e++e--Paare ausgeschnitten werden können. Die Methoden der Selektion durch die Anzahl der Spurpunkte sowie die Selektion durch die Position der Spurpunkte zeigen, dass bereits minimale Selektionen ein sehr gutes Signal ergeben. Durch den Vergleich mit den herkömmlichen Selektionen SPDany und SPDfirst, zeigt sich, dass hierbei viel Signal verloren geht und diese Methode für bestimmte Analysen optimiert werden kann.
Durch die Anwendung auf die Datensätze, die während einer Strahlzeit im Jahr 2010 genommen wurden, bestätigte sich die Vermutung. Durch die Selektion von SPDany wird das Signal reduziert. Vergleicht man die Anzahl der Einträge im Signalbereich durch die Reduktion der Teilchen ohne Spurpunkte im ITS (NITSpunkten>0) zu der Anzahl der Einträge durch SPDany, ergibt dies eine Verminderung von bis zu 40%. Die Ursache für den großen Verlust innerhalb des Signalbereichs wird zusätzlich verstärkt, indem der SPD durch Kühlungsprobleme ausgeschaltet ist.
Eine weitere Methode, die untersucht wurde, war die Reduktion der Auswirkungen von Bremsstrahlung mit Hilfe der Kinkanalyse. Diese Methode ließ keine qualitativen Rückschlüsse auf die Analyse der Bremsstrahlung zu.
Dennoch zeigt das Ergebnis, dass das Signal von J/y’s in Proton-Proton Kollisionen um mehr als 40% mehr Einträge verbessert werden kann und sich dieses Prinzip nicht nur theoretisch in den simulierten Daten niederschlägt sondern auch in den untersuchten Datensätzen. Nun gilt es, diese Methode auch in anderen Studien einzubauen, um so eine alltagstaugliche Überprüfung der Erkenntnisse zu gewährleisten.
Das Compressed Baryonic Matter Experiment (CBM) wird im Rahmen der Facility for Antiproton and Ion Research (FAIR) entwickelt, um das Phasendiagramm stark wechselwirkender Materie vorwiegend im Bereich hoher Dichte ausgiebig zu studieren. Dazu sollen Kollisionen schwerer Ionen durchgeführt werden und die Reaktionsprodukte mit hoher Präzision in Teilchendetektoren gemessen und identfiziert werden. Eine wichtige Aufgabe besteht in der Unterscheidung von Elektronen und Pionen, zu der ein Übergangsstrahlungszähler (Transition Radiation Detector) beiträgt. Übergangsstrahlung wird im relevanten Impulsbereich dieser Teilchen nur von Elektronen emittiert und soll im Detektor registriert werden.
In der vorliegenden Arbeit wird die Entwicklung dieses Detektors auf Basis von Vieldrahtproportionalkammern (Multiwire Proportional Chamber ) hauptsächlich anhand von Simulationen diskutiert, aber auch erste Testmessungen eines Prototypen vorgestellt. Der Schwerpunkt der Simulationen eines einzelnen Detektors liegt in der Untersuchung der Effiienz in Abhängigkeit seiner Dicke.
Der Übergangsstrahlungszähler für CBM wird aus mehreren Detektorlagen bestehen. Daher wird außerdem die Effizienz des Gesamtsystems analysiert, indem verschiedene Methoden zur Kombination der einzelnen Signale angewendet werden. Darüber hinaus wird die Effizienz des verfolgten Detektorkonzepts in Abhängigkeit des Radiators, der Anzahl der Detektorlagen, sowie des Teilchenimpulses präsentiert.
In dieser Arbeit wurde die Leistungsfähigkeit des neuen Inner Tracking System (ITS) in Bezug auf die Messung von Spektren der invarianten Masse von Dielektronpaaren im Rahmen des ALICE Experiments am LHC ausgewertet. Zu Beginn der Planungen zum zukünftigen ITS wurden zwei verschiedene Designmöglichkeiten in Betracht gezogen: Auf der einen Seite ein ITS, welches die Möglichkeit zur Teilchenidentifizierung mittels spezifischem Energieverlust pro Wegstrecke bietet und auf der anderen Seite ein ITS welches diese Möglichkeiten nicht hat. Es wurde untersucht, ob es zukünftig möglich sein wird aus der Steigung des Spektrums der invarianten Masse von Dileptonen zwischen 1,1 GeV/c2 < Mee < 2,0 GeV/c2 direkt die Temperatur des Quark-Gluon-Plasmas zu extrahieren. Weiterhin wurde geprüft welches der beiden Systeme diese Aufgabe besser erfüllt.
Das neue ITS bietet gegenüber dem alten ITS Vorteile, die in dieser Analyse genutzt wurden. Zuerst, siehe Abschnitt 3.4, wurde ein zweidimensionaler Schnitt auf den Öffnungswinkel und die invariante Masse angewandt um Elektronen und Positronen aus Dalitzzerfällen und Photonkonversionen zu identifizieren und für die folgende Analyse zu verwerfen. Hierzu wurde die verbesserte Spurfindungseffizienz hin zu kleinen Transversalimpulsen ausgenutzt, um die Anzahl an zu kombinierenden Teilchen und damit die Wahrscheinlichkeit richtige Paare zu finden, zu erhöhen. Allerdings können Teilchen, welche nur im ITS nachgewiesen werden können, nicht zweifelsfrei (ITSPID), beziehungsweise gar nicht (ITSnoPID) identifiziert werden. Die Simulationen ergeben, dass ein zukünftiges ITS mit der Möglichkeit zur Teilchenidentifizierung leicht bessere Werte in der Signifikanz und im Verhältnis von Signal zu Untergrund liefern kann.
Die verbesserte Vertexfindung wird zur Reduktion des Beitrags durch Elektronen und Positronen aus semileptonisch zerfallenden D-Mesonen (Abschnitt 3.4.4) ausgenutzt.
Die Elektronen und Positronen, welche nach den Schnitten in der Stichprobe blieben, wurden verwendet um den Untergrund zu simulieren (Abschnitt 3.4.5). Daraufhin wurde die Signifikanz und das Verhältnis von Signal zu Untergrund berechnet. Mit diesen Informationen (Abschnitt 3.5.3) wurde ein Spektrum der invarianten Masse von Dileptonen mit der zu erwartenden Anzahl von 2,5 · 109 zentralen Blei-Blei-Kollisionen erzeugt. Dies führt zu den in Abschnitt 3.5.4 gezeigten Spektren. Nach Abzug der Beiträge durch die semileptonischen D-Meson Zerfälle und durch den hadronischen Cocktail ist noch der zu erwartende Beitrag durch die thermische Strahlung (Abschnitt 1.5) im Spektrum vorhanden. Eine Parametrisierung dieser Kurve ergibt die Temperatur des Quark-Gluon-Plasmas.
Der Unterschied der ermittelten Messwerte der Temperatur zwischen dem zukünftigen ITS mit Teilchenidentifizierung und ohne ist gering (Abschnitt 3.5.5). Die Messung ergibt keine signifikanten Unterschiede zwischen beiden ITS Entwürfen. Aufgrund dieses Ergebnisses kann man sagen, dass für die Messung von Dileptonen im Niedrigmassenbereich keine ITS PID notwendig ist. In den mittlerweile veröffentlichten ITS Technical Design Report sind die Ergebnisse dieser Studie eingeflossen. Es wurde beschlossen, dass der ITSnoPID umgesetzt wird.
Da in der Run 3 Periode des CERN LHC die Kollisionsrate auf 50 kHz erhöht werden soll, muss die ALICE TPC umgebaut werden. Die Vieldrahtproportionalkammern mit Sperrgitter sollen gegen eine GEM-basierte Auslese ausgetauscht werden, um eine kontinuierliche Auslese zu ermöglichen.
Es wurde eine GEM-Testkammer, die mit drei und vier GEM-Folien betrieben werden kann, entwickelt und gebaut. GEM-Folien wurden unter dem Mikroskop auf Fehler untersucht und auf ihre Spannungsfestigkeit hin getestet sowie gerahmt und in die Kammer eingesetzt. Mit der fertigen kleinen TPC mit GEM-basierter Auslese wurden IBF und Energieauflösung gemessen. Ziel der Messungen war es, einen möglichst geringen IBF von unter 1 % zu erhalten, um so wenig wie möglich Feldverzerrungen im Driftvolumen der TPC zu erhalten, bei gleichzeitig guter Energieauflösung von mindestens 12 %, um eine gute Teilchenidentifikation in der TPC sicherzustellen.
Da standard GEM-Konfigurationen mit nur drei GEM-Folien zwar eine gute Energieauflösung, jedoch zu viel IBF aufweisen, wurden die Messungen hauptsächlich mit vier GEM-Folien durchgeführt. Es wurden zwei verschiedene Arten von GEM-Folien verwendet, Standard (S) und Large-Pitch (LP) GEM-Folien, die bei einem Großteil der Messungen in der S-LP-LP-S-Konfiguration angeordnet waren.
Es wurde festgestellt, dass sich IBF und Energieauflösung gegenläufig verhalten, bei besser werdendem IBF also die Energieauflösung schlechter wird und umgekehrt.
Es wurden zwei verschiedene Gasmischungen, Ne-CO2-N2 (90-10-5) und Ar-CO2 (90-10), untersucht. Mit Neon wurde bei einem Gain von 2000 gemessen, mit Argon nur bei einem Gain von 1000, da bei Argon die Anzahl der produzierten Elektronen pro cm etwa doppelt so groß ist.
Der IBF war mit beiden Gasmischungen etwa gleich groß. Die Energieauflösung war mit Argon jedoch aufgrund des niedrigeren Gains erheblich schlechter. Mit Ne-CO2-N2 (90-10-5) gelang es, einen Arbeitspunkt mit einer Energieauflösung von etwa 12 % und einem IBF von unter 1 % zu finden, mit Ar-CO2 (90-10) war dies jedoch nicht der Fall.
In dieser Arbeit wurde der mittlere Transversalimpuls 〈pT〉 für nicht identifizierte, geladene Hadronen in pp und Pb–Pb Kollisionen bestimmt. Dazu wurden die pT -Spektren mit verschiedenen Funktionen bis pT = 0 extrapoliert. Die 〈pT〉 -Abhängigkeit wurde sowohl für die Anzahl der gemessen Teilchen nacc , als auch für die Anzahl der geladene Spuren nch gezeigt. Im Rahmen der Zentralitätsabhängigkeit wurde für periphere Ereignisse (70% bis 80 %) 〈pT〉 = 550, 1MeV/c gemessen. Der mittlere Transversalimpuls steigt bis auf 〈pT〉 = 628, 9MeV/c für Zentralitäten von 5% - 20% und verringert sich dann auf 〈pT〉 = 626, 8MeV/c für die zentralsten Kollisionen (0% - 5%) ab. Der Vergleich zu pp und Pb–Pb Kollisionen zeigte Gemeinsamkeiten für niedrige Multiplizitäten und ein sich unterscheidendes Verhalten für höhere Multiplizitäten.
Neben der Bestimmung der systematischen Unsicherheiten ist ein nächster Schritt die Unterscheidung zwischen hadronischer und elektromagnetischer Wechselwirkung für geringe Multiplizitäten in Pb–Pb Kollisionen. Eine Möglichkeit zur Unterscheidung wurde bereits mit Hilfe des ZDC gezeigt [Opp11]. Ebenfalls die Unterschiede zwischen pp und Pb–Pb betrifft eine Untersuchung der 〈pT〉 -Entwicklung für Jets und den sie umgebenden Hintergrund.
Eine allgemeine Erweiterung der Analyse stellt die Untersuchung von 〈pT〉 für identifizierte Teilchen da. Diese Analyse würde vor allem die besonderen PID Fähigkeiten von ALICE nutzen und könnte die schon beobachteten Unterschiede der NA49 Kollaboration[NA499] bei höheren Energien untersuchen
In der vorliegenden Arbeit wurden Messungen zur Plasmadynamik eines Lorentz-Drift- Beschleunigers (LDB) durchgeführt. Dieser basiert auf einer koaxialen Elektrodengeometrie. Bei einem Überschlag führt der entstehende Stromfluss zu einemMagnetfeld, sodass die gebildeten Ladungsträger durch die resultierende Lorentzkraft beschleunigt werden. Es hat sich gezeigt, dass die Abhängigkeit von Durchbruchspannung und Druck dem charakteristischen Verlauf einer Paschenkurve folgt.
Die Strom-Spannungs-Charakteristik des Versuchsaufbaus wurde in Konfigurationen mit und ohne Funkenstrecke untersucht. Mit Hilfe von diesem als Schalter fungierenden Spark-Gaps konnte bei Durchbruchspannungen gemessen werden, die oberhalb des Selbstdurchbruchs liegen.
Es zeigte sich, dass die im Versuchaufbau verwendete Funkenstrecke keinen wesentlichen Einfluss auf die Entladung hat. Es kommt an der Funkenstrecke lediglich zu einem Spannungsabfall im Bereich einiger hundert Volt, der den Verlauf derEntladung im LDB allerdings nicht beeinflusst.
Der Lorentz-Drift-Beschleuniger könnte in Zukunft zur Erzeugung eines Druckgradienten verwendet werden, indem Teilchen von einem Rezipienten in einen Zweiten beschleunigt werden. Als Voruntersuchung zur Eingnung dieses als Lorentz-Drift-Ventil bezeichneten Konzeptes wurden Messungen durchgeführt, die den Einfluss der Durchbruchspannung auf die Teilchenbeschleunigung mit Hilfe eines piezokeramischen Elementes untersuchen. So wurde der magnetische Druck bzw. die entsprechende Kraft einer Entladungswolke in Abhängigkeit von Durchbruchspannungen bis etwa 9,5 kV untersucht. Es hat sich gezeigt, dass der Einsatz von hohen Spannungen sinnvoll ist, da sich die auf das Piezoelement einwirkende Kraft quadratisch zur Durchbruchspannung verhält. So wurde die maximale Kraft von 0,44N bei einer Zündspannung von 9,52 kV gemessen.
Zudem wurde untersucht, in welchem Druckbereich der Einfluss der Druckwelle zu messen und wie sich die Geschwindigkeit der Ausbreitung der Druckwelle bei verschiedenen Durchbruchspannungen verhält. Bei einer Entfernung von 231mm zwischen Elektrodengeometrie und Piezoelement hat sich gezeigt, dass im Druckbereich unterhalb von etwa 0,2mbar kein wesentlicher Einfluss des Gasdruckes auf die Piezospannung erkennbar ist. Dies lässt sich durch die geringe Teilchenanzahl im Arbeitsgas begründen, sodass Teilchenstöße vernachlässigt werden können. Die maximale gemessene Geschwindigkeit der durch die Entladung verursachten Druckwelle liegt bei 55 km s ± 10%.
Die gemessene Plasmadynamik lässt darauf schließen, dass das Konzept eines gepulsten Lorentz-Drift-Ventils insbesondere mit hohen Durchbruchspannungen realisierbar ist. Zur Erzeugung eines dauerhaften Druckgradienten müsste die Repetitionsrate allerdings ausreichend hoch sein, sodass der rückfließende Gasdurchsatz geringer ist als die durch den LDB erzeugte Drift. Geht man von der Schallgeschwindigkeit als Rückflussgeschwindigkeit der Teilchen aus, so sind mindestens Repetitionszeiten im Bereich einer Millisekunde erforderlich.
Ergänzend zu den durchgeführten Untersuchungen ist es sinnvoll, die bisherigen Messungen durch Einbau eines Triggers zu verifizieren. Ein Trigger erzeugt eine Vorentladung mit deren Hilfe die eigentliche Entladung auch im Bereich unterhalb des Selbstdurchbruchs gezündet werden kann.
Der Mittelmeerraum gilt im europäischen Kollektivgedächtnis als „Wiege Europas“ und Anfangspunkt „abendländischer“ Geschichte. Genauso markiert in gängigen Geschichtsnarrativen das Mittelmeer einen imaginären Bruch zwischen Orient und Okzident. „Der Islam“ kann so in europäischen Diskursen als „Fremdkörper“ konstruiert und aus der Vorstellung einer gemeinsamen kulturellen Identität ausgestoßen werden. Währenddessen vereint die Geschichte des Mittelmeerraums auf drei Kontinenten Christentum, Judentum und Islam. Nur eine Ausblendung der geschichtlichen Komplexität des Mittelmeerraums als kosmopolitischer Region ermöglicht es, die „abendländische“ als eine rein christliche oder jüdisch-christliche Geschichte aufzufassen.
Das islamische Erbe Europas resultiert etwa aus dem jahrhundertelangen Kulturaustausch während der islamischen Kolonisierung des europäischen Mittelmeerraums, die die süditalienische Insel Sizilien einst zu einem Teil Nordafrikas machte. Seit Anbeginn menschlicher Besiedlung ein Schmelztiegel der Kulturen, war Sizilien wie Andalusien im Mittelalter Teil des Maghrebs, des westlichen islamischen Reichs, und an dessen intellektuellen, wissenschaftlichen und philosophischen Errungenschaften beteiligt.
Zuvor sprachlich und religiös von Byzanz geprägt, kam die Insel im 9. Jahrhundert unter arabisch-islamischen Einfluss und wurde ab dem 11. Jahrhundert unter Normannen und Staufern dem lateinisch geprägten römisch-katholischen Christentum zugeführt. Eine Aufeinanderfolge sunnitischer und schiitischer Dynastien, die Entfremdung zwischen Ost- und Westkirche sowie die Präsenz einer vergleichsweise großen jüdischen Gemeinde erhöhen die konfessionelle Komplexität.
Noch lange nach der Ablösung der arabischen Herrschaft, die ihrerseits bewährte byzantinische Elemente in die Inselverwaltung integriert hatte, profitierten spätere Herrscher von den ökonomischen und wissenschaftlichen Strukturen der Muslime und förderten diese. Bis heute hat das arabisch-islamische Substrat Anteil an der Alltagskultur und Sprache, die die sizilianische Identität und das italienische nationale Narrativ konstituieren. Jahrhunderte nach der Vertreibung der Muslime aus Süditalien ist es vor allem in den Bereichen von Wortschatz, Volksliteratur, Orts-und Personennamen, in der Küche, Architektur und im Städtebild Italiens zu finden und wurde teils über Sizilien in ganz Europa verbreitet.
Während die Erzählung der italienischen Nationalgeschichte die arabische Vergangenheit oft ausblendete, traf sie in Sizilien, das von anderen Epochen nicht in gleichem Maße wirtschaftlich profitierte, seit der Aufklärung auf Hochachtung. Brückenbauende Narrative, die Italien als Teil einer mediterranen Hybridkultur definieren, reihen sich in Konzepte verschiedener Denker aus dem Mittelmeerraum ein, eine gemeinsame „mediterrane Kultur“ als zivilisatorische Brücke zu konstruieren im Dialog zwischen drei Kontinenten und drei bedeutenden Weltreligionen.
Das CBM-Experiment an der zukünftigen FAIR Beschleunigeranlage zielt unter anderem darauf, Open-Charm-Teilchen zu rekonstruieren, die in Schwerionenkollisionen im Energiebereich von 10 bis 40 AGeV erzeugt werden. Ein für diese Teilchenrekonstruktion essentieller Detektor ist der Mikro-Vertex-Detektor (MVD).
Im Rahmen der Entwicklungsarbeiten für diesen Detektor werden regelmäßig Detektorsimulationen durchgeführt. Bei einer dieser Simulationen [CAD11], wurden nach Einführung eines verbesserten Simulationsmodells des Detektors, Einbrüche in Rekonstruktionseffizienz für Open-Charm Teilchen festgestellt. Als mögliche Ursache wurde eine Überlastung der Software für die Spurrekonstruktion von CBM vermutet, die erstmals mit realistischen Trefferdichten auf den MVD-Stationen konfrontiert war. Zusätzlich wurde in der Simulation die Geometrie eines MVD mit nur zwei Detektorebenen verwendet. Auch der durch die kleine Anzahl an MVD-Stationen große Abstand zwischen MVD und STS (Silicon-Tracking-System) und dessen potentiell ungünstiger Einfluss auf die Spurrekonstruktion konnte als Ursache für den beobachteten Einbruch der Rekonstruktionseffizienz nicht ausgeschlossen werden.
Die Aufgabe dieser Arbeit bestand in der Prüfung, ob der beobachtete Einbruch der Rekonstruktionseffizienz des Detektorsystems tatsächlich auf eine Überlastung der Spurrekonstruktionssoftware zurückzuführen ist. Darüber hinaus sollte festgestellt werden, ob mögliche konstruktive Verbesserungen im MVD (zusätzliche Detektorstationen) diesem Effekt entgegen wirken können...
Optimierung von Phasen- und Ratenparametern in einem stochastischen Modell neuronaler Feueraktivität
(2014)
In unserem Gehirn wird Information von Neuronen durch die Emission von Spikes repräsentiert. Als wichtige Signalkomponenten werden hierbei die Rate (Anzahl Spikes), die Phase (zeitliche Verschiebung der Spikes) und synchrone Oszillationen (rhythmische Entladungen der Neuronen am selben Zyklus) diskutiert.
In dieser Arbeit wird untersucht, wie Rate und Phase für eine optimale Detektion miteinander kombiniert werden und abhängig vom gewählten Parameterbereich wird der Beitrag der Phase quantifiziert.
Dies wird anhand eines stochastischen Spiketrain-Modell untersucht, das hohe Ähnlichkeiten zu empirischen Spiketrains zeigt und die drei genannten Signalkomponenten beinhaltet. Das ELO-Modell („exponential lockig to a free oscillator“) ist in zwei Prozessstufen unterteilt: Im Hintergrund steht ein globaler Oszillationsprozess, der unabhängige und normal-verteilte Intervallabschnitte hervorbringt (Oszillation). An den Intervallgrenzen starten unabhängig, inhomogene Poisson-Prozesse (Synchronizität) mit exponentiell abnehmender Feuerrate, die durch eine stimulusspezifische Rate und Phase festgelegt ist.
Neben einer analytischen Bestimmung der optimalen Parameter im Falle reiner Raten- bzw. Phasencodierung, wird die gemeinsame Codierung anhand von Simulationsstudien analysiert.
Eines der wichtigsten Experimente für Kernstrukturforschung und Messung stellarer Reaktionsraten ist das R3B-Experiment im Rahmen des FAIR-Projekts am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt. Der experimentelle Aufbau von R3B besteht aus mehreren einzelnen Teilchendetektoren für verschiedene Teilchensorten (Neutronen, Protonen, Spallationsund Spaltprodukte, Gammastrahlen), die alle möglichst vollständig detektiert und gemessen werden müssen. Für die Identifikation und Energiemessung schwerer, geladener Reaktionsprodukte ist eine sogenannte Time-of-Flight-Wall (Flugzeitwand) nötig. Der Name ergibt sich aus der Hauptaufgabe, der Flugzeitmessung für die Energiebestimmung der Teilchen, sowie der Geometrie eines solchen Detektors. Die in vorherigen Aufbauten verwendeten Detektoren diesen Typs erfüllen noch nicht die Anforderungen, die die Forschungsziele des R3B-Experiments stellen, daher wurde ein neues Design basierend auf Plastikszintillatoren entwickelt.
Für diese Arbeit wurde die theoretisch erreichbare Zeitauflösung des neuen Designs abgeschätzt sowie Testmessungen mit verschiedenen experimentellen Setups durchgeführt. Insbesondere wurde ein Prototyp der ToF-Wand im Rahmen einer Strahlzeit an der Beschleunigeranlage der GSI getestet. Die Ergebnisse dieser Messungen mit einem 58Ni28+-Strahl wurden im Hinblick auf Energie-, Zeit- und Ladungsauflösung sowie die Stabilität dieser Werte bei hohen Raten ausgewertet und so ein erster Eindruck von der Leistungsfähigkeit des Detektors und der Ausleseelektronik gewonnen und Einschränkungen und nötige Verbesserungen erkannt.