Refine
Year of publication
Document Type
- Master's Thesis (85) (remove)
Language
- German (85) (remove)
Has Fulltext
- yes (85)
Keywords
- Beschleunigerphysik (2)
- E-Learning (2)
- Erwachsenenbildung (2)
- Experiment (2)
- Ionenstrahl (2)
- Konstruktion (2)
- Lehren mit neuen Medien (2)
- Lehrerbildung (2)
- Lernen mit neuen Medien (2)
- Mediendidaktik (2)
Institute
- Physik (41)
- Gesellschaftswissenschaften (11)
- Mathematik (6)
- Informatik und Mathematik (4)
- Neuere Philologien (4)
- Erziehungswissenschaften (3)
- Sportwissenschaften (3)
- Psychologie (2)
- Biochemie und Chemie (1)
- Geographie (1)
Caroline Ungher-Sabatier wird heute meist mit dem Altsolo bei der Uraufführung der 9. Symphonie Ludwig van Beethovens in Verbindung gebracht. Ihre größten Erfolge konnte sie jedoch mit der italienischen Oper in den 1830er Jahren feiern. Bisher fand ihre sängerische Laufbahn und ihre Kontakte in Wien – abgesehen von Franz Schubert und Beethoven – kaum Beachtung. Deswegen beschäftigt sich diese Masterarbeit eingehend mit der Künstlerin und Sängerin Caroline Ungher-Sabatier, deren Lebensweg mit der Stadt Wien verknüpft ist. Sie genoss dort ihre musikalische Ausbildung, kehrte, nach ihren großen Erfolgen in Italien, 1839 und 1840 für Gastspiele an das Kärntnertortheater zurück und hielt lebenslang ein Netzwerk zu berühmten und bekannten Persönlichkeiten in Wien aufrecht. Nach ihrem Bühnenabschied war Ungher-Sabatier als Gesangspädagogin tätig und setzte sich auch in Wien für ihre Schülerinnen ein.
Neben ihrer erfolgreichen Karriere in der italienischen Oper pflegte Ungher-Sabatier das deutsche Liedrepertoire und komponierte eigene Lieder.
Ihr Werdegang und ihre Rezeption in Wien werden anhand von zeitgenössischen Artikeln aus Zeitungen und Zeitschriften untersucht. Um einen tieferen Einblick in Caroline Ungher-Sabatiers Wiener Netzwerk nach ihrer Opernkarriere zu ermöglichen, wurden ihr Stammbuch und über hundert Briefe ausgewertet.
Optimierung von Phasen- und Ratenparametern in einem stochastischen Modell neuronaler Feueraktivität
(2014)
In unserem Gehirn wird Information von Neuronen durch die Emission von Spikes repräsentiert. Als wichtige Signalkomponenten werden hierbei die Rate (Anzahl Spikes), die Phase (zeitliche Verschiebung der Spikes) und synchrone Oszillationen (rhythmische Entladungen der Neuronen am selben Zyklus) diskutiert.
In dieser Arbeit wird untersucht, wie Rate und Phase für eine optimale Detektion miteinander kombiniert werden und abhängig vom gewählten Parameterbereich wird der Beitrag der Phase quantifiziert.
Dies wird anhand eines stochastischen Spiketrain-Modell untersucht, das hohe Ähnlichkeiten zu empirischen Spiketrains zeigt und die drei genannten Signalkomponenten beinhaltet. Das ELO-Modell („exponential lockig to a free oscillator“) ist in zwei Prozessstufen unterteilt: Im Hintergrund steht ein globaler Oszillationsprozess, der unabhängige und normal-verteilte Intervallabschnitte hervorbringt (Oszillation). An den Intervallgrenzen starten unabhängig, inhomogene Poisson-Prozesse (Synchronizität) mit exponentiell abnehmender Feuerrate, die durch eine stimulusspezifische Rate und Phase festgelegt ist.
Neben einer analytischen Bestimmung der optimalen Parameter im Falle reiner Raten- bzw. Phasencodierung, wird die gemeinsame Codierung anhand von Simulationsstudien analysiert.
Lights, Camera, Action : zur Synthese von Film und Drama im interkulturellen Englischunterricht
(2012)
In Folge der Globalisierung und der stetig fortschreitenden digitalen Vernetzung ist die Welt zu einem überschaubaren, gar intimen, Ort geworden, in dem Individuen unterschiedlicher Kulturen, trotz enormer geographischer Distanzen, mittels eines breiten Angebots elektronischer Medien, regelmäßig miteinander in Kontakt treten. Die interkulturell-mediale Kommunikation und Interaktion hat sich als ein wesentliches Charakteristikum des modernen Lebens etabliert. Wir leben in einer „„mediatized„ world, a social and cultural environment which is permeated by the media […]“ (Voigts-Virchow 2005: 5). Der Großteil der Weltbevölkerung ist heute online. Die Menschen korrespondieren via Emails und Skype, verbringen ihre Freizeit in Chatrooms, schließen Freundschaften mit Fremden auf Facebook, twittern ihren Lebensalltag, sehen sich Videos auf YouTube an, frönen der ungesühnten Internetpiraterie mit FileSharing, richten sich auf MySpace häuslich im Internet ein, konstruieren ihren eigenen Webcontent und reisen mit Google Maps virtuell um den Globus. In der multikulturellen und –medialen Welt kann folglich ein jeder zum Kosmopolit werden, ohne je das eigene Haus verlassen zu müssen. Kinder und Jugendliche im Besonderen nutzen die Medien, um mit Altersgenossen aus anderen Ländern zu kommunizieren, neue Interessen zu entdecken, Geschichten auszutauschen und Erfahrungen zu teilen. Sie verfügen in dieser Hinsicht über eine „virtuelle Autonomie“ (Porcher 2006: 190-191), die es ihnen ermöglicht sich in einen interkulturellen Diskurs einzuschalten.
Angesichts dieser medialen und kulturellen Pluralisierung werden die bildungspolitischen und pädagogischen Forderungen nach der Ausbildung von medienspezifischen und interkulturellen Kompetenzen immer dringlicher (vgl. Kessler & Küppers 2008: 3/Frederking et al. 2008: 69). Medien- und Kulturkompetenz gelten nicht nur als Grundlage für eine gesunde Entwicklung und professionellen Erfolg, sondern werden vielmehr als Fundament eines friedlichen und intakten internationalen Zusammenlebens in Form eines toleranten und respektvollen interkulturellen Dialogs erachtet (vgl. Sercu et al. 2005). Wurden in diesem Zusammenhang in der Schule anfänglich noch die affektiven und reflexiven Fähigkeiten der Schüler verstärkt in den Fokus genommen, vornehmlich um eine Abkehr vom Ethnozentrismus durch die Bewusstmachung der eigenen kulturellenDeterminiertheit zu bewirken, hat sich im Rahmen der überschwänglichen Mediennutzung und dem Anstieg direkter und indirekter interkultureller Begegnungen1 das Bildungsethos herausgebildet Schüler2 zum praktischen Umgang mit medialer und kultureller Vielfalt zu befähigen, kurzum ihre Handlungskompetenzen zu entwickeln. Im fachdidaktischen Diskurs der Fremdsprachenbildung wird in diesem Fall generell von der Vorbereitung auf den Ernstfall gesprochen. Die Schüler sollen dazu ausgebildet werden mit Mitgliedern einer fremden Kultur kompetent interagieren zu können. Im Idealfall sollen sie sogar fähig sein als Mediatoren zwischen Individuen mit unterschiedlich kulturell geprägten Sicht- und Verhaltensweisen zu vermitteln (vgl. Fechler 2008).
Ich schließe mich der allgemeinen Auffassung an, dass das Konzept einer interkulturellen Handlungskompetenz eine enorme Bedeutsamkeit mit Blick auf ein multikulturelles, globales Gemeinschaftsleben aufweist, besonders im Kontext einer dominanten Medienpräsenz. Kinder und Jugendliche werden heutzutage regelmäßig mit interkulturellen Handlungssituationen konfrontiert, sei es nun in Form eines Chats, einer Forumsdiskussion oder eines Filmabends. In dieser Hinsicht stellt die Förderung substanzieller Medien- und Kulturkompetenzen das vorrangigste Ziel im Schulunterricht dar. Hier stellt sich nun die Frage ob traditionelle Unterrichtsmodelle den externen soziokulturellen Entwicklungen Rechnung tragen können. Ich persönlich vertrete die These, dass medienspezifische und interkulturelle Kompetenzen nur über den Gebrauch von Unterrichtsinstrumenten, die sich an der Lebenswelt und an den Interessen der Schüler orientieren, d.h. zeitgemäß und ansprechend sind, überzeugend und einprägsam vermittelt werden können. Das Lehrwerk ist zweifellos ein wirksames Unterrichtsmedium, entspricht aber nicht mehr dem Zeitgeist. Es müssen daher neue, innovative und anregende Lehr- und Lernmittel erschlossen werden, welche sich allerdings auch für den regelmäßigen Unterrichtseinsatz eignen und nicht nur gelegentlich als didaktische Bonbons Verwendung finden. Aus dem weiten Reservoir der neuen Medien erscheint mir in dieser Beziehung der Film als das geeignetste Medium. Es ist sowohl unterrichtspraktikabel als auch schülerrelevant. Zudem verfügt es über ein hohes interkulturelles Potenzial. Ähnlich verhält es sich auch mit der Dramapädagogik, deren motivierende und interkulturell förderliche Effekte ich selbst bereits in mehreren selbst geleiteten Unterrichtsstunden und einem Studienseminar an der Goethe UniversitätFrankfurt erfahren habe. Sowohl beim Film als auch bei der Dramapädagogik handelt es sich um zwar fachdidaktisch grundierte, doch um in der Praxis marginalisierte Unterrichtsmittel. Ich bin der Meinung, dass es an der Zeit ist Film und Drama3 im Mainstream des Unterrichts zu etablieren.
Dementsprechend hat die vorliegende Arbeit4 zum Ziel das interkulturelle Potenzial des Mediums Film und der Dramapädagogik auszuloten und einen Ansatz aufzuzeigen wie über die Synthese filmischer und dramatischer Stil- und Unterrichtsmittel die interkulturelle kommunikative Kompetenz bzw. die interkulturelle Handlungs- und Mediationskompetenz in Verbindung mit medienspezifischen Fertigkeiten im Englischunterricht gefördert werden kann.5 Einem derartigen Unterfangen muss meiner Ansicht nach zuallererst eine Auseinandersetzung mit den integralen Bestandteilen der Filmdidaktik und der Dramapädagogik vorausgehen. Bevor ich mich damit jedoch ausführlicher befasse, möchte ich zuerst den kontextuellen Rahmen der Arbeit skizzieren (Kapitel 1). Anschließend werde ich im zweiten und dritten Kapitel eine Bestandsaufnahme von Film und Drama vornehmen und die wesentlichen didaktisch-methodischen Elemente beider Konzepte im Hinblick auf den interkulturellen Schwerpunkt der Arbeit diskutieren. Besondere Aufmerksamkeit soll hier dem Konzept der Critical Incidents zukommen. Beim Film soll außerdem noch ein kurzer Einblick in die technischen Spezifika des Mediums gegeben und deren Verwertbarkeit im interkulturellen Englischunterricht deutlich gemacht werden.
In Kapitel 4 soll anschließend die Synthese von Film und Drama im interkulturellen Englischunterricht en détail thematisiert werden. Hierfür möchte ich zuerst das Konzept der interkulturellen kommunikativen Kompetenz (kurz IKK) vorstellen. In der Folge werde ich nach einer Auflistung wesentlicher Schnittpunkte von Film und Drama meinUnterrichtsschema über die Erstellung konkreter Kompetenzmodelle theoretisch fundieren und an expliziten Filmbeispielen belegen. Hier soll ebenfalls das Feld der Medienkompetenz eröffnet und in Beziehung mit der IKK gesetzt werden. Mit der Formulierung der filmdramatischen Methode wird schließlich der Übergang zum praktischen Teil vorbereitet (Kapitel 5). Hier werde ich das von mir konzipierte Unterrichtsmodell illustrieren und mit Blick auf Umsetzungsproblematiken und curriculare Richtlinien kritisch reflektieren. Im finalen Kapitel werde ich abschließend Bilanz ziehen, die wesentlichen Resultate der Arbeit resümieren und einen Ausblick vornehmen, der die Grenzen und Perspektiven der Arbeit erörtert.
In den letzen 30 bis 40 Jahren sind Kommunen verstärkt dazu übergegangen die in ihrem Besitz befindlichen Flächen zu verkaufen und so ihre kommunalen Gestaltungsspielräume zu verlieren. Diese Privatisierungspolitik der „unternehmerischen Stadt“ hat verkannt, dass Boden für Kommunen ein endliches und essentielles Gut ist, welches nicht vermehrt werden kann.
Gerade in den lokalen Räumen der Kommunen wird der Kampf um den begrenzten Boden besonders sichtbar. Das Alltagsleben der Menschen wird dadurch bestimmt, ob Boden im Privateigentum ist und vorrangig der Kapitalvermehrung dient oder ob Boden ein gesellschaftliches Gemeingut ist. Die Privatisierung neoliberaler Kommunalpolitik hat – entgegen der Erwartungen – weder das Leben in den Städten besser noch günstiger gemacht. Die Kosten für Mieten und die privatisierten Leistungen aus Daseinsvorsorge sind in den letzten Jahrzehnten extrem gestiegen. Letztere wurden z. T. auch verkleinert oder vollkommen aufgegeben, wie z. B. der öffentliche Nahverkehr in ländlichen Räumen oder die Schließungen von Kultureinrichtungen, Jugendzentren oder Schwimmbädern.
Auf diese Phase neoliberaler Bodenpolitik ist zunehmend eine polanyische Gegenbewegung zu beobachten, die für den sozial-ökologischen Schutz eintritt. Die Menschen in den Kommunen wollen und können diese Entwicklung nicht weiter hinnehmen. Und auch die Lokalpolitik schwenkt z. T. um, indem sie Forderungen der Rekommunaliserung und sozialverträglicher Mieten unterstützt.
Trotz dieser progressiven Entwicklungen ist gerade die Vergabe von Gewerbeflächen nach wie vor durch ein neoliberales Paradigma der Standortkonkurrenz und Austerität geprägt. In diesem Sinne muss die Vergabe von Boden zuallererst ökonomisch sinnvoll sein. Andere Aspekte werden oft ausgeklammert, da sie unter Finanzierungsvorbehalt stehen. Diese Vergabepraxis ist quasi alternativlos und damit postpolitisch. Obwohl diese Entscheidungen die Kommunen langfristig prägen, werden soziale und ökologische Aspekte der ökonomischen Frage untergeordnet. Die Berücksichtigung von Gemeinwohlaspekten, die sich in einem Kriterienkatalog zur Gewerbeflächenvergabe wiederfinden können, bietet Kommunen die Möglichkeit, eine andere – gemeinwohlorientierte – Handlungsrationalität einzunehmen. Die Entscheidungsgrundlage für die Gewerbeflächenvergabe würden mit solchen Kriterien grundlegend neu justiert werden, da sie nicht mehr auf rein ökonomischen, sondern auf sozialen und ökologischen Werten beruht.
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie eine gemeinwohlorientierte Gewerbeflächenvergabe gestaltet werden kann, indem sie die kommunalen Handlungsspielräume erweitert und so einen Beitrag für eine sozial-ökologische Gegenbewegung zur neoliberalen Kommunalpolitik leistet. Sie kommt zu dem Ergebnis, dass für eine kommunale sozial-ökologische Transformation die Wirtschaft wieder stärker in die Gesellschaft eingebettet werden muss (Polanyi 1944). Eine dementsprechende Gewerbeflächenvergabe setzt daher auf die Dekommodifizierung der Flächen, d. h. sie fördert öffentliche und kollektive Eigentumsformen. Außerdem fördert sie kollektive sozial-ökologische Nutzungsformen der Flächen, die dem Gemeinwohl der Bewohner*innen in der Region dienen. Zur Umsetzung könnten Kommunen Gemeinwohl-Kriterien zur Gewerbeflächenvergabe aufstellen. In der vorliegenden Arbeit wird hierzu ein möglicher Kriterienkatalog entwickelt.
In dieser Arbeit wird der Strahltransport in einem CH-Driftröhrenbeschleuniger untersucht. Hierfür wurden numerische Simulationen zur elektromagnetischen Feldverteilung und dem strahldynamischen Einfluss der CH-Driftröhrenkavität durchgeführt. Sie fungiert als Prototyp für CH-Strukturen im Injektor des MYRRHA-Projekts, einem beschleunigergetriebenen System (ADS) zur Transmutation radioaktiven Abfalls. Zudem wird sie an der im Aufbau befindlichen Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) an der Goethe-Universität Frankfurt am Main experimentell mit Strahl getestet werden. FRANZ dient neben dem Einsatz als Experimentierfeld für neuartige Beschleuniger- und Strahldiagnostikkonzepte vor allem der Forschung im Bereich nuklearer Astrophysik.
Im September 2005 wurden von der HADES-Kollaboration an der GSI in Darmstadt Daten der Schwerionen-Reaktion Ar+KCl bei 1,76A GeV aufgenommen. Neben den Pionen und Dileptonen wurden bereits fast alle Teilchen mit Seltsamkeitsinhalt rekonstruiert. In dieser Arbeit wird zum ersten Mal eine Analyse der leichten Fragmente Deuteronen, Tritonen und 3Helium mit HADES durchgeführt.
Die gemessenen Multiplizitäten wurden mit einem statistischen Hadronisationsmodell verglichen und zeigen gute Übereinstimmung mit diesem. Dies legt die Vermutung nahe, dass das System Ar+KCl bei 1,76A GeV einen hohen Grad an Thermalisierung erreicht. Zu einer weiteren Untersuchung dieser Hypothese wurden die sogenannten effektiven Temperaturen Teff der Teilchen der chemischen Ausfriertemperatur aus dem statistischen Modellfit gegenübergestellt. Bei der effektiven Temperatur handelt es sich um die inversen Steigungsparameter von Boltzmann-Fits an die transversalen Massenspektren mt-m0 bei Schwerpunktsrapidität. Diese Temperatur entspricht bei einer isotropen, statischen Quelle der kinetischen Ausfriertemperatur und sollte somit unterhalb oder gleich der chemischen Ausfriertemperatur sein. Im Falle der effektiven Temperaturen der Ar+KCl-Daten liegen diese jedoch systematisch höher und die Teilchen ohne Seltsamkeitsinhalt zeigen einen massenabhängigen Anstieg, welcher eine radiale kollektive Anregung des Systems vermuten lässt.
Die transversalen Massenspektren der leichten Fragmente werden unter der Annahme eines thermalisierten Systems mit Boltzmann-Funktionen angepasst. Daraus werden die effektiven Temperaturen von Teff,Deuteronen = (139,5 ± 34,9) MeV und Teff,T ritonen = (247,9 ± 62,0) MeV extrahiert, was die Annahme von kollektivem Fluss der Teilchen zu unterstützen scheint. Vergleicht man diese Werte mit den effektiven Temperaturen der leichteren Teilchen, kann mithilfe einer linearen Funktion die kinetische Ausfriertemperatur Tkin = (74,7 ± 5,8) MeV und radiale Flussgeschwindigkeit βr = 0,37 ± 0,13 bestimmt werden. In einem zweiten Ansatz werden daher die Spektren mit Siemens-Rasmussen-Funktionen, die eine radiale Ausdehnung mit einbeziehen, angepasst und daraus die globalen Parameter T = (74 ± 7) MeV und βr = 0,36 ± 0,02 bestimmt. Diese Werte liegen an der oberen Grenze in dem für diesen Energiebereich erwarteten Bereich.
Die Siemens-Rasmussen-Funktionen liefern eine bessere Beschreibung der transversalen Massenspektren und werden zur Extrapolation der nicht abgedeckten transversalen Massenbereiche genutzt. Die Integration liefert die Verteilung der Zählrate als Funktion der Rapidität. Diese Verteilung zeigt zwei Maxima nahe Strahl- und Target-Rapidität, was im Widerspruch zu einer statischen, thermischen Quelle der Teilchen steht.
In dieser Arbeit wird der Strahltransport in einer Niederenergietransportsektion (LEBT) untersucht. Die Untersuchungen werden für die Betriebsmodi der im Aufbau befindlichen Neutronenquelle FRANZ an der Frankfurter Goethe-Universität durchgeführt. Hierbei wird die Akzeptanz eines Choppersystems nach der ersten Sektion des Transportwegs sowie die Akzeptanz des auf die zweite Sektion folgenden RFQ betrachtet und bestmöglich erfüllt. Die Auswirkungen durch die Raumladungswirkung des Ionenstrahls werden berücksichtigt, ebenso die mögliche thermische Belastung durch Strahlverlust an den Komponenten entlang des Strahlwegs. Weiterhin wird der Einfluss eines nicht optimierten Einschusses in den RFQ und die sich daraus ergebenden Strahleigenschaften am Ende des RFQs untersucht.
Das Staatsangehörigkeitsrecht verankert rechtlich Vorstellungen über Zugehörigkeit und bestimmt wer vollumfängliche Rechte in einer Gesellschaft hat und wer nicht. Jahrzehntelang wurde Migration in Deutschland als etwas temporäres betrachtet. Im Staatsangehörigkeitsrecht galt bis zur Reform 1999/2000 weitgehend das „ius sanguinis“, das Abstammungsrecht, das auf einem rassistischen und völkischen Staatsverständnis beruht. Diese Reform bedeutete somit mehr als eine reine Gesetzesänderung. Sie war eine Anerkennung Deutschlands als Einwanderungsland und die Veränderung der Vorstellung deutscher Identität. Als Reaktion entbrannte infolge der Reformpläne eine hitzige, rassistische Debatte in der Öffentlichkeit über ebendiese Fragen, die unter dem polarisierten Schlagwort „Doppelpass“ verhandelt wurde. Es war die lauteste migrationspolitische Debatte dieser Zeit.
Kurze Zeit vor Beginn dieser Debatte war die rechtsterroristische Gruppe „Nationalsozialistischer Untergrund“ (NSU) abgetaucht, um einem Haftbefehl zu entgehen. Der NSU war ein deutsches, neonazistisches Netzwerk, in dessen Mittelpunkt drei Terrorist*innen standen. Sie verübten über einen Zeitraum von zwölf Jahren eine rassistische Mordserie an neun Personen türkischer, kurdischer und griechischer Herkunft sowie drei Sprengstoffanschläge auf migrantische Orte und ermordeten eine Polizistin. Den ersten ihrer Sprengstoffanschläge begingen sie nur einen Monat nach der Unterzeichnung der Reform. Wenige Monate nach dem Inkrafttreten des Gesetzes begannen sie mit dem Anschlag auf Enver Şimşek ihre rassistische Mordserie.
Diese Arbeit untersucht anhand der Struktur der Historisch-Materialistischen Politikanalyse das Migrationsregime um die Staatsangehörigkeitsreform von 1999/2000 und wie der NSU darin verortet werden kann.
Die Kontextanalyse stellt auf der Grundlage einer Literaturrecherche die relevanten historischen und strukturellen Faktoren der Debatte sowie des NSU dar. Im nächsten Schritt werden mithilfe einer Analyse von Zeitungsartikel aus dieser Zeit die relevanten Akteur*innen identifiziert und in die vier Hegemonieprojekte neoliberal, sozial, linksliberal-alternativ und konservativ gruppiert. Darauffolgend wird der Ablauf der Debatte in vier Phasen darstellt und als Aushandlung der vier Hegemonieprojekte rekonstruiert. Dabei zeigt sich, dass kein Projekt sich vollumfänglich durchsetzen und Hegemonie erreichen konnte, sie jedoch unterschiedlich stark in den Medien repräsentiert wurden.
Im letzten Schritt betrachtet diese Arbeit Verbindungen dieser Migrationsregime-Analyse zum NSU. Sie kommt zu dem Ergebnis, dass der NSU kein Akteur im Migrationsregime um die Staatsangehörigkeitsdebatte von 1998/99 war. Aufgrund der geringen Erkenntnisse über spezifische Meinungen des NSU zum Staatsangehörigkeitsrecht, können keine kausalen Beziehungen hergestellt werden. Dennoch zeigt diese Arbeit Gemeinsamkeiten in den Weltbildern, Annahmen und migrationspolitischen Zielen des NSU, des konservativen Hegemonieprojektes sowie Teilen der Bevölkerung auf. Dadurch wird ein Beitrag dazu geleistet den NSU als Produkt und Teil der deutschen Gesellschaft zu begreifen.
Die Arbeit widmet sich der bisher wenig beachteten Demokratietheorie des neoliberalen Ökonomen und Sozialphilosophen Friedrich Hayeks. In seiner Ablehnung des Prinzips der Volkssouveränität scheint es Hayek nicht in erster Linie um die Kritik des demokratischen Elements zu gehen, sondern vielmehr um die moderne Idee staatlicher Souveränität schlechthin. Es ist folglich die Idee der Rechtssouveränität, so die grundlegende These, auf der Hayek seine doppelte Kritik von Naturrecht und Rechtspositivismus gründet. Entprechend ist der Staat in der von Hayek gezeichneten Utopie nicht länger Souverän, Ausdruck, Grund oder Herrscher (in) der Gesellschaft, sondern bloßes Mittel, um die "spontanen Ordnungen" der Gesellschaft (und der Märkte) zu schützen, ohne durch Gesetzgebung planen, gestalten oder intervenieren zu wollen. Allein solches, an den "Nomos" gebundenes, staatliches Handeln könne (und muss!) der "Meinung" der Menschen entsprechen. Die Klärung dieses sehr speziellen und auf David Hume zurückgehenden Verständnisses von "Meinung" erlaubt schließlich, das Denken Hayeks nicht nur hinsichtlich seines Souveränitätsbegriffs, sondern auch hinsichtlich seines Demokratiebegriffs vom Denken Carl Schmitts abzugrenzen. Entgegen dem prägenden Diskurs nach Cristi und Scheuerman, der die Kritik der hayekschen Theorie über die Problematisierung ihres schmittschen Gehalt unternimmt, soll die Arbeit den Blick dafür schärfen, dass der in Hayeks Theorie angelegte Autoritarismus auf eigenen philosophischen Füßen steht und sich nicht erschöpfend aus einem bewusst oder unbewusst übernommenen schmittschen Erbe erklären lässt.
Das Compressed Baryonic Matter Experiment (CBM) wird im Rahmen der Facility for Antiproton and Ion Research (FAIR) entwickelt, um das Phasendiagramm stark wechselwirkender Materie vorwiegend im Bereich hoher Dichte ausgiebig zu studieren. Dazu sollen Kollisionen schwerer Ionen durchgeführt werden und die Reaktionsprodukte mit hoher Präzision in Teilchendetektoren gemessen und identfiziert werden. Eine wichtige Aufgabe besteht in der Unterscheidung von Elektronen und Pionen, zu der ein Übergangsstrahlungszähler (Transition Radiation Detector) beiträgt. Übergangsstrahlung wird im relevanten Impulsbereich dieser Teilchen nur von Elektronen emittiert und soll im Detektor registriert werden.
In der vorliegenden Arbeit wird die Entwicklung dieses Detektors auf Basis von Vieldrahtproportionalkammern (Multiwire Proportional Chamber ) hauptsächlich anhand von Simulationen diskutiert, aber auch erste Testmessungen eines Prototypen vorgestellt. Der Schwerpunkt der Simulationen eines einzelnen Detektors liegt in der Untersuchung der Effiienz in Abhängigkeit seiner Dicke.
Der Übergangsstrahlungszähler für CBM wird aus mehreren Detektorlagen bestehen. Daher wird außerdem die Effizienz des Gesamtsystems analysiert, indem verschiedene Methoden zur Kombination der einzelnen Signale angewendet werden. Darüber hinaus wird die Effizienz des verfolgten Detektorkonzepts in Abhängigkeit des Radiators, der Anzahl der Detektorlagen, sowie des Teilchenimpulses präsentiert.
Inhalt dieser Arbeit ist die Entwicklung einer digitalen Korpusanwendung zur türkeitürkischen Dialektologie, in welcher der Inhalt des in Kapitel 3.1 beschriebenen Wörterbuchs komplett enthalten und umfangreich durchsuchbar sein soll. Da das Dialektwörterbuch insgesamt 126.468 Einträge enthält, ist eine manuelle Recherche darin äußerst zeitintensiv und unkomfortabel. Selbst die Suche innerhalb einer digitalen Version, die z. B. in einer Word-Datei gespeichert sein kann, ist nicht komfortabel möglich, sobald Optionen bzw. Einschränkungen getätigt werden sollen, wie z. B. die Beschränkung der Ergebnisse auf das Vorkommen in einer bestimmten Provinz. Daher ist es das Ziel der Entwicklung, den Anwendern folgende Suchmöglichkeiten zu bieten: Das Wörterbuch soll entweder komplett im Volltext durchsucht werden können, oder nur innerhalb des Lemmas1. Dabei soll jeweils die Angabe einer oder mehrerer Provinzen möglich sein, sodass die Suchergebnisse nur jene Einträge beinhalten, in denen Suchbegriff und Provinz in der gleichen Zeile enthalten sind. Die Treffer der Suche sollen farbig hervorgehoben sein, damit insbesondere bei großen Wörterbucheinträgen nicht manuell nach den darin enthaltenen Suchbegriffen gesucht werden muss, sondern diese dem Anwender direkt auffallen. Außerdem ist es wünschenswert, mittels Platzhaltern und sogenannten Coversymbolen nach Wortformen und phonetisch bedingten Allomorphen suchen zu können. Letzteres ist für Linguisten, die sich mit dem Türkischen beschäftigen, bei der Eingabe der Suchbegriffe äußerst praktisch, da das Türkische eine vokalharmonische Sprache ist, in der phonetisch bedingte Varianten üblicherweise durch die Schreibung mit Coversymbolen dargestellt werden: z. B. -lAr für die Pluralallomorphe -lar und -ler...
The thesis delves into two research questions, drawing from the 2022 Final Report of the Colombian Truth Commission. It critically examines historical power differentials originating from the colonial period, probing their role in legitimizing and perpetuating violence against ethnic groups, women, and individuals diverging from cisgender or heteronormative norms within Colombian society. Additionally, the research explores the pervasive influence exerted by the colonial legacy on the foundational structures of Colombian societal organization. Employing discourse analysis as its methodological approach, the thesis undertakes the task of deconstructing and reconstructing the Report, thereby elucidating emergent and contingent discursive meanings that situate coloniality within the realms of cognition, language, and affect. Emphasizing the presence of counter-hegemonic knowledge within the Report, the thesis integrates its findings into a robust theoretical and conceptual framework, facilitating a nuanced and systematic comprehension of the underlying causes of violence perpetrated against marginalized groups and the environment. These causes are intricately linked to the intertwined and hybridized power structures that have endured since the colonial era.
Power structures of Eurocentric origin, alongside mental constructs imposed by European invaders over centuries — such as anthropocentrism, racism, internal colonialism, heteropatriarchy, cisnormativity, and classism — were gradually naturalized and institutionalized within Colombian society. This process has been perpetuated through the state's reproduction of these patterns since the inception of Colombia as a nation-state. Consequently, hierarchical discursive constructions, posited as universal and self-evident, have marginalized certain groups and justified environmental degradation. While the internal armed conflict exacerbated these issues, it did not create them; rather, it intensified pre-existing violences, targeting individuals, communities, and their territories.
The thesis also underscores the portrayal of otherness within the modern-colonial world-system, rooted in principles of domination and subalternity, perpetuating colonial patterns of thought and action, reinforcing the hegemonic cosmovision. Notions of superiority and inferiority that predate the establishment of the Colombian nation-state have influenced social categories, subject positions, and identities, resulting in disproportionate, differential, and cumulative harm inflicted upon subalternized population groups. This contributes to a culture of 'justified' violence.
The research underscores the profound entrenchment of coloniality in the structures of Colombian society and the various inherent logics of violence within its conflicts. Coloniality, a comprehensive framework encompassing colonial patterns of thought and action, originating from the invasion and conquest of Abya Yala, continuously shapes the contemporary realities of societies in diverse (re-)configurations, leaving indelible imprints. The effects of these dynamics are manifold, ranging from the imperative of monogamous sexuality according to Judeo-Christian principles as a self-evident norm to the view of nature as a resource rather than a unit comprising both people and environment. In other words, colonial patterns are deeply embedded in all structures of society. A key recommendation emerging from this thesis is to underscore the imperative to recognize and question the persistence of colonial patterns in social and individual lives.
The research urges recognition and interrogation of these persistent colonial patterns in societal and individual structures, advocating for transformative paradigms that challenge conventional thought patterns and foster self-reflection among Colombians. The report, functioning as a political instrument, holds the potential to significantly contribute to the formation of subjectivities that break away from the epistemic schemes of modernity/coloniality. The research and its findings create a political space for questioning the universalist notion of the Eurocentric civilizing project, the scientific rationality of the universal subject, and the presumed neutrality of its forms of knowledge. This opens avenues for questioning, disputing, and transforming entrenched paradigms.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
Experimente und Simulationen zur Filterung und Injektion in einen toroidalen Ionenspeicherring
(2014)
Die in dieser Arbeit durchgeführten theoretischen Untersuchungen, Simulationen und Experimente hatten das Ziel, die Erforschung der Injektion in sowie des Transports von Ionenstrahlen bestehend aus verschiedenen, einzelnen Wasserstoffionenspezies durch toroidale Magnetfeldstrukturen zu ermöglichen. Dazu wurde im Rahmen dieser Arbeit ein neues Filter- und Detektorsystem für Wasserstoffionenstrahlen – ein Filterkanal – entwickelt, aufgebaut und untersucht. Zunächst wurde mittels theoretischer Betrachtungen das Konzept des Kanals und die Funktionalität der Filterung sowie Vermessung der Strahlzusammensetzung analysiert. Danach wurde der Kanal mit Hilfe von Simulationen ausgelegt und anschließend nach genauen Vorgaben gebaut. Gleichzeitig wurde mittels weiterer Simulationen das Strahlverhalten im Kanal genauer analysiert und zusätzlich die Auswirkungen verschiedener Parameter auf das Filterverhalten des Kanals untersucht. Anschließend wurde der zusammengebaute Kanal mittels Experimenten erforscht. Dabei wurden mehrere Experimente mit verschiedenen Quellen- und Strahlparametern durchgeführt, wobei vor allem die Filtereigenschaften sowie die Vermessung der Strahlzusammensetzung umfangreich untersucht und im Bezug auf die Funktionalität des Filterkanals diskutiert wurden.
Des Weiteren befasste sich diese Arbeit mit dem Aufbau des Injektionsexperiments zur Untersuchung der Injektion eines Wasserstoffionenstrahls zwischen zwei Toroidsegmente. Dazu wurde ein höhenverstellbarer Injektor samt Hochspannungsterminal und Peripherie entwickelt, aufgebaut und in Betrieb genommen. Dieser besteht aus einer Volumenionenquelle, einer neu entwickelten Faraday-Tasse sowie einem Solenoid. Die Faraday-Tasse, welche zur Vermessung des Quellenstroms im neuen Injektor sowie zusätzlich zur Vermessung des Ionenstrahlstroms hinter dem Filterkanal eingesetzt wird, wurde dabei im Rahmen dieser Arbeit entwickelt, experimentell durchgemessen und auf ihre Funktionalität geprüft. Im Zusammenhang mit dem Hochspannungsterminal für den neuen Injektor wurden die verschiedenen Möglichkeiten für die Verschaltung einer Volumenionenquelle mit dem dazugehörigen Hochspannungsterminal diskutiert und der Zusammenhang zur Strahlenergie hergestellt.
Mittels theoretischer Rechnungen wurde der aufgrund der RxB Drift benötigte Höhenunterschied zwischen Injektionskanal und Transportkanal für das Injektionsexperiment bestimmt und der neue Injektor auf den errechneten Bereich vorkonfiguriert. Zusätzlich wurde mittels Simulationen die optimale Strahlenergie bestimmt, bei der der Strahl beim Transport durch den Transportkanal angepasst ist und somit die Auswirkung der Driftsektion zwischen den beiden Toroidsegmenten sowie die Beeinflussung durch das Injektionssystem am geringsten sein sollten. In diesem Zusammenhang wurde auch auf die möglichen Geometrien zum Aufbau des Injektionsexperiments eingegangen und mittels der angesprochenen Untersuchungen eine Geometrie für den Aufbau des Injektionssystems festgelegt.
Im Rahmen dieser Arbeit wurde eine JTAG-Ansteuerung für MIMOSA26-Sensoren basierend auf FPGA-Boards entwickelt. Als VHDL-Code ist die Implementierung anpassbar. Jede JTAG-Chain wird durch einen unabhängigen JTAG-Chain-Controller angesteuert, so dass sich begrenzt durch die Zahl der I/O-Leitungen und die Ressourcen die Anzahl der JTAG-Chain-Controller auf einem FPGA einstellen lässt. Die Anpassbarkeit hat sich bereits bei der Strahlzeit am CERN im November 2012 gezeigt, für die eine Version mit drei JTAG-Chain-Controllern auf einem FPGA und Ausgängen auf einem SCSI-Kabel synthetisiert wurde. Dabei wurde die Prototyp-Frontend-Elektronik Version 1 verwendet. Außerdem ist die Größe des pro Sensor verwendeten Speichers (in Zweierpotenzen) im VHDL-Code einstellbar, um auch eventuelle zukünftige Sensoren mit größeren Registern zu unterstützen.
Aus dieser Sicht sollte die Implementierung mit kleinen Anpassungen im finalen MVD verwendbar sein, es gibt jedoch wie immer noch Verbesserungsmöglichkeiten, z.B. die Verwendung eines externen Speichers. Des Weiteren fehlt noch eine grafische Benutzeroberfläche für den finalen MVD, wobei wie bei den anderen Detektoren von CBM dazu eine Steuerung basierend auf EPICS entwickelt werden sollte, um eine einheitliche Oberfläche zu erreichen.
Auf Seiten der Elektronik für ded finalen MVD gibt es noch einige offene Fragen, vor allem bei der Entwicklung der Zuleitungen für die Sensoren. Die Signale auf den Flexprint-Kabeln zeigen bereits bei kurzen JTAG-Chains ein hohes Übersprechen (Abschnitt 9.1.2), das zu hoch werden könnte, wenn man Sensor-Module mit mehr als einem Sensor (wie für den finalen MVD geplant, siehe Kapitel 3) an das bisher verwendete Chain-FPC anschließt.. Es kann jedoch auch gut sein, dass das Übersprechen gar kein Problem darstellen wird. Prinzipiell besteht die Möglichkeit, dass sich das Übersprechen z.B. durch Einfügen einer Masseschicht in Kabel und Boards reduzieren lässt, was in Simulationen gezeigt wurde (siehe Kapitel 8). Jedoch wurden in diesen Simulationen die Steckverbinder und eventuelle Fehlanpassungen der Boards vernachlässigt, weshalb nicht sicher ist, ob bzw. wie gut sich dies praktisch umsetzen lässt. In jedem Fall stellen die betrachteten Möglichkeiten, das Übersprechen zu reduzieren, einen erhöhten Aufwand dar. Daher erscheint es sinnvoll, zuerst eine konkrete Geometrie für die Elektronik des finalen MVD zu entwerfen1, und für diese zu ermitteln, ob das Übersprechen ein Problem darstellt.
Dabei stellt sich die wichtige Frage, wie viele Sensoren auf einem Sensor-Modul mit einem einlagigen Kabel in der zur Verfügung stehenden Breite angeschlossen werden können, da mindestens vier zusätzliche Datenleitungen für jeden weiteren Sensor erforderlich sind.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.