Universitätspublikationen
Refine
Year of publication
Document Type
- Bachelor Thesis (132) (remove)
Language
- German (132) (remove)
Has Fulltext
- yes (132)
Is part of the Bibliography
- no (132)
Keywords
- Text2Scene (3)
- TextAnnotator (3)
- Annotation (2)
- Beschleunigerphysik (2)
- Ionenstrahl (2)
- NLP (2)
- Strahldynamik (2)
- Strahlprofil (2)
- Unity (2)
- Virtuelle Realität (2)
Institute
- Physik (67)
- Informatik (31)
- Informatik und Mathematik (10)
- Mathematik (7)
- Gesellschaftswissenschaften (6)
- Erziehungswissenschaften (2)
- Geschichtswissenschaften (2)
- Sprach- und Kulturwissenschaften (2)
- Universitätsbibliothek (2)
- Geowissenschaften (1)
Die Arbeit untersucht die Herstellung und ökonomische Umsetzung von "ethnischem Anderssein" in sog. Kultur-Kochkursen in Frankfurt am Main. In den beforschten Kultur-Kochkursen vermitteln ethnisch markierte KochkursleiterInnen "ihre Küche und Kultur" einem (multikulturalistisch) interessiertem Publikum. Die Arbeit fokussiert auf die performative Herstellung, Umsetzung und Repräsentation von (vermarktbarem) ethnischen Andersseins durch die KochkursleiterInnen in der Kochkurssituation und überprüft die Annahme, dass Ethnizität primär durch (Selbst-)Othering – die Betonung von unüberbrückbarer, essentieller kultureller Differenz – vermarktet wird. Die Befunde, welche auf Internetrecherchen, teilnehmenden Beobachtungen und narrativen Interviews basieren, zeigen, dass die organisierenden Institutionen die Kulturkochkurse zwar mit dem Verweis auf Authentizität, Tradition und Andersartigkeit bewerben, die Kultur-KochkursleiterInnen selbst in der Kochkurssituation allerdings kein kulturalistisches, exotisierendes und Differenz betonendes Ethnizitätskonzept perfomieren, sondern vielmehr Dynamik, Vielfalt und Vermischungen artikulieren, praktizieren und stark positiv konnotieren.
Die folgende Arbeit handelt von einem Human Computer Interaction Interface, welches es gestattet, mit Hilfe von Gesten zu schreiben. Das System ermöglicht seinen Nutzern, neue Gesten hinzuzufügen und zu verwenden. Da Gesten besser erkannt werden können, je genauer die Darstellung der Hände ist, wird diese durch Datenhandschuhe an den Computer übertragen. Die Hände werden einerseits in der Virtual Reality (VR) dargestellt, damit sie der Nutzer sieht. Andererseits werden die Daten, die die Gestenerkennung benötigt, an das Interface weitergeleitet. Die Erkennung der Gesten wird mit Hilfe eines Neuronales Netz (NN) implementiert. Dieses ist in der Lage, Gesten zu unterscheiden, sofern es genügend Trainingsdaten erhalten hat. Die genutzten Gesten sind entweder einhändig oder beidhändig auszuführen. Die Aussagen der Gesten beziehen sich in dieser Arbeit vor allem auf relationale Operatoren, die Beziehungen zwischen Objekten ausdrücken, wie beispielsweise „gleich“ oder „größer gleich“. Abschließend wird in dieser Arbeit ein System geschaffen, das es ermöglicht, mit Gesten Sätze auszudrücken. Dies betrifft das sogenannte gestische Schreiben nach Mehler, Lücking und Abrami 2014. Zu diesem Zweck befindet sich der Nutzer in einem virtuellen Raum mit Objekten, die er verknüpfen kann, wobei er Sätze in einem relationalen Kontext manifestiert.
Die Arbeit ist in zwei Teile gegliedert. Der erste Teil behandelt einige naturphilosophische und mathematische Probleme. Es wird außerdem das Pfeil-Paradoxon von Zeno vorgestellt, auf dem die moderne Variante des Quanten-Zeno-Paradoxons basiert. Im zweiten Teil wird zunächst eine allgemeine Analyse des Zerfallsgesetzes instabiler Quantensysteme gegeben. Es ist eine Mischung aus Zusammenfassungen von Reviews und neuen Ideen. Eine wichtige Rolle spielt dabei die Wellenfunktion in Energiedarstellung bzw. deren Betragsquadrat, genannt Energiedichte. Es wird auch auf den Fall eingegangen, wenn ein Quantensystem wiederholten (frequenten) Messungen ausgesetzt ist. Anschließend wird der Quanten-Zeno-Effekt und das Quanten-Zeno-Paradoxon als Folge des Verhaltens der Überlebenswahrscheinlichkeit für Zeiten kurz nach der Zustandspräparation beschrieben. Danach wird das Lee-Modell zur Beschreibung eines Teilchenzerfalls vorgestellt. Das Modell beschreibt den Zerfall eines instabilen Teilchens in zwei mögliche Kanäle, d.h. entweder in (genannt) a-Teilchen oder b-Teilchen. Es werden alle wichtigen Funktionen (Zerfallsgesetz, Energiedichte, etc.) analytisch hergeleitet. Es folgen darauf die Ergebnisse der numerischen Auswertung.
Im Rahmen dieser Arbeit wird darauf eingegangen, welche Anpassungen erforderlich sind, um Protonendichten vergleichbar zu bereits erzeugten Elektronendichten in Gabor-Linsen zu erhalten. Zur Vorbereitung zukünftiger Experimente werden vergleichende Simulationen zum Einschluss der Ladungsträgerdichten durchgeführt und die Strahldynamik bei der Wechselwirkung eines positiven Ionenstrahls mit einem in einer Gabor-Linse eingeschlossenen Protonenplasma untersucht. Die Ergebnisse der Strahldynamiksimulationen werden mit theoretischen Berechnungen vertieft, in dem die Brennweite einer Gabor-Linse, die mit einer beliebigen Teilchensorte gefüllt ist, berechnet und die Drift-Masse eingeführt wird.
Eine weitere analytische Betrachtung ist die Erweiterung der Teilchendynamik in der Gabor-Linse auf beliebige Anfangsbedingungen, in dem die dazugehörige Differentialgleichung entkoppelt und ganz allgemein gelöst wird. Die daraus berechneten Trajektorien der Teilchen führen zu einem besseren Verständnis, das weitere Anwendungen erschließen könnte.
Die vorliegende Bachelorarbeit leistet einen Beitrag zur wissenschaftlichen Identifikation von intergenerationalen Unterschieden verschiedener Arbeitnehmergruppen. Insbesondere werden sowohl die Unterschiede zwischen den Generationen X und Y, in der Arbeitsbereitschaft, in unterschiedlichen Abschnitten des Berufslebens, als auch die Unterschiede zwischen der Wahrnehmung der Wichtigkeit von Arbeitgeberattraktivitätsattributen jener Generationen betrachtet. Ein besonderes Augenmerk liegt hierbei auf der Betrachtung von High-Potentials.
Im Fachbereich der Computerlinguistik ist die automatische Generierung von Szenen aus, in natürlicher Sprache verfassten, Text seit bereits vielen Jahrzehnten ein wichtiger Bestandteil der Forschung, welche in der "Kunst", "Lehre" und "Robotik" Verwendung finden. Mit Hilfe von neuen Technologien im Bereich der Künstlichen Intelligenzen (KI), werden neue Entwicklungen möglich, welche diese Generierungen vereinfachen, allerdings auch undurchsichtige interne vom Modell getroffene Entscheidungen fördern.
Ziel der vorgeschlagenen Lösung „ARES: Annotation von Relationen und Eigenschaften zur Szenengenerierung“ ist es, ein modulares System zu entwerfen, wobei einzelne Prozesse für den Benutzer verständlich bleiben. Außerdem sollen Möglichkeiten geboten werden, neue Entitäten und Relationen, welche über die Textanalyse bereitgestellt werden, auch in die Szenengenerierung im dreidimensionalen Raum einzupflegen, ohne dass hierfür Code zwingend notwendig wird.
Der Fokus liegt auf der syntaktisch korrekten Darstellung der Elemente im Raum. Dagegen lässt sich die semantische Korrektheit durch weitere manuelle Anpassungen, welche für spätere Generierungen gespeichert werden erhöhen. Letztlich soll die Menge der zur Darstellung benötigten Annotationen möglichst gering bleiben und neue szenenbezogene Annotationen durch die implementierten Annotationstools hinzugefügt werden.
Neutroneneinfangquerschnitte werden häufig mithilfe der Aktivierungsmethode bestimmt. Hierbei wird die zu untersuchende Probe mit Neutronen der gew¨unschten Energie bestrahlt und danach in einem untergrundoptimierten Labor ausgezählt. Am Institut für Angewandte Physik der Goethe Universität Frankfurt wurde ein solcher Aufbau realisiert. Er besteht aus zwei Clover Detektoren, die gegenüberliegend in enger Geometrie angeordnet sind. Die aktivierte Probe wird mittels spezieller Probenhalter reproduzierbar und zentriert zwischen den Detektoren platziert. Die Clover Detektoren sind mit passiven Schilden (Pb) und einer aktiven Abschirmung (BGO) umgeben. Die unterschiedlichen Abschirmungen wirken sich in verschieden Energiebereichen jeweils anders aus.
Diese Arbeit befasst sich mit der astrophysikalischen Motivation und dem Aufbau, mit dem später die Ausbeute einer neutronenaktivierten Probe bestimmt werden kann. Außerdem werden die Ergebnisse der verschiedenen Untergrundmessungen miteinander verglichen.
Zunächst sind einige Methoden und Techniken zusammenfassend aufzuzählen, welche mir in meiner Zeit am IKF nahegebracht wurden.
Von technischer Seite her sind hier der Umgang mit der Instituts-eigenen Lichtmikroskop und den pA-Messgeräten sowie der analogen Messkette zu nennen. Außerdem gegebenen GEM-Folien auf Fehlstellen zu untersuchen, sie unter Spannung zu testen und anschließen in die Testkammer zu montieren und diese anschließend ordnungsgemäß in Betrieb zu nehmen. Während des Betriebs der Kammer sind neben den Messungen selbst auch die Programmierung in C++ um ein vorhandenes GUI zu verstehen und erweitern zu können zu nennen. In der Analyse der gewonnenen Daten ist vor allem die im Institut verbreiteten Analyse-Software „Root“ zu nennen um Daten zu verarbeiten, zu plotten und zu fitten.
Der physikalische Gehalt der Messungen war in Folge der ersten Messung nicht mit Sicherheit zu bestimmen, da die Raten-Abhängigkeit des IB entweder grundlegender physikalischer oder technischer Natur sein konnte, was näher zu untersuchen blieb. Nach wiederholter Messung mit größerem Messbereich und einer zweiten Messreihe mit einer anderen Gas-Mischung konnten jedoch Aussagen getroffen werden.
So konnte in der Argon-Messung die gleiche Raten-Abhängigkeit des IBF wie zuvor festgestellt werden, während der IBF in der Neon-Mischung kaum merklich anstieg. Außerdem ist festzuhalten, dass Messungen an der Kathode nur über 10 pA problemlos genau sind. Darunter werden die Werte bei zu wenig Messzeit weniger aussagekräftig.
Ziel der Bachelorarbeit war es, einen Versuch für das Fortgeschrittenen-Praktikum des Instituts für Kernphysik zu konzipieren, der es ermöglicht, die Lebensdauer von aus der kosmischen Strahlung entstandenen Myonen zu bestimmen.
Dazu wurden vorhandene Komponenten auf ihre Gebrauchstauglichkeit getestet und untersucht, insbesondere in Bezug auf die Größe der Szintillatoren, ob der für einen Praktikumsversuch zeitlich gegebene Rahmen eingehalten werden kann.
Es ergaben sich einige mechanische Probleme, insbesondere bei der Verbindung der neuen, größeren Szintillatoren mit den Photomultipliern, die angegangen wurden. Die zuerst getestete Methode stellte sich jedoch als uneffektiv heraus, sodass die endgültige Lösung mit Hilfe einer neuen, computergesteuerten Fräsmaschine der Feinmechanik-Werkstatt erreicht werden soll.
Um die entstandenen Daten zu verarbeiten, wurde ein entsprechendes Programm in LabVIEW entwickelt, das die am TDC abgegriffenen Daten auf ihre Relevanz untersucht und die Ergebnisse in eine Textdatei schreibt. Das LabVIEW Front Panel wurde dabei so gestaltet, dass es den Praktikanten alle wichtigen Daten in graphisch anschaulicher Weise liefert.
Die Daten aus der Textdatei werden dann mit Hilfe eines ROOT Makros mit zwei verschiedenen Exponentialfunktionen gefittet.
In ersten Messungen ergibt sich ein Wert für die Lebensdauer der Myonen, der erstaunlich nahe am Literaturwert liegt.
Diese Bachelorarbeit befasst sich mit der Themenklassifikation von unstrukturiertem Text. Aufgrund der stetig steigenden Menge von textbasierten Daten werden automatisierte Klassifikationsmethoden in vielen Disziplinen benötigt und erforscht. Aufbauend auf dem text2ddc-Klassifikator, der am Text Technology Lab der Goethe-Universität Frankfurt am Main entwickelt wurde, werden die Auswirkungen der Vergrößerung des Trainingskorpus mittels unterschiedlicher Methoden untersucht. text2ddc nutzt die Dewey Decimal Classification (DDC) als Zielklassifikation und wird trainiert auf Artikeln der Wikipedia. Nach einer Einführung, in der Grundlagen beschrieben werden, wird das Klassifikationsmodell von text2ddc vorgestellt, sowie die Probleme und daraus resultierenden Aufgaben betrachtet. Danach wird die Aktualisierung der bisherigen Daten beschrieben, gefolgt von der Vorstellung der verschiedenen Methoden, das Trainingskorpus zu erweitern. Mit insgesamt elf Sprachen wird experimentiert. Die Evaluation zeigt abschließend die Verbesserungen der Qualität der Klassifikation mit text2ddc auf, diskutiert die problematischen Fälle und gibt Anregungen für weitere zukünftige Arbeiten.
Begriffe sind häufig nicht eindeutig. Eine „Bank“ kann ein Finanzinstitut oder eine Sitzgelegenheit sein und die Stadt Frankfurt existiert mehr als einmal. Dennoch können sie in vielen Fällen problemlos von Menschen unterschieden werden. Computer sind noch nicht in der Lage, diese Leistung mit vergleichbarer Genauigkeit zu erfüllen.
Der in dieser Arbeit vorgestellte Ansatz baut auf dem für das Deutsche bereits gute Ergebnisse erzielenden fastSense auf und verwendet ein neuronales Netz, um Namen und Begriffe in englischen Texten mit Hilfe der Wikipedia zu disambiguieren. Dabei konnte eine Genauigkeit von bis zu 89,5% auf Testdaten erreicht werden.
Mit dem entwickelten Python-Modul kann das trainierte Modell in bestehende Anwendungen eingebunden werden. Die im Modul enthaltenen Programme ermöglichen es, neue Modelle zu trainieren und zu testen.
Das Ziel dieser Arbeit ist, einen Text automatisch darauf zu untersuchen, ob er Gebäude beschreibt, und diese gegebenenfalls zu visualisieren. Zu diesem Zweck wurde ein Prototyp entwickelt, der mithilfe von NLP-Software auf Basis einer UIMA-Pipeline einen Text auf Gebäudedaten untersucht und diese anschließend als 3D-Modelle auf einer Karte visualisiert. Um die Güte des Projekts zu bestimmen wurde eine Evaluation durchgeführt, in der die Aufgabe darin bestand, Paragraphen ihren zugehörigen 3D-Modellen zuzuordnen. Die Ergebnisse wiesen eine Erkennungsrate von 88.67\% auf. Jedoch wurden auch Schwächen im Standardisierungsverfahren der Parameter und in der einseitigen Art zu Visualisieren aufgezeigt. Zum Schluss wird vorgestellt, wie diese Schwachstellen mithilfe eines ontologischen Modells behoben werden können und wie mit dem Projekt weiterverfahren werden kann.
In dieser Arbeit wurde die automatisierte Separation von Heliummono-, -di- und -trimeren beschrieben. Unter Nutzung ihrer unterschiedlichen De-Broglie-Wellenlängen wurden die verschiedenen Fraktionen mit einem Nanogitter getrennt. Zunächst wurden einige physikalische Grundlagen zu den genannten Atom- bzw. Molekülspezies, der hier auftretenden Bindungsform der Van-der-Waals-Bindung und insbesondere zur Materiewellenbeugung gelegt. Anschließend wurde der Versuchsaufbau dargestellt.
Bei der Durchführung wurden zunächst die drei jeweils vorhandenen Gitter und Spalte zu je einer Messung kombiniert und die beste Kombination für die weiteren Messungen ausgewählt. Das Experiment wurde weitergeführt, indem für verschiedene Temperaturen und Quelldrücke jeweils ein Beugungsspektrum von der für alle Heliumteilchen identischen nullten Ordnung bis zur ersten Ordnung der Heliummonomere aufgenommen wurde.
In der Auswertung wurde die Detektionswahrscheinlichkeit auf rund 37 % abgeschätzt. Weiterhin wurden die Ereignisse in den ersten Maxima der einzelnen Heliumfraktionen gezählt und so unter Verwendung der Detektionswahrscheinlichkeit molare Konzentrationen für das Heliumdi- und -trimer berechnet. Dabei wurden Anteile von bis zu 0,45 % für das Heliumdimer und 4,2 % für das Heliumtrimer erreicht. Diese Molanteile und ihre Abhängigkeit von Druck und Temperatur stimmen qualitativ gut mit der Literatur überein, quantitativ lassen sie sich u. a. wegen abweichender Nachweismethoden kaum vergleichen.
Anschließend wurde der Abstand von Düse und Skimmer variiert mit dem Ergebnis, daß eine Veränderung im betrachteten Bereich keinen nennenswerten Einfluß auf die Bildungsraten von Di- und Trimeren hat. Weiterhin wurde die auf zweierlei Weise bstimmbare Geschwindigkeit der Heliumteilchen im Gasjet ermittelt und verglichen.
Die beiden Geschwindigkeiten weichen lediglich im unteren Temperaturbereich signifikant voneinander ab, wofür plausible Erklärungsansätze dargelegt wurden.
Die Größe der Quellregion der betrachteten Heliumcluster wurde unter geometrischen Gesichtspunkten und unter Extrapolation der für verschiedene Spaltbreiten gemessenen Maximumsbreiten untersucht. Im Ergebnis wird die Quellbreite zu 58,5 μm abgeschätzt.
Die Automatisierung des Aufbaus erlaubte eine Vielzahl von systematischen Messungen, die ohne diese Automatisierung sehr zeitaufwendig gewesen wären. Insbesondere wurden in kurzer Zeit - wie zuvor geschildert - die Beugungsmuster von drei Gittern in Kombination mit je drei verschiedenen Kollimationspalten sowie die Abhängigkeit der Heliumdimer- und -trimerbildung von Temperatur, Druck und Abstand von Düse und Skimmer untersucht. Die Automatisierung erlaubt für zukünftige Messungen, z. B. in Strahlzeiten am Freien Elektronenlaser FLASH, jeweils in situ die Clusterbildung zu untersuchen. Möge das beschriebene Experiment nicht nur diese, sondern auch viele weitere Messungen beschleunigen helfen und so zum gesellschaftlichen Erkenntnisgewinn beitragen!
Im Rahmen dieser Arbeit wurden zwei verschiedene Zerfallsprozesse behandelt. Zunächst wurde im Rahmen des erweiterten Linearen Sigma-Modells die Antwort auf die Frage gesucht, welches Teilchen als chiraler Partner des Nukleons in Frage kommt. Dazu wurde der Zerfall des chiralen Partners in ein Nukleon und ein skalares Teilchen betrachtet. Das skalare Teilchen wurde mit dem Tetraquark-Zustand f0(600) identifiziert. In Augenschein genommen wurden die Resonanzen N(1535) und N(1640). Aufgrund der berechneten Zerfallsbreiten erkannte man im Falle von N(1650) eine größere Übereinstimmung mit den experimentellen Werten. Die Zerfallsbreite von 45.91 MeV liegt in der Größenordnung des im Particle Data Book verzeichneten Intervalls. Der Wert, den man bei Verwendung von N(1535) als Ausgangsteilchen erhielt, ist allerdings gegenüber der Vorhersage zu groß.
Ein nächster Schritt im Studium dieses Sachverhalts stellt das erweiterte Misch-Szenario dar. Es beinhaltet nicht nur zwei, sondern vier Spinoren. Zwei davon beschreiben Nukleon-Resonanzen, zwei sind mögliche chirale Partner. Da die Zustände mischen, wird der chirale Partner nicht eindeutig durch ein, sondern durch zwei Resonanzen repräsentiert. Weiterhin steht die eingehende Betrachtung des Ursprungs von m0 aus. Dazu muss außer derWechselwirkung mit dem Tetraquark-Zustand auch die Wechselwirkung eines Glueballs mit den beteiligten Hadronen berücksichtigt werden. Dadurch erhält die Masse von m0 einen Anteil, der aus dem Glueball-Kondensat stammt. Dies muss beim Rückschluss auf die Nukleonmasse beachtet werden.
Als nächstes wurde der Zerfall des pseudoskalaren Glueballs in zwei Nukleonen betrachtet. Da die Kopplungskonstante dieses Zerfalls noch nicht experimentell bestimmt wurde, wurde ein Verhältnis zwischen zwei Zerfallskanälen berechnet. Es zeigte sich, dass der Zerfall in zwei Nukleonen fast doppelt so wahrscheinlich ist wie der Zerfall in Nukleon und chiralen Partner, der an der Energieschwelle liegt. Die Berechnung wurde mit einem Teilchen der Masse 2.6 GeV als Glueball durchgeführt. Die Untersuchung derart schwerer Glueballs wird in naher Zukunft erstmalig im Rahmen des PANDA-Experiments der GSI möglich sein.
Zukünftige Studien sollten die Beteiligung des Glueballs an gemischten Zuständen berücksichtigen. Außerdem sollte ein möglicher skalarer Glueball in die Betrachtung miteinbezogen werden.
Diese Arbeit beschäftigt sich mit der Charakterisierung des 4π-Bariumfluorid(BaF2)-Detektors, der in Zukunft im Rahmen des FRANZ-Projektes (Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum) eingesetzt werden soll. Der Detektor soll zum Nachweis von γ-Emission zum Beispiel nach einem Neutroneneinfang genutzt werden, womit der (n,γ)-Wirkungsquerschnitt bestimmt werden kann. Hauptaufgabe dieser Arbeit ist die Bestimmung der Energie- und Zeitauflösung, sowie die Energie- und Zeitkalibrierung und die Effizienzbestimmung.
Ziel dieser Arbeit ist es einen geeigneten Szintillationsdetektor für die Messungen differentieller Neutroneneinfangquerschnitte im FRANZ-Aufbau zu finden. Dafür wurde untersucht inwiefern sich das Szintillatormaterial LaBr3(Ce) (Lanthanbromid) eignet. Verwendet wurde eine Anordnung von zwei Szintillationsdetektoren dieses Typs. Mit Hilfe von Kalibrationsquellen wurden charakteristische Größen, wie Effizienz (Nachweiswahrscheinlichkeit) und Auflösungsvermögen untersucht und die ermittelten Werte mit GEANT-3.21 Simulationen [2] verglichen.
Cyber-Mobbing im Web 2.0
(2012)
Das Phänomen Straßenmusik: Teil einer städtischen Identität? : eine Analyse am Fallbeispiel Dublin
(2019)
The objective of this work is to understand the significance of street music for the city of Dublin and to what extent street music is part of the collective identity of its inhabitants. The idea behind this topic is this: A modern city stands for concentrated diversity. Despite this enormous diversity of people, ideas and beliefs, there are certain factors that every identity in a city shares: in this case, it is the street music. The work first introduces the research „Das Dublin Projekt. Die Rolle der Straßenmusik in der Hauptstadtkultur" (The Dublin Project. The role of street music in the capital city culture) of 2018 and uses selected points of analysis to illustrate the observed high value of street music as well as the process of the research and an overview of the applied scientific methods. In the second part of this work, the actual research-thesis will be explained and various theories on „identity" will be illustrated. For this purpose, selected theories are used to interpret the own findings with regard to the research-thesis. The focus here is on urban and collective identity theories. Finally, the answers to the questions posed will be given as well as an outlook on possible, supplementary and further research. Medial support of this work comes from attached photos of the described scenes as well as from map sections showing the distances covered and the hotspots of the research.
Nach Abschluss meiner Untersuchungen, kann man sagen, dass die galvanische Einkopplung die eleganteste und wohl sinnvollste für den Kicker im FRANZ-Projekt ist, da man mit ihr perfekt kritische Einkopplung erreicht und sie relativ einfach zu realisieren ist, indem man die Zuleitung direkt an die Stützen lötet. Da die Zuleitung nur relativ kurz ist und Außerhalb der Spule verläuft verändert sie die Eigenschaften des Kickers nicht wesentlich. Die induktive Einkopplung eignet sich zwar auch sehr gut um die kritische Ankopplung zu erreichen, allerdings stellt die Indutktionsschleife eine zusätzliche Induktivität dar. Ebenso verhält es sich mit der kapazitiven Einkopplung. Der Einkoppelstift stellt eine zusätzliche Kapazität dar, welche die Eigenschaften des Kickers verändert.
Zu den Störkörpermessungen ist zu sagen, dass das Elektromagnetische Feld, dass ich vermessen habe, gut mit der Simulation aus [2] übereinstimmt. Die verschiedenen Einkopplungsverfahren haben keinen Einfluss auf die Feldverteilung, d.h. für die Feldverteilung ist es egal ob man kapazitiv, induktiv oder galvanisch einkoppelt. Der Peak, der am Anfang des Kondensators immer wieder auftritt lässt sich dadurch begründen, dass der Störkörper nicht auf einer geraden Linie durch das Modell gezogen wurde (siehe Abbildung 15. Aufgrund der Geometrie der Endplatten wurde der Störkörper leicht schräg durch das Modell und den Kondensator gezogen. Dadurch kommt der Störkörper am Anfang des Kondensators sehr nahe an ihn heran. Wenn der Störkörper nun zu nahe an der Metalloberfläche vorbeiläuft gilt die normale Störkörpertheorie nicht mehr und es treten Oberflächenladungseffekte auf, die die Phasenverschiebung beeinflussen. Somit erhält man am Anfang des Kondensators mehr Phasenverschiebung als in der Mitte des Kondensators.
Vor der Bundestagswahl 2017 zeichnete der Bonner Politikwissenschaftler Frank Decker das Bild einer dramatischen Ausgangslage:
"Eine neue Ära der Unsicherheit und Instabilität scheint in Europa und der westlichen Welt angebrochen zu sein, die bisherige Gewissheiten in Frage stellt. Dass rechtspopulistische Parteien in Kernländern der Europäischen Union wie Frankreich oder Österreich in die Nähe der Mehrheitsfähigkeit gelangen könnten, hätte vor zwei oder drei Jahren kaum jemand für möglich gehalten – ebenso wenig wie einen Sieg des 'Nichtpolitikers' Donald Trump bei der US-amerikanischen Präsidentschaftswahl oder den von populistischen EU-Gegnern befeuerten 'Brexit' in Großbritannien."
Im Ergebnis der Bundestagswahl 2017 zogen sieben Parteien in den derzeitigen 19. Deutschen Bundestag ein. Lediglich nach seiner ersten Wahl 1949 waren mehr Parteien in den Bundestag eingezogen. Die 1962 von Ossip Kurt Flechtheim formulierte These, beim Rückgang der Parteien habe man es "nicht mit einem Intermezzo, sondern mit einem irreversiblen Trend zu tun", dürfte damit als widerlegt gelten.
Diese Anzahl an Parteien beschwor sogleich eine Angst vor "Weimar"; so waren bei der Reichstagswahl am 6. November 1932, der letzten vor der Ernennung Adolf Hitlers zum Reichskanzler, 13 Parteien in das deutsche Parlament eingezogen.
Horst Möller, der frühere Direktor des Münchener Instituts für Zeitgeschichte, sah sich angesichts der Umfragen im Vorfeld der Wahl 2017 in einem Beitrag für die Frankfurter Allgemeine zu der Frage veranlasst: "Ist Berlin schon deshalb in Gefahr, Weimar zu werden, nur weil die Zahl der im Bundestag vertretenen Parteien steigt?"
Michael Stürmer, der 1986 im "Historikerstreit" als Gegenpol zu Jürgen Habermas für eine heute erneut in der Diskussion stehende positive Besetzung der Begriffe "Patriotismus" und "Nation" geworben hatte, nahm sein Urteil zu der Frage im an Fritz René Allemann angelehnten Titel seines Beitrags "Bonn war nicht Weimar – und Berlin ist es auch nicht" vorweg. So hielt Ernst Forsthoff bereits 1950 fest, dass "das Grundgesetz wirksame Vorkehrungen getroffen hat, um verfassungsfeindliche Parteien zu unterdrücken und von der Wahlbewerbung fernzuhalten".
Als eine "Lehre aus den Weimarer Verhältnissen" gilt dennoch die explizite Sperrklausel von fünf Prozent der Gesamtstimmenzahl zur Begrenzung der Parteienanzahl, die zur Bundestagswahl 1949 bezogen auf die einzelnen Bundesländer eingeführt und 1953 auf das Bundesgebiet ausgeweitet worden war. 1956 wurde zusätzlich die Zahl der Grundmandate, die es einer Partei ermöglichen, unabhängig von der Sperrklausel in das Parlament einzuziehen, von einem auf drei erhöht.
Der hohe Stellenwert der "Sicherstellung eines 'gut geordneten' arbeitsfähigen Parlaments" wird daran deutlich, dass bei der Bundestagswahl 2017 die Nichtberücksichtigung von 2,3 Millionen Wählerstimmen, die auf nicht in den Bundestag eingezogenen "seltsamen Politikphantasten" entfielen, in Kauf genommen wurde.
In Diskrepanz hierzu stehen die Urteile des Bundesverfassungsgerichts (BVerfG), welches im November 2011 eine Fünfprozent- und im Februar 2014 eine Dreiprozenthürde für die Europawahlen als verfassungswidrig verwarf.
Auch bei Kommunalwahlen gelten solche Regelungen "heute nach der Rechtsprechung des BVerfG als unzulässig", wie zuletzt im November 2017 für Nordrhein-Westfalen bestätigt wurde.
Angesichts der Diskrepanz in der Behandlung der Kleinparteien und ausgehend von der These Ossip Kurt Flechtheims, "auch eine kleinere Partei kann das politische Leben bereichern und anregen", und beflügelt von der Voraussicht Uwe Kranenpohls und Oskar Niedermayers, dass "Klein- und Kleinstparteien in Zukunft an Bedeutung gewinnen", fragt diese Arbeit nach den Möglichkeiten und dem Willen der Kleinparteien, das Politikgeschehen zu beeinflussen, was an der Stadtverordnetenversammlung (StVV) der Stadt Frankfurt am Main untersucht wird.
Nach einer Skizze der Forschungslage wird zunächst der Untersuchungsgegenstand inhaltlich und terminologisch verortet, um eindeutig festzulegen, welchen Bereich der Parteienforschung diese Arbeit betrachtet.
Hierzu werden die untersuchten Parteien sowie die im weiteren Verlauf betrachteten als auch nicht betrachteten Forschungsaspekte genannt und aufgezeigt, wie der Parteibegriff juristisch als auch politikwissenschaftlich verstanden wird, um daraus eine Nominaldefinition für diese Arbeit abzuleiten. Anschließend werden die in der Forschung unterschiedlichen Begrifflichkeiten für kleine Parteien rezipiert und der für die Zwecke dieser Arbeit geeignete Begriff herausgearbeitet. Solche Begriffsdefinitionen sind für die sozialwissenschaftliche Forschung unerlässlich: "Sie ermöglichen die Kommunikation über Gegenstände und dienen der Klassifikation." Es folgt eine Darstellung einiger Konzepte von Parteitypologien, die auf ihre Anwendbarkeit bezüglich des Untersuchungsgegenstandes diskutiert werden.
Anschließend werden Ansätze zur Aufgabe von Parteien, Oppositionsparteien und Kleinparteien rezipiert. Ziel dieses Abschnittes der Arbeit ist es, herauszustellen, inwieweit Kleinparteien auf den Politikbetrieb Einfluss nehmen können und Forschungshypothesen für die Rolle der betrachteten Kleinparteien zu formulieren.
Im weiteren Abschnitt der Arbeit werden die betrachteten Kleinparteien knapp vorgestellt, um dem Leser eine kurze Übersicht zu geben, ohne eine vertiefende inhaltliche Analyse der Parteiprogramme anzustreben.
Im Analyseabschnitt der Arbeit werden zunächst die institutionellen Rahmenbedingungen analytisch-deskriptiv betrachtet. Dies ist notwendig, da diese rechtlichen Bedingungen die Eckpfeiler der Arbeit der Parteien vorgeben. Dem schließt eine empirische-quantitative Auswertung von Sitzungen der StVV an, in der die Arbeit der Parteien analysiert wird, sowie eine Auswertung der Wahlergebnisse der auf den betrachteten Untersuchungszeitraum folgenden Stadtverordnetenwahl, um Veränderungen der Wählerstimmen auswerten zu können.
Der Untersuchungsteil wird mit einer Auswertung der Ergebnisse und einem Versuch, die betrachteten Parteien einer Typologie zuzuordnen, abgeschlossen. Eine Verallgemeinerung der Beobachtungen mittels Inferenzstatistik wird nicht angestrebt. Daher soll auch keine allgemein gültige Aussage am Ende dieser Arbeit stehen, sondern durch Falsifikation oder Verifikation der Forschungshypothesen die Beantwortung der genau umrissenen Forschungsfrage: Haben die in der Frankfurter StVV vertretenen U-Fünf-Prozent-Parteien Einfluss auf die politische Willensbildung der Stadt?
Ende des Jahres 1104 verließ Heinrich V. im Vorfeld eines Sachsenzuges das Hoflager seines Vaters, dem langjährigen Herrscher Kaiser Heinrich IV., und verband sich mit der antikaiserlichen Opposition im Reich. Nach mehreren Konfrontationen zwischen Vater und Sohn dankte Heinrich IV. schließlich 1106 als Herrscher ab.
Die zeitgenössischen Quellen schildern dieses Ereignis als einen Verrat Heinrichs V. an seinem Vater und bedienen sich dabei unterschiedlicher Motive.
Von den Quellen, die die Ereignisse schildern, werden in dieser Arbeit die Kapitel 9 und 10 des Vita Heinrici IV. imperatoris genannten Werkes eines Anonymous, das nach dem Tode des Kaisers entstand, die Briefe 37 und 39 Heinrichs IV. und die auf Ekkehard aufbauende Anonyme Kaiserchronik betrachtet.
Hierbei wird die Darstellung des Anonymous in dem Vita Heinrici IV. imperatoris genannten Werk mit den Briefen 37 und 39 sowie der Anonymen Kaiserchronik konfrontiert und anhand von Forschungsliteratur hinterfragt. Die dabei zu beantwortetenden Fragen lauten: Hat Heinrich V. seinen Vater tatsächlich verraten oder folgte er einem gemeinsamen Plan? Falls dies der Fall war: Zu welchem Zeitpunkt ist der Plan, der offensichtlich nicht aufgegangen ist, gescheitert? Betreffend der Darstellung des Anonymous soll folgende Frage verfolgt werden: Lässt die Darstellung des Anonymous in dem Vita Heinrici IV. imperatoris genannten Werk Heinrich IV. als Persönlichkeit erkennen?
Die chronologische Betrachtung der einzelnen Schritte von dem Fortgang Heinrichs V. vom Hoflager seines Vaters bis hin zur Abdankung Heinrichs IV. werden in zusammenfassender Betrachtung erkennen lassen, dass der angebliche Verrat Heinrichs V. an seinem Vater keine eindeutige Sache ist, wie es die zeitgenössischen Quellen und die auf ihr basierende neuzeitliche Literatur darzustellen versuchen.
Die Menschheit sieht sich mit dem drohenden Zerfall ihrer Existenzgrundlage konfrontiert: Die Folgen des menschengemachten Klimawandels sind global zunehmend sichtbar und betreffen immer mehr Regionen (IPCC 2019: o. S.). Diese Auswirkungen zeigen sich auf sozialer wie auf wirtschaftlicher Ebene: Die Kosten der bereits entstandenen Klimaschäden sind für beide genannten Bereiche enorm (Edenhofer et al. 2019: 22). Wissenschaftler*innen sind bei der Suche nach einem Ausweg aus dieser Krisensituation zu dem Schluss gekommen, dass die Reduktion der CO2-Emissionen dringend nötig ist, um den menschengemachten Klimawandel einzudämmen (IPCC 2019: o. S.). Die von Wissenschaftler*innen als am effizientesten bewertete Maßnahme zur Reduktion der ausgestoßenen CO2-Emissionen ist die Bepreisung ebendieser in Form einer CO2-Steuer (Bundesrat 2018: 78; vgl., Gagnebin et al. 2019; Tiezzi 2005: 1598; Williams III et al. 2015: 195). Mittlerweile haben vierzig Länder und über zwanzig Städte eine derartige Maßnahme eingeführt oder entwerfen Konzepte zur Etablierung ebendieser (Farrell 2015: 31). Problematisch ist jedoch, dass die CO2-Abgabe häufig mit einem regressiven Effekt einhergeht und dementsprechend besonders finanziell vulnerable Gruppen überproportional belastet. Am Fallbeispiel der Schweiz untersucht die vorliegende Arbeit, inwiefern sich die CO2-Lenklungsabgabe auf ökonomisch vulnerable Gruppen auswirkt. Das Untersuchungsjahr ist hierbei 2018. Mithilfe der intersektionalen Theorie sowie der Methode des Gender Impact Assessments herausgearbeitet, welche Vulnerabilitätsaspekte neben dem Einkommen einen Anhaltspunkt für eine überproportionale ökonomische Belastung durch die CO2-Lenkungsabgabe darstellen.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Die folgende Bachelorarbeit beschäftigt sich mit dem Thema des Displacement-Mappings unter Verwendung eines Tessellation-Shaders. Ziel dieser Arbeit ist es, ein Programm zu entwerfen, welches einen visuellen Einblick in die Tessellation und in das Displacement-Mapping bietet. Des Weiteren soll die Leistung der Tessellation mit der des Geometry-Shaders und einem QuadTree-Verfahren verglichen werden.
Dazu wird zuerst beschrieben, welche Umgebung zur Implementierung verwendet wurde. Anschließend werden zunächst einige geläufige Mappingverfahren betrachtet. Im nächsten Abschnitt wird dann auf die Tessellation und das Displacement-Mapping in Bezug auf Funktionsweise und Implementierung eingegangen. Es folgt ein Vergleich der Performance der unterschiedlichen Mapping-Verfahren untereinander. In einem weiteren Vergleich wird die Performance der Tessellation (mit Displacement-Mapping) mit einem Geometry-Shader und einem QuadTree-Verfahren anhand eines Terrains durchgeführt. Abschließend erfolgt die Beschreibung des Programms.
Ein zentraler Bestandteil der Teilchenphysik ist die Berechnung der Zerfallsbreiten bzw. Lebensdauern von Teilchen. Die meisten bekannten Teilchen sind instabil und zerfallen in zwei oder mehr leichtere Teilchen. Die Formel für die Berechnung einer Zerfallsbreite enthält zwei verschiedene Komponenten: Die kinematischen Faktoren, die lediglich vom Anfangs- und Endzustand abhängen und aus der Energie- und Impulserhaltung folgen, und die dynamischen Faktoren, die sich aus der Art der Wechselwirkung und eventuellen Zwischenstufen ergeben. Gibt es mehrere Zerfallskanäle, die zu den gleichen Endzuständen führen, so unterscheiden diese sich nur in den dynamischen Faktoren. Aus diesem Grunde werden kinematische und dynamische Faktoren getrennt, da nur letztere für die Analyse der Wechselwirkung relevant sind.
Die kinematischen Faktoren von Zwei- und Dreikörperzerfällen haben einen fundamentalen Unterschied: Beim Zweikörperzerfall ist durch die Erhaltungssätze die Verteilung der Energien der Produktteilchen komplett festgelegt, während sie bei einem Dreikörperzerfall innerhalb bestimmter Grenzen variieren kann.
Ein Dreikörperzerfall kann auf zwei verschiedeneWeisen auftreten: Bei einem direkten Zerfall entstehen gleichzeitig alle drei Endprodukte. Bei einem indirekten Zerfall zerfällt das Startteilchen zuerst in zwei Teilchen, von denen eines stabil ist und das andere erneut zerfällt. Im Falle des indirekten Zerfalls haben die resultierenden Teilchen eine andere Impulsverteilung als bei einem direkten Zerfall, woraus sich Informationen über den Zwischenzustand gewinnen lassen.
Im ersten Kapitel dieser Arbeit widmen wir uns der expliziten Berechnung der Zerfallsbreite für die verschiedenen Fälle. Wir beschränken uns hier und in allen weiteren Rechnungen auf skalare und pseudoskalare Teilchen, bei denen keine Spineffekte auftreten.
Die Zerfallsbreite eines Dreikörperzerfalls lässt sich in einer besonders praktischen Form, dem sogenannten Dalitz-Plot, darstellen. Hierbei sind alle kinematischen Faktoren konstant und eine Darstellung der Zerfallsbreite in Abhängigkeit der entsprechenden Variablen lässt direkten Aufschluss über die Art der Wechselwirkung zu. Die Form eines Dalitz-Plots sowie dessen Interpretation ist Gegenstand des zweiten Kapitels.
Im dritten Kapitel beschäftigen wir uns kurz mit der Frage, welche Auswirkungen Prozesse höherer Ordnung auf den gesamten Zerfall haben. Hierbei beschränken wir uns auf die Betrachtung von Loopbeiträgen des Zwischenzustandes eines indirekten Zerfalls.
Im letzten Kapitel werden wir die theoretischen Betrachtungen am Zerfall eines pseudoskalaren Glueballs anwenden. Ein Glueball ist ein gebundener Zustand aus Gluonen, den Austauschteilchen der starken Wechselwirkung. Da die Gluonen aufgrund der nichtabelschen Struktur der Farbsymmetriegruppe selbst Farbladung tragen, ist es theoretisch möglich, Zustände nur aus Gluonen zu konstruieren, die farbneutral sind und damit den Regeln des Confinements entsprechen. Im Falle der betrachteten Glueballs tritt ein weiterer interessanter Effekt auf: Da es mehrere Zerfallskanäle gibt, die zum gleichen Endzustand führen, treten Interferenzeffekte auf, deren Auswirkung auf das Gesamtergebnis näher untersucht wird.
Finanzderivate sind Produkte, die eine Möglichkeit bieten sich gegen künftige Preisschwankungen abzusichern oder auf eine zukünftige Preisentwicklung zu spekulieren. Die wichtigsten Arten von Finanzderivaten sind Optionen, Futures, Forwards und Swaps. Gegenstand vorliegender Bachelorarbeit werden ausschließlich Optionen sein. Auf den internationalen Finanzmärkten werden verschiedene Typen von Optionen gehandelt, weshalb sich die Frage des "fairen Preises" eines solchen Produktes stellt. Für viele gehandelte Optionen gibt es keine geschlossene Lösung zur Bestimmung des Preises, deshalb werden für diese numerische Verfahren zur Berechnung angewandt. Dabei muss beachtet werden, dass der Optionswert möglichst genau ist, jedoch sollte der Aufwand dabei ziemlich gering sein.
Ziel dieser Arbeit ist die Bestimmung eines numerischen Verfahrens, mit dem man europäische und amerikanische Multiasset-Optionen bewerten kann. Dieses Verfahren soll eine Erweiterung des bekannten Binomialverfahrens sein. Im Fokus steht dabei das Binomialverfahren, da es durch die Einschränkung auf zwei Entwicklungsmöglichkeiten in der Anwendung einfacher ist als das Black-Scholes-Modell. Dieses Verfahren ist nur für europäische und amerikanische Standard-Optionen definiert. Bei der Erweiterung muss beachtet werden, dass Multiasset-Optionen von mehreren Wertpapieren abhängen. In der Arbeit wird ein Produktbinomialverfahren entwickelt, das die Anzahl der Wertpapiere in der Dimension der entstehenden Bäume berücksichtigt. Dieses Verfahren konvergiert gegen das mehrdimensionale Black-Scholes-Modell und ist zu dessen graphischer Darstellung geeignet. Es wird jedoch auch gezeigt, dass dieses dem Fluch der Dimension unterliegt und somit der Aufwand für einen möglichst genauen Optionswert ziemlich hoch ist. Die Erweiterung dieses Verfahrens durch Dünne Gitter erzielt eine Optimierung der Laufzeit. Da der Fokus dieser Bachelorarbeit jedoch auf dem Produktbinomialverfahren liegt, wird im Folgenden auf diese Erweiterung nicht eingegangen.
Wir haben uns in dieser Arbeit der Frage nach der Dissipation in niederenergetischen Schwerionenkollisionen gewidmet. Dissipation im Allgemeinen hat ihre Ursache in direkten Teilchenkollisionen, die in der Methode von TDHF bezüglich der Nukleonen fehlen. Im VUU-Modell sind sie dagegen ein zentraler Bestandteil der Zeitentwicklung und spielen bei mittleren und hohen Energien eine wichtige Rolle.
Mithilfe des VUU-Modells wurde deshalb versucht einen Einfluss der Nukleon-Nukleon-Kollsionen auf den Impulsstrom festzustellen, der an der Verbindungsstelle in der Reaktion 16O + 132Sn mit b = 7 fm und Ecm = 100 vorliegt. Dabei variierten wir den NN-Wirkungsquerschnitt im Kollisionsterm der VUU-Gleichung mit der Erwartung, dass eine daraus resultierende Verminderung bzw. Erhöhung der Stoßrate Auswirkungen auf die Geschwindigkeitsverteilungen der Materie zeigt. Ein positives Ergebnis hätte den Schluss nahegelegt, dass die mittlere freie Weglände und damit die Viskosität von Kernmaterie in Schwerionenkollisionen zu berücksichtigen ist.
Im Verlauf unserer Analyse haben wir festgestellt, dass die von uns verwendeten Methoden nicht zu den gewünschten Ergebnissen führten, z.T. auch weil die Kerne in den VUU-Rechnungen Instabilität aufwiesen und so die relevante Reaktionszeit einschgeschränkt wurde. Wir konnten einen Einfluss von direkten Teilchenkollisionen auf den Impulsstrom zwischen den Kernen des obigen Systems nicht verifizieren. Zusätzliche Simulationen an 12C + 12C mit b = 0 fm haben dann gezeigt, dass offenbar der allergrößte Teil der Nukleon-Nukleon-Kollisionen aufgrund des Pauli-Prinzips blockiert wird. Aus diesem Grund ziehen wir die Möglichkeit in Betracht, dass die starke Präsenz des Pauli-Prinzips im niederenergetischen Bereich die Stoßrate nicht nur maßgeblich reduziert, sondern damit direkte Stöße insgesamt kaum Einfluss auf den Impulsstrom und die Dissipation haben könnten. Die Dissipation ist demnach hauptsächlich auf einen Austausch üuber die Verbindungsstelle zweier Kerne zurückzuführen, was in weiterführender Literatur unter dem Stichwort window formula bekannt ist.
Weitere Untersuchungen in diese Richtung sind wünschenwert. Insbesondere ist es erforderlich das angesprochene Zeitproblem zu lösen, um eventuell die Stoßrate zu erhöhen. Dann könnte ein möglicher Einfluss auf den Impulsstrom wesentlich länger und detaillierter studiert werden. Es bietet sich zudem an, das benutzte Auswerteprogramme vuudens so abzuändern, dass z.B. ein feineres Gitter benutzt werden kann, auf dem die Dichten berechnet werden. Das so gesteigerte Auflösungsvermögen würde sicherlich die
Unzulänglichkeiten der in dieser Arbeit verwendeten Methoden reduzieren. Bei weiterem und tieferem Studium der besprochenen Prozesse könnte es natürlich sein, dass bessere Ansätze zur Analyse gefunden werden. Dies wäre in jedem Fall zu begrüßen.
Das CBM-Experiment an der Forschungseinrichtung FAIR in Darmstadt wird in Zukunft das Phasendiagramm der QCD im Bereich von niedrigen bis moderaten Temperaturen und hohen Baryondichten untersuchen und dabei mit hadronischen und elektromagnetischen Sonden eine Vielzahl an Observablen messen. Um Elektronen und Positronen von geladenen Pionen effizient zu unterscheiden werden mehrere Lagen von Übergangsstrahlungsdetektoren auf Basis von Vieldrahtproportionalkammern verwendet. Bei den hohen Reaktionsraten des CBM-Experiments von bis zu 10MHz am target sind schnelle Detektoren notwendig um die vielen Teilchen mit einer hohen zeitlichen Auflösung nachzuweisen. Aus diesem Grund werden am IKF der Goethe-Universität dünne MWPCs ohne zusätzliche Driftregion entwickelt, für die ein Eintrittsfenster aus dünner Mylarfolie mit einer kleinen Absorptionswahrscheinlichkeit der TR-Photonen in Betracht gezogen wird. Bei großen Detektoren beult sich ein dünnes Folienfenster bereits bei Druckunterschieden von einigen Mikrobar aus, was eine Variation der Gasverstärkung zur Folge hat.
Mit Garfield-Simulationen wurde die relative Änderung der Gasverstärkung in Abhängigkeit der Ausbeulung des Eintrittsfensters für Detektoren der Größe 4+4 mm, 5+5mm und 6+6mm mit den Gasgemischen Xe(80%)/CO2(20%) und Xe(90%)/CO2(10%) bestimmt. Um eine Gain-Stabilität von Δ,G = +/- 10% zu gewährleisten, beträgt die maximale Ausbeulung des Folienfensters durchschnittlich 120 μm +/- 5 μm bei der 4+4mm Kammer, 137 μm +/- 5 μm bei der 5+5mm Kammer und 154 μm +/- 6 μm bei der 6+6mm Kammer unabhängig vom Gasgemisch. Diese Ergebnisse stellen eine große Herausforderung für die Detektorentwicklung und -konstruktion dar. Eine Möglichkeit die Ausbeulung des Folienfensters zu minimieren ist ein geeigneter Aufbau, der die Folie verstärkt. Eine weitere Herangehensweise ist die Entwicklung einer Korrekturmethode, die die Gasverstärkung bzw. die gemessenen Signale abhängig von verschiedenen Drücken, Druckunterschieden und der damit verbundenen Ausbeulung des Eintrittsfensters korrigiert, wodurch die Signale reproduzierbar und vergleichbar werden.
Weiterhin wurden die Elektron-Driftzeiten für die drei Kammergeometrien simuliert um eine Aussage über die Zeitauflösung des Detektors zu machen. Die Driftzeiten unter Verwendung eines Xe(90%)/CO2(10%) Gasgemischs sind dabei grundsätzlich größer als mit Xe(80%)/CO2(20%) und führen zu Zeitauflösungen von Δt ~ 40 ns bzw. Δt ~ 30 ns. Die maximalen Driftzeiten am äußeren Rand der Detektoren sind für alle Detektorgeometrien mit beiden Gasgemischen sehr klein im Vergleich zu den erwarteten durchschnittlichen Teilchenraten. Daraus folgt, dass die Zeitauflösung der untersuchten Detektoren die Erwartungen mit Hinblick auf die Reaktionsraten des CBM-Experiments erfüllt.
In dieser Arbeit wurden die ersten Schritte unternommen um Elektronen aus den Zerfällen schwerer Quarks zu messen. Im Folgenden wird zunächst ein Überblick zum physikalische Hintergrund gegeben und der elliptische Fluss als Sonde zur Untersuchung des QGP motiviert. Anschließend werden der LHC und ALICE näher beleuchtet und die einzelnen Detektorsysteme, die für diese Analyse wichtig sind, vorgestellt. Im weiteren wird eine Methode zur Identifizierung von Elektronen vorgestellt und die Kontamination des Elektronensignals durch Hadronen bestimmt. Abschließend wird der elliptische Fluss eines von Hadronen bereinigten Inklusiv-Elektronen Spektrums bestimmt und ein Ausblick auf weitere Analyseschritte gegeben.
Die vorliegende Arbeit beschäftigt sich mit der Energiekalibration und der Effizienz zweier Niederenergie-Germaniumdetektoren, deren Energieauflösungen hier ebenfalls bestimmt werden. Die Untersuchungen werden an den γ-Spektren von 109Cd, 54Mn, 137Cs, 57Co, 133Ba, 60Co und 22Na in zwei verschiedenen Verstärkungseinstellungen vorgenommen, wobei der Abstand der Eichquellen zu dem Detektor variiert wird, um zussätzlich die Abhänngigkeit der Effizienz vom Raumwinkel sowie den Einfluss von Summeneffekten zu untersuchen. Einige der Eichquellen weisen in ihren Spektren γ-Zerfallskaskaden auf, die sich negativ auf die Bestimmung der Detektoreffizienz auswirken und somit als Eichquellen nicht optimal sind. Zusätzlich erfolgt dann ein Vergleich der Effizienzeichungen mit einer Monte-Carlo-Simulation.
Im Rahmen dieser Bachelorarbeit wurde eine flashbasierte Anwendung zum Trainieren und Prüfen der Fähigkeit zur korrekten Interpretation von Bildinformationen entwickelt.
Den Ausgangspunkt der Entwicklung bildete eine Analyse von bisher existierenden Anwendungen am Beispiel der Radiologie. Die Analyse ergab, dass die bereits existierenden Anwendungen Interaktionen mit dem Bild in bestimmten Umfang erlauben, jedoch keine Anwendung gefunden werden konnte, bei der ein direktes Markieren von Strukturen im Bild mit z.B. einem Stift möglich ist. Ziel war es, dies zu entwickeln.
Die Entwicklung des Konzeptes begann mit einer Analyse der Anforderungen, die sich aus dem Bildmaterial in der Radiologie ergeben. Daraus wurden drei Aufgabenszenarien entwickelt: Nachfahren einer Struktur, einkreisen einer Struktur und markieren einer Struktur durch einen Stempel. Diese Aufgabenszenarien erfordern verschiedene Zeichen- und Hilfswerkzeuge. Implementiert wurden die Zeichenwerkzeuge Stift, Stempel und aufziehbarer Kreis, so wie die Hilfswerkzeuge Zoom und Helligkeitsregelung.
Für die drei Aufgabenszenarien wurden im Konzept Definitionen des Lösungsbereiches erstellt, den der Ersteller von Übungen im Flash Template an gibt. Diese drei Lösungsbereiche erfordern wiederum unterschiedliche Auswertungen und andere Verfahren zur Fehlerwertungen. Die Fehlerwertung setzt sich je nach Aufgabenszenario aus verschiedenen Verfahren zusammen.
Die anschließende Integration der Anwendung in die LernBar erfolgte über eine Integration von Schnittstellen in die Anwendung, die eine Kommunikation zwischen LernBar Player und der Anwendung erlauben. Zusätzlich wurde das Einlesen von XML Dateien ermöglicht und die Struktur einer XML Datei, zur Übergabe der nötigen Parameter, definiert. Diese XML Datei erlaubt die spätere Einbindung eines Wizards in das LernBar Studio, was im Ausblick erläutert wurde.
Die Implementierung der Anwendung beweist, dass das in dieser Bachelorarbeit aufgestellte Konzept funktioniert.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
In dieser Arbeit wurden zwei unterschiedliche Konzepte für einen Rebuncher mit mehreren Aperturen auf der Symmetrieachse des geplanten Bunchkompressors für das FRANZ-Projekt untersucht. Die besonderen Anforderungen sind die Zeitstruktur des Strahls und der geringe seitliche Abstand der unterschiedlichen Strahlwege...
Der für diese Arbeit entwickelte Prototyp zur Neutronenproduktion hat sich bereits während der ersten Tests bewährt, womit schnell festgestellt wurde, dass sich das Grunddesign des Prototypen für die späteren Experimente am FRANZ eignet. Wie man gesehen hat, entstand die verwendete Revision in mehreren Schritten, da immer wieder aus gemachten Planungsfehlern gelernt werden musste. Zusätzlich gab es bei der Planung mehrere Beschränkungen, die beachtet werden mussten, dazu zählt unter anderem die Form des Prototypen, um ohne Probleme den Bedampfungstand des FZK verwenden zu können.
Das neue Kühlsystem verlangte während der Planung besonderer Aufmerksamkeit. Bei Experimenten wie am IRMM oder FZK kann aufgrund der geringen Leistung des Beschleunigers mit einer Luftkühlung oder einfachen Wasserkühlung gearbeitet werden. Diese Arten der Kühlung beeinflussen den Neutronenfluss nicht. Bei FRANZ muss aufgrund der im Vergleich zu den vorher genannten Experimenten viel höheren Leistung von 4 kW, ein gänzlich neuer Kühlungsansatz verwendet werden. Um die Leistung vom Target abzuführen, muss nun ein viel größerer Bereich gekühlt werden, um die entstehenden Temperaturen unter Kontrolle zu halten. Auch das Vorhersagen der entstehenden Temperaturen war nur unter Annahme mehrerer Parameter möglich. Durch die komplexe Struktur des Prototypen stieß die Berechnung des Temperaturprofis mit einfachen analytischen Mitteln schnell an ihre Grenzen. Aus diesem Grund wurden für diese Arbeit jeweils nach der Einführung der Wärmeleitung vereinfachte Annahmen gemacht, um dennoch Berechnungen durchführen zu können. Dass dies nicht immer zu exakten Ergebnissen führt, wurde während des Prozesses mehrfach festgestellt. Dennoch konnten so die Größenordnungen der Temperaturen bestimmt werden, was letztlich zur Auslegung des Kühlsystems beitrug.
Die Lösung, für die sich entschieden wurde, war die Kühlung der Rückseite des Target mit Wasser. Der große Nachteil dieser neuen, aber notwendigen Kühllösung, sind die Materialien, die nun den Neutronenfluss aus der Li(p,n) Reaktion beeinflussen. Wichtig war es eine Balance zwischen Schichtdicken von Kupfer und Wasser, die für die mechanische und thermische Stabilität notwendig waren, und der Qualität des erhaltenen Spektrums zu finden. Hierfür wurden zahlreiche Simulationen mit GEANT 3 angefertigt, um die Einflüsse beider Stoffe abschätzen zu können, wobei sich schließlich herausstellte, dass die Schichtdicke von Wasser die Neutronen am meisten beeinflusst. Da Wasser stark moderierend auf Neutronen wirkt, stellte man fest, dass man bei Experimenten vor allem hochenergetische Neutronen verliert. Konsequenz war die strikte Kontrolle der Wasserdicke.
In der vorliegenden Arbeit wird die Gestaltung eines Teststandes für die optische Tomographie eines Ionenstrahles untersucht. Nachdem Ionenstrahlen hoher Intensität immer mehr Leistung in den Diagnosegeräten deponieren, müssen neue nicht Strahlzerstörende Diagnosemethoden gefunden werden. Die Diagnose mittels strahlinduziertem Restgasleuchten ist dabei eine viel versprechende nicht zerstörende Methode. Neben der Definition der Anforderungen für einen solchen Teststand werden verschiedene Realisierungsmöglichkeiten untersucht. Mit einem Testaufbau wird das strahlinduzierte Leuchten in Abhängigkeit verschiedener Restgase und Restgasdrücke untersucht, sowie die Eigenschaften des optischen Systems und der Kamera analysiert. Weiterhin wird die Möglichkeit der Emittanzbestimung aus einer optischen Aufnahme mit vorhandenen Methoden untersucht.
Das Ziel dieser Arbeit ist die realitätsgetreue Entwicklung eines interaktiven 3D-Stadtmodells, welches auf den ÖPNV zugeschnitten ist. Dabei soll das Programm anhand von Benutzereingaben und mit Hilfe einer Datenquelle, automatisch eine dreidimensionale Visualisierung der Gebäude erzeugen und den lokalen ÖPNV mitintegrieren. Als Beispiel der Ausarbeitung diente das ÖPNV-Netz der Stadt Frankfurt. Hierbei wurde auf die Problematik der Erhebung von Geoinformationen und der Verarbeitung von solchen komplexen Daten eingegangen. Es wurde ermittelt, welche Nutzergruppen einen Mehrwert durch eine derartige 3D Visualisierung haben und welche neuen Erweiterungs- und Nutzungspotenziale das Modell bietet.
Dem Leser soll insbesondere ein Einblick in die Generierung von interaktiven 3D-Modellen aus reinen Rohdaten verschafft werden. Dazu wurde als Entwicklungsumgebung die Spiele-Engine Unity eingesetzt, welche sich als sehr fähiges und modernes Entwicklungswerkzeug bei der Erstellung von funktionalen 3D-Visualisierungen herausgestellt hat. Als Datenquelle wurde das OpenStreetMap Projekt benutzt und im Rahmen dieser Arbeit behandelt. Anschließend wurde zur Evaluation, das Modell verschiedenen Nutzern bereitgestellt und anhand eines Fragebogens evaluiert.
In dieser Arbeit wurde der Entwurf eines Rebunchers für die Ionenstrahltherapieanlage MedAustron mit Hilfe des Simulationsprogramms Microwave Studio entwickelt. Es wurde ein neues Design in Anlehnung an einen Spiralresonator gewählt, wobei der Spiralarm aus einem wassergekühlten induktiven Teil und einem aus massivem Kupfer gefertigten kapazitiven Teil besteht.
Die Frequenz der ersten Eigenmode liegt zwischen 217,8 MHz (ohne Keramik) und 217,3 MHz (mit Keramik). In der Realität könnte die Frequenz von diesem Wert etwas abweichen (bis zu 0,5 MHz), da einerseits Details wie Ein- und Auskopplung und andererseits reale Effekte wie Oberflächenverunreinigung oder kleinste Abweichungen in der Geometrie in Microwave Studio nicht berücksichtigt werden können. Außerdem wird die Genauigkeit der Simulationen durch die Anzahl Gitterpunkte limitiert. Um diese Eekte kompensieren zu können, wurden die Auswirkungen eines Tuners auf die Frequenz untersucht. Hierbei ergab sich für eine Tunerhöhe von 40 mm eine Frequenzveränderung von 220 kHz, bei 70 mm sind es schon 1,224 MHz.
Da sich bei dieser Frequenz und Geometrie ein Laufzeitfaktor von nur 0,66 auf der Strahlachse ergibt und die Spannung dort zusätzlich um den Faktor 0,983 niedriger ist als am Spaltrand, muss bei einer effektiven Shuntimpedanz von 13,4 M Ω/m eine Leistung von 2,46 kW aufgebracht werden. Nähere Untersuchungen der elektrischen Felder fürten zu dem Ergebnis, dass der Grund für den niedrigen Laufzeitfaktor dynamische Eekte sein müssen. Die "statischen Felder" verhalten sich wie erwartet.
Aber auch die reale Shuntimpedanz und somit auch die reale Verlustleistung können beträchtlich von den berechneten Werten abweichen. Es wird erwartet, dass die Shuntimpedanz im ungünstigsten Fall nur 60% der simulierten Impedanz beträgt, weswegen man mit einer Verlustleistung von 4,09 KW rechnen muss.
Der Rebuncher soll zusammen mit der Beschleunigeranlage in Österreich im Jahr 2013 in Betrieb gehen, aber bereits in 2012 zu Strahlexperimenten am CERN zur Verfügung stehen.
Entwicklung und Untersuchung verschiedener Elektrodenkonfigurationen eines gepulsten Plasmajets
(2012)
Es sollte eine Simulationsumgebung mit einem Straßennetz und eine KDNA, die Autos auf diesem Straßennetz kontrolliert, implementiert werden. Für die Simulation wurde eine einfache graphische Darstellung entwickelt auf der eine variable Anzahl Autos auf einem vorprogrammierten Straßennetz fahren. Eine KDNA steuert diese Autos über Kontrolle von Gas-, Bremse- und Steuerradpositionen, wobei Geschwindigkeits- und Richtungskontrolle unabhängig stattfinden. Bei der Analyse der KDNA für mehrere Autos traten Leistungsprobleme auf, deren Quelle genauer untersucht wurde. Die Last wurde primär durch die Kommunikation zur Verwaltung der KDNA-Tasks im AHS erzeugt.