Refine
Year of publication
Document Type
- Bachelor Thesis (158) (remove)
Has Fulltext
- yes (158)
Is part of the Bibliography
- no (158) (remove)
Keywords
- NLP (3)
- Text2Scene (3)
- TextAnnotator (3)
- Annotation (2)
- Beschleunigerphysik (2)
- FRANZ (2)
- Ionenstrahl (2)
- Machine Learning (2)
- Strahldynamik (2)
- Strahlprofil (2)
Institute
- Physik (75)
- Informatik (34)
- Informatik und Mathematik (17)
- Mathematik (8)
- Gesellschaftswissenschaften (6)
- Wirtschaftswissenschaften (3)
- Erziehungswissenschaften (2)
- Geowissenschaften (2)
- Geschichtswissenschaften (2)
- Sprach- und Kulturwissenschaften (2)
This thesis investigates the linguistic effects of language contact between French and German in Alsace due to the German annexation of this region during World War II. The turbulent, tug-of-war history of Alsace has constantly challenged the Alsatian people to secure a stable cultural and national identity. This study focuses on understanding the development of the linguistic aspect of this Alsatian identity. My hypothesis is that there was a greater French influence on Alsatian speech after World War II due to the anti-German sentiment provoked by the harsh Nazi policies during the war. To test this hypothesis, this study analyzes and compares the type and regularity of lexical borrowings from French into German and from German into French in Alsatian newspapers in 1945.
The current performance of a 4π barium fluoride gamma detector consisting of 41 modules is evaluated. It will be used to measure neutron capture events in different samples that are exposed to a neutron beam that is expected to contain up to 10^7 neutrons/(cm^2 sec). The capture cross-sections acquired in this experiment will be relevant to a multitude of different areas, for example to s-process studies, or accelerator-driven systems. The detector array was re-mounted after having been moved from Karlsruhe to Frankfurt and in the course of this process, the detector modules have been checked for their current detection properties. Every module consists of a BaF2 crystal, a photomultiplier tube connected to the crystal by sillicon oil and a voltage divider to drive the PMT, so each of them is already an individual gamma detector. Using Cobalt-60 and Caesium-137 test sources the energy resolution and - more importantly - the time resolution of every module has been determined; the results are presented in this work and compared to previous data taken at the time the detector was built initially in the mid-1980s.
Mit dieser Arbeit wurde gezeigt, wie sich Störung und Kopplung auf ein System zwei gekoppelter Resonatoren auswirkt. Das Einfahren des Tauchkolbens birgt die Möglichkeit die Eigenfrequenzen des Systems zu verändern und die Feldverteilungen anzupassen. Ein Tauchkolben auf der anderen Seite des Resonators wäre für die Anschauung der Störung praktisch gewesen, hätte jedoch keine weiteren Erkenntnisse geliefert.
Es ist möglich mit zwei verschiedenen eingekoppelten Frequenzen eine Schwebung im Resonator zu erzeugen. Dies könnte theoretisch für eine Hochfrequenzstrahlablenkung nützlich sein. Mit einer speziell auf Strahlablenkung optimierten Resonatorgeometrie gilt es dies praktisch zu überprüfen.
Im Rahmen dieser Bachelorarbeit wurde eine flashbasierte Anwendung zum Trainieren und Prüfen der Fähigkeit zur korrekten Interpretation von Bildinformationen entwickelt.
Den Ausgangspunkt der Entwicklung bildete eine Analyse von bisher existierenden Anwendungen am Beispiel der Radiologie. Die Analyse ergab, dass die bereits existierenden Anwendungen Interaktionen mit dem Bild in bestimmten Umfang erlauben, jedoch keine Anwendung gefunden werden konnte, bei der ein direktes Markieren von Strukturen im Bild mit z.B. einem Stift möglich ist. Ziel war es, dies zu entwickeln.
Die Entwicklung des Konzeptes begann mit einer Analyse der Anforderungen, die sich aus dem Bildmaterial in der Radiologie ergeben. Daraus wurden drei Aufgabenszenarien entwickelt: Nachfahren einer Struktur, einkreisen einer Struktur und markieren einer Struktur durch einen Stempel. Diese Aufgabenszenarien erfordern verschiedene Zeichen- und Hilfswerkzeuge. Implementiert wurden die Zeichenwerkzeuge Stift, Stempel und aufziehbarer Kreis, so wie die Hilfswerkzeuge Zoom und Helligkeitsregelung.
Für die drei Aufgabenszenarien wurden im Konzept Definitionen des Lösungsbereiches erstellt, den der Ersteller von Übungen im Flash Template an gibt. Diese drei Lösungsbereiche erfordern wiederum unterschiedliche Auswertungen und andere Verfahren zur Fehlerwertungen. Die Fehlerwertung setzt sich je nach Aufgabenszenario aus verschiedenen Verfahren zusammen.
Die anschließende Integration der Anwendung in die LernBar erfolgte über eine Integration von Schnittstellen in die Anwendung, die eine Kommunikation zwischen LernBar Player und der Anwendung erlauben. Zusätzlich wurde das Einlesen von XML Dateien ermöglicht und die Struktur einer XML Datei, zur Übergabe der nötigen Parameter, definiert. Diese XML Datei erlaubt die spätere Einbindung eines Wizards in das LernBar Studio, was im Ausblick erläutert wurde.
Die Implementierung der Anwendung beweist, dass das in dieser Bachelorarbeit aufgestellte Konzept funktioniert.
In dieser Arbeit wurden im Rahmen des HADES-Experimentes von 2007 Proton-Proton-Stöße bei einer kinetischen Energie von Tkin = 3.5GeV der Reaktion pp → ppw simuliert. Insbesondere wurde mittels einer Pluto-Simulation untersucht, welche Auswirkungen die Berücksichtigung möglicher Verteilungsfunktionen für cos(θω) und cos(θ pp), die neben 2 weiteren Parametern als voneinander unabhängige Observablen zur Beschreibung der Reaktion gewählt wurden, auf die Anzahl der simulierten Ereignisse Nsim innerhalb der Detektorakzeptanz des HADES haben könnte. Hierbei stammt die gewählte Winkelverteilung für die w-Produktion aus Messungen des nicht mehr existierenden DISTO-Spektrometers, das Proton-Proton-Stöße bei einer leicht geringeren Energie von Tkin = 2.85GeV durchgeführt hatte, während die Verteilung für die Proton-Proton-Paar-Ausrichtung auf einer Annahme basiert und vorläufig gewählt wurde. Unter Verwendung eines weiteren Modells, das den 3-Teilchen-Zerfall ω → π+π−π0 beschreibt, wurde ein theoretisches Modell von Lutz et al. [1] in die Simulation implementiert, dessen Auswirkung auf Nsim es ebenfalls zu untersuchen galt. Dieses erlaubt eine Reduzierung der Anzahl der Freiheitsgrade des Systems von 12 auf 4, was eine Akzeptanzkorrektur der Reaktion pp→ ppω ermöglicht.
Die Ergebnisse zeigten eine starke Abhängigkeit der Anzahl der simulierten Teilchen von der Proton-Proton-Ausrichtung, die zu einer Reduzierung der Ereignisanzahl von etwa 15% führt. Dies hat zur Folge, dass eine Bestimmung der Verteilungsfunktion für diese Observable absolut notwendig ist. Die Auswirkungen der w-Winkelverteilung beträgt etwa 4−9%. Ein Vergleich der Simulationsergebnisse mit und ohne Modell führte zu dem Ergebnis, dass eine geringe Änderung der Nsim von 1−2% zu Gunsten des Zerfallsmodells vorliegt. Eine Berücksichtigung in Simulationen, die der Untersuchung des betrachteten Zerfalls dienen, ist also keine Notwendigkeit.
In dieser Arbeit wurden zwei unterschiedliche Konzepte für einen Rebuncher mit mehreren Aperturen auf der Symmetrieachse des geplanten Bunchkompressors für das FRANZ-Projekt untersucht. Die besonderen Anforderungen sind die Zeitstruktur des Strahls und der geringe seitliche Abstand der unterschiedlichen Strahlwege...
140 Liter Wasser werden für die Herstellung einer Tasse Kaffee benötigt, 1.300 Liter Wasser für ein Kilo Gerste und 3.400 Liter Wasser für ein Kilo Reis. Diese Zahlen mögen im ersten Moment unglaubwürdig erscheinen, doch sie entsprechen der Wirklichkeit. Für die Herstellung von nahezu allen Produkten wird Wasser in teils sogar sehr großen Mengen benötigt. In dem Endprodukt jedoch findet sich meist nur ein kleiner Teil des ursprünglich eingesetzten Wassers in seiner physischen Form wieder. Der überwiegende Anteil wurde während des Produktionsprozesses verdunstet oder zur Kühlung eingesetzt und wird daher als „virtuelles Wasser“ bezeichnet. Aufgrund des Exports und Imports von Produkten im Zuge des internationalen Handels kommt es somit auch zu Strömen von virtuellem Wasser zwischen den einzelnen Ländern. In dieser Bachelorarbeit wird der virtuelle Wasserhandel mit 23 verschiedenen Feldfrüchten mit dem Fokus auf Deutschland für den Zeitraum von 1998 bis 2002 untersucht. In die Berechnung dieser virtuellen Wasserströme ist ein neuartiges Modell eingegangen, das Global Crop Water Model (GCWM), welches den virtuellen Wassergehalt für unterschiedliche Feldfruchtgruppen global für jede 5-Minuten-Zelle auf Basis detaillierter Daten berechnet. Dank dieses Modells ist es möglich, eine Trennung zwischen dem virtuellen Wasser, welches aus der Nutzung des Niederschlagswassers und dem virtuellen Wasser, welches aus der Bewässerung von Ackerflächen resultiert, vorzunehmen und diese getrennt von einander zu analysieren. Mittels der Verwendung der Handelsstatistik Comtrade der Vereinten Nationen lässt sich aus den Ergebnissen des GCWM der virtuelle Wasserhandel darstellen. Es zeigt sich, dass Deutschland das meiste Wasser in seiner virtuellen Form nach Algerien, Saudi-Arabien, Belgien und in die Niederlande exportiert, wohingegen aus Brasilien, den USA, Frankreich und der Elfenbeinküste die größten virtuellen Wassermengen importiert werden.
Orts- und zeitaufgelöste Elektronendichte eines gepulsten induktiv gekoppelten Entladungsplasmas
(2009)
In der vorliegenden Bachelorarbeit wurde ein Modell für die räumlich und zeitlich aufgelöste Elektronendichteverteilung in einem gepulsten induktiv gekoppelten Plasma erstellt. Experimentell war es, bedingt durch den gepulsten Betrieb und die Wahl der Diagnostikmethode im Experiment „Prometheus“, nur möglich über die Zeit und den Ort gemittelte Elektronendichten zu messen.
Um nun den räumlichen Verlauf der Elektronendichte zu bestimmen, wurde die räumliche Elektronendichteverteilung durch eine ambipolare homogene Diffusion beschrieben. Die daraus resultierende Differentialgleichung wurde mithilfe von sphärischen Koordinaten unter Annahme von Azimutal- und Polarwinkelsymmetrie gelöst.
Der zeitliche Elektronendichteverlauf wurde durch die, für diesen Elektronendichtebereich gültige, Proportionalität zwischen elektrischer Leistung im Plasma und Elektronendichte berechnet. Die elektrische Leistung und deren zeitlicher Verlauf im Plasma ließ sich über ein Photodiodensignal im experimentellen Aufbau ermitteln.
Das so ermittelte Modell wurde auf die gemessenen integrierten Elektronendichten des Experiments „Prometheus“ angewendet. Durch das Modell ließ sich eine Aussage über die tatsächliche maximale Elektronendichte innerhalb des Entladungspulses treffen.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Shader zur Bildbearbeitung
(2009)
In den letzten Jahren haben Grafikkarten eine starke Veränderung erfahren. Anfangs war lediglich die Darstellung vorberechneter Primitive möglich, mittlerweile lassen sich Vertex- und Pixelshader komplett frei programmieren. Die Spezialisierung auf den Rendervorgang hat die GPUs (Graphics Processing Units) zu massiv-parallelen Prozessoren wachsen lassen, die unter optimaler Ausnutzung ein Vielfaches der Rechenleistung aktueller CPUs erreichen. Die programmierbaren Shader haben Grafikkarten in der letzten Zeit vermehrt als weiteren Prozessor für General Purpose-Programmierung werden lassen.
Aktuelle Bildbearbeitungsprogramme zeigen, dass sich die Tendenz Richtung GPU bewegt, so wird sich auch in dieser Arbeit die enorme Rechenleistung der GPU für die Bildbearbeitung zu nutzen gemacht. Bildfilter lassen sich als Pixelshader realisieren und ermöglichen so die Ausführung direkt auf der GPU. Das vorgestellte Framework SForge wurde mit dem Ziel entwickelt, zu einem bestehenden Framework kompatibel zu sein. Als bestehendes Framework wurde auf AForge zurückgegriffen. Mit SForge können bestehende und eigene Bildfilter direkt auf der GPU ausgeführt werden, aber auch die Konvertierung von Farbräumen und Farbsystemen wurden realisiert. Das Framework arbeitet floatbasierend. Somit können auch HDR-Daten verarbeitet werden, um beispielsweise Tonemapping anzuwenden. Filter mit Parametern lassen sich über einen optionalen Dialog interaktiv ändern und modifizieren das Resultat in Echtzeit.
Various concurrency primitives had been added to functional programming languages in different ways. In Haskell such a primitive is a MVar, joins are described in JoCaml and AliceML uses futures to provide a concurrent behaviour. Despite these concurrency libraries seem to behave well, their equivalence between each other has not been proven yet. An expressive formal system is needed. In their paper "On proving the equivalence of concurrency primitives", Jan Schwinghammer, David Sabel, Joachim Niehren, and Manfred Schmidt-Schauß define a universal calculus for concurrency primitives known as the typed lambda calculus with futures. There, equivalence of processes had been proved. An encoding of simple one-place buffers had been worked out. This bachelor’s thesis is about encoding more complex concurrency abstractions in the lambda calculus with futures and proving correctness of its operational semantics. Given the new abstractions, we will discuss program equivalence between them. Finally, we present a library written in Haskell that exposes futures and our concurrency abstractions as a proof of concept.
Trotz eines umfangreichen Angebots an Literatur und Ratgebern im Bereich des Projektmanagements scheitern auch heute noch viele IT-Projekte. Ursache sind oft Probleme im Projektteam oder Fehleinschätzungen in der Planung des Projektes und Überwachung des Projektstatus. Insbesondere durch neue Technologien und Globalisierung entstandene Arbeitsweisen wie das virtuelle Team sind davon betroffen. In dieser Arbeit wird auf die Frage eingegangen, was virtuelle Teams sind und welche Probleme die Arbeit von virtuellen Teams belastet. Dafür werden aktuell existierende Tools aus dem Bereich des Web 2.0 analysiert und aus dem Stand der angebotenen Tools vermeidbare Schwächen der Helfer herausgearbeitet. Anschließend wird ein mittels einer Anforderungsanalyse und eines Konzepts, welches neue Methoden zur Darstellung von Projektstatus und Verknüpfung mit Dokumentation und Kommunikation nutzt, das Tool „TeamVision“ erstellt, welches versucht, virtuelle Teams möglichst effizient zu managenen, Probleme schnell zu erkennen und somit die Arbeit innerhalb des Teams zu beschleunigen. Hierbei wird insbesondere das Ergebnis der Analyse benutzt, dass viele Tools einzelne Verwaltungsaufgaben getrennt durchführen. Informationen müssen vom Nutzer selbst aus den verschiedenen Grafiken, Listen oder anderen Darstellungen gesammelt und selbst assoziiert werden. Die prototypische Implementierung von TeamVision versucht den Informationsfluss beherrschbar zu machen, indem Übersichten in einem Projektbaum zusammengefasst werden, der mittels Zoomfunktionen und visueller Hilfsmitel wie Farbgebung versucht, die Informationsbeschaffung zu erleichtern.
In der vorliegenden Arbeit wird die Gestaltung eines Teststandes für die optische Tomographie eines Ionenstrahles untersucht. Nachdem Ionenstrahlen hoher Intensität immer mehr Leistung in den Diagnosegeräten deponieren, müssen neue nicht Strahlzerstörende Diagnosemethoden gefunden werden. Die Diagnose mittels strahlinduziertem Restgasleuchten ist dabei eine viel versprechende nicht zerstörende Methode. Neben der Definition der Anforderungen für einen solchen Teststand werden verschiedene Realisierungsmöglichkeiten untersucht. Mit einem Testaufbau wird das strahlinduzierte Leuchten in Abhängigkeit verschiedener Restgase und Restgasdrücke untersucht, sowie die Eigenschaften des optischen Systems und der Kamera analysiert. Weiterhin wird die Möglichkeit der Emittanzbestimung aus einer optischen Aufnahme mit vorhandenen Methoden untersucht.
Long-term average groundwater recharge representing the sustainable groundwater resources is modeled as a 0.5° by 0.5° grid on global scale by the WaterGAP Global Hydrology Model. Due to uncertainties of estimating groundwater recharge, especially in semiarid and arid regions, independent estimates are used for calibrating the model. This work compiled a new set of independent groundwater recharge estimates based on a work of Scanlon et al. (2006). The 59 independent estimates, together with an already existing independent estimates compilation, are used for the evaluation of two WGHM variants; one variant is modeling with an improved more realistically distributed daily precipitation dataset.
The objective of this thesis is the evaluation of the modeled data of the WaterGAP Global Hydrology Model (WGHM). The analysis of the impact of the new Watch Forcing Data (WFD) precipitation dataset on the modeled groundwater recharge tends to result in lower values in humid and higher values in (semi-)arid regions compared to the WGHM standard variant. Comparing both WGHM variants to the independent estimates compilations, representing (semi-)arid regions, the WGHM variant shows over- and underestimations especially of the low values and the WGHM WFD variant shows a bias toward overestimation especially for values below 4 mm/yr. The analysis of texture, hydrogeology and vegetation/ land cover could not give satisfying explanations for the discrepancies, but derived from the groundwater recharge measurement methods analysis indirect/ localized recharge seems to be a significant factor causing underestimations, as resulted in the comparison of the independent estimates based on Scanlon et al. 2006 with the WGHM variants.
In dieser Arbeit wurde gezeigt, ob Simulation und Messung der realen Struktur übereinstimmen. Dazu wurde mit Hilfe der Störkörpermessmethode über die Phasenverschiebung die elektrische Feldverteilung einer IH-Struktur bestimmt (unter Variation der Tunerhöhe). Die Feldverteilung von Simulation und Messung sind im Kurvenverlauf gleich, allerdings ist die Stärke der Simulationsfelder um einen Faktor 1,1 – 1,2 größer...
Im Jahr 1960 gelang es Theodore Mainman einen funktionierenden Laser zu bauen. Die Entwicklung dieser Technik war seitdem rasant. Im Alltag ist der LASER heute genausowenig wegzudenken wie in weiten Teilen der Forschung und Medizin. Er findet Anwendung in der Datentechnik (z.B. bei CDs und DVDs), hilft, Augenschäden zu heilen und hat natürlich auch weitreichende Bedeutung in der Physik. Besonders ultrakurze Pulse und hohe Energiedichten werden hierbei benötigt. Um hohe Energiedichten zu erreichen, müssen oft Verstärker (englisch: amplifier) benutzt werden. Häufig verwendet wird hierbei ein Aufbau, bestehend aus einem Stretcher, der schon bestehende Pulse zeitlich streckt, um Beschädigungen an optischen Geräten zu vermeiden, einem verstärkenden Medium, in dem der Puls durch stimulierte Emission verstärkt wird, und einem anschließenden Kompressor, der den Puls zeitlich wieder komprimiert. Hierbei kann man aber nur einen bestehenden Puls verstärken und nicht die zentrale Wellenlänge ändern. Gerade diese Art Verstärker wird jedoch in vielen Bereichen benötigt, in denen man infrarotes Licht mit durchstimmbarer Wellenlänge haben möchte. Eine Möglichkeit, dies zu erreichen, stellt der optisch-parametrische Verstärker dar. Eben dieser wird in der folgenden Arbeit behandelt und näher beschrieben.
Nach Abschluss meiner Untersuchungen, kann man sagen, dass die galvanische Einkopplung die eleganteste und wohl sinnvollste für den Kicker im FRANZ-Projekt ist, da man mit ihr perfekt kritische Einkopplung erreicht und sie relativ einfach zu realisieren ist, indem man die Zuleitung direkt an die Stützen lötet. Da die Zuleitung nur relativ kurz ist und Außerhalb der Spule verläuft verändert sie die Eigenschaften des Kickers nicht wesentlich. Die induktive Einkopplung eignet sich zwar auch sehr gut um die kritische Ankopplung zu erreichen, allerdings stellt die Indutktionsschleife eine zusätzliche Induktivität dar. Ebenso verhält es sich mit der kapazitiven Einkopplung. Der Einkoppelstift stellt eine zusätzliche Kapazität dar, welche die Eigenschaften des Kickers verändert.
Zu den Störkörpermessungen ist zu sagen, dass das Elektromagnetische Feld, dass ich vermessen habe, gut mit der Simulation aus [2] übereinstimmt. Die verschiedenen Einkopplungsverfahren haben keinen Einfluss auf die Feldverteilung, d.h. für die Feldverteilung ist es egal ob man kapazitiv, induktiv oder galvanisch einkoppelt. Der Peak, der am Anfang des Kondensators immer wieder auftritt lässt sich dadurch begründen, dass der Störkörper nicht auf einer geraden Linie durch das Modell gezogen wurde (siehe Abbildung 15. Aufgrund der Geometrie der Endplatten wurde der Störkörper leicht schräg durch das Modell und den Kondensator gezogen. Dadurch kommt der Störkörper am Anfang des Kondensators sehr nahe an ihn heran. Wenn der Störkörper nun zu nahe an der Metalloberfläche vorbeiläuft gilt die normale Störkörpertheorie nicht mehr und es treten Oberflächenladungseffekte auf, die die Phasenverschiebung beeinflussen. Somit erhält man am Anfang des Kondensators mehr Phasenverschiebung als in der Mitte des Kondensators.
Interactive Gorilla
(2010)
Beeindruckt von einer auf Annäherung reagierenden Dinosaurier-Animation des Brüsseler Naturkundemuseums, entstand die Idee einen noch komplexeren interaktiven Gorilla zu entwerfen. Der Gorilla soll dabei auf einer großen Leinwand dargestellt werden und die Besucher können mit diesem anhand ihrer Position interagieren, worauf er seine Tätigkeit und Gestik an diese anpasst.
Da keine Umsetzung, die durch gezielte Anpassungen das gewünschte Ergebnis liefern würde, vorhanden war, wurde das System im Rahmen dieser Arbeit angefertigt. Der Aufbau lässt sich dabei in drei große Module aufteilen, die auf den Ergebnissen des vorherigen Moduls arbeiten.
Zuerst wurde ein System entwickelt, mit dem es möglich ist die Besucher im Raum zu erfassen und festzustellen an welchen Positionen sie sich aufhalten. Diese Informationen werden von einer Verhaltenssimulation weiterverarbeitet. Diese ist durch einen endlichen Automaten realisiert, der auf einem Graphen operiert. Die Ergebnisse, die vom Erkennungssystem geliefert werden, sind dann dafür verantwortlich, dass sich das Verhalten entsprechend ändert. Zuletzt wird das aktuelle Verhalten des Gorillas mit Hilfe eines 3D-Modells und Animationen auf der Leinwand dargestellt.
Des weiteren sind im Rahmen dieser Arbeit zusätzliche Editoren entstanden um die Zustände des Graphen und die dadurch darzustellenden Animationen nachträglich anzupassen.
Das Internet als Informationsmedium ist Plattform für eine nie dagewesene Menge an Information, die für einen einzelnen Menschen nicht mehr zu überblicken ist.
Moderne Web-Suchmaschinen greifen auf die Methoden des Information Retrieval zurück um einem NutzerWerkzeuge anzubieten die zu ihrem Informationsbedürfnis relevanten Dokumente im Internet zu finden. Visualisierungen können diese Dokumentenmenge effektiver durch den Nutzer verarbeitbar machen. Eine komplexe Suchanfrage zu formulieren oder ein Suchergebnis nach bestimmten Kriterien zu filtern ist jedoch heute noch denjenigen vorbehalten die bereit sind, die erweiterten Funktionen der Suchmaschinen zu lernen.
Der in dieser Arbeit vorgestellte Ansatz möchte durch die Kombination der Visualisierung, die einen effektiven Überblick über den Suchergebnisraum gibt, mit den mächtigen Filtermöglichkeiten moderner Suchmaschinen die einfache Filterung von Suchergebnismengen durch ein Direct Maniuplation Interface ermöglichen.
Im Rahmen dieser Bachelorarbeit werden verschiedene Non-Photorealistic Rendering Verfahren zur Darstellung von rekonstruierten Artefakten, im Bereich der Paläontologie, beschrieben und implementiert. Hauptsächlich arbeiten die vorgestellten Verfahren im zweidimensionalen Bildraum, um beispielsweise Kanten in Bildern zu detektieren. Hierbei bedienen wir uns sogenannter Normal- und Depthmaps, welche als Zwischenresultate dienen, um die nötigen Informationen zu sammeln, welche zur Erkennung von Kanten im Bild notwendig sind. Neben der Kantendetektion werden NPR Verfahren genutzt, um skizzenhafte Illustrationen zu erzeugen, welche per Hand gezeichnete wissenschaftliche bzw. technische Illustrationen nachahmen und somit (halb)automatisieren sollen. Mithilfe von (programmierbaren) Shadern werden dann spezielle Texturen auf die Oberflächen der Modelle gelegt, um eine skizzenhafte Darstellung zu erzeugen. Solche Verfahren erleichtern demnach die aufwändige Arbeit der Künstler, welche gewöhnlich viel Zeit für ihre Illustrationen benötigen.
Wir haben uns in dieser Arbeit der Frage nach der Dissipation in niederenergetischen Schwerionenkollisionen gewidmet. Dissipation im Allgemeinen hat ihre Ursache in direkten Teilchenkollisionen, die in der Methode von TDHF bezüglich der Nukleonen fehlen. Im VUU-Modell sind sie dagegen ein zentraler Bestandteil der Zeitentwicklung und spielen bei mittleren und hohen Energien eine wichtige Rolle.
Mithilfe des VUU-Modells wurde deshalb versucht einen Einfluss der Nukleon-Nukleon-Kollsionen auf den Impulsstrom festzustellen, der an der Verbindungsstelle in der Reaktion 16O + 132Sn mit b = 7 fm und Ecm = 100 vorliegt. Dabei variierten wir den NN-Wirkungsquerschnitt im Kollisionsterm der VUU-Gleichung mit der Erwartung, dass eine daraus resultierende Verminderung bzw. Erhöhung der Stoßrate Auswirkungen auf die Geschwindigkeitsverteilungen der Materie zeigt. Ein positives Ergebnis hätte den Schluss nahegelegt, dass die mittlere freie Weglände und damit die Viskosität von Kernmaterie in Schwerionenkollisionen zu berücksichtigen ist.
Im Verlauf unserer Analyse haben wir festgestellt, dass die von uns verwendeten Methoden nicht zu den gewünschten Ergebnissen führten, z.T. auch weil die Kerne in den VUU-Rechnungen Instabilität aufwiesen und so die relevante Reaktionszeit einschgeschränkt wurde. Wir konnten einen Einfluss von direkten Teilchenkollisionen auf den Impulsstrom zwischen den Kernen des obigen Systems nicht verifizieren. Zusätzliche Simulationen an 12C + 12C mit b = 0 fm haben dann gezeigt, dass offenbar der allergrößte Teil der Nukleon-Nukleon-Kollisionen aufgrund des Pauli-Prinzips blockiert wird. Aus diesem Grund ziehen wir die Möglichkeit in Betracht, dass die starke Präsenz des Pauli-Prinzips im niederenergetischen Bereich die Stoßrate nicht nur maßgeblich reduziert, sondern damit direkte Stöße insgesamt kaum Einfluss auf den Impulsstrom und die Dissipation haben könnten. Die Dissipation ist demnach hauptsächlich auf einen Austausch üuber die Verbindungsstelle zweier Kerne zurückzuführen, was in weiterführender Literatur unter dem Stichwort window formula bekannt ist.
Weitere Untersuchungen in diese Richtung sind wünschenwert. Insbesondere ist es erforderlich das angesprochene Zeitproblem zu lösen, um eventuell die Stoßrate zu erhöhen. Dann könnte ein möglicher Einfluss auf den Impulsstrom wesentlich länger und detaillierter studiert werden. Es bietet sich zudem an, das benutzte Auswerteprogramme vuudens so abzuändern, dass z.B. ein feineres Gitter benutzt werden kann, auf dem die Dichten berechnet werden. Das so gesteigerte Auflösungsvermögen würde sicherlich die
Unzulänglichkeiten der in dieser Arbeit verwendeten Methoden reduzieren. Bei weiterem und tieferem Studium der besprochenen Prozesse könnte es natürlich sein, dass bessere Ansätze zur Analyse gefunden werden. Dies wäre in jedem Fall zu begrüßen.
Die Arbeit untersucht die Herstellung und ökonomische Umsetzung von "ethnischem Anderssein" in sog. Kultur-Kochkursen in Frankfurt am Main. In den beforschten Kultur-Kochkursen vermitteln ethnisch markierte KochkursleiterInnen "ihre Küche und Kultur" einem (multikulturalistisch) interessiertem Publikum. Die Arbeit fokussiert auf die performative Herstellung, Umsetzung und Repräsentation von (vermarktbarem) ethnischen Andersseins durch die KochkursleiterInnen in der Kochkurssituation und überprüft die Annahme, dass Ethnizität primär durch (Selbst-)Othering – die Betonung von unüberbrückbarer, essentieller kultureller Differenz – vermarktet wird. Die Befunde, welche auf Internetrecherchen, teilnehmenden Beobachtungen und narrativen Interviews basieren, zeigen, dass die organisierenden Institutionen die Kulturkochkurse zwar mit dem Verweis auf Authentizität, Tradition und Andersartigkeit bewerben, die Kultur-KochkursleiterInnen selbst in der Kochkurssituation allerdings kein kulturalistisches, exotisierendes und Differenz betonendes Ethnizitätskonzept perfomieren, sondern vielmehr Dynamik, Vielfalt und Vermischungen artikulieren, praktizieren und stark positiv konnotieren.
Durch die steigende Bedeutung von multimedialen Lernmaterialien in der Lehre und in der Wirtschaft, wachsen die Anforderungen, die an die Herstellung der Materialien gestellt werden. Verwaltung, Archivierung und Wiederverwendbarkeit sind die zentralen Begriffe um die Effektivität von multimedialen Lernmaterialien zu steigern und damit auch kommerziellen Erfolg zu erzielen. Es ist effektiv wenn Lernmaterialien ein Thema nicht erneut aufarbeiten, wenn es bereits ausreichend Materialien dazu gibt. Vorhandene Materialien können genutzt werden und sparen somit Ressourcen, die ansonsten zur Herstellung neuer Materialien genutzt werden müssten. In dieser Arbeit werden Metadaten als Mittel eingesetzt, um die Effektivität zu steigern. Dabei soll vor allem der Mehrwert durch die Verwendung von Metadaten deutlich gemacht werden. Eine Analyse aktueller Autorensysteme soll zeigen, wie Metadaten bereits eingesetzt werden und wo Probleme existieren. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer Erweiterung des Autorensystems LernBar verwendet. Um den Mehrwert der Metadaten deutlich zu machen, soll der gesamte Autorenprozess innerhalb der LernBar erweitert werden. Das heißt, dass der gesamte Ablauf, vom Erfassen bis zum Verwenden der Metadaten, abgebildet wird. Im Fokus der Erweiterung steht die Unterstützung des Autors bei der Erstellung von Lernmaterialien. Vorlagen und automatisierte Vorgänge dienen der Bedienbarkeit der neuen Funktionen.
Im Rahmen der Bachelorarbeit wurden verschiedene Messungen am CH-Modell des Protonen - Linearbeschleunigers für FAIR durchgeführt.
Zu Beginn wurde die Wirkung der Tuner auf das elektrische Feld im Resonator und die Frequenz untersucht. Aus den systematischen Messungen konnte man feststellen, wie die Tuner das elektrische Feld beeinflussen. Außerdem konnte man sehen, dass die Tuner zu einer Erhöhung der Frequenz führen, was auch durch den theoretischen Hintergrund erwartet wurde. Aus den so gewonnenen Erkenntnissen konnte nun versucht werden, die Spaltspannungen an eine Vorgabe aus LORASR anzupassen. Dies nahm den Hauptteil der Bachelorarbeit ein. Die Anpassung konnte durch Variation der Tuner und der Spaltlängen erreicht werden. Die Abweichungen zur LORASR - Vorgabe lagen alle, bis auf einen Wert, im vorgegebenen Bereich. Allerdings waren die Messungen nicht perfekt reproduzierbar, da es bei der Störkörpermessung zu Fehlern kam. Der Motor, der den Störkörper durch die CH-Struktur ziehen sollte, war in diesem Zeitraum defekt, wodurch sich die gemessenen Spaltspannungen etwas veränderten.
Weiterhin wurde noch eine Sensibilitätsuntersuchung bei Erwärmung des Niederenergieteils des Resonators und eine Modenuntersuchung durchgeführt.
Durch die Erwärmung des Niederenergieteils konnte man sehen, dass das Feld im Inneren des Resonators auf Temperaturunterschiede reagiert. Dies hat aber keinen Einfluss auf die Betriebsfähigkeit des Resonators, da die zu erwartenden Einflüsse auf den Resonator im Betrieb sehr gering sind. Die Modenuntersuchung hat die vorherigen Annahmen bestätigt. Die Hochfrequenzleistung wird über die Linse hinweg störungsfrei weitergegeben und die ersten 4 Moden schwingen alle in dem Modell an und sind messbar, wenn man außen in den Tanks einkoppelt.
Der Karlsruhe 4π-Bariumfluorid-Detektor, entwickelt und aufgebaut Ende der Achtzigerjahre am Forschungszentrum Karlsruhe, ist ein effizienter Detektor für Gammastrahlung und bietet vielfältige Einsatzmöglichkeiten für kernphysikalische Experimente. Insbesondere für Experimente der nuklearen Astrophysik ist er geeignet, aber auch für die Forschung zur Entwicklung neutronengetriebener Reaktoren, zum Beispiel zur Transmutation radioaktiver Abfälle. Derzeit befindet sich der Detektor an der Goethe-Universität Frankfurt, wo er mit der sich dort in Entwicklung befindenden FRANZ-Neutronenquelle eingesetzt werden soll. Diese ermöglicht zum Beispiel Messungen von Wirkungsquerschnitten für den s-Prozess in astrophysikalisch relevanten Energiebereichen und bei hohen Intensitäten.
Diese Arbeit behandelt astrophysikalische Möglichkeiten die der Detektor bietet sowie dessen allgemeinen Aufbau und Eigenschaften. Es wurden eine Funktionsprüfung des Detektors, Messungen der Zeit- und Energieauflösung, Energiekalibration sowie kleine Optimierungen und Reparaturen durchgeführt.
In der LEBT-Sektion der Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) befinden sich zur transversalen Fokussierung des Ionenstrahls vier Solenoide. Die ersten beiden dienen dem Einschuss in das ExB-Choppersystem, die letzten beiden dem Einschuss in die erste Beschleunigerstruktur, den Radiofrequenzquadrupol (RFQ). In numerischen Transportsimulationen konnte gezeigt werden, dass insbesondere der erste Solenoid einen hohen Füllgrad aufweisen wird, was zu Strahlaberrationen und damit zu einer unerwünschten Erhöhung der Strahlemittanz führen kann.
Um diesen Effekt zu untersuchen, wurden die Fokussier- und Abbildungseigenschaften des ersten FRANZ-Solenoides analysiert. Analytische Rechnung unter Verwendung der Twissparametertransformation wurden durchgeführt, numerische Simulationen mit einem idealisiertem und einem realistischem Magnetfeldverlauf gemacht und 2 Messaufbauten mit einer Volumenquelle, dem Solenoid und einer Schlitz-Gitter-Emittanzmessanlage realisiert, um gemessene mit analytischen und numerischen Daten vergleichen zu können. Die Parameter, die ausgewertet und verglichen wurden, sind die Lage der Emittanzellipse, die Emittanz im x-x'-Phasenraum und die normierten vierten Momente (Wölbung) im Ortsraum.
Quasi-Monte-Carlo-Verfahren zur Bewertung von Finanzderivaten, BacDas Gebiet der Optionsbewertung ist durch die Entwicklungen zu neuen und immer komplexer werdenden Optionstypen und durch Verbesserungen im Bereich der Aktienkurs-Modelle geprägt. Diese Entwicklung und die gestiegene Leistungsfähigkeit der Parallelrechner haben das Interesse an den flexiblen Quasi-Monte-Carlo-Verfahren neu geweckt.
Die experimentellen Untersuchungen bestätigen die Überlegenheit des Quasi-Monte-Carlo-Verfahren gegenüber den klassische Monte-Carlo-Verfahren in Bezug auf niedrigdimensionale Optionstypen. Dieser Überlegenheit nimmt aber mit zunehmender Dimension ab, was eine Nachteil für das Quasi-Monte-Carlo Verfahren darstellt. Zur Verbesserung des Verfahrens gibt das Dimensions-Reduktions-Prinzip (effective dimension) und weitere Niederdiskrepanz-Folgen, wie Niederreiter-Folgen, Lattice-Regeln, usw. Weitere Verbesserungsmöglichkeiten könnten auch durch Wahl von anderen Diskretisierungsverfahren mit höherer starker Ordnung, wie z.B dem Milstein-Verfahren, erreicht werden. Mit dem Quasi-Monte-Carlo-Verfahren lässen sich auch komplizierte Optionen bewerten,
wie z.B. Bermuda-Optionen, Barrier-Optionen, Cap-Optionen, Shout-Optionen, Lokkback-Optionen, Multi-Asset-Optionen, Outperformance-Optionen, und auch mit weiteren Bewertungs-Modellen kombinieren, wie z.B. dem Black-Scholes-Modell mit variabler Verzinsung, Black-Scholes-Modell mit zeitabhängiger Volatilität, Heston-Modell für stochastische Volatilität, Merton-Sprung-Diffusion-Modell und dem Libor-Markt Modell für Zinsderivate, auf die ich in dieser Bachelorarbeit nicht mehr eingehen werde, mit denen ich mich jedoch in der Masterarbeit genauer beschäftigen werde.
Sprung-Diffusions-Modelle zur Bewertung Europäischer Optionen, BacIn dieser Arbeit wurden die Europäische Optionen in den Sprung-Diffusions-Modellen von Merton und dem Modell von Kou bewertet. So stellen die geschlossenen Lösungen für das Merton-Modell als Anwendung der Black-Scholes-Formel eine einfache Möglichkeit zur Berechnung eines Optionspreises dar. Die Verwendung einer analytischen Lösung für Merton ist allerdings nur eingeschränkt, d.h. für zwei spezielle Sprungverteilungsfunktionen (Plötzlicher Ruin und die Lognormalverteilung) möglich. Das Kou-Modell hingegen, hat eine geschlossene Lösung für Doppel-Exponentialverteilte Sprünge. Eine flexible Lösungsmöglichkeit zur Bestimmung eines Optionspreises ist die Verwendung des Monte-Carlo-Verfahrens für die Simulation der Kursbewegung mit zugrunde liegendem Sprung-Diffusions-Modell. In diesem Fall ist das Monte-Carlo-Verfahren zur Ermittlung des Optionspreises nur einmal anzuwenden. Dieses Verfahren konvergiert mit einer Konvergenzrate von 1/2.
Wie alle anderen Modelle, die auf Lévy Prozessen basieren, lässt das Kou-Modell eine empirische Beobachtung vermissen, nämlich die mögliche Abhängigkeit zwischen Renditen der Underlyings (der sogenannte "volatility clustering affect"), weil das Modell unabhängige Inkremente unterstellt. Eine Möglichkeit die Abhängigkeit mit einzubeziehen, wäre die Nutzung anderer Punktprozesse Ñ(t) mit abhängigen Inkrementen anstelle des Poisson-Prozesses N(t). Es muss natürlich die Unabhängikeit zwischen der Brownschen Bewegung, den Sprunghöhen und ~N(t) beibehalten werden. Das so modifizierte Modell hat keine unabhängigen Inkremente mehr, ist aber einfach die geschlossene Lösungsformel für Call- und Put-Optionen zu erhalten. Andererseits scheint es schwer analytische Lösungen für Pfadabhängige Optionen durch Nutzung von Ñ(t) anstelle von N(t) zu erhalten.
Wie können Optionen bewertet werden, zu denen keine geschlossenen Lösungen existieren? Die Antwort lautet: Numerische Verfahren. In Hinblick auf diese Frage wurden in der Vergangenheit meist Baumverfahren, Finite-Differenzen- oder Monte-Carlo-Methoden herangezogen. Im Gegensatz dazu behandelt diese Bachelorarbeit den Einsatz von Quadraturverfahren (QUAD) bei der Bewertung von exotischen Optionen, also Optionen, die kompliziertere Auszahlungsstrukturen besitzen wie einfache Standard-Optionen. Die Grundidee besteht darin, den Optionswert als mehrdimensionales Integral in eindimensionale Integrale zu zerlegen, die daraufhin durch Quadraturformeln approximiert werden...Die Genauigkeit des Verfahrens wird erhöht, indem die Schrittweite der Quadraturformel h verkleinert wird. Dies hat allerdings zur Folge, dass sich der Rechenaufwand erhöht. QUAD jedoch schafft es, durch Reduzierung der Dimension und Ausnutzung der herausragenden Konvergenzeigenschaften von Quadraturformeln eine hohe Genauigkeit bei gleichzeitig geringen Rechenkosten zu erreichen.
Die Methode ist allgemein anwendbar und zeigt insbesondere beim Preisen von pfadabhängigen Optionen mit diskreten Zeitpunkten ihre Stärken. Als Anwendungsbeispiele betrachten wir deshalb folgende Optionstypen: Digitale-, Barrier-, Zusammengesetzte-, Bermuda- und Lookback Optionen. Ferner existieren entsprechende Verfahren für Asiatische- oder Amerikanische Optionen, für die jedoch mehr Vorarbeit notwendig ist.
Der große Vorteil von QUAD gegenüber anderen numerischen Verfahren liegt in der Vermeidung eines (bedeutsamen) Verteilungsfehlers und in der Tatsache, dass keine Bedingungen an die Auszahlungsfunktion gestellt werden müssen. Baum- oder Finite-Differenzen-Verfahren reduzieren zwar durch Gitterverfeinerung den Verteilungsfehler, allerdings geht dies Hand in Hand mit deutlich höheren Rechenzeiten. Zum Beispiel benötigt ein Baumverfahren für die doppelte Exaktheit einen vierfachen Rechenaufwand, während die QUAD Methode bei einem vierfachen Rechenaufwand die Exaktheit mit Faktor 16 erhöht (bei Extrapolation steigt dieser Faktor bis 256).
QUAD kann als "der perfekte Baum" angesehen werden, da es ähnlich zu Multinomialbäumen auf Rückwärtsverfahren zurückgreift, andererseits aber die hohe Flexibilität besitzt, Knoten frei und in großer Anzahl zu wählen. Des Weiteren gehen nur die den Optionspreis bestimmenden Zeitpunkte in die Bewertung mit ein, sodass auf zwischenzeitliche Zeitschritte gänzlich verzichtet werden kann.
Die eigentliche Arbeit gliedert sich in sechs Abschnitte. Zunächst erfolgt eine Einführung in allgemeine Quadraturverfahren, exotische Optionen und das Black-Scholes-Modell, was im Anschluss den Übergang zum Lösungsansatz liefert. Dieser Abschnitt schließt mit einer geschlossenen Integrallösung für Optionen, die der Black-Scholes-Differentialgleichung folgen, ab. In Abschnitt 4 wird die genaue Untersuchung der QUAD Methode vorgenommen. Unter Verwendung des in Abschnitt 5 vorgestellten Algorithmus wird anschließend in Abschnitt 6 die QUAD Methode auf die zuvor genannten Optionsklassen angewandt. Die entsprechenden Resultate werden am Ende dieses Teils in Tabellen und Graphiken präsentiert. Den Abschluss bildet das Fazit und die Zusammenfassung der Ergebnisse.
The following thesis is the description and the analysis of time resolution measurements of the plastic scintillator protorypes bar with PMT (photomultiplier tube) readout, performed with a 31 MeV electron beam at the HZDR (Helmholtz-Zentrum Dresden-Rossendorf) [1]. Similar bars will be used as building blocks for the NeuLAND detector (new large area neutron detector) - a ToF (time of flight) wall within the R3B setup (Reactions with Relativistic Radioactive Beams [2]) at the future FAIR facility (GSI Darmstadt [3]). The superconducting ELBE (electron linear-accellerator for beams of high brilliance and low emittance) was used as an electron source. The scintillation material used was RP408.
Two series of measurements were made within three months. In the first series, three bars of different sizes (200 x 5 x 5 cm3; 200 x 3 x 3 cm3; 300 x 5 x 5 cm3, the latter was made by coupling one 100 cm bar with a 200 cm bar using silicon grease) were used in the experiment consecutively. They had one Hamamatsu R8619 photomultiplier tube with an active diameter of 22 mm attached to each side with silicon grease. A measurement with the 200 x 5 x 5 cm3 bar without silicon grease was also performed.
In the second series, two equal scintillator bars (270 x 5 x 5 cm3 with a 10 cm light guide) on each side were used. Measurements with and without silicon coupling as well as with two different types of PMTs (R8619 and R2059) were executed.
Time and charge signals were processed with the TACQUILA electronic board. The time resolution was measured with the very precise pulsed electron signal of the accelerator. The time resolution measurements resulted in ρ200x5x5 ~ 159 ps; ρ200x5x5,no silicon ~ 162 ps; ρ200x3x3 ~ 153 ps; ρ300x5x5 ~ 204 ps.
For the second date they resulted in ρR8619 ~ 149 ps; ρR8619, no silicon ~ 175 ps; ρR2059 ~ 141 ps.
More tests and analysis is required until the results are definite.
Neutroneneinfangquerschnitte werden häufig mithilfe der Aktivierungsmethode bestimmt. Hierbei wird die zu untersuchende Probe mit Neutronen der gew¨unschten Energie bestrahlt und danach in einem untergrundoptimierten Labor ausgezählt. Am Institut für Angewandte Physik der Goethe Universität Frankfurt wurde ein solcher Aufbau realisiert. Er besteht aus zwei Clover Detektoren, die gegenüberliegend in enger Geometrie angeordnet sind. Die aktivierte Probe wird mittels spezieller Probenhalter reproduzierbar und zentriert zwischen den Detektoren platziert. Die Clover Detektoren sind mit passiven Schilden (Pb) und einer aktiven Abschirmung (BGO) umgeben. Die unterschiedlichen Abschirmungen wirken sich in verschieden Energiebereichen jeweils anders aus.
Diese Arbeit befasst sich mit der astrophysikalischen Motivation und dem Aufbau, mit dem später die Ausbeute einer neutronenaktivierten Probe bestimmt werden kann. Außerdem werden die Ergebnisse der verschiedenen Untergrundmessungen miteinander verglichen.
Im Rahmen dieser Arbeit wird ein Gammaspektroskopie-Aufbau unter Verwendung eines HPGe-Clover-Detektors zur Nutzung in Aktivierungsexperimenten charakterisiert und untersucht. Die für präzise Aktivitätsmessungen nach einer Aktivierung nötigen Effizienzen werden mit Hilfe der Eichquellen 60Co und 22Na unter Nutzung verschiedener Modi des Clover-Detektors abstandsabhängig errechnet. „Listmode“-Daten ermöglichen dabei eine „offline“-Verarbeitung. Begleitet werden die Messungen von aufwändigen Monte-Carlo-Simulationen in Geant4. Parallele Auswertungsmethoden erlauben einen genauen Vergleich zwischen simulierten und experimentellen Ergebnissen.
Finanzderivate sind Produkte, die eine Möglichkeit bieten sich gegen künftige Preisschwankungen abzusichern oder auf eine zukünftige Preisentwicklung zu spekulieren. Die wichtigsten Arten von Finanzderivaten sind Optionen, Futures, Forwards und Swaps. Gegenstand vorliegender Bachelorarbeit werden ausschließlich Optionen sein. Auf den internationalen Finanzmärkten werden verschiedene Typen von Optionen gehandelt, weshalb sich die Frage des "fairen Preises" eines solchen Produktes stellt. Für viele gehandelte Optionen gibt es keine geschlossene Lösung zur Bestimmung des Preises, deshalb werden für diese numerische Verfahren zur Berechnung angewandt. Dabei muss beachtet werden, dass der Optionswert möglichst genau ist, jedoch sollte der Aufwand dabei ziemlich gering sein.
Ziel dieser Arbeit ist die Bestimmung eines numerischen Verfahrens, mit dem man europäische und amerikanische Multiasset-Optionen bewerten kann. Dieses Verfahren soll eine Erweiterung des bekannten Binomialverfahrens sein. Im Fokus steht dabei das Binomialverfahren, da es durch die Einschränkung auf zwei Entwicklungsmöglichkeiten in der Anwendung einfacher ist als das Black-Scholes-Modell. Dieses Verfahren ist nur für europäische und amerikanische Standard-Optionen definiert. Bei der Erweiterung muss beachtet werden, dass Multiasset-Optionen von mehreren Wertpapieren abhängen. In der Arbeit wird ein Produktbinomialverfahren entwickelt, das die Anzahl der Wertpapiere in der Dimension der entstehenden Bäume berücksichtigt. Dieses Verfahren konvergiert gegen das mehrdimensionale Black-Scholes-Modell und ist zu dessen graphischer Darstellung geeignet. Es wird jedoch auch gezeigt, dass dieses dem Fluch der Dimension unterliegt und somit der Aufwand für einen möglichst genauen Optionswert ziemlich hoch ist. Die Erweiterung dieses Verfahrens durch Dünne Gitter erzielt eine Optimierung der Laufzeit. Da der Fokus dieser Bachelorarbeit jedoch auf dem Produktbinomialverfahren liegt, wird im Folgenden auf diese Erweiterung nicht eingegangen.
Die vorliegende Arbeit beschäftigt sich mit optischen und elektrischen Untersuchungen an einer koaxial aufgebauten Lorentz-Drift-Geometrie. So wurden Messungen an der Lorentz-Drift-Sputterquelle bezüglich der Durchbruchspannung durchgeführt. Es hat sich gezeigt, dass das Verhalten der Durchbruchspannung in Abhängigkeit vom Druck trotz der koaxialen Elektrodengeometrie vergleichbar mit der Paschenkurve fur eine planparallele Anordnung ist.
Zur Untersuchung des Sputterverhaltens wurden zunächst einige Kurzzeitaufnahmen mit einer Belichtungszeit im Mikrosekundenbereich durchgefuhrt, um so die Ausbreitung der Plasmawolke zu betrachten. Bei einem Durchbruch führt der Stromfluss zu einem Magnetfeld, sodass ein Lorentz-Drift entsteht. Durch die resultierende Kraft wird das Plasma beschleunigt.
Es zeigt sich, dass sich die Plasmawolke mit zunehmender Zeit bzw. zunehmendem Abstand von den Elektroden homogener im Rezipient verteilt. Da durch die Ausbreitung der Plasmafront auch ausgelöstes Elektrodenmaterial zu einem entsprechend platzierten Substrat beschleunigt wird, lagert sich dort eine dünne Schicht an.
Die Ablagerungen am Substrat wurden bei verschiedenen Drucken und verschiedenen Abständen zu den Elektroden betrachtet. Erste Messungen zeigen, dass die Schichten mit größerem Abstand homogener werden und besser am Substrat haften bleiben, jedoch die Schichtdicke geringer wird. Bei geringem Abstand lagern sich vergleichsweise dicke Schichten an, die jedoch sehr inhomogen und instabil sind. Durch Optimierung sollte es aber möglich sein, einen gewünschten Kompromiss aus Schichtdicke, Stabilität und Homogenität zu finden.
Bei niedrigeren Drucken und somit hohen Durchbruchspannungen kommt es aufgrund der höheren Stromdichte zu stärkeren Lorentz-Drifts, sodass die Teilchenenergien im Plasma steigen und es zu dickeren Ablagerungen kommt.
Die Schlussfolgerung dieser Arbeit ist, dass die Beschichtung durch eine Lorentz-Drift-Geometrie prinzipiell möglich ist. Es konnten bisher qualitative Messungen durchgeführt werden, die jedoch noch quantitativ verifiziert werden sollten.
Ziel der Bachelorarbeit war es, einen Versuch für das Fortgeschrittenen-Praktikum des Instituts für Kernphysik zu konzipieren, der es ermöglicht, die Lebensdauer von aus der kosmischen Strahlung entstandenen Myonen zu bestimmen.
Dazu wurden vorhandene Komponenten auf ihre Gebrauchstauglichkeit getestet und untersucht, insbesondere in Bezug auf die Größe der Szintillatoren, ob der für einen Praktikumsversuch zeitlich gegebene Rahmen eingehalten werden kann.
Es ergaben sich einige mechanische Probleme, insbesondere bei der Verbindung der neuen, größeren Szintillatoren mit den Photomultipliern, die angegangen wurden. Die zuerst getestete Methode stellte sich jedoch als uneffektiv heraus, sodass die endgültige Lösung mit Hilfe einer neuen, computergesteuerten Fräsmaschine der Feinmechanik-Werkstatt erreicht werden soll.
Um die entstandenen Daten zu verarbeiten, wurde ein entsprechendes Programm in LabVIEW entwickelt, das die am TDC abgegriffenen Daten auf ihre Relevanz untersucht und die Ergebnisse in eine Textdatei schreibt. Das LabVIEW Front Panel wurde dabei so gestaltet, dass es den Praktikanten alle wichtigen Daten in graphisch anschaulicher Weise liefert.
Die Daten aus der Textdatei werden dann mit Hilfe eines ROOT Makros mit zwei verschiedenen Exponentialfunktionen gefittet.
In ersten Messungen ergibt sich ein Wert für die Lebensdauer der Myonen, der erstaunlich nahe am Literaturwert liegt.
Diese Arbeit zeigt, dass die optimale Verteilung von Individuen in Gruppen unter Beachtung ihrer Zeitpräferenzen ein NP-schweres Problem ist. Daher liegt es Nahe, dass für große Teilnehmerzahlen eine optimale Lösung nicht in praxistauglicher Zeit berechnet werden kann. Hier kann eine geeignete Heuristik Abhilfe schaffen.
Da dieses Problem in Universitäten für Studierende bei der Zuteilung der Übungsgruppen für Hunderte von Teilnehmern jedes Semester aufs Neue gelöst werden muss, macht es Sinn, dabei eine rechnergestützte Lösung einzusetzen.
In dieser Arbeit werden die gängigsten in Deutschland und insbesondere an der Goethe-Universität Frankfurt am Main verwendeten Gruppeneinteilungssysteme untersucht. Alle aktuell eingesetzten Lösungen weisen offensichtliche Mängel auf. In dieser Arbeit wird analysiert, weshalb es dazu kommt und gezeigt, wie diese Mängel vermieden werden können. Außerdem werden Kriterien entwickelt und diskutiert, die ein gutes Gruppeneinteilungssystem erfüllen sollte.
Es wird beschrieben, inwiefern eine gute mit einer Heuristik schnell berechenbare approximative Lösung des Gruppeneinteilungsproblems besser als eine perfekte Lösung sein könnte. Mehrere Heuristiken werden verglichen und eine für dieses Problem gut passende wird entwickelt und implementiert. Mithilfe der Beispielimplementierung und anhand anonymisierter Anmeldedaten für die Veranstaltungen aus vergangenen Jahren wird gezeigt, welche Ergebnisse bei dem Wechsel zu einem solchen System erreicht werden können.
Weiterhin wird analysiert, wie ein solches Gruppeneinteilungssystem an die anderen an Universitäten eingesetzten digitalen Systeme angekoppelt werden kann. Das ist notwendig, um zu vermeiden, dass die redundanten Studierendendaten doppelt gepflegt werden müssen. Somit werden Konsistenz und Korrektheit der Daten bei dem Einsatz eines neuen Systems gefördert.
Abschließend wird ein Ausblick in die Zukunft der Gruppeneinteilungssysteme gegeben und beschrieben, welche Aspekte in diesem Bereich weiterhin wichtig sein könnten.
This work derives the value of the neutron capture cross section of 60Fe at the energy of kT = 25 meV. Iron plays an important role in stellar nucleosynthesis, because it is a seed material for the s-process, a neutron capture process in which the elements between iron and bismuth are synthesized.
To determine the thermal neutron cross section of 60Fe, an iron sample produced in the framework of the ERAWAST1 program at the Paul Scherrer Institute in Switzerland was irradiated at the research reactor TRIGA2 at Johannes Gutenberg University in Mainz, Germany. Before the irradiation, the number of 60Fe particles in the sample was calculated using the decay scheme of 60Fe. There were (8.207 ± 0:066 stat 0:298 syst) * 10 14 60Fe particles in the sample.
The irradiation of the sample took place in May 2012. The counting of the reaction product, 61Fe, was undertaken using a HPGe detector located in a laboratory at Johannes Gutenberg University in Mainz. Knowing the number of 60Fe particles in the sample, the number of produced 61Fe particles and the neutron flux from the reactor, the thermal neutron capture cross section of ρth60Fe = (0.203 ± 0:021 stat 0:024 syst) b could be determined.
The determination of the thermal neutron capture cross section at the energy of kT = 25 meV constitutes to the first at this energy. There was already a measurement of the neutron capture cross section of 60Fe at the energy of kT = 25 keV in Karlsruhe in Germany. The result of the measurement was 25 keV = (9.9 ± 2:8 syst 1:4 stat) mb and was published in the year 2009 [14].
Adding datapoints for the cross section at different energies improves extarpolation and helps verification of theoretical models for elemental synthesis. For this reason, a measurement of the 60Fe neutron capture cross section at the energy of kT = 90 keV is planned at Goethe University Frankfurt, Germany.
Having the neutron capture cross section of 60Fe at the energy of kT = 25 keV measured in the year 2009 in Karlsruhe [14], at the energy of kT = 25 meV measured in May 2012 at Johannes Gutenberg University in Mainz and at the planned energy of kT = 90 keV at Goethe University Frankfurt, there will be three points for the extrapolation of the values for the neutron capture cross section of 60Fe. This will lead to a significant reduction in uncertainty with respect to existing theoretical discrepancies.
Die vorliegende Arbeit beschäftigt sich mit der Energiekalibration und der Effizienz zweier Niederenergie-Germaniumdetektoren, deren Energieauflösungen hier ebenfalls bestimmt werden. Die Untersuchungen werden an den γ-Spektren von 109Cd, 54Mn, 137Cs, 57Co, 133Ba, 60Co und 22Na in zwei verschiedenen Verstärkungseinstellungen vorgenommen, wobei der Abstand der Eichquellen zu dem Detektor variiert wird, um zussätzlich die Abhänngigkeit der Effizienz vom Raumwinkel sowie den Einfluss von Summeneffekten zu untersuchen. Einige der Eichquellen weisen in ihren Spektren γ-Zerfallskaskaden auf, die sich negativ auf die Bestimmung der Detektoreffizienz auswirken und somit als Eichquellen nicht optimal sind. Zusätzlich erfolgt dann ein Vergleich der Effizienzeichungen mit einer Monte-Carlo-Simulation.