Refine
Year of publication
Document Type
- Bachelor Thesis (158) (remove)
Has Fulltext
- yes (158)
Is part of the Bibliography
- no (158) (remove)
Keywords
- NLP (3)
- Text2Scene (3)
- TextAnnotator (3)
- Annotation (2)
- Beschleunigerphysik (2)
- FRANZ (2)
- Ionenstrahl (2)
- Machine Learning (2)
- Strahldynamik (2)
- Strahlprofil (2)
Institute
- Physik (75)
- Informatik (34)
- Informatik und Mathematik (17)
- Mathematik (8)
- Gesellschaftswissenschaften (6)
- Wirtschaftswissenschaften (3)
- Erziehungswissenschaften (2)
- Geowissenschaften (2)
- Geschichtswissenschaften (2)
- Sprach- und Kulturwissenschaften (2)
This thesis investigates the linguistic effects of language contact between French and German in Alsace due to the German annexation of this region during World War II. The turbulent, tug-of-war history of Alsace has constantly challenged the Alsatian people to secure a stable cultural and national identity. This study focuses on understanding the development of the linguistic aspect of this Alsatian identity. My hypothesis is that there was a greater French influence on Alsatian speech after World War II due to the anti-German sentiment provoked by the harsh Nazi policies during the war. To test this hypothesis, this study analyzes and compares the type and regularity of lexical borrowings from French into German and from German into French in Alsatian newspapers in 1945.
The current performance of a 4π barium fluoride gamma detector consisting of 41 modules is evaluated. It will be used to measure neutron capture events in different samples that are exposed to a neutron beam that is expected to contain up to 10^7 neutrons/(cm^2 sec). The capture cross-sections acquired in this experiment will be relevant to a multitude of different areas, for example to s-process studies, or accelerator-driven systems. The detector array was re-mounted after having been moved from Karlsruhe to Frankfurt and in the course of this process, the detector modules have been checked for their current detection properties. Every module consists of a BaF2 crystal, a photomultiplier tube connected to the crystal by sillicon oil and a voltage divider to drive the PMT, so each of them is already an individual gamma detector. Using Cobalt-60 and Caesium-137 test sources the energy resolution and - more importantly - the time resolution of every module has been determined; the results are presented in this work and compared to previous data taken at the time the detector was built initially in the mid-1980s.
Mit dieser Arbeit wurde gezeigt, wie sich Störung und Kopplung auf ein System zwei gekoppelter Resonatoren auswirkt. Das Einfahren des Tauchkolbens birgt die Möglichkeit die Eigenfrequenzen des Systems zu verändern und die Feldverteilungen anzupassen. Ein Tauchkolben auf der anderen Seite des Resonators wäre für die Anschauung der Störung praktisch gewesen, hätte jedoch keine weiteren Erkenntnisse geliefert.
Es ist möglich mit zwei verschiedenen eingekoppelten Frequenzen eine Schwebung im Resonator zu erzeugen. Dies könnte theoretisch für eine Hochfrequenzstrahlablenkung nützlich sein. Mit einer speziell auf Strahlablenkung optimierten Resonatorgeometrie gilt es dies praktisch zu überprüfen.
Im Rahmen dieser Bachelorarbeit wurde eine flashbasierte Anwendung zum Trainieren und Prüfen der Fähigkeit zur korrekten Interpretation von Bildinformationen entwickelt.
Den Ausgangspunkt der Entwicklung bildete eine Analyse von bisher existierenden Anwendungen am Beispiel der Radiologie. Die Analyse ergab, dass die bereits existierenden Anwendungen Interaktionen mit dem Bild in bestimmten Umfang erlauben, jedoch keine Anwendung gefunden werden konnte, bei der ein direktes Markieren von Strukturen im Bild mit z.B. einem Stift möglich ist. Ziel war es, dies zu entwickeln.
Die Entwicklung des Konzeptes begann mit einer Analyse der Anforderungen, die sich aus dem Bildmaterial in der Radiologie ergeben. Daraus wurden drei Aufgabenszenarien entwickelt: Nachfahren einer Struktur, einkreisen einer Struktur und markieren einer Struktur durch einen Stempel. Diese Aufgabenszenarien erfordern verschiedene Zeichen- und Hilfswerkzeuge. Implementiert wurden die Zeichenwerkzeuge Stift, Stempel und aufziehbarer Kreis, so wie die Hilfswerkzeuge Zoom und Helligkeitsregelung.
Für die drei Aufgabenszenarien wurden im Konzept Definitionen des Lösungsbereiches erstellt, den der Ersteller von Übungen im Flash Template an gibt. Diese drei Lösungsbereiche erfordern wiederum unterschiedliche Auswertungen und andere Verfahren zur Fehlerwertungen. Die Fehlerwertung setzt sich je nach Aufgabenszenario aus verschiedenen Verfahren zusammen.
Die anschließende Integration der Anwendung in die LernBar erfolgte über eine Integration von Schnittstellen in die Anwendung, die eine Kommunikation zwischen LernBar Player und der Anwendung erlauben. Zusätzlich wurde das Einlesen von XML Dateien ermöglicht und die Struktur einer XML Datei, zur Übergabe der nötigen Parameter, definiert. Diese XML Datei erlaubt die spätere Einbindung eines Wizards in das LernBar Studio, was im Ausblick erläutert wurde.
Die Implementierung der Anwendung beweist, dass das in dieser Bachelorarbeit aufgestellte Konzept funktioniert.
In dieser Arbeit wurden im Rahmen des HADES-Experimentes von 2007 Proton-Proton-Stöße bei einer kinetischen Energie von Tkin = 3.5GeV der Reaktion pp → ppw simuliert. Insbesondere wurde mittels einer Pluto-Simulation untersucht, welche Auswirkungen die Berücksichtigung möglicher Verteilungsfunktionen für cos(θω) und cos(θ pp), die neben 2 weiteren Parametern als voneinander unabhängige Observablen zur Beschreibung der Reaktion gewählt wurden, auf die Anzahl der simulierten Ereignisse Nsim innerhalb der Detektorakzeptanz des HADES haben könnte. Hierbei stammt die gewählte Winkelverteilung für die w-Produktion aus Messungen des nicht mehr existierenden DISTO-Spektrometers, das Proton-Proton-Stöße bei einer leicht geringeren Energie von Tkin = 2.85GeV durchgeführt hatte, während die Verteilung für die Proton-Proton-Paar-Ausrichtung auf einer Annahme basiert und vorläufig gewählt wurde. Unter Verwendung eines weiteren Modells, das den 3-Teilchen-Zerfall ω → π+π−π0 beschreibt, wurde ein theoretisches Modell von Lutz et al. [1] in die Simulation implementiert, dessen Auswirkung auf Nsim es ebenfalls zu untersuchen galt. Dieses erlaubt eine Reduzierung der Anzahl der Freiheitsgrade des Systems von 12 auf 4, was eine Akzeptanzkorrektur der Reaktion pp→ ppω ermöglicht.
Die Ergebnisse zeigten eine starke Abhängigkeit der Anzahl der simulierten Teilchen von der Proton-Proton-Ausrichtung, die zu einer Reduzierung der Ereignisanzahl von etwa 15% führt. Dies hat zur Folge, dass eine Bestimmung der Verteilungsfunktion für diese Observable absolut notwendig ist. Die Auswirkungen der w-Winkelverteilung beträgt etwa 4−9%. Ein Vergleich der Simulationsergebnisse mit und ohne Modell führte zu dem Ergebnis, dass eine geringe Änderung der Nsim von 1−2% zu Gunsten des Zerfallsmodells vorliegt. Eine Berücksichtigung in Simulationen, die der Untersuchung des betrachteten Zerfalls dienen, ist also keine Notwendigkeit.
In dieser Arbeit wurden zwei unterschiedliche Konzepte für einen Rebuncher mit mehreren Aperturen auf der Symmetrieachse des geplanten Bunchkompressors für das FRANZ-Projekt untersucht. Die besonderen Anforderungen sind die Zeitstruktur des Strahls und der geringe seitliche Abstand der unterschiedlichen Strahlwege...
140 Liter Wasser werden für die Herstellung einer Tasse Kaffee benötigt, 1.300 Liter Wasser für ein Kilo Gerste und 3.400 Liter Wasser für ein Kilo Reis. Diese Zahlen mögen im ersten Moment unglaubwürdig erscheinen, doch sie entsprechen der Wirklichkeit. Für die Herstellung von nahezu allen Produkten wird Wasser in teils sogar sehr großen Mengen benötigt. In dem Endprodukt jedoch findet sich meist nur ein kleiner Teil des ursprünglich eingesetzten Wassers in seiner physischen Form wieder. Der überwiegende Anteil wurde während des Produktionsprozesses verdunstet oder zur Kühlung eingesetzt und wird daher als „virtuelles Wasser“ bezeichnet. Aufgrund des Exports und Imports von Produkten im Zuge des internationalen Handels kommt es somit auch zu Strömen von virtuellem Wasser zwischen den einzelnen Ländern. In dieser Bachelorarbeit wird der virtuelle Wasserhandel mit 23 verschiedenen Feldfrüchten mit dem Fokus auf Deutschland für den Zeitraum von 1998 bis 2002 untersucht. In die Berechnung dieser virtuellen Wasserströme ist ein neuartiges Modell eingegangen, das Global Crop Water Model (GCWM), welches den virtuellen Wassergehalt für unterschiedliche Feldfruchtgruppen global für jede 5-Minuten-Zelle auf Basis detaillierter Daten berechnet. Dank dieses Modells ist es möglich, eine Trennung zwischen dem virtuellen Wasser, welches aus der Nutzung des Niederschlagswassers und dem virtuellen Wasser, welches aus der Bewässerung von Ackerflächen resultiert, vorzunehmen und diese getrennt von einander zu analysieren. Mittels der Verwendung der Handelsstatistik Comtrade der Vereinten Nationen lässt sich aus den Ergebnissen des GCWM der virtuelle Wasserhandel darstellen. Es zeigt sich, dass Deutschland das meiste Wasser in seiner virtuellen Form nach Algerien, Saudi-Arabien, Belgien und in die Niederlande exportiert, wohingegen aus Brasilien, den USA, Frankreich und der Elfenbeinküste die größten virtuellen Wassermengen importiert werden.
Orts- und zeitaufgelöste Elektronendichte eines gepulsten induktiv gekoppelten Entladungsplasmas
(2009)
In der vorliegenden Bachelorarbeit wurde ein Modell für die räumlich und zeitlich aufgelöste Elektronendichteverteilung in einem gepulsten induktiv gekoppelten Plasma erstellt. Experimentell war es, bedingt durch den gepulsten Betrieb und die Wahl der Diagnostikmethode im Experiment „Prometheus“, nur möglich über die Zeit und den Ort gemittelte Elektronendichten zu messen.
Um nun den räumlichen Verlauf der Elektronendichte zu bestimmen, wurde die räumliche Elektronendichteverteilung durch eine ambipolare homogene Diffusion beschrieben. Die daraus resultierende Differentialgleichung wurde mithilfe von sphärischen Koordinaten unter Annahme von Azimutal- und Polarwinkelsymmetrie gelöst.
Der zeitliche Elektronendichteverlauf wurde durch die, für diesen Elektronendichtebereich gültige, Proportionalität zwischen elektrischer Leistung im Plasma und Elektronendichte berechnet. Die elektrische Leistung und deren zeitlicher Verlauf im Plasma ließ sich über ein Photodiodensignal im experimentellen Aufbau ermitteln.
Das so ermittelte Modell wurde auf die gemessenen integrierten Elektronendichten des Experiments „Prometheus“ angewendet. Durch das Modell ließ sich eine Aussage über die tatsächliche maximale Elektronendichte innerhalb des Entladungspulses treffen.
Various concurrency primitives had been added to functional programming languages in different ways. In Haskell such a primitive is a MVar, joins are described in JoCaml and AliceML uses futures to provide a concurrent behaviour. Despite these concurrency libraries seem to behave well, their equivalence between each other has not been proven yet. An expressive formal system is needed. In their paper "On proving the equivalence of concurrency primitives", Jan Schwinghammer, David Sabel, Joachim Niehren, and Manfred Schmidt-Schauß define a universal calculus for concurrency primitives known as the typed lambda calculus with futures. There, equivalence of processes had been proved. An encoding of simple one-place buffers had been worked out. This bachelor’s thesis is about encoding more complex concurrency abstractions in the lambda calculus with futures and proving correctness of its operational semantics. Given the new abstractions, we will discuss program equivalence between them. Finally, we present a library written in Haskell that exposes futures and our concurrency abstractions as a proof of concept.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Shader zur Bildbearbeitung
(2009)
In den letzten Jahren haben Grafikkarten eine starke Veränderung erfahren. Anfangs war lediglich die Darstellung vorberechneter Primitive möglich, mittlerweile lassen sich Vertex- und Pixelshader komplett frei programmieren. Die Spezialisierung auf den Rendervorgang hat die GPUs (Graphics Processing Units) zu massiv-parallelen Prozessoren wachsen lassen, die unter optimaler Ausnutzung ein Vielfaches der Rechenleistung aktueller CPUs erreichen. Die programmierbaren Shader haben Grafikkarten in der letzten Zeit vermehrt als weiteren Prozessor für General Purpose-Programmierung werden lassen.
Aktuelle Bildbearbeitungsprogramme zeigen, dass sich die Tendenz Richtung GPU bewegt, so wird sich auch in dieser Arbeit die enorme Rechenleistung der GPU für die Bildbearbeitung zu nutzen gemacht. Bildfilter lassen sich als Pixelshader realisieren und ermöglichen so die Ausführung direkt auf der GPU. Das vorgestellte Framework SForge wurde mit dem Ziel entwickelt, zu einem bestehenden Framework kompatibel zu sein. Als bestehendes Framework wurde auf AForge zurückgegriffen. Mit SForge können bestehende und eigene Bildfilter direkt auf der GPU ausgeführt werden, aber auch die Konvertierung von Farbräumen und Farbsystemen wurden realisiert. Das Framework arbeitet floatbasierend. Somit können auch HDR-Daten verarbeitet werden, um beispielsweise Tonemapping anzuwenden. Filter mit Parametern lassen sich über einen optionalen Dialog interaktiv ändern und modifizieren das Resultat in Echtzeit.
Trotz eines umfangreichen Angebots an Literatur und Ratgebern im Bereich des Projektmanagements scheitern auch heute noch viele IT-Projekte. Ursache sind oft Probleme im Projektteam oder Fehleinschätzungen in der Planung des Projektes und Überwachung des Projektstatus. Insbesondere durch neue Technologien und Globalisierung entstandene Arbeitsweisen wie das virtuelle Team sind davon betroffen. In dieser Arbeit wird auf die Frage eingegangen, was virtuelle Teams sind und welche Probleme die Arbeit von virtuellen Teams belastet. Dafür werden aktuell existierende Tools aus dem Bereich des Web 2.0 analysiert und aus dem Stand der angebotenen Tools vermeidbare Schwächen der Helfer herausgearbeitet. Anschließend wird ein mittels einer Anforderungsanalyse und eines Konzepts, welches neue Methoden zur Darstellung von Projektstatus und Verknüpfung mit Dokumentation und Kommunikation nutzt, das Tool „TeamVision“ erstellt, welches versucht, virtuelle Teams möglichst effizient zu managenen, Probleme schnell zu erkennen und somit die Arbeit innerhalb des Teams zu beschleunigen. Hierbei wird insbesondere das Ergebnis der Analyse benutzt, dass viele Tools einzelne Verwaltungsaufgaben getrennt durchführen. Informationen müssen vom Nutzer selbst aus den verschiedenen Grafiken, Listen oder anderen Darstellungen gesammelt und selbst assoziiert werden. Die prototypische Implementierung von TeamVision versucht den Informationsfluss beherrschbar zu machen, indem Übersichten in einem Projektbaum zusammengefasst werden, der mittels Zoomfunktionen und visueller Hilfsmitel wie Farbgebung versucht, die Informationsbeschaffung zu erleichtern.
In der vorliegenden Arbeit wird die Gestaltung eines Teststandes für die optische Tomographie eines Ionenstrahles untersucht. Nachdem Ionenstrahlen hoher Intensität immer mehr Leistung in den Diagnosegeräten deponieren, müssen neue nicht Strahlzerstörende Diagnosemethoden gefunden werden. Die Diagnose mittels strahlinduziertem Restgasleuchten ist dabei eine viel versprechende nicht zerstörende Methode. Neben der Definition der Anforderungen für einen solchen Teststand werden verschiedene Realisierungsmöglichkeiten untersucht. Mit einem Testaufbau wird das strahlinduzierte Leuchten in Abhängigkeit verschiedener Restgase und Restgasdrücke untersucht, sowie die Eigenschaften des optischen Systems und der Kamera analysiert. Weiterhin wird die Möglichkeit der Emittanzbestimung aus einer optischen Aufnahme mit vorhandenen Methoden untersucht.
Long-term average groundwater recharge representing the sustainable groundwater resources is modeled as a 0.5° by 0.5° grid on global scale by the WaterGAP Global Hydrology Model. Due to uncertainties of estimating groundwater recharge, especially in semiarid and arid regions, independent estimates are used for calibrating the model. This work compiled a new set of independent groundwater recharge estimates based on a work of Scanlon et al. (2006). The 59 independent estimates, together with an already existing independent estimates compilation, are used for the evaluation of two WGHM variants; one variant is modeling with an improved more realistically distributed daily precipitation dataset.
The objective of this thesis is the evaluation of the modeled data of the WaterGAP Global Hydrology Model (WGHM). The analysis of the impact of the new Watch Forcing Data (WFD) precipitation dataset on the modeled groundwater recharge tends to result in lower values in humid and higher values in (semi-)arid regions compared to the WGHM standard variant. Comparing both WGHM variants to the independent estimates compilations, representing (semi-)arid regions, the WGHM variant shows over- and underestimations especially of the low values and the WGHM WFD variant shows a bias toward overestimation especially for values below 4 mm/yr. The analysis of texture, hydrogeology and vegetation/ land cover could not give satisfying explanations for the discrepancies, but derived from the groundwater recharge measurement methods analysis indirect/ localized recharge seems to be a significant factor causing underestimations, as resulted in the comparison of the independent estimates based on Scanlon et al. 2006 with the WGHM variants.
Nach Abschluss meiner Untersuchungen, kann man sagen, dass die galvanische Einkopplung die eleganteste und wohl sinnvollste für den Kicker im FRANZ-Projekt ist, da man mit ihr perfekt kritische Einkopplung erreicht und sie relativ einfach zu realisieren ist, indem man die Zuleitung direkt an die Stützen lötet. Da die Zuleitung nur relativ kurz ist und Außerhalb der Spule verläuft verändert sie die Eigenschaften des Kickers nicht wesentlich. Die induktive Einkopplung eignet sich zwar auch sehr gut um die kritische Ankopplung zu erreichen, allerdings stellt die Indutktionsschleife eine zusätzliche Induktivität dar. Ebenso verhält es sich mit der kapazitiven Einkopplung. Der Einkoppelstift stellt eine zusätzliche Kapazität dar, welche die Eigenschaften des Kickers verändert.
Zu den Störkörpermessungen ist zu sagen, dass das Elektromagnetische Feld, dass ich vermessen habe, gut mit der Simulation aus [2] übereinstimmt. Die verschiedenen Einkopplungsverfahren haben keinen Einfluss auf die Feldverteilung, d.h. für die Feldverteilung ist es egal ob man kapazitiv, induktiv oder galvanisch einkoppelt. Der Peak, der am Anfang des Kondensators immer wieder auftritt lässt sich dadurch begründen, dass der Störkörper nicht auf einer geraden Linie durch das Modell gezogen wurde (siehe Abbildung 15. Aufgrund der Geometrie der Endplatten wurde der Störkörper leicht schräg durch das Modell und den Kondensator gezogen. Dadurch kommt der Störkörper am Anfang des Kondensators sehr nahe an ihn heran. Wenn der Störkörper nun zu nahe an der Metalloberfläche vorbeiläuft gilt die normale Störkörpertheorie nicht mehr und es treten Oberflächenladungseffekte auf, die die Phasenverschiebung beeinflussen. Somit erhält man am Anfang des Kondensators mehr Phasenverschiebung als in der Mitte des Kondensators.
Wir haben uns in dieser Arbeit der Frage nach der Dissipation in niederenergetischen Schwerionenkollisionen gewidmet. Dissipation im Allgemeinen hat ihre Ursache in direkten Teilchenkollisionen, die in der Methode von TDHF bezüglich der Nukleonen fehlen. Im VUU-Modell sind sie dagegen ein zentraler Bestandteil der Zeitentwicklung und spielen bei mittleren und hohen Energien eine wichtige Rolle.
Mithilfe des VUU-Modells wurde deshalb versucht einen Einfluss der Nukleon-Nukleon-Kollsionen auf den Impulsstrom festzustellen, der an der Verbindungsstelle in der Reaktion 16O + 132Sn mit b = 7 fm und Ecm = 100 vorliegt. Dabei variierten wir den NN-Wirkungsquerschnitt im Kollisionsterm der VUU-Gleichung mit der Erwartung, dass eine daraus resultierende Verminderung bzw. Erhöhung der Stoßrate Auswirkungen auf die Geschwindigkeitsverteilungen der Materie zeigt. Ein positives Ergebnis hätte den Schluss nahegelegt, dass die mittlere freie Weglände und damit die Viskosität von Kernmaterie in Schwerionenkollisionen zu berücksichtigen ist.
Im Verlauf unserer Analyse haben wir festgestellt, dass die von uns verwendeten Methoden nicht zu den gewünschten Ergebnissen führten, z.T. auch weil die Kerne in den VUU-Rechnungen Instabilität aufwiesen und so die relevante Reaktionszeit einschgeschränkt wurde. Wir konnten einen Einfluss von direkten Teilchenkollisionen auf den Impulsstrom zwischen den Kernen des obigen Systems nicht verifizieren. Zusätzliche Simulationen an 12C + 12C mit b = 0 fm haben dann gezeigt, dass offenbar der allergrößte Teil der Nukleon-Nukleon-Kollisionen aufgrund des Pauli-Prinzips blockiert wird. Aus diesem Grund ziehen wir die Möglichkeit in Betracht, dass die starke Präsenz des Pauli-Prinzips im niederenergetischen Bereich die Stoßrate nicht nur maßgeblich reduziert, sondern damit direkte Stöße insgesamt kaum Einfluss auf den Impulsstrom und die Dissipation haben könnten. Die Dissipation ist demnach hauptsächlich auf einen Austausch üuber die Verbindungsstelle zweier Kerne zurückzuführen, was in weiterführender Literatur unter dem Stichwort window formula bekannt ist.
Weitere Untersuchungen in diese Richtung sind wünschenwert. Insbesondere ist es erforderlich das angesprochene Zeitproblem zu lösen, um eventuell die Stoßrate zu erhöhen. Dann könnte ein möglicher Einfluss auf den Impulsstrom wesentlich länger und detaillierter studiert werden. Es bietet sich zudem an, das benutzte Auswerteprogramme vuudens so abzuändern, dass z.B. ein feineres Gitter benutzt werden kann, auf dem die Dichten berechnet werden. Das so gesteigerte Auflösungsvermögen würde sicherlich die
Unzulänglichkeiten der in dieser Arbeit verwendeten Methoden reduzieren. Bei weiterem und tieferem Studium der besprochenen Prozesse könnte es natürlich sein, dass bessere Ansätze zur Analyse gefunden werden. Dies wäre in jedem Fall zu begrüßen.
In dieser Arbeit wurde gezeigt, ob Simulation und Messung der realen Struktur übereinstimmen. Dazu wurde mit Hilfe der Störkörpermessmethode über die Phasenverschiebung die elektrische Feldverteilung einer IH-Struktur bestimmt (unter Variation der Tunerhöhe). Die Feldverteilung von Simulation und Messung sind im Kurvenverlauf gleich, allerdings ist die Stärke der Simulationsfelder um einen Faktor 1,1 – 1,2 größer...
Im Jahr 1960 gelang es Theodore Mainman einen funktionierenden Laser zu bauen. Die Entwicklung dieser Technik war seitdem rasant. Im Alltag ist der LASER heute genausowenig wegzudenken wie in weiten Teilen der Forschung und Medizin. Er findet Anwendung in der Datentechnik (z.B. bei CDs und DVDs), hilft, Augenschäden zu heilen und hat natürlich auch weitreichende Bedeutung in der Physik. Besonders ultrakurze Pulse und hohe Energiedichten werden hierbei benötigt. Um hohe Energiedichten zu erreichen, müssen oft Verstärker (englisch: amplifier) benutzt werden. Häufig verwendet wird hierbei ein Aufbau, bestehend aus einem Stretcher, der schon bestehende Pulse zeitlich streckt, um Beschädigungen an optischen Geräten zu vermeiden, einem verstärkenden Medium, in dem der Puls durch stimulierte Emission verstärkt wird, und einem anschließenden Kompressor, der den Puls zeitlich wieder komprimiert. Hierbei kann man aber nur einen bestehenden Puls verstärken und nicht die zentrale Wellenlänge ändern. Gerade diese Art Verstärker wird jedoch in vielen Bereichen benötigt, in denen man infrarotes Licht mit durchstimmbarer Wellenlänge haben möchte. Eine Möglichkeit, dies zu erreichen, stellt der optisch-parametrische Verstärker dar. Eben dieser wird in der folgenden Arbeit behandelt und näher beschrieben.
Interactive Gorilla
(2010)
Beeindruckt von einer auf Annäherung reagierenden Dinosaurier-Animation des Brüsseler Naturkundemuseums, entstand die Idee einen noch komplexeren interaktiven Gorilla zu entwerfen. Der Gorilla soll dabei auf einer großen Leinwand dargestellt werden und die Besucher können mit diesem anhand ihrer Position interagieren, worauf er seine Tätigkeit und Gestik an diese anpasst.
Da keine Umsetzung, die durch gezielte Anpassungen das gewünschte Ergebnis liefern würde, vorhanden war, wurde das System im Rahmen dieser Arbeit angefertigt. Der Aufbau lässt sich dabei in drei große Module aufteilen, die auf den Ergebnissen des vorherigen Moduls arbeiten.
Zuerst wurde ein System entwickelt, mit dem es möglich ist die Besucher im Raum zu erfassen und festzustellen an welchen Positionen sie sich aufhalten. Diese Informationen werden von einer Verhaltenssimulation weiterverarbeitet. Diese ist durch einen endlichen Automaten realisiert, der auf einem Graphen operiert. Die Ergebnisse, die vom Erkennungssystem geliefert werden, sind dann dafür verantwortlich, dass sich das Verhalten entsprechend ändert. Zuletzt wird das aktuelle Verhalten des Gorillas mit Hilfe eines 3D-Modells und Animationen auf der Leinwand dargestellt.
Des weiteren sind im Rahmen dieser Arbeit zusätzliche Editoren entstanden um die Zustände des Graphen und die dadurch darzustellenden Animationen nachträglich anzupassen.
Das Internet als Informationsmedium ist Plattform für eine nie dagewesene Menge an Information, die für einen einzelnen Menschen nicht mehr zu überblicken ist.
Moderne Web-Suchmaschinen greifen auf die Methoden des Information Retrieval zurück um einem NutzerWerkzeuge anzubieten die zu ihrem Informationsbedürfnis relevanten Dokumente im Internet zu finden. Visualisierungen können diese Dokumentenmenge effektiver durch den Nutzer verarbeitbar machen. Eine komplexe Suchanfrage zu formulieren oder ein Suchergebnis nach bestimmten Kriterien zu filtern ist jedoch heute noch denjenigen vorbehalten die bereit sind, die erweiterten Funktionen der Suchmaschinen zu lernen.
Der in dieser Arbeit vorgestellte Ansatz möchte durch die Kombination der Visualisierung, die einen effektiven Überblick über den Suchergebnisraum gibt, mit den mächtigen Filtermöglichkeiten moderner Suchmaschinen die einfache Filterung von Suchergebnismengen durch ein Direct Maniuplation Interface ermöglichen.
Im Rahmen dieser Bachelorarbeit werden verschiedene Non-Photorealistic Rendering Verfahren zur Darstellung von rekonstruierten Artefakten, im Bereich der Paläontologie, beschrieben und implementiert. Hauptsächlich arbeiten die vorgestellten Verfahren im zweidimensionalen Bildraum, um beispielsweise Kanten in Bildern zu detektieren. Hierbei bedienen wir uns sogenannter Normal- und Depthmaps, welche als Zwischenresultate dienen, um die nötigen Informationen zu sammeln, welche zur Erkennung von Kanten im Bild notwendig sind. Neben der Kantendetektion werden NPR Verfahren genutzt, um skizzenhafte Illustrationen zu erzeugen, welche per Hand gezeichnete wissenschaftliche bzw. technische Illustrationen nachahmen und somit (halb)automatisieren sollen. Mithilfe von (programmierbaren) Shadern werden dann spezielle Texturen auf die Oberflächen der Modelle gelegt, um eine skizzenhafte Darstellung zu erzeugen. Solche Verfahren erleichtern demnach die aufwändige Arbeit der Künstler, welche gewöhnlich viel Zeit für ihre Illustrationen benötigen.
Die Arbeit untersucht die Herstellung und ökonomische Umsetzung von "ethnischem Anderssein" in sog. Kultur-Kochkursen in Frankfurt am Main. In den beforschten Kultur-Kochkursen vermitteln ethnisch markierte KochkursleiterInnen "ihre Küche und Kultur" einem (multikulturalistisch) interessiertem Publikum. Die Arbeit fokussiert auf die performative Herstellung, Umsetzung und Repräsentation von (vermarktbarem) ethnischen Andersseins durch die KochkursleiterInnen in der Kochkurssituation und überprüft die Annahme, dass Ethnizität primär durch (Selbst-)Othering – die Betonung von unüberbrückbarer, essentieller kultureller Differenz – vermarktet wird. Die Befunde, welche auf Internetrecherchen, teilnehmenden Beobachtungen und narrativen Interviews basieren, zeigen, dass die organisierenden Institutionen die Kulturkochkurse zwar mit dem Verweis auf Authentizität, Tradition und Andersartigkeit bewerben, die Kultur-KochkursleiterInnen selbst in der Kochkurssituation allerdings kein kulturalistisches, exotisierendes und Differenz betonendes Ethnizitätskonzept perfomieren, sondern vielmehr Dynamik, Vielfalt und Vermischungen artikulieren, praktizieren und stark positiv konnotieren.
Durch die steigende Bedeutung von multimedialen Lernmaterialien in der Lehre und in der Wirtschaft, wachsen die Anforderungen, die an die Herstellung der Materialien gestellt werden. Verwaltung, Archivierung und Wiederverwendbarkeit sind die zentralen Begriffe um die Effektivität von multimedialen Lernmaterialien zu steigern und damit auch kommerziellen Erfolg zu erzielen. Es ist effektiv wenn Lernmaterialien ein Thema nicht erneut aufarbeiten, wenn es bereits ausreichend Materialien dazu gibt. Vorhandene Materialien können genutzt werden und sparen somit Ressourcen, die ansonsten zur Herstellung neuer Materialien genutzt werden müssten. In dieser Arbeit werden Metadaten als Mittel eingesetzt, um die Effektivität zu steigern. Dabei soll vor allem der Mehrwert durch die Verwendung von Metadaten deutlich gemacht werden. Eine Analyse aktueller Autorensysteme soll zeigen, wie Metadaten bereits eingesetzt werden und wo Probleme existieren. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer Erweiterung des Autorensystems LernBar verwendet. Um den Mehrwert der Metadaten deutlich zu machen, soll der gesamte Autorenprozess innerhalb der LernBar erweitert werden. Das heißt, dass der gesamte Ablauf, vom Erfassen bis zum Verwenden der Metadaten, abgebildet wird. Im Fokus der Erweiterung steht die Unterstützung des Autors bei der Erstellung von Lernmaterialien. Vorlagen und automatisierte Vorgänge dienen der Bedienbarkeit der neuen Funktionen.
Im Rahmen der Bachelorarbeit wurden verschiedene Messungen am CH-Modell des Protonen - Linearbeschleunigers für FAIR durchgeführt.
Zu Beginn wurde die Wirkung der Tuner auf das elektrische Feld im Resonator und die Frequenz untersucht. Aus den systematischen Messungen konnte man feststellen, wie die Tuner das elektrische Feld beeinflussen. Außerdem konnte man sehen, dass die Tuner zu einer Erhöhung der Frequenz führen, was auch durch den theoretischen Hintergrund erwartet wurde. Aus den so gewonnenen Erkenntnissen konnte nun versucht werden, die Spaltspannungen an eine Vorgabe aus LORASR anzupassen. Dies nahm den Hauptteil der Bachelorarbeit ein. Die Anpassung konnte durch Variation der Tuner und der Spaltlängen erreicht werden. Die Abweichungen zur LORASR - Vorgabe lagen alle, bis auf einen Wert, im vorgegebenen Bereich. Allerdings waren die Messungen nicht perfekt reproduzierbar, da es bei der Störkörpermessung zu Fehlern kam. Der Motor, der den Störkörper durch die CH-Struktur ziehen sollte, war in diesem Zeitraum defekt, wodurch sich die gemessenen Spaltspannungen etwas veränderten.
Weiterhin wurde noch eine Sensibilitätsuntersuchung bei Erwärmung des Niederenergieteils des Resonators und eine Modenuntersuchung durchgeführt.
Durch die Erwärmung des Niederenergieteils konnte man sehen, dass das Feld im Inneren des Resonators auf Temperaturunterschiede reagiert. Dies hat aber keinen Einfluss auf die Betriebsfähigkeit des Resonators, da die zu erwartenden Einflüsse auf den Resonator im Betrieb sehr gering sind. Die Modenuntersuchung hat die vorherigen Annahmen bestätigt. Die Hochfrequenzleistung wird über die Linse hinweg störungsfrei weitergegeben und die ersten 4 Moden schwingen alle in dem Modell an und sind messbar, wenn man außen in den Tanks einkoppelt.
Der Karlsruhe 4π-Bariumfluorid-Detektor, entwickelt und aufgebaut Ende der Achtzigerjahre am Forschungszentrum Karlsruhe, ist ein effizienter Detektor für Gammastrahlung und bietet vielfältige Einsatzmöglichkeiten für kernphysikalische Experimente. Insbesondere für Experimente der nuklearen Astrophysik ist er geeignet, aber auch für die Forschung zur Entwicklung neutronengetriebener Reaktoren, zum Beispiel zur Transmutation radioaktiver Abfälle. Derzeit befindet sich der Detektor an der Goethe-Universität Frankfurt, wo er mit der sich dort in Entwicklung befindenden FRANZ-Neutronenquelle eingesetzt werden soll. Diese ermöglicht zum Beispiel Messungen von Wirkungsquerschnitten für den s-Prozess in astrophysikalisch relevanten Energiebereichen und bei hohen Intensitäten.
Diese Arbeit behandelt astrophysikalische Möglichkeiten die der Detektor bietet sowie dessen allgemeinen Aufbau und Eigenschaften. Es wurden eine Funktionsprüfung des Detektors, Messungen der Zeit- und Energieauflösung, Energiekalibration sowie kleine Optimierungen und Reparaturen durchgeführt.
In der LEBT-Sektion der Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) befinden sich zur transversalen Fokussierung des Ionenstrahls vier Solenoide. Die ersten beiden dienen dem Einschuss in das ExB-Choppersystem, die letzten beiden dem Einschuss in die erste Beschleunigerstruktur, den Radiofrequenzquadrupol (RFQ). In numerischen Transportsimulationen konnte gezeigt werden, dass insbesondere der erste Solenoid einen hohen Füllgrad aufweisen wird, was zu Strahlaberrationen und damit zu einer unerwünschten Erhöhung der Strahlemittanz führen kann.
Um diesen Effekt zu untersuchen, wurden die Fokussier- und Abbildungseigenschaften des ersten FRANZ-Solenoides analysiert. Analytische Rechnung unter Verwendung der Twissparametertransformation wurden durchgeführt, numerische Simulationen mit einem idealisiertem und einem realistischem Magnetfeldverlauf gemacht und 2 Messaufbauten mit einer Volumenquelle, dem Solenoid und einer Schlitz-Gitter-Emittanzmessanlage realisiert, um gemessene mit analytischen und numerischen Daten vergleichen zu können. Die Parameter, die ausgewertet und verglichen wurden, sind die Lage der Emittanzellipse, die Emittanz im x-x'-Phasenraum und die normierten vierten Momente (Wölbung) im Ortsraum.
Quasi-Monte-Carlo-Verfahren zur Bewertung von Finanzderivaten, BacDas Gebiet der Optionsbewertung ist durch die Entwicklungen zu neuen und immer komplexer werdenden Optionstypen und durch Verbesserungen im Bereich der Aktienkurs-Modelle geprägt. Diese Entwicklung und die gestiegene Leistungsfähigkeit der Parallelrechner haben das Interesse an den flexiblen Quasi-Monte-Carlo-Verfahren neu geweckt.
Die experimentellen Untersuchungen bestätigen die Überlegenheit des Quasi-Monte-Carlo-Verfahren gegenüber den klassische Monte-Carlo-Verfahren in Bezug auf niedrigdimensionale Optionstypen. Dieser Überlegenheit nimmt aber mit zunehmender Dimension ab, was eine Nachteil für das Quasi-Monte-Carlo Verfahren darstellt. Zur Verbesserung des Verfahrens gibt das Dimensions-Reduktions-Prinzip (effective dimension) und weitere Niederdiskrepanz-Folgen, wie Niederreiter-Folgen, Lattice-Regeln, usw. Weitere Verbesserungsmöglichkeiten könnten auch durch Wahl von anderen Diskretisierungsverfahren mit höherer starker Ordnung, wie z.B dem Milstein-Verfahren, erreicht werden. Mit dem Quasi-Monte-Carlo-Verfahren lässen sich auch komplizierte Optionen bewerten,
wie z.B. Bermuda-Optionen, Barrier-Optionen, Cap-Optionen, Shout-Optionen, Lokkback-Optionen, Multi-Asset-Optionen, Outperformance-Optionen, und auch mit weiteren Bewertungs-Modellen kombinieren, wie z.B. dem Black-Scholes-Modell mit variabler Verzinsung, Black-Scholes-Modell mit zeitabhängiger Volatilität, Heston-Modell für stochastische Volatilität, Merton-Sprung-Diffusion-Modell und dem Libor-Markt Modell für Zinsderivate, auf die ich in dieser Bachelorarbeit nicht mehr eingehen werde, mit denen ich mich jedoch in der Masterarbeit genauer beschäftigen werde.
Sprung-Diffusions-Modelle zur Bewertung Europäischer Optionen, BacIn dieser Arbeit wurden die Europäische Optionen in den Sprung-Diffusions-Modellen von Merton und dem Modell von Kou bewertet. So stellen die geschlossenen Lösungen für das Merton-Modell als Anwendung der Black-Scholes-Formel eine einfache Möglichkeit zur Berechnung eines Optionspreises dar. Die Verwendung einer analytischen Lösung für Merton ist allerdings nur eingeschränkt, d.h. für zwei spezielle Sprungverteilungsfunktionen (Plötzlicher Ruin und die Lognormalverteilung) möglich. Das Kou-Modell hingegen, hat eine geschlossene Lösung für Doppel-Exponentialverteilte Sprünge. Eine flexible Lösungsmöglichkeit zur Bestimmung eines Optionspreises ist die Verwendung des Monte-Carlo-Verfahrens für die Simulation der Kursbewegung mit zugrunde liegendem Sprung-Diffusions-Modell. In diesem Fall ist das Monte-Carlo-Verfahren zur Ermittlung des Optionspreises nur einmal anzuwenden. Dieses Verfahren konvergiert mit einer Konvergenzrate von 1/2.
Wie alle anderen Modelle, die auf Lévy Prozessen basieren, lässt das Kou-Modell eine empirische Beobachtung vermissen, nämlich die mögliche Abhängigkeit zwischen Renditen der Underlyings (der sogenannte "volatility clustering affect"), weil das Modell unabhängige Inkremente unterstellt. Eine Möglichkeit die Abhängigkeit mit einzubeziehen, wäre die Nutzung anderer Punktprozesse Ñ(t) mit abhängigen Inkrementen anstelle des Poisson-Prozesses N(t). Es muss natürlich die Unabhängikeit zwischen der Brownschen Bewegung, den Sprunghöhen und ~N(t) beibehalten werden. Das so modifizierte Modell hat keine unabhängigen Inkremente mehr, ist aber einfach die geschlossene Lösungsformel für Call- und Put-Optionen zu erhalten. Andererseits scheint es schwer analytische Lösungen für Pfadabhängige Optionen durch Nutzung von Ñ(t) anstelle von N(t) zu erhalten.
Wie können Optionen bewertet werden, zu denen keine geschlossenen Lösungen existieren? Die Antwort lautet: Numerische Verfahren. In Hinblick auf diese Frage wurden in der Vergangenheit meist Baumverfahren, Finite-Differenzen- oder Monte-Carlo-Methoden herangezogen. Im Gegensatz dazu behandelt diese Bachelorarbeit den Einsatz von Quadraturverfahren (QUAD) bei der Bewertung von exotischen Optionen, also Optionen, die kompliziertere Auszahlungsstrukturen besitzen wie einfache Standard-Optionen. Die Grundidee besteht darin, den Optionswert als mehrdimensionales Integral in eindimensionale Integrale zu zerlegen, die daraufhin durch Quadraturformeln approximiert werden...Die Genauigkeit des Verfahrens wird erhöht, indem die Schrittweite der Quadraturformel h verkleinert wird. Dies hat allerdings zur Folge, dass sich der Rechenaufwand erhöht. QUAD jedoch schafft es, durch Reduzierung der Dimension und Ausnutzung der herausragenden Konvergenzeigenschaften von Quadraturformeln eine hohe Genauigkeit bei gleichzeitig geringen Rechenkosten zu erreichen.
Die Methode ist allgemein anwendbar und zeigt insbesondere beim Preisen von pfadabhängigen Optionen mit diskreten Zeitpunkten ihre Stärken. Als Anwendungsbeispiele betrachten wir deshalb folgende Optionstypen: Digitale-, Barrier-, Zusammengesetzte-, Bermuda- und Lookback Optionen. Ferner existieren entsprechende Verfahren für Asiatische- oder Amerikanische Optionen, für die jedoch mehr Vorarbeit notwendig ist.
Der große Vorteil von QUAD gegenüber anderen numerischen Verfahren liegt in der Vermeidung eines (bedeutsamen) Verteilungsfehlers und in der Tatsache, dass keine Bedingungen an die Auszahlungsfunktion gestellt werden müssen. Baum- oder Finite-Differenzen-Verfahren reduzieren zwar durch Gitterverfeinerung den Verteilungsfehler, allerdings geht dies Hand in Hand mit deutlich höheren Rechenzeiten. Zum Beispiel benötigt ein Baumverfahren für die doppelte Exaktheit einen vierfachen Rechenaufwand, während die QUAD Methode bei einem vierfachen Rechenaufwand die Exaktheit mit Faktor 16 erhöht (bei Extrapolation steigt dieser Faktor bis 256).
QUAD kann als "der perfekte Baum" angesehen werden, da es ähnlich zu Multinomialbäumen auf Rückwärtsverfahren zurückgreift, andererseits aber die hohe Flexibilität besitzt, Knoten frei und in großer Anzahl zu wählen. Des Weiteren gehen nur die den Optionspreis bestimmenden Zeitpunkte in die Bewertung mit ein, sodass auf zwischenzeitliche Zeitschritte gänzlich verzichtet werden kann.
Die eigentliche Arbeit gliedert sich in sechs Abschnitte. Zunächst erfolgt eine Einführung in allgemeine Quadraturverfahren, exotische Optionen und das Black-Scholes-Modell, was im Anschluss den Übergang zum Lösungsansatz liefert. Dieser Abschnitt schließt mit einer geschlossenen Integrallösung für Optionen, die der Black-Scholes-Differentialgleichung folgen, ab. In Abschnitt 4 wird die genaue Untersuchung der QUAD Methode vorgenommen. Unter Verwendung des in Abschnitt 5 vorgestellten Algorithmus wird anschließend in Abschnitt 6 die QUAD Methode auf die zuvor genannten Optionsklassen angewandt. Die entsprechenden Resultate werden am Ende dieses Teils in Tabellen und Graphiken präsentiert. Den Abschluss bildet das Fazit und die Zusammenfassung der Ergebnisse.
The following thesis is the description and the analysis of time resolution measurements of the plastic scintillator protorypes bar with PMT (photomultiplier tube) readout, performed with a 31 MeV electron beam at the HZDR (Helmholtz-Zentrum Dresden-Rossendorf) [1]. Similar bars will be used as building blocks for the NeuLAND detector (new large area neutron detector) - a ToF (time of flight) wall within the R3B setup (Reactions with Relativistic Radioactive Beams [2]) at the future FAIR facility (GSI Darmstadt [3]). The superconducting ELBE (electron linear-accellerator for beams of high brilliance and low emittance) was used as an electron source. The scintillation material used was RP408.
Two series of measurements were made within three months. In the first series, three bars of different sizes (200 x 5 x 5 cm3; 200 x 3 x 3 cm3; 300 x 5 x 5 cm3, the latter was made by coupling one 100 cm bar with a 200 cm bar using silicon grease) were used in the experiment consecutively. They had one Hamamatsu R8619 photomultiplier tube with an active diameter of 22 mm attached to each side with silicon grease. A measurement with the 200 x 5 x 5 cm3 bar without silicon grease was also performed.
In the second series, two equal scintillator bars (270 x 5 x 5 cm3 with a 10 cm light guide) on each side were used. Measurements with and without silicon coupling as well as with two different types of PMTs (R8619 and R2059) were executed.
Time and charge signals were processed with the TACQUILA electronic board. The time resolution was measured with the very precise pulsed electron signal of the accelerator. The time resolution measurements resulted in ρ200x5x5 ~ 159 ps; ρ200x5x5,no silicon ~ 162 ps; ρ200x3x3 ~ 153 ps; ρ300x5x5 ~ 204 ps.
For the second date they resulted in ρR8619 ~ 149 ps; ρR8619, no silicon ~ 175 ps; ρR2059 ~ 141 ps.
More tests and analysis is required until the results are definite.
Neutroneneinfangquerschnitte werden häufig mithilfe der Aktivierungsmethode bestimmt. Hierbei wird die zu untersuchende Probe mit Neutronen der gew¨unschten Energie bestrahlt und danach in einem untergrundoptimierten Labor ausgezählt. Am Institut für Angewandte Physik der Goethe Universität Frankfurt wurde ein solcher Aufbau realisiert. Er besteht aus zwei Clover Detektoren, die gegenüberliegend in enger Geometrie angeordnet sind. Die aktivierte Probe wird mittels spezieller Probenhalter reproduzierbar und zentriert zwischen den Detektoren platziert. Die Clover Detektoren sind mit passiven Schilden (Pb) und einer aktiven Abschirmung (BGO) umgeben. Die unterschiedlichen Abschirmungen wirken sich in verschieden Energiebereichen jeweils anders aus.
Diese Arbeit befasst sich mit der astrophysikalischen Motivation und dem Aufbau, mit dem später die Ausbeute einer neutronenaktivierten Probe bestimmt werden kann. Außerdem werden die Ergebnisse der verschiedenen Untergrundmessungen miteinander verglichen.
Im Rahmen dieser Arbeit wird ein Gammaspektroskopie-Aufbau unter Verwendung eines HPGe-Clover-Detektors zur Nutzung in Aktivierungsexperimenten charakterisiert und untersucht. Die für präzise Aktivitätsmessungen nach einer Aktivierung nötigen Effizienzen werden mit Hilfe der Eichquellen 60Co und 22Na unter Nutzung verschiedener Modi des Clover-Detektors abstandsabhängig errechnet. „Listmode“-Daten ermöglichen dabei eine „offline“-Verarbeitung. Begleitet werden die Messungen von aufwändigen Monte-Carlo-Simulationen in Geant4. Parallele Auswertungsmethoden erlauben einen genauen Vergleich zwischen simulierten und experimentellen Ergebnissen.
Die vorliegende Arbeit beschäftigt sich mit optischen und elektrischen Untersuchungen an einer koaxial aufgebauten Lorentz-Drift-Geometrie. So wurden Messungen an der Lorentz-Drift-Sputterquelle bezüglich der Durchbruchspannung durchgeführt. Es hat sich gezeigt, dass das Verhalten der Durchbruchspannung in Abhängigkeit vom Druck trotz der koaxialen Elektrodengeometrie vergleichbar mit der Paschenkurve fur eine planparallele Anordnung ist.
Zur Untersuchung des Sputterverhaltens wurden zunächst einige Kurzzeitaufnahmen mit einer Belichtungszeit im Mikrosekundenbereich durchgefuhrt, um so die Ausbreitung der Plasmawolke zu betrachten. Bei einem Durchbruch führt der Stromfluss zu einem Magnetfeld, sodass ein Lorentz-Drift entsteht. Durch die resultierende Kraft wird das Plasma beschleunigt.
Es zeigt sich, dass sich die Plasmawolke mit zunehmender Zeit bzw. zunehmendem Abstand von den Elektroden homogener im Rezipient verteilt. Da durch die Ausbreitung der Plasmafront auch ausgelöstes Elektrodenmaterial zu einem entsprechend platzierten Substrat beschleunigt wird, lagert sich dort eine dünne Schicht an.
Die Ablagerungen am Substrat wurden bei verschiedenen Drucken und verschiedenen Abständen zu den Elektroden betrachtet. Erste Messungen zeigen, dass die Schichten mit größerem Abstand homogener werden und besser am Substrat haften bleiben, jedoch die Schichtdicke geringer wird. Bei geringem Abstand lagern sich vergleichsweise dicke Schichten an, die jedoch sehr inhomogen und instabil sind. Durch Optimierung sollte es aber möglich sein, einen gewünschten Kompromiss aus Schichtdicke, Stabilität und Homogenität zu finden.
Bei niedrigeren Drucken und somit hohen Durchbruchspannungen kommt es aufgrund der höheren Stromdichte zu stärkeren Lorentz-Drifts, sodass die Teilchenenergien im Plasma steigen und es zu dickeren Ablagerungen kommt.
Die Schlussfolgerung dieser Arbeit ist, dass die Beschichtung durch eine Lorentz-Drift-Geometrie prinzipiell möglich ist. Es konnten bisher qualitative Messungen durchgeführt werden, die jedoch noch quantitativ verifiziert werden sollten.
Finanzderivate sind Produkte, die eine Möglichkeit bieten sich gegen künftige Preisschwankungen abzusichern oder auf eine zukünftige Preisentwicklung zu spekulieren. Die wichtigsten Arten von Finanzderivaten sind Optionen, Futures, Forwards und Swaps. Gegenstand vorliegender Bachelorarbeit werden ausschließlich Optionen sein. Auf den internationalen Finanzmärkten werden verschiedene Typen von Optionen gehandelt, weshalb sich die Frage des "fairen Preises" eines solchen Produktes stellt. Für viele gehandelte Optionen gibt es keine geschlossene Lösung zur Bestimmung des Preises, deshalb werden für diese numerische Verfahren zur Berechnung angewandt. Dabei muss beachtet werden, dass der Optionswert möglichst genau ist, jedoch sollte der Aufwand dabei ziemlich gering sein.
Ziel dieser Arbeit ist die Bestimmung eines numerischen Verfahrens, mit dem man europäische und amerikanische Multiasset-Optionen bewerten kann. Dieses Verfahren soll eine Erweiterung des bekannten Binomialverfahrens sein. Im Fokus steht dabei das Binomialverfahren, da es durch die Einschränkung auf zwei Entwicklungsmöglichkeiten in der Anwendung einfacher ist als das Black-Scholes-Modell. Dieses Verfahren ist nur für europäische und amerikanische Standard-Optionen definiert. Bei der Erweiterung muss beachtet werden, dass Multiasset-Optionen von mehreren Wertpapieren abhängen. In der Arbeit wird ein Produktbinomialverfahren entwickelt, das die Anzahl der Wertpapiere in der Dimension der entstehenden Bäume berücksichtigt. Dieses Verfahren konvergiert gegen das mehrdimensionale Black-Scholes-Modell und ist zu dessen graphischer Darstellung geeignet. Es wird jedoch auch gezeigt, dass dieses dem Fluch der Dimension unterliegt und somit der Aufwand für einen möglichst genauen Optionswert ziemlich hoch ist. Die Erweiterung dieses Verfahrens durch Dünne Gitter erzielt eine Optimierung der Laufzeit. Da der Fokus dieser Bachelorarbeit jedoch auf dem Produktbinomialverfahren liegt, wird im Folgenden auf diese Erweiterung nicht eingegangen.
Ziel der Bachelorarbeit war es, einen Versuch für das Fortgeschrittenen-Praktikum des Instituts für Kernphysik zu konzipieren, der es ermöglicht, die Lebensdauer von aus der kosmischen Strahlung entstandenen Myonen zu bestimmen.
Dazu wurden vorhandene Komponenten auf ihre Gebrauchstauglichkeit getestet und untersucht, insbesondere in Bezug auf die Größe der Szintillatoren, ob der für einen Praktikumsversuch zeitlich gegebene Rahmen eingehalten werden kann.
Es ergaben sich einige mechanische Probleme, insbesondere bei der Verbindung der neuen, größeren Szintillatoren mit den Photomultipliern, die angegangen wurden. Die zuerst getestete Methode stellte sich jedoch als uneffektiv heraus, sodass die endgültige Lösung mit Hilfe einer neuen, computergesteuerten Fräsmaschine der Feinmechanik-Werkstatt erreicht werden soll.
Um die entstandenen Daten zu verarbeiten, wurde ein entsprechendes Programm in LabVIEW entwickelt, das die am TDC abgegriffenen Daten auf ihre Relevanz untersucht und die Ergebnisse in eine Textdatei schreibt. Das LabVIEW Front Panel wurde dabei so gestaltet, dass es den Praktikanten alle wichtigen Daten in graphisch anschaulicher Weise liefert.
Die Daten aus der Textdatei werden dann mit Hilfe eines ROOT Makros mit zwei verschiedenen Exponentialfunktionen gefittet.
In ersten Messungen ergibt sich ein Wert für die Lebensdauer der Myonen, der erstaunlich nahe am Literaturwert liegt.
Diese Arbeit zeigt, dass die optimale Verteilung von Individuen in Gruppen unter Beachtung ihrer Zeitpräferenzen ein NP-schweres Problem ist. Daher liegt es Nahe, dass für große Teilnehmerzahlen eine optimale Lösung nicht in praxistauglicher Zeit berechnet werden kann. Hier kann eine geeignete Heuristik Abhilfe schaffen.
Da dieses Problem in Universitäten für Studierende bei der Zuteilung der Übungsgruppen für Hunderte von Teilnehmern jedes Semester aufs Neue gelöst werden muss, macht es Sinn, dabei eine rechnergestützte Lösung einzusetzen.
In dieser Arbeit werden die gängigsten in Deutschland und insbesondere an der Goethe-Universität Frankfurt am Main verwendeten Gruppeneinteilungssysteme untersucht. Alle aktuell eingesetzten Lösungen weisen offensichtliche Mängel auf. In dieser Arbeit wird analysiert, weshalb es dazu kommt und gezeigt, wie diese Mängel vermieden werden können. Außerdem werden Kriterien entwickelt und diskutiert, die ein gutes Gruppeneinteilungssystem erfüllen sollte.
Es wird beschrieben, inwiefern eine gute mit einer Heuristik schnell berechenbare approximative Lösung des Gruppeneinteilungsproblems besser als eine perfekte Lösung sein könnte. Mehrere Heuristiken werden verglichen und eine für dieses Problem gut passende wird entwickelt und implementiert. Mithilfe der Beispielimplementierung und anhand anonymisierter Anmeldedaten für die Veranstaltungen aus vergangenen Jahren wird gezeigt, welche Ergebnisse bei dem Wechsel zu einem solchen System erreicht werden können.
Weiterhin wird analysiert, wie ein solches Gruppeneinteilungssystem an die anderen an Universitäten eingesetzten digitalen Systeme angekoppelt werden kann. Das ist notwendig, um zu vermeiden, dass die redundanten Studierendendaten doppelt gepflegt werden müssen. Somit werden Konsistenz und Korrektheit der Daten bei dem Einsatz eines neuen Systems gefördert.
Abschließend wird ein Ausblick in die Zukunft der Gruppeneinteilungssysteme gegeben und beschrieben, welche Aspekte in diesem Bereich weiterhin wichtig sein könnten.
This work derives the value of the neutron capture cross section of 60Fe at the energy of kT = 25 meV. Iron plays an important role in stellar nucleosynthesis, because it is a seed material for the s-process, a neutron capture process in which the elements between iron and bismuth are synthesized.
To determine the thermal neutron cross section of 60Fe, an iron sample produced in the framework of the ERAWAST1 program at the Paul Scherrer Institute in Switzerland was irradiated at the research reactor TRIGA2 at Johannes Gutenberg University in Mainz, Germany. Before the irradiation, the number of 60Fe particles in the sample was calculated using the decay scheme of 60Fe. There were (8.207 ± 0:066 stat 0:298 syst) * 10 14 60Fe particles in the sample.
The irradiation of the sample took place in May 2012. The counting of the reaction product, 61Fe, was undertaken using a HPGe detector located in a laboratory at Johannes Gutenberg University in Mainz. Knowing the number of 60Fe particles in the sample, the number of produced 61Fe particles and the neutron flux from the reactor, the thermal neutron capture cross section of ρth60Fe = (0.203 ± 0:021 stat 0:024 syst) b could be determined.
The determination of the thermal neutron capture cross section at the energy of kT = 25 meV constitutes to the first at this energy. There was already a measurement of the neutron capture cross section of 60Fe at the energy of kT = 25 keV in Karlsruhe in Germany. The result of the measurement was 25 keV = (9.9 ± 2:8 syst 1:4 stat) mb and was published in the year 2009 [14].
Adding datapoints for the cross section at different energies improves extarpolation and helps verification of theoretical models for elemental synthesis. For this reason, a measurement of the 60Fe neutron capture cross section at the energy of kT = 90 keV is planned at Goethe University Frankfurt, Germany.
Having the neutron capture cross section of 60Fe at the energy of kT = 25 keV measured in the year 2009 in Karlsruhe [14], at the energy of kT = 25 meV measured in May 2012 at Johannes Gutenberg University in Mainz and at the planned energy of kT = 90 keV at Goethe University Frankfurt, there will be three points for the extrapolation of the values for the neutron capture cross section of 60Fe. This will lead to a significant reduction in uncertainty with respect to existing theoretical discrepancies.
Die vorliegende Arbeit beschäftigt sich mit der Energiekalibration und der Effizienz zweier Niederenergie-Germaniumdetektoren, deren Energieauflösungen hier ebenfalls bestimmt werden. Die Untersuchungen werden an den γ-Spektren von 109Cd, 54Mn, 137Cs, 57Co, 133Ba, 60Co und 22Na in zwei verschiedenen Verstärkungseinstellungen vorgenommen, wobei der Abstand der Eichquellen zu dem Detektor variiert wird, um zussätzlich die Abhänngigkeit der Effizienz vom Raumwinkel sowie den Einfluss von Summeneffekten zu untersuchen. Einige der Eichquellen weisen in ihren Spektren γ-Zerfallskaskaden auf, die sich negativ auf die Bestimmung der Detektoreffizienz auswirken und somit als Eichquellen nicht optimal sind. Zusätzlich erfolgt dann ein Vergleich der Effizienzeichungen mit einer Monte-Carlo-Simulation.
Ein zentraler Bestandteil der Teilchenphysik ist die Berechnung der Zerfallsbreiten bzw. Lebensdauern von Teilchen. Die meisten bekannten Teilchen sind instabil und zerfallen in zwei oder mehr leichtere Teilchen. Die Formel für die Berechnung einer Zerfallsbreite enthält zwei verschiedene Komponenten: Die kinematischen Faktoren, die lediglich vom Anfangs- und Endzustand abhängen und aus der Energie- und Impulserhaltung folgen, und die dynamischen Faktoren, die sich aus der Art der Wechselwirkung und eventuellen Zwischenstufen ergeben. Gibt es mehrere Zerfallskanäle, die zu den gleichen Endzuständen führen, so unterscheiden diese sich nur in den dynamischen Faktoren. Aus diesem Grunde werden kinematische und dynamische Faktoren getrennt, da nur letztere für die Analyse der Wechselwirkung relevant sind.
Die kinematischen Faktoren von Zwei- und Dreikörperzerfällen haben einen fundamentalen Unterschied: Beim Zweikörperzerfall ist durch die Erhaltungssätze die Verteilung der Energien der Produktteilchen komplett festgelegt, während sie bei einem Dreikörperzerfall innerhalb bestimmter Grenzen variieren kann.
Ein Dreikörperzerfall kann auf zwei verschiedeneWeisen auftreten: Bei einem direkten Zerfall entstehen gleichzeitig alle drei Endprodukte. Bei einem indirekten Zerfall zerfällt das Startteilchen zuerst in zwei Teilchen, von denen eines stabil ist und das andere erneut zerfällt. Im Falle des indirekten Zerfalls haben die resultierenden Teilchen eine andere Impulsverteilung als bei einem direkten Zerfall, woraus sich Informationen über den Zwischenzustand gewinnen lassen.
Im ersten Kapitel dieser Arbeit widmen wir uns der expliziten Berechnung der Zerfallsbreite für die verschiedenen Fälle. Wir beschränken uns hier und in allen weiteren Rechnungen auf skalare und pseudoskalare Teilchen, bei denen keine Spineffekte auftreten.
Die Zerfallsbreite eines Dreikörperzerfalls lässt sich in einer besonders praktischen Form, dem sogenannten Dalitz-Plot, darstellen. Hierbei sind alle kinematischen Faktoren konstant und eine Darstellung der Zerfallsbreite in Abhängigkeit der entsprechenden Variablen lässt direkten Aufschluss über die Art der Wechselwirkung zu. Die Form eines Dalitz-Plots sowie dessen Interpretation ist Gegenstand des zweiten Kapitels.
Im dritten Kapitel beschäftigen wir uns kurz mit der Frage, welche Auswirkungen Prozesse höherer Ordnung auf den gesamten Zerfall haben. Hierbei beschränken wir uns auf die Betrachtung von Loopbeiträgen des Zwischenzustandes eines indirekten Zerfalls.
Im letzten Kapitel werden wir die theoretischen Betrachtungen am Zerfall eines pseudoskalaren Glueballs anwenden. Ein Glueball ist ein gebundener Zustand aus Gluonen, den Austauschteilchen der starken Wechselwirkung. Da die Gluonen aufgrund der nichtabelschen Struktur der Farbsymmetriegruppe selbst Farbladung tragen, ist es theoretisch möglich, Zustände nur aus Gluonen zu konstruieren, die farbneutral sind und damit den Regeln des Confinements entsprechen. Im Falle der betrachteten Glueballs tritt ein weiterer interessanter Effekt auf: Da es mehrere Zerfallskanäle gibt, die zum gleichen Endzustand führen, treten Interferenzeffekte auf, deren Auswirkung auf das Gesamtergebnis näher untersucht wird.
In dieser Arbeit wurde der Entwurf eines Rebunchers für die Ionenstrahltherapieanlage MedAustron mit Hilfe des Simulationsprogramms Microwave Studio entwickelt. Es wurde ein neues Design in Anlehnung an einen Spiralresonator gewählt, wobei der Spiralarm aus einem wassergekühlten induktiven Teil und einem aus massivem Kupfer gefertigten kapazitiven Teil besteht.
Die Frequenz der ersten Eigenmode liegt zwischen 217,8 MHz (ohne Keramik) und 217,3 MHz (mit Keramik). In der Realität könnte die Frequenz von diesem Wert etwas abweichen (bis zu 0,5 MHz), da einerseits Details wie Ein- und Auskopplung und andererseits reale Effekte wie Oberflächenverunreinigung oder kleinste Abweichungen in der Geometrie in Microwave Studio nicht berücksichtigt werden können. Außerdem wird die Genauigkeit der Simulationen durch die Anzahl Gitterpunkte limitiert. Um diese Eekte kompensieren zu können, wurden die Auswirkungen eines Tuners auf die Frequenz untersucht. Hierbei ergab sich für eine Tunerhöhe von 40 mm eine Frequenzveränderung von 220 kHz, bei 70 mm sind es schon 1,224 MHz.
Da sich bei dieser Frequenz und Geometrie ein Laufzeitfaktor von nur 0,66 auf der Strahlachse ergibt und die Spannung dort zusätzlich um den Faktor 0,983 niedriger ist als am Spaltrand, muss bei einer effektiven Shuntimpedanz von 13,4 M Ω/m eine Leistung von 2,46 kW aufgebracht werden. Nähere Untersuchungen der elektrischen Felder fürten zu dem Ergebnis, dass der Grund für den niedrigen Laufzeitfaktor dynamische Eekte sein müssen. Die "statischen Felder" verhalten sich wie erwartet.
Aber auch die reale Shuntimpedanz und somit auch die reale Verlustleistung können beträchtlich von den berechneten Werten abweichen. Es wird erwartet, dass die Shuntimpedanz im ungünstigsten Fall nur 60% der simulierten Impedanz beträgt, weswegen man mit einer Verlustleistung von 4,09 KW rechnen muss.
Der Rebuncher soll zusammen mit der Beschleunigeranlage in Österreich im Jahr 2013 in Betrieb gehen, aber bereits in 2012 zu Strahlexperimenten am CERN zur Verfügung stehen.
Spam detection in wikis
(2012)
Wikis haben durch ihre kollaborativen Eigenschaften maßgeblich an der Entstehung des Web 2.0 beigetragen: Durch die Zusammenarbeit vieler Benutzer ist es möglich geworden, große Mengen an Daten aufzubereiten und strukturiert zusammenzustellen. So ist ein Datenschatz angewachsen, der wertvoll für die maschinelle Verarbeitung von Text ist: Mittels der Techniken des TextMining lassen sich aus Wikis viele Informationen extrahieren. Dazu ist es zunächst sinnvoll, deren Inhalte herunterzuladen und lokal zu speichern.
Zum Editieren von Seiten existieren häufig keine Zugangsbeschränkungen. So wird die genannte Akkumulation von Informationen ermöglicht, da sich viele Benutzer beteiligen können. Jedoch birgt dies die Gefahr, dass Wikis durch Spam verunreinigt werden: Zur Verwendung als Wissensbasis ist dies hinderlich.
Gängige Anti-Spam-Maßnahmen finden online statt und setzen unter anderem auf die Überwachung durch die Nutzer oder den Einsatz von Blacklists für Weblinks. Im Gegensatz dazu wird im Rahmen dieser Arbeit folgender Ansatz gewählt: Ein lokal gespeichertes Wiki wird einer Bestandsaufnahme unterzogen und in seiner Gesamtheit untersucht. Es werden ausschließlich die Inhalte der Seiten berücksichtigt. Die Spam-Erkennung beruht auf einer Kombination von Entscheidungsregeln sowie der Berücksichtigung von Wortwahrscheinlichkeiten. Dadurch konnten gute Ergebnisse erzielt werden.
Der für diese Arbeit entwickelte Prototyp zur Neutronenproduktion hat sich bereits während der ersten Tests bewährt, womit schnell festgestellt wurde, dass sich das Grunddesign des Prototypen für die späteren Experimente am FRANZ eignet. Wie man gesehen hat, entstand die verwendete Revision in mehreren Schritten, da immer wieder aus gemachten Planungsfehlern gelernt werden musste. Zusätzlich gab es bei der Planung mehrere Beschränkungen, die beachtet werden mussten, dazu zählt unter anderem die Form des Prototypen, um ohne Probleme den Bedampfungstand des FZK verwenden zu können.
Das neue Kühlsystem verlangte während der Planung besonderer Aufmerksamkeit. Bei Experimenten wie am IRMM oder FZK kann aufgrund der geringen Leistung des Beschleunigers mit einer Luftkühlung oder einfachen Wasserkühlung gearbeitet werden. Diese Arten der Kühlung beeinflussen den Neutronenfluss nicht. Bei FRANZ muss aufgrund der im Vergleich zu den vorher genannten Experimenten viel höheren Leistung von 4 kW, ein gänzlich neuer Kühlungsansatz verwendet werden. Um die Leistung vom Target abzuführen, muss nun ein viel größerer Bereich gekühlt werden, um die entstehenden Temperaturen unter Kontrolle zu halten. Auch das Vorhersagen der entstehenden Temperaturen war nur unter Annahme mehrerer Parameter möglich. Durch die komplexe Struktur des Prototypen stieß die Berechnung des Temperaturprofis mit einfachen analytischen Mitteln schnell an ihre Grenzen. Aus diesem Grund wurden für diese Arbeit jeweils nach der Einführung der Wärmeleitung vereinfachte Annahmen gemacht, um dennoch Berechnungen durchführen zu können. Dass dies nicht immer zu exakten Ergebnissen führt, wurde während des Prozesses mehrfach festgestellt. Dennoch konnten so die Größenordnungen der Temperaturen bestimmt werden, was letztlich zur Auslegung des Kühlsystems beitrug.
Die Lösung, für die sich entschieden wurde, war die Kühlung der Rückseite des Target mit Wasser. Der große Nachteil dieser neuen, aber notwendigen Kühllösung, sind die Materialien, die nun den Neutronenfluss aus der Li(p,n) Reaktion beeinflussen. Wichtig war es eine Balance zwischen Schichtdicken von Kupfer und Wasser, die für die mechanische und thermische Stabilität notwendig waren, und der Qualität des erhaltenen Spektrums zu finden. Hierfür wurden zahlreiche Simulationen mit GEANT 3 angefertigt, um die Einflüsse beider Stoffe abschätzen zu können, wobei sich schließlich herausstellte, dass die Schichtdicke von Wasser die Neutronen am meisten beeinflusst. Da Wasser stark moderierend auf Neutronen wirkt, stellte man fest, dass man bei Experimenten vor allem hochenergetische Neutronen verliert. Konsequenz war die strikte Kontrolle der Wasserdicke.
In this thesis we discussed the expansion behaviour of an ultracold bosonic gas from an initial harmonic confinement. We studied the reaction of the non-interacting system to changes of the trap frequency ω and of the strongly interacting system to changes of the number of Mott insulating particles NMI in the initial state and the interaction U/J. The total number of particles is kept constant for the different simulations, which are performed by means of the Bosonic Gutzwiller approach...
Phänomenologie der Pseudovektormesonen und Mischung mit Axialvektormesonen im kaonischen Sektor
(2012)
Ziel dieser Bachelorarbeit war die Vorstellung und die Untersuchung eines effektiven, mesonischen Drei-Flavor-Modells der Quantenchromodynamik und dessen Phänomenologie. Dazu wurden zunächst die Kopplungskonstanten a und b des Modells durch die Berechnung dominanter Zerfallsbreiten der im Modell enthaltenen Axialvektor- und Pseudovektor-Mesonen festgelegt. Dabei wurde für die Festlegung der Kopplungskonstanten a der Zerfall von f1 (1420) in KK*(892) verwendet. Die so berechnete Kopplungskonstante wurde anschließend unter Verwendung des ρπ-Zerfalls von a1 (1260) auf Konsistenz geprüft. Das dadurch erhaltene Resultat von Γa1--> ρπ= (443:962 ± 13:456) MeV liegt sehr gut in dem von der particle data group angegebenen Wertebereich der Gesamtbreite von a1 (1260). Die Festlegung und Berechnung der Kopplungskonstante b des Pseudovektor-Sektors war Gegenstand der Bachelorarbeit von Lisa Olbrich, so dass in dieser Arbeit nur die Resultate dieser Rechnung präsentiert wurden. Jedoch passen die dort erzielten Resultate auch mit guter Genauigkeit zu den experimentell bestimmten Werten der particle data group.
Das zweite Ziel dieser Bachelorarbeit war die Untersuchung der im Modell enthaltenen Mischungseffekte der Kaonen-Felder von K1 (1270) und K1 (1400). Zunächst waren im Axialvektor- und Pseudovektor-Nonet dieses Modells nur unphysikalische Kaonen-Felder K1;A und K1;B enthalten. Durch den Mischungsterm Lmix der Lagrange-Dichte des Modells existieren allerdings Mischterme beider Felder. Diese Mischterme wurden durch die Einführung der physikalischen Felder K1 (1270) und K1 (1400), welche durch eine SU(2)-Drehung aus den unphysikalischen Feldern hervorgehen, zum Verschwinden gebracht. Dies hat allerdings zur Folge, dass die Wechselwirkungsterme der physikalischen Felder K1 (1270) und K1 (1400) nun über eine gedrehte Kopplungskonstante koppeln. Diese gedrehte Kopplungskonstante ist eine Funktion der ursprünglich bestimmten Kopplungskonstanten a; b und eines Mischwinkels Φ. Dieser Mischungswinkel wurde von uns über den K? (892) π-Zerfall von K1 (1270) festgelegt. Anschließend konnten wir unter Verwendung des so berechneten Mischungswinkels Φ die Zerfallsbreite von K1 (1400) berechnen und mit den experimentell festgelegten Daten der particle data group vergleichen. Auch hier konnten wir eine gute Übereinstimmung unserer durch das Modell vorhergesagten Daten mit den experimentell bestimmten Werten erzielen.
Die Arbeit ist in zwei Teile gegliedert. Der erste Teil behandelt einige naturphilosophische und mathematische Probleme. Es wird außerdem das Pfeil-Paradoxon von Zeno vorgestellt, auf dem die moderne Variante des Quanten-Zeno-Paradoxons basiert. Im zweiten Teil wird zunächst eine allgemeine Analyse des Zerfallsgesetzes instabiler Quantensysteme gegeben. Es ist eine Mischung aus Zusammenfassungen von Reviews und neuen Ideen. Eine wichtige Rolle spielt dabei die Wellenfunktion in Energiedarstellung bzw. deren Betragsquadrat, genannt Energiedichte. Es wird auch auf den Fall eingegangen, wenn ein Quantensystem wiederholten (frequenten) Messungen ausgesetzt ist. Anschließend wird der Quanten-Zeno-Effekt und das Quanten-Zeno-Paradoxon als Folge des Verhaltens der Überlebenswahrscheinlichkeit für Zeiten kurz nach der Zustandspräparation beschrieben. Danach wird das Lee-Modell zur Beschreibung eines Teilchenzerfalls vorgestellt. Das Modell beschreibt den Zerfall eines instabilen Teilchens in zwei mögliche Kanäle, d.h. entweder in (genannt) a-Teilchen oder b-Teilchen. Es werden alle wichtigen Funktionen (Zerfallsgesetz, Energiedichte, etc.) analytisch hergeleitet. Es folgen darauf die Ergebnisse der numerischen Auswertung.
In der Atom- und Molekülphysik werden häufig Multichannelplate Detektoren mit Delay-Line-Auslese eingesetzt. Um eine große Präzision und eine hohe Reaktionsrate zu erhalten, ist es wichtig, dass alle Daten genau analysiert werden können. Die aktuelle Methode der Datenanalyse stößt dabei auf Probleme, wenn mehrere Teilchen kurz hintereinander auf den Detektor treffen. In dieser Arbeit wird versucht, ein neuronales Netz so zu trainieren, dass es eine bessere Datenanalyse liefert. Hierzu wird im ersten Kapitel der Detektoraufbau beschrieben, um zu verstehen, woher die einzelnen Signale kommen und wie sie zu interpretieren sind. Im zweiten Kapitel wird dann die Theorie vorgestellt, auf der neuronale Netze basieren. Das dritte Kapitel gibt einen kurzen Überblick über die benutzte Technik. Im vierten und fünften Kapitel werden die Ergebnisse dieser Arbeit vorgestellt. Im abschließenden sechsten Kapitel werden die Ergebnisse zusammengefasst und ein Ausblick auf weitere mögliche Projekte gegeben.
Deutsche Hochschulen wählen Studienbewerber üblicherweise anhand der Abiturnote aus. Zu beobachten ist aktuell ein Trend zu Online-Self-Assessments, die die Selbstselektion der Studierenden fördern sollen. Hierfür ist die Identifizierung guter Prädiktoren von Studienerfolg erforderlich. Stressverarbeitung ist in diesem Zusammenhang noch unzureichend erforscht. In der vorliegenden Studie nahmen 420 Studierende der Rechtswissenschaft, Wirtschaftswissenschaften und Psychologie an einer Online-Umfrage zu ihren Stressverarbeitungsweisen und ihren Abitur- und Studiennoten teil. Multiple Regressionsanalysen mit den Studiennoten als Kriterium, sowie der Abiturnote und den Stressverarbeitungsweisen als Prädiktoren identifizierten die Abiturnote mit zwischen 17% und 20% erklärter Varianz als stärksten Prädiktor und die Stressverarbeitungsweisen als zusätzliche Prädiktoren für Studierende der Rechtswissenschaft (zusätzliche 6,0%) und Wirtschaftswissenschaften (zusätzliche 7,5%), aber nicht für die Psychologiestudierenden. Die Analyse von Subgruppen (frühe und späte Studienphase) ergab bei den Juristen 5,8% zusätzliche Varianzaufklärung in der frühen und 14,8% in der späten Studienphase. Bei den Wirtschaftswissenschaftlern ergab sich nur für die aktuellen Bachelorstudierenden eine zusätzliche Varianzaufklärung (9,9 %), nicht aber für die Bachelorabschlussnoten der Masterstudierenden. Einfache Korrelationen stützten diese Ergebnisse und zeigten bei den Juristen in der späten Studienphase mehr signifikante Korrelationen als in der frühen; bei den Bachelorstudierenden der Wirtschaftswissenschaften zeigte sich ein deutlicher Trend zu mehr signifikanten Korrelationen in höheren Semestern. Die fehlende Prädiktionskraft der Stressverarbeitung für die Bachelorabschlussnote in den Wirtschaftswissenschaften könnte durch die Selektion der befragten Masterstudierenden erklärbar sein, während im Falle der Psychologiestudierenden zu vermuten ist, dass Stressverarbeitung insgesamt keine erhebliche Rolle für die Studiennoten spielt. Insgesamt zeigt diese Studie, dass Stressverarbeitung für bestimmte Fächer zusätzlich zur Abiturnote ein guter Prädiktor für die Studiennoten ist. Zukünftige Forschung sollte insbesondere darauf abzielen, die Erfassung studienrelevanter Stressverarbeitungsweisen kompakter als in der vorliegenden Studie zu gestalten, sodass sie für den ökonomischen Einsatz in Self-Assessments geeignet ist.
Entwicklung und Untersuchung verschiedener Elektrodenkonfigurationen eines gepulsten Plasmajets
(2012)
In dieser Arbeit wurden Web Browser bezüglich ihrer Eignung zum Erstellen interaktiver eLearning Fragen untersucht. Vor dem Hintergrund der speziellen Charakteristika von mobilen Endgeräten wurden insbesondere die Aspekte der Beschränkung auf standardisierte Technologien, sowie die Clientseitigkeit der Applikation hervorgehoben. Es konnte eine Grundlage geschaffen werden, die das Erstellen von interaktiven Fragen nur mit Hilfe von HTML und Javascript ermöglicht und es wurde ein weitgehender Verzicht auf serverseitige Komponenten erreicht.
Die vorliegende Arbeit befasst sich mit der Hochfrequenzabstimmung und den Feldoptimierungen zweier Linearbeschleunigerstrukturen für eine in der Entwicklung befindliche Forschungsanlage an der Goethe-Universität in Frankfurt am Main. Ein 4-Rod-RFQ sowie ein IH-Driftröhrenbeschleuniger sollen gekoppelt betrieben, d.h. nicht wie üblich von zwei, sondern nur von einem Hochfrequenz-Sender mit Leistung versorgt werden. Hierdurch lässt sich nicht nur der benötigte Platz reduzieren, sondern auch ein beträchtlicher Teil der Kosten des Projekts einsparen. Um das Verhalten der gekoppelten Beschleuniger genauer vorhersagen zu können, wurden Untersuchungen an bereits gebauten Modellen im Maßstab 1:2 durchgeführt und diese vermessen. Eine Methode zur systematischen Anpassung der Feldverteilung in 4-Rod-RFQs wurde darüber hinaus am einzeln betriebenen RFD-Modell angewandt und optimiert, sowie ein Algorithmus zur Automatisierung entwickelt. Parallel laufende Computersimulationen ermöglichten Vergleiche zu den realen Messwerten. Darüberhinaus konnten Rückschlüsse auf die Genauigkeit der Simulationen am Computermodell gezogen und hier liegende Herausforderungen, auch in Bezug auf die bei FRANZ zum Einsatz kommenden Beschleunigerstrukturen, näher untersucht werden. Hieraus resultierende Empfehlungen für das Design der FRANZ-IH-Struktur konnten gegeben werden und wurden bereits umgesetzt.
An der Goethe Universität in Frankfurt wird ein Konzept für ein magnetostatischen Hochstromspeicherring für Protonen- und Ionenstrahlen entwickelt und untersucht. Zur Zeit stehen dem Experiment zwei Toroidsegmente und eine Volumenionenquelle zur Verfügung. An diesem Aufbau werden Experimente mit dem Ziel die Strahldynamik zu untersuchen und die Strahldiagnose in toroidalen Magnetfeldern zu entwickeln, durchgeführt [Joshi] Für Experimente ist eine Strahldiagnose entlang der starken toroidalen Magnetfelder bis maximal 0, 6T nötig. Dabei sind die zur Verfügung stehenden Strahldiagnoseverfahren zum Einen ein Faraday-Cup und zum Anderen ein entlang des kompletten Aufbaus beweglicher Szintillatordetektor. Der Szintillatordetektor, besteht aus einem Phosphorschirm und einer Kamera, die hinter dem Schirm angebracht ist. [Nonn] Aufgrund der geschlossenen Ringgeometrie und dem Anspruch auf eine hohe Flexibilität des Detektors ist die Konstruktion eines neuen von starken Magnetfeldern unbeeinflussbaren und sehr kompakten Detektors notwendig. Ziel dieser Arbeit ist es, ein allgemeines Strahldiagnoseverfahren zu entwickeln.
Zur Erforschung des Strahlstransports durch zwei Toroidsegmente wurden im Rahmen dieser Arbeit theoretische Betrachtungen, Simulationen und experimentelle Untersuchungen durchgeführt. Dazu wurde ein toroidaler Teststand, bestehend aus zwei 30 Grad Toroidsegmenten mit einer magnetischen Feldstärke von 0,6 T und einer Driftsektion zwischen diesen beiden Magneten von 400 mm Länge, verwendet. Von einer Volumenionenquelle wurde ein Wasserstoffionenstrahl erzeugt und dieser mittels eines Solenoids angepasst und in das erste Toroidsegment eingeschossen. Mit Hilfe eines beweglichen Detektors konnte der Ionenstrahl an jeder Position im Rezipienten beim Transport durch den toroidalen Aufbau experimentell untersucht und vermessen werden.
Bei den Experimenten mit dem vorhandenen Detektor konnten auf den Aufnahmen der Leuchtdichteverteilung starke Sekundärelektroneneffekte beobachtet werden, welche die Untersuchung des Ionenstrahls mit dem Detektor erschwerten oder teilweise ganz unmöglich machten. Aus diesem Grund wurde zur Unterdrückung dieser Elektronen eine Wasserstoffatmosphäre im Rezipienten aufgebaut, welche die Elektronen stärker absorbiert als die Ionen und damit die Beobachtung des Ionenstrahls ermöglichen sollte. Auf diesem Wege lässt sich das transversale Verhalten des Strahls beim Strahltransport durch die toroidalen Magnetfelder mit dem vorhandenen Detektor untersuchen. Die Auswirkungen des Wasserstoffgases auf die geladenen Teilchen wurden dabei theoretisch und experimentell untersucht und analysiert. Die Auswirkung von Helium-, Stickstoff- und Argongas auf den Ionenstrahl und die Elektronen wurde in diesem Zusammenhang experimentell betrachtet.
Des Weiteren wurde mit Hilfe des Computerprogramms TBT der Strahltransport durch die zwei toroidalen Magnetfeldsegmente unter Verwendung von Referenzeinstellungen simuliert und die Ergebnisse mit den theoretischen und experimentellen Daten des Strahltransports verglichen. Bei diesen Simulationen konnten die Gyrationsbewegungen sowie die Transmission des Ionenstrahls durch die Driftsektion genauer untersucht werden.
Da die Magnetfelder der Toroidsegmente auch in der Driftsektion als Führungsfelder dienen sollen, sind die im experimentellen Aufbau verwendeten Toroidsegmente nicht magnetisch geschirmt. Dies hat zur Folge, dass das von den Magneten erzeugte Feld Auswirkungen auf andere Komponenten des toroidalen Teststandes besitzt. Aus diesem Grund wurden die Auswirkungen dieser Magnetfelder auf die Ionenquelle sowie auf das Druckmesssystem des Teststands genauer betrachtet.
Cyber-Mobbing im Web 2.0
(2012)
Im Rahmen dieser Arbeit wurden zwei verschiedene Zerfallsprozesse behandelt. Zunächst wurde im Rahmen des erweiterten Linearen Sigma-Modells die Antwort auf die Frage gesucht, welches Teilchen als chiraler Partner des Nukleons in Frage kommt. Dazu wurde der Zerfall des chiralen Partners in ein Nukleon und ein skalares Teilchen betrachtet. Das skalare Teilchen wurde mit dem Tetraquark-Zustand f0(600) identifiziert. In Augenschein genommen wurden die Resonanzen N(1535) und N(1640). Aufgrund der berechneten Zerfallsbreiten erkannte man im Falle von N(1650) eine größere Übereinstimmung mit den experimentellen Werten. Die Zerfallsbreite von 45.91 MeV liegt in der Größenordnung des im Particle Data Book verzeichneten Intervalls. Der Wert, den man bei Verwendung von N(1535) als Ausgangsteilchen erhielt, ist allerdings gegenüber der Vorhersage zu groß.
Ein nächster Schritt im Studium dieses Sachverhalts stellt das erweiterte Misch-Szenario dar. Es beinhaltet nicht nur zwei, sondern vier Spinoren. Zwei davon beschreiben Nukleon-Resonanzen, zwei sind mögliche chirale Partner. Da die Zustände mischen, wird der chirale Partner nicht eindeutig durch ein, sondern durch zwei Resonanzen repräsentiert. Weiterhin steht die eingehende Betrachtung des Ursprungs von m0 aus. Dazu muss außer derWechselwirkung mit dem Tetraquark-Zustand auch die Wechselwirkung eines Glueballs mit den beteiligten Hadronen berücksichtigt werden. Dadurch erhält die Masse von m0 einen Anteil, der aus dem Glueball-Kondensat stammt. Dies muss beim Rückschluss auf die Nukleonmasse beachtet werden.
Als nächstes wurde der Zerfall des pseudoskalaren Glueballs in zwei Nukleonen betrachtet. Da die Kopplungskonstante dieses Zerfalls noch nicht experimentell bestimmt wurde, wurde ein Verhältnis zwischen zwei Zerfallskanälen berechnet. Es zeigte sich, dass der Zerfall in zwei Nukleonen fast doppelt so wahrscheinlich ist wie der Zerfall in Nukleon und chiralen Partner, der an der Energieschwelle liegt. Die Berechnung wurde mit einem Teilchen der Masse 2.6 GeV als Glueball durchgeführt. Die Untersuchung derart schwerer Glueballs wird in naher Zukunft erstmalig im Rahmen des PANDA-Experiments der GSI möglich sein.
Zukünftige Studien sollten die Beteiligung des Glueballs an gemischten Zuständen berücksichtigen. Außerdem sollte ein möglicher skalarer Glueball in die Betrachtung miteinbezogen werden.
Scenegraph LoD-Analyse
(2012)
Level of Detail-Verfahren sind in der Computergrafik alltäglich und allgegenwärtig. Da das Thema seit Jahren ein aktiv bearbeitetes Feld in der Wissenschaft ist, existiert eine extreme Fülle an Verfahren mit unterschiedlichen Ansätzen oder Verfeinerungen. Es ist jedoch sehr schwer, die Unterschiede zwischen den Verfahren zu quantifizieren. Jede Arbeit nutzt ihre eigenen Testfälle und Methoden, wodurch sich selten echte Rückschlüsse auf Vergleiche zu anderen Verfahren ziehen lassen. Um hier einen Ansatz zur Lösung dieses Problems zu präsentieren, wird vorgeschlagen, ein allgemein nutzbares Testframework zu erstellen, das geeignet ist, LOD-Verfahren auf unterschiedliche Aspekte hin zu untersuchen. Es wird eine Reihe von konkreten Tests und ein dazugehöriges Programm als Rahmenwerk vorgestellt werden, das einen solchen Ansatz implementiert. Diese Testimplementierung ist bewusst einfach gehalten, sie wird jedoch einen guten Überblick darüber geben, welche Probleme es zu lösen gilt und worauf dabei geachtet werden muss.
Die vorliegende Bachelorarbeit untersucht die Möglichkeiten der mobilen Produktion und Verwaltung von Web- und Multimedia-Inhalten, welche mit geografischen Koordinaten verknüpft sind.
Durch die stetig wachsende Verbreitung mobiler Geräte wie Smartphones, Tablets oder Netbooks und der damit in Anspruch genommenen Verfügbarkeit von mobilen Internetzugängen in Form von WLAN, GPRS, UMTS oder LTE, wird die gemeinsame Erstellung und Verwaltung von geolokalisierten Inhalten durch Teilnehmer einer Interessengruppe ermöglicht.
Besonders Inhalte deren Standort relevant ist, können von automatisierter Lokalisierung profitieren. Durch Ortungsmechanismen können Daten bei ihrer Erstellung oder Bearbeitung automatisch mit dem Standort des Geräts versehen werden. So lassen sich zum einen geografische Daten sammeln und zum anderen Inhalte auf unkomplizierte Art und Weise mit dem Standort des Autors zum Zeitpunkt ihrer Erstellung verknüpfen.
Darüber hinaus können Anwender abhängig von ihrem Aufenthaltsort Informationen über ihre Umgebung abrufen, ohne zuvor in einer Kartenansicht zu ihrer aktuellen Position navigieren zu müssen.
Die vorliegende Arbeit behandelt sowohl das Erhalten als auch das Erzeugen multimedialer Inhalte in Abhängigkeit von ihren geografischen Koordinaten. Die technische Realisierung dieses Konzepts findet mit Hilfe der frei verfügbaren MediaWiki-Software[1] als Content-Management-System sowie einer, für mobile Geräte optimierten Webseite als Frontend statt.
Der Umfang der Arbeit umfasst neben dem Entwurf eines Konzepts und der ausführlichen Beschreibung einer möglichen Implementierung eine Einführung in die Grundlagen der verwendeten Komponenten. Zuletzt sollen ein Fazit und ein Ausblick Konzept und Realisierung kritisch betrachten, um einen Einblick in vorhandene Potenziale der Lösung zu bieten.
This thesis aims to investigate the linguistic influence of the Malay language including Indonesian and Javanese on the Thai language of Thailand. Up to the present, there has been only one thorough investigation on Malay loans in Thai that has also examined the tones resulting from Malay borrowings, which is a dissertation from 1997. ...
In dieser Arbeit wurden Simulationen des γ-Prozesses zu den vier p-Kernen 92;94Mo und 96;98Ru durchgeführt. Die Simulationen wurden mit den Simulationen aus [Rapp et al., 2006] verglichen, und die Ergebnisse waren bis auf wenige Ausnahmen die gleichen.
Die Untersuchung der Sensitivitäten auf insgesamt 38 geänderte Raten hat einige besonders wichtige Raten für jedes der Isotope identifiziert. Es stellte sich heraus, dass die Isotope jeweils auf eine destruktive Rate besonders sensitiv sind. Bei 92Mo war dies die 92Mo(γ,p) Rate, bei 94 die 94Mo(γ,n) Rate, bei 96Ru die 96Ru(γ,α) Rate und bei 98Ru die Destruktion über 98Ru(γ,n).
Diese Raten sind nur theoretisch bestimmt, haben aber großen Einfluss auf die Häufigkeiten der untersuchten Isotope. Experimentelle Untersuchungen dieser Raten sind nötig, um ein besseres Verständnis des γ-Prozesses in dieser Massenregion zu erlangen.
Leider konnten schon exisitierende neuere Untersuchungen im Rahmen dieser Arbeit nicht berücksichtigt werden, beispielsweise [Utsunomiya et al., 2013]. In zukünftigen Simulationen sollten diese Untersuchungen berücksichtigt werden. Außerdem sollten die Simulationen Neutroneneinfänge untersuchen, da diese vermutlich auch zur Produktion von 94Mo und 98Ru beitragen.
Ein Problem in dieser Arbeit war die Rekonstruktion der Reaktionsflüsse aus Raten und Häufigkeiten, in Zukunft sollten die Reaktionsflüsse direkt mitgeschrieben werden.
Die Unsicherheiten der Raten reichen nicht aus, um die Unterproduktion von 92;94Mo und 96;98Ru erklären. Zur Verdeutlichung dieser Tatsache befinden sich im Anhang A.15 Abbildungen der Überproduktionsfaktoren mit den geänderten Raten 92Mo(γ,p)x0.5 und 98Ru(γ,n)x0.5, also den beiden Raten, die eine Sensitivität größer eins aufweisen. Trotz der geänderten Raten werden 92Mo und 98Ru um mehr als einen Faktor 10 unterproduziert. Wenn man annehmen würde, dass die Sensitivität linear verläuft und eins beträgt, würde selbst die Reduktion der Raten auf Null nur eine Verdopplung der Häufigkeit bewirken. In der Realität wird sich die Sensitivität noch verringern, wenn andere Desintegrationsprozesse dominant werden. Es ist also nicht anzunehmen, dass die Unsicherheiten in diesen Raten die Unterproduktion erklären können. Dies war auch nicht erwartet worden[Rapp et al., 2006].
Einen größeren Einfluss auf die Endhäufigkeiten hat die Saatverteilung vor der Supernova Phase des Sterns. Diese wird durch einige entscheidende Reaktionen während der Sternentwicklung stark beeinflusst (Kapitel 1). Teilweise sind die Raten dieser Reaktionen mit großen Unsicherheiten behaftet, und eine Änderung führt zu sehr unterschiedlichen Häufigkeiten der p-Kerne [Pignatari et al., 2013]. Der Ort des p-Prozesses spielt ebenfalls eine entscheidende Rolle. Supernova Ia oder Neutronensterne könnten entscheidend zur Produktion der p-Kerne beitragen, speziell bei den leichteren Kernen mit A < 110. Diese Szenarien sind aber schwerer zu modellieren und wenig untersucht [Rauscher, 2010]. In zukünftigen Arbeiten sollten diese Szenarien genauer untersucht werden. Die Unterschiede in Saatverteilung und Temperaturverlauf sowie die neutronenreiche Umgebung einer Supernova Ia lassen veränderte Sensitivitäten erwarten.
Zum besseren Verständnis des p-Prozess sind also sowohl weitere experimentelle Daten als auch weitere Untersuchungen der Rahmenbedingungen nötig.
Das CBM-Experiment an der Forschungseinrichtung FAIR in Darmstadt wird in Zukunft das Phasendiagramm der QCD im Bereich von niedrigen bis moderaten Temperaturen und hohen Baryondichten untersuchen und dabei mit hadronischen und elektromagnetischen Sonden eine Vielzahl an Observablen messen. Um Elektronen und Positronen von geladenen Pionen effizient zu unterscheiden werden mehrere Lagen von Übergangsstrahlungsdetektoren auf Basis von Vieldrahtproportionalkammern verwendet. Bei den hohen Reaktionsraten des CBM-Experiments von bis zu 10MHz am target sind schnelle Detektoren notwendig um die vielen Teilchen mit einer hohen zeitlichen Auflösung nachzuweisen. Aus diesem Grund werden am IKF der Goethe-Universität dünne MWPCs ohne zusätzliche Driftregion entwickelt, für die ein Eintrittsfenster aus dünner Mylarfolie mit einer kleinen Absorptionswahrscheinlichkeit der TR-Photonen in Betracht gezogen wird. Bei großen Detektoren beult sich ein dünnes Folienfenster bereits bei Druckunterschieden von einigen Mikrobar aus, was eine Variation der Gasverstärkung zur Folge hat.
Mit Garfield-Simulationen wurde die relative Änderung der Gasverstärkung in Abhängigkeit der Ausbeulung des Eintrittsfensters für Detektoren der Größe 4+4 mm, 5+5mm und 6+6mm mit den Gasgemischen Xe(80%)/CO2(20%) und Xe(90%)/CO2(10%) bestimmt. Um eine Gain-Stabilität von Δ,G = +/- 10% zu gewährleisten, beträgt die maximale Ausbeulung des Folienfensters durchschnittlich 120 μm +/- 5 μm bei der 4+4mm Kammer, 137 μm +/- 5 μm bei der 5+5mm Kammer und 154 μm +/- 6 μm bei der 6+6mm Kammer unabhängig vom Gasgemisch. Diese Ergebnisse stellen eine große Herausforderung für die Detektorentwicklung und -konstruktion dar. Eine Möglichkeit die Ausbeulung des Folienfensters zu minimieren ist ein geeigneter Aufbau, der die Folie verstärkt. Eine weitere Herangehensweise ist die Entwicklung einer Korrekturmethode, die die Gasverstärkung bzw. die gemessenen Signale abhängig von verschiedenen Drücken, Druckunterschieden und der damit verbundenen Ausbeulung des Eintrittsfensters korrigiert, wodurch die Signale reproduzierbar und vergleichbar werden.
Weiterhin wurden die Elektron-Driftzeiten für die drei Kammergeometrien simuliert um eine Aussage über die Zeitauflösung des Detektors zu machen. Die Driftzeiten unter Verwendung eines Xe(90%)/CO2(10%) Gasgemischs sind dabei grundsätzlich größer als mit Xe(80%)/CO2(20%) und führen zu Zeitauflösungen von Δt ~ 40 ns bzw. Δt ~ 30 ns. Die maximalen Driftzeiten am äußeren Rand der Detektoren sind für alle Detektorgeometrien mit beiden Gasgemischen sehr klein im Vergleich zu den erwarteten durchschnittlichen Teilchenraten. Daraus folgt, dass die Zeitauflösung der untersuchten Detektoren die Erwartungen mit Hinblick auf die Reaktionsraten des CBM-Experiments erfüllt.
Erwärmt man Eis, so brechen die Molekülbindungen auf und bei einer kritischen Temperatur von 0°C entsteht durch einen Phasenübergang flüssiges Wasser. Dies ist wohl bekannt und das Phasendiagramm, sowie die Anomalie von Wasser ein bekanntes Hilfsmittel in Physik und Chemie. Doch was passiert, wenn man Kernmaterie erhitzt? Kann diese auch verschiedene Aggregatzustände annehmen? Physiker erwarten, dass ab einer definierten kritischen Temperatur auch die Bindungen zwischen den kleinsten Teilchen unserer Materie, den Quarks, aufbrechen und das bis dahin bestehende Hadronengas in ein Quark-Gluon-Plasma übergeht. In Experimenten auf der ganzen Welt sollen die Eigenschaften des Quark-Gluon- Plasmas und der Phasenübergang der Materie untersucht werden. Daraus möchte man ein Phasendiagramm für die hadronische Materie entwickeln (Abb. 1). In verschiedenen Experimenten werden die unterschiedlichen Stationen des Phasendiagramms abgelaufen. Die laufenden Projekte an den großen Teilchenbeschleuniger Anlagen am LHC (Large Hadron Collider) am CERN (Conseil Européen pour la Abbildung 1: Das Phasendiagramm stark wechselwirkender Materie. Aufgetragen ist die Temperatur gegen die Baryonendichte. Der braune Bereich stellt den Übergangsbereich zwischen Hadronengas und Quark-Gluon-Plasma dar [ZAM]. Recherche Nucléaire) und am RHIC (Relativistic Heavy Ion Collider) in Brookhaven untersuchen das Phasendiagramm bei hohen Temperaturen und geringen Dichten. An der neuen, noch im Aufbau befindlichen Beschleunigeranlage FAIR (Facility for Antiproton and Ion Research) soll nun, im Rahmen des CBM-Experiment (Compressed Baryonic Matter), das Phasendiagramm bei hohen baryonischen Dichten und geringeren Temperaturen untersucht werden. Dafür werden spezielle Detektorkomplexe entwickelt. Diese werden benötigt, um herauszufinden, wann ein Quark-Gluon-Plasma vorliegt. Hierbei ist die Identifizierung von Elektronen von großer Bedeutung. Beim CBM-Experiment wird zur Unterscheidung zwischen Pionen und Elektronen unter anderem ein Transition Radiation Detektor (TRD) verwendet. (Kapitel 4) Dessen Eingangsfenster besteht aus einer dünnen Mylar®-Folie, welche empfindlich auf Druckschwankungen reagiert. Dies führt zu einer Veränderung des Kammervolumens, was zu einer Variation der Gasverstärkung und des daraus gewonnenen Signals führt. Die Auswirkungen von Druckschwankungen auf das Eingangsfenster des CBM-TRDs sollen in der folgenden Arbeit anhand von Simulationen (Kapitel 5) sowie anhand von Messungen (Kapitel 6) untersucht und verglichen werden. Zunächst wird jedoch ein Überblick der Grundlagen gegeben.
Diese Arbeit beschäftigt sich mit der Charakterisierung des 4π-Bariumfluorid(BaF2)-Detektors, der in Zukunft im Rahmen des FRANZ-Projektes (Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum) eingesetzt werden soll. Der Detektor soll zum Nachweis von γ-Emission zum Beispiel nach einem Neutroneneinfang genutzt werden, womit der (n,γ)-Wirkungsquerschnitt bestimmt werden kann. Hauptaufgabe dieser Arbeit ist die Bestimmung der Energie- und Zeitauflösung, sowie die Energie- und Zeitkalibrierung und die Effizienzbestimmung.
The dependence of the Escherichia coli Na+H+ antiporter A (EcNhaA) pH sensor mutant E241C on H+ and Na+ concentrations was tested using a solid supported membrane (SSM) based electrophysiological approach. Proteoliposome preparations with right side out (RSO) oriented carriers were used to investigate the passive downhill uptake mode (physiologically the reverse transport mode) at zero membrane potential. Na+ concentration gradients established with a rapid solution exchange acted as the driving force. When a Na+ concentration gradient was established at symmetrical pH, the transport activity of the E241C EcNhaA variant was similar to that of the wildtype EcNhaA, with no shift of the bell-shaped pH dependence, an increase of the KmNa at acidic pH and a decrease of the KmNa at alkaline pH, supporting the model of a competitive binding of Na+ and H+ to a common binding site.
Die folgende Bachelorarbeit beschäftigt sich mit dem Thema des Displacement-Mappings unter Verwendung eines Tessellation-Shaders. Ziel dieser Arbeit ist es, ein Programm zu entwerfen, welches einen visuellen Einblick in die Tessellation und in das Displacement-Mapping bietet. Des Weiteren soll die Leistung der Tessellation mit der des Geometry-Shaders und einem QuadTree-Verfahren verglichen werden.
Dazu wird zuerst beschrieben, welche Umgebung zur Implementierung verwendet wurde. Anschließend werden zunächst einige geläufige Mappingverfahren betrachtet. Im nächsten Abschnitt wird dann auf die Tessellation und das Displacement-Mapping in Bezug auf Funktionsweise und Implementierung eingegangen. Es folgt ein Vergleich der Performance der unterschiedlichen Mapping-Verfahren untereinander. In einem weiteren Vergleich wird die Performance der Tessellation (mit Displacement-Mapping) mit einem Geometry-Shader und einem QuadTree-Verfahren anhand eines Terrains durchgeführt. Abschließend erfolgt die Beschreibung des Programms.
In dieser Bachelorarbeit werden Modelle, mit einer hohen Anzahl an Vertices, mittels CPU und GPU geclustered und die Performance der hierzu verwendeten Algorithmen miteinander verglichen. Die Nutzung der GPU findet hierbei unter Verwendung von OpenGL statt. Zunächst werden Grundlagen von Clustering, die für die später implementierten Algorithmen wichtig sind, geklärt. Zusätzlich werden Prozesse erkärt mit denen die Ergebnisse der, auf der GPU ausgeführten, Algorithmen, auf die CPU zurückgeführt werden können. Anschließend erfolgt eine Beschreibung der implementierten Algorithmen sowie eine Erklärung ihrer Funktionsweise. Abschließend wurde ein Benchmarking der Algorithmen vorgenommen, um ihre Laufzeiten miteinander zu vergleichen.
In dieser Arbeit wurden die ersten Schritte unternommen um Elektronen aus den Zerfällen schwerer Quarks zu messen. Im Folgenden wird zunächst ein Überblick zum physikalische Hintergrund gegeben und der elliptische Fluss als Sonde zur Untersuchung des QGP motiviert. Anschließend werden der LHC und ALICE näher beleuchtet und die einzelnen Detektorsysteme, die für diese Analyse wichtig sind, vorgestellt. Im weiteren wird eine Methode zur Identifizierung von Elektronen vorgestellt und die Kontamination des Elektronensignals durch Hadronen bestimmt. Abschließend wird der elliptische Fluss eines von Hadronen bereinigten Inklusiv-Elektronen Spektrums bestimmt und ein Ausblick auf weitere Analyseschritte gegeben.
The Generalized Uncertainty Principle (GUP) arises from Quantum Gravity thought experiments and contains a minimal lenght. In this thesis I calculate Schwarzschild Black Holes that are modified by the GUP. These Black Holes have the property, that their temperature does not diverge for small masses, although they still posses a curvature singularity. I calculate analytically that in more than 3+1 dimensions the temperature diverges again.
Zunächst sind einige Methoden und Techniken zusammenfassend aufzuzählen, welche mir in meiner Zeit am IKF nahegebracht wurden.
Von technischer Seite her sind hier der Umgang mit der Instituts-eigenen Lichtmikroskop und den pA-Messgeräten sowie der analogen Messkette zu nennen. Außerdem gegebenen GEM-Folien auf Fehlstellen zu untersuchen, sie unter Spannung zu testen und anschließen in die Testkammer zu montieren und diese anschließend ordnungsgemäß in Betrieb zu nehmen. Während des Betriebs der Kammer sind neben den Messungen selbst auch die Programmierung in C++ um ein vorhandenes GUI zu verstehen und erweitern zu können zu nennen. In der Analyse der gewonnenen Daten ist vor allem die im Institut verbreiteten Analyse-Software „Root“ zu nennen um Daten zu verarbeiten, zu plotten und zu fitten.
Der physikalische Gehalt der Messungen war in Folge der ersten Messung nicht mit Sicherheit zu bestimmen, da die Raten-Abhängigkeit des IB entweder grundlegender physikalischer oder technischer Natur sein konnte, was näher zu untersuchen blieb. Nach wiederholter Messung mit größerem Messbereich und einer zweiten Messreihe mit einer anderen Gas-Mischung konnten jedoch Aussagen getroffen werden.
So konnte in der Argon-Messung die gleiche Raten-Abhängigkeit des IBF wie zuvor festgestellt werden, während der IBF in der Neon-Mischung kaum merklich anstieg. Außerdem ist festzuhalten, dass Messungen an der Kathode nur über 10 pA problemlos genau sind. Darunter werden die Werte bei zu wenig Messzeit weniger aussagekräftig.
In der vorliegenden Arbeit werden Stabilitätstests an einer Vieldrahtproportionalkammer nach ALICE-Geometrie vorgestellt. Wegen elektrischer Instabilitäten, das heißt dem Abschalten der Hochspannungsversorgung einzelner Kammern aufgrund von Entladungen an der Ausleseebene, wurde die ALICE-TPC bisher mit zwei unterschiedlichen Gasmischungen betrieben. Es wurden die Gasmischungen Ne-CO2 (90-10) und Ne-CO2-N2 (90-10-5) verwendet.
In dieser Arbeit soll nun mit systematischen Stabilitätstests mit einer α- und einer γ-Quelle am Testaufbau am IKF untersucht werden, ob eine Beimischung von Stickstoff zur Gasmischung Ne-CO2 wirklich positive Auswirkungen auf die elektrische Stabilität der Vieldrahtproportionalkammern der ALICE-TPC hat. Messungen mit der Gasmischung Ar-CO2 (90-10) dienen dabei als Referenzmessungen.
Zunächst wurden vorbereitende Messungen zum bessseren Verständnis des Einflusses der Ausleseelektronik auf die Padsignale am Testaufbau durchgeführt. Die Untersuchung der von einem Pulser induzierten Signale zeigt, dass keine Korrektur der Nullverschiebung nötig ist. Auÿerdem konnten durch diese Messung die Verstärkungsfaktoren des verwendeten Hauptverstärkers ermittelt werden. Ein weiterer wichtiger Faktor für Stabilitätstests ist die Genauigkeit des Mischungsverhältnisses des Gases. Um eine hohe Genauigkeit zu gewährleisten, wurde der Gasfliss der verschiedenen Kanäle des zur Herstellung der Gasmischung genutzten Gasmischers überprüft und so die Bereiche für den Gasfluss gefunden, in denen sich das Mischungsverhältnis nicht ändert.
Eine gute Auflösung kann mit Vieldrahtproportionalkammern erreicht werden, wenn die Kammern auch bei einem möglichst groÿen Gain noch stabil betrieben werden können. Um den Gain aus Anodestrommessungen bestimmen zu können, wurden die Primärströme für die α- und die γ-Quelle ermittelt.
Frühere Messungen mit einer γ-Quelle, aufgrund derer Stickstoff als Beimischung in den Fokus rückte, ließen vermuten, dass sich durch die Beimischung von Stickstoff die Stabilität der Auslesekammern verbessern lassen würde. Die durchgeführten Messungen mit der γ-Quellen sollten diese Aussage nun überprüfen. Sie können die früheren Ergebnisse jedoch nicht bestätigen, sondern zeigen, dass die Gasmischung Ne-CO2-N2 (90-10-5) im Gegensatz zur Gasmischung Ne-CO2 (90-10) bei Bestrahlung mit der γ-Quelle zu instabileren Bedingungen für die Auslesekammer führt.
Zum Erzeugen der Anodensignale bei Stabilitätstests wurden erstmals geladene Teilchen aus einer α-Quelle verwendet. Im Gegensatz zur Messung mit der γ-Quelle kann die Auslesekammer bei der Beimischung von Stickstoff zu Ne-CO2 bis zu einem um 25% höheren Gain stabil betrieben werden als bei der Gasmischung Ne-CO2.
Aufgrund des je nach verwendeter Quelle unterschiedlichen Effekts auf die Stabilität der Auslesekammer lässt sich nicht mit absoluter Sicherheit sagen, ob eine Beimischung von Stickstoff die gewünschten Auswirkungen hat. Allerdings werden die Spuren in der ALICE-TPC durch geladene Teilchen hervorgerufen, sodass die Messungen mit der α-Quelle den experimentellen Bedingungen bei ALICE näher kommen als die Messungen mit der γ-Quelle und deshalb die Gasmischung Ne-CO2-N2 (90-10-5) zu bevorzugen ist.
Ziel dieser Arbeit ist es einen geeigneten Szintillationsdetektor für die Messungen differentieller Neutroneneinfangquerschnitte im FRANZ-Aufbau zu finden. Dafür wurde untersucht inwiefern sich das Szintillatormaterial LaBr3(Ce) (Lanthanbromid) eignet. Verwendet wurde eine Anordnung von zwei Szintillationsdetektoren dieses Typs. Mit Hilfe von Kalibrationsquellen wurden charakteristische Größen, wie Effizienz (Nachweiswahrscheinlichkeit) und Auflösungsvermögen untersucht und die ermittelten Werte mit GEANT-3.21 Simulationen [2] verglichen.
Das Ziel dieser Bachelorarbeit war es, einen Überblick über die Größe der, durch Einbeziehung des Loop-Level-Diagrammes entstehenden, Korrekturen zu erhalten. Die Ergebnisse sollen eingrenzen, wann diese Korrekturen wichtig oder sogar dominant sind. Der Einfluss der Korrekturen lässt sich gut mit Hilfe von g0 und g00 einschätzen. So gilt für g0 gerade Γntl = 1.33 Γ, die Korrekturen sind also für die Berechnung wichtig jedoch nicht dominant. Für g00 beginnen die Korrekturen gerade dominant gegenüber den Berechnungen in erster Ordnung zu werden (es gilt hier Γntl = 2 Γ). Wie anhand von Tabelle 7.2 zu sehen werden die Korrekturen, abhängig von der Massenkonfiguration, ab etwa 1.6 − 2.2mS wichtig und ab etwa 2.2 − 3.4mS dominant. Für sehr kleine Massen mΦ liegt diese Grenze natürlich niedriger, es wurde jedoch gezeigt, dass die Korrekturen selbst für mΦ = 10−13mS erst ab etwa 0.65mS dominant sind. Praktisch dürften die Korrekturen daher nur sehr selten, wenn überhaupt für Werte von g < mS, eine nennenswerte Rolle spielen. Welchen Einfluss die Korrekturen bei realen Zerfallskanälen haben, sollte nun anhand der Zerfälle von f0(500), f0(980), f0(1370) und f0(1500) in Pionen gezeigt werden. Zusätzlich wurde für den Zerfall von f0(500) die Berechnung ein weiteres Mal mit endlichem (niedrigen) Cutoff durchgeführt, um dessen Auswirkungen auf die Ergebnisse zu betrachten. Dies ist dann wichtig, wenn die beobachteten Teilchen eine endliche, räumliche Ausdehnung haben (beispielsweise wenn wie hier Hadronenzerfälle betrachtet werden). Für f0(980) und f0(1500) stellen sich die Korrekturen, wie aufgrund der vorherigen Ergebnisse und des sehr kleinen Verhältnisses von Zerfallsbreite und Masse bereits erwartet, mit 1.22% beziehungsweise 0.032% als sehr gering heraus. Für f0(1370) ist das Verhältnis bereits deutlich größer, hier sind die Korrekturen mit 7.43% bereits im hohen einstelligen Prozentbereich und damit für genaue Rechnungen durchaus wichtig. Für f0(500) zeigt sich nun wiederum, dass die Korrekturen sehr groß sind, die Loop-Level-Kopplungskonstanten ist um 24.57% kleiner. Für diesen Zerfalll sollte also bereits bei einer Abschätzung das Loop-Level Diagramm einbezogen werden. Stellt man die Berechnung mit endlichem Cutoff an, so stellt sich heraus, dass sich die exakten Werte zwar durchaus verändern, die Änderungen sind jedoch nicht so groß dass die Ergebnisse drastisch abweichen. Die Kopplungskonstante wird bei dem angenommenen Cutoff Λ = 0.95 GeV um 6.47% größer. In allen Varitionen fallen die Korrekturen kleiner als 33% aus. Als letztes ist die Genauigkeit der hier erhaltenen Ergebnisse zu beurteilen. Theoretisch sollten die numerischen Berechnungen mit beliebiger Genauigkeit durchführbar sein. Bei den im Rahmen dieser Arbeit durchgeführten Berechnungen trat jedoch das Problem auf, dass die numerischen Berechnungen des Integrals für Winkel sehr nahe 0° beziehungsweise 180° chaotisch wurden. Die Winkelintegration wurde daher nur von −0.99999 bis 0.99999 durchgeführt. Da das Impulsintegral bei diesen Winkeln etwa von der Größe 0.1 − 2 ist, abhängig von der Massenkonfiguration, entstehen dadurch Fehler der Größenordnung 10−5. Die Ursache für diesen Fehler liegt vermutlich darin begründet, dass sich für diese Winkel jeweils der dritte Pol auf den ersten und der vierte Pol auf den zweiten Pol verschiebt. In diesem Fall entsteht zwar an gleicher Stelle im Zähler eine Nullstelle (schaut man sich P1, P2 und P3 an, so befinden sich an diesen Stellen auch nur einfache Pole), die numerische Berechnung kann dadurch allerdings problematisch werden. Im Rahmen dieser Arbeit wurde eine Genauigkeit von 4 Nachkommastellen allerdings als ausreichend betrachtet. Abschließend lässt sich sagen, dass die Korrekturen in (fast) allen betrachteten Fällen klein sind. In Einzelfällen können sie allerdings durchaus relevante Dimensionen erreichen, wie am f0(500) Zerfall zu sehen ist. In zukünftigen Arbeiten sollte dieses Thema also auch für Wechselwirkungen mit Ableitungen und nicht-skalare Teilchen aufgegriffen werden.
In dieser Arbeit wurde die automatisierte Separation von Heliummono-, -di- und -trimeren beschrieben. Unter Nutzung ihrer unterschiedlichen De-Broglie-Wellenlängen wurden die verschiedenen Fraktionen mit einem Nanogitter getrennt. Zunächst wurden einige physikalische Grundlagen zu den genannten Atom- bzw. Molekülspezies, der hier auftretenden Bindungsform der Van-der-Waals-Bindung und insbesondere zur Materiewellenbeugung gelegt. Anschließend wurde der Versuchsaufbau dargestellt.
Bei der Durchführung wurden zunächst die drei jeweils vorhandenen Gitter und Spalte zu je einer Messung kombiniert und die beste Kombination für die weiteren Messungen ausgewählt. Das Experiment wurde weitergeführt, indem für verschiedene Temperaturen und Quelldrücke jeweils ein Beugungsspektrum von der für alle Heliumteilchen identischen nullten Ordnung bis zur ersten Ordnung der Heliummonomere aufgenommen wurde.
In der Auswertung wurde die Detektionswahrscheinlichkeit auf rund 37 % abgeschätzt. Weiterhin wurden die Ereignisse in den ersten Maxima der einzelnen Heliumfraktionen gezählt und so unter Verwendung der Detektionswahrscheinlichkeit molare Konzentrationen für das Heliumdi- und -trimer berechnet. Dabei wurden Anteile von bis zu 0,45 % für das Heliumdimer und 4,2 % für das Heliumtrimer erreicht. Diese Molanteile und ihre Abhängigkeit von Druck und Temperatur stimmen qualitativ gut mit der Literatur überein, quantitativ lassen sie sich u. a. wegen abweichender Nachweismethoden kaum vergleichen.
Anschließend wurde der Abstand von Düse und Skimmer variiert mit dem Ergebnis, daß eine Veränderung im betrachteten Bereich keinen nennenswerten Einfluß auf die Bildungsraten von Di- und Trimeren hat. Weiterhin wurde die auf zweierlei Weise bstimmbare Geschwindigkeit der Heliumteilchen im Gasjet ermittelt und verglichen.
Die beiden Geschwindigkeiten weichen lediglich im unteren Temperaturbereich signifikant voneinander ab, wofür plausible Erklärungsansätze dargelegt wurden.
Die Größe der Quellregion der betrachteten Heliumcluster wurde unter geometrischen Gesichtspunkten und unter Extrapolation der für verschiedene Spaltbreiten gemessenen Maximumsbreiten untersucht. Im Ergebnis wird die Quellbreite zu 58,5 μm abgeschätzt.
Die Automatisierung des Aufbaus erlaubte eine Vielzahl von systematischen Messungen, die ohne diese Automatisierung sehr zeitaufwendig gewesen wären. Insbesondere wurden in kurzer Zeit - wie zuvor geschildert - die Beugungsmuster von drei Gittern in Kombination mit je drei verschiedenen Kollimationspalten sowie die Abhängigkeit der Heliumdimer- und -trimerbildung von Temperatur, Druck und Abstand von Düse und Skimmer untersucht. Die Automatisierung erlaubt für zukünftige Messungen, z. B. in Strahlzeiten am Freien Elektronenlaser FLASH, jeweils in situ die Clusterbildung zu untersuchen. Möge das beschriebene Experiment nicht nur diese, sondern auch viele weitere Messungen beschleunigen helfen und so zum gesellschaftlichen Erkenntnisgewinn beitragen!
Ziel dieser Arbeit war, mittels einer (n,γ)-Aktivierung, 129Te zu erzeugen und eine Teilchenzahlbestimmung durchzuführen. Aktivierung der Probe am Forschungsreaktor TRIGA und Spektrenaufnahme mittels eines HPGe-Detektors erfolgten im Mai 2014 am Institut für Kernchemie der Johannes Gutenberg Universität in Mainz.
Die Teilchenzahl des Tochternuklids 129I kann anhand der Teilchenzahlen des Isomers und des Grundzustandes von 129Te berechnet werden. In den Aktivierungen #2 bis #6 wurden (14.27 ± 0.53)x10exp12 Iodnuklide erzeugt. Angegeben ist die maximal mögliche Anzahl von Iodteilchen bei unendlich langer Wartezeit und vollständigem Zerfall aller Tellurnuklide.
Beobachtet werden konnte die Abnahme der Grundzustandsaktivität bis zum Erreichen des Gleichgewichts aus Nachbevölkerung durch das Isomer und Zerfall. Die Grundzustandslinien der Energien von 459.60 keV, 487 keV, 1083 KeV und 1111 keV konnten zu dieser Untersuchung herangezogen werden. Diese 4 Linien erfüllen die erforderten Konsistenzkriterien bezüglich der Systematik und können daher zur Teilchenzahlbestimmung des Grundzustandes verwendet werden (Seite 31).
Der Einfluss der Eigenabsorption ist noch zu untersuchen, da die genaue Position der Probe im Polyethylenbehältnis nicht bestimmt werden konnte. Weiterhin ist die Datenanalyse der ersten Aktivierung aufgrund des Detektorwechsels noch nicht erfolgt. Der Austausch war wegen technischer Probleme notwendig. Ziel weiterführender Untersuchungen ist, eine erneute Halbwertszeitbestimmung des radioaktiven 129I vorzunehmen. Sie ist von Interesse, angesichts des Widerspruchs zweier Veröffentlichungen. Die Halbwertszeit des 129I kann Aufschluss über stellare Bedingungen des s-Prozesses geben.