Refine
Year of publication
Document Type
- Bachelor Thesis (160) (remove)
Has Fulltext
- yes (160) (remove)
Is part of the Bibliography
- no (160) (remove)
Keywords
- NLP (4)
- Text2Scene (3)
- TextAnnotator (3)
- Annotation (2)
- Beschleunigerphysik (2)
- FRANZ (2)
- Ionenstrahl (2)
- Machine Learning (2)
- Strahldynamik (2)
- Strahlprofil (2)
Institute
- Physik (75)
- Informatik (36)
- Informatik und Mathematik (17)
- Mathematik (8)
- Gesellschaftswissenschaften (6)
- Wirtschaftswissenschaften (3)
- Erziehungswissenschaften (2)
- Geowissenschaften (2)
- Geschichtswissenschaften (2)
- Sprach- und Kulturwissenschaften (2)
Die Arbeit ist in zwei Teile gegliedert. Der erste Teil behandelt einige naturphilosophische und mathematische Probleme. Es wird außerdem das Pfeil-Paradoxon von Zeno vorgestellt, auf dem die moderne Variante des Quanten-Zeno-Paradoxons basiert. Im zweiten Teil wird zunächst eine allgemeine Analyse des Zerfallsgesetzes instabiler Quantensysteme gegeben. Es ist eine Mischung aus Zusammenfassungen von Reviews und neuen Ideen. Eine wichtige Rolle spielt dabei die Wellenfunktion in Energiedarstellung bzw. deren Betragsquadrat, genannt Energiedichte. Es wird auch auf den Fall eingegangen, wenn ein Quantensystem wiederholten (frequenten) Messungen ausgesetzt ist. Anschließend wird der Quanten-Zeno-Effekt und das Quanten-Zeno-Paradoxon als Folge des Verhaltens der Überlebenswahrscheinlichkeit für Zeiten kurz nach der Zustandspräparation beschrieben. Danach wird das Lee-Modell zur Beschreibung eines Teilchenzerfalls vorgestellt. Das Modell beschreibt den Zerfall eines instabilen Teilchens in zwei mögliche Kanäle, d.h. entweder in (genannt) a-Teilchen oder b-Teilchen. Es werden alle wichtigen Funktionen (Zerfallsgesetz, Energiedichte, etc.) analytisch hergeleitet. Es folgen darauf die Ergebnisse der numerischen Auswertung.
Die vorliegende Arbeit befasst sich mit der Hochfrequenzabstimmung und den Feldoptimierungen zweier Linearbeschleunigerstrukturen für eine in der Entwicklung befindliche Forschungsanlage an der Goethe-Universität in Frankfurt am Main. Ein 4-Rod-RFQ sowie ein IH-Driftröhrenbeschleuniger sollen gekoppelt betrieben, d.h. nicht wie üblich von zwei, sondern nur von einem Hochfrequenz-Sender mit Leistung versorgt werden. Hierdurch lässt sich nicht nur der benötigte Platz reduzieren, sondern auch ein beträchtlicher Teil der Kosten des Projekts einsparen. Um das Verhalten der gekoppelten Beschleuniger genauer vorhersagen zu können, wurden Untersuchungen an bereits gebauten Modellen im Maßstab 1:2 durchgeführt und diese vermessen. Eine Methode zur systematischen Anpassung der Feldverteilung in 4-Rod-RFQs wurde darüber hinaus am einzeln betriebenen RFD-Modell angewandt und optimiert, sowie ein Algorithmus zur Automatisierung entwickelt. Parallel laufende Computersimulationen ermöglichten Vergleiche zu den realen Messwerten. Darüberhinaus konnten Rückschlüsse auf die Genauigkeit der Simulationen am Computermodell gezogen und hier liegende Herausforderungen, auch in Bezug auf die bei FRANZ zum Einsatz kommenden Beschleunigerstrukturen, näher untersucht werden. Hieraus resultierende Empfehlungen für das Design der FRANZ-IH-Struktur konnten gegeben werden und wurden bereits umgesetzt.
Begriffe sind häufig nicht eindeutig. Eine „Bank“ kann ein Finanzinstitut oder eine Sitzgelegenheit sein und die Stadt Frankfurt existiert mehr als einmal. Dennoch können sie in vielen Fällen problemlos von Menschen unterschieden werden. Computer sind noch nicht in der Lage, diese Leistung mit vergleichbarer Genauigkeit zu erfüllen.
Der in dieser Arbeit vorgestellte Ansatz baut auf dem für das Deutsche bereits gute Ergebnisse erzielenden fastSense auf und verwendet ein neuronales Netz, um Namen und Begriffe in englischen Texten mit Hilfe der Wikipedia zu disambiguieren. Dabei konnte eine Genauigkeit von bis zu 89,5% auf Testdaten erreicht werden.
Mit dem entwickelten Python-Modul kann das trainierte Modell in bestehende Anwendungen eingebunden werden. Die im Modul enthaltenen Programme ermöglichen es, neue Modelle zu trainieren und zu testen.
In online video games toxic interactions are very prevalent and often
even considered an imperative part of gaming.
Most studies analyse the toxicity in video games by analysing the messages that are sent during a match, while only a few focus on other interactions. We focus specifically on the in-game events to try to identify toxic matches, by constructing a framework that takes a list of time-based events and projects them into a graph structure which we can then analyse with current methods in the field of graph representation learning.
Specifically we use a Graph Neural Network and Principal Neighbour-
hood Aggregation to analyse the graph structure to predict the toxicity of a match.
We also discuss the subjectivity behind the term toxicity and why the
process of only analysing in-game messages with current state-of-the-art NLP methods isn’t capable to infer if a match is perceived as toxic or not.
Das Ziel dieser Bachelorarbeit war es, einen Überblick über die Größe der, durch Einbeziehung des Loop-Level-Diagrammes entstehenden, Korrekturen zu erhalten. Die Ergebnisse sollen eingrenzen, wann diese Korrekturen wichtig oder sogar dominant sind. Der Einfluss der Korrekturen lässt sich gut mit Hilfe von g0 und g00 einschätzen. So gilt für g0 gerade Γntl = 1.33 Γ, die Korrekturen sind also für die Berechnung wichtig jedoch nicht dominant. Für g00 beginnen die Korrekturen gerade dominant gegenüber den Berechnungen in erster Ordnung zu werden (es gilt hier Γntl = 2 Γ). Wie anhand von Tabelle 7.2 zu sehen werden die Korrekturen, abhängig von der Massenkonfiguration, ab etwa 1.6 − 2.2mS wichtig und ab etwa 2.2 − 3.4mS dominant. Für sehr kleine Massen mΦ liegt diese Grenze natürlich niedriger, es wurde jedoch gezeigt, dass die Korrekturen selbst für mΦ = 10−13mS erst ab etwa 0.65mS dominant sind. Praktisch dürften die Korrekturen daher nur sehr selten, wenn überhaupt für Werte von g < mS, eine nennenswerte Rolle spielen. Welchen Einfluss die Korrekturen bei realen Zerfallskanälen haben, sollte nun anhand der Zerfälle von f0(500), f0(980), f0(1370) und f0(1500) in Pionen gezeigt werden. Zusätzlich wurde für den Zerfall von f0(500) die Berechnung ein weiteres Mal mit endlichem (niedrigen) Cutoff durchgeführt, um dessen Auswirkungen auf die Ergebnisse zu betrachten. Dies ist dann wichtig, wenn die beobachteten Teilchen eine endliche, räumliche Ausdehnung haben (beispielsweise wenn wie hier Hadronenzerfälle betrachtet werden). Für f0(980) und f0(1500) stellen sich die Korrekturen, wie aufgrund der vorherigen Ergebnisse und des sehr kleinen Verhältnisses von Zerfallsbreite und Masse bereits erwartet, mit 1.22% beziehungsweise 0.032% als sehr gering heraus. Für f0(1370) ist das Verhältnis bereits deutlich größer, hier sind die Korrekturen mit 7.43% bereits im hohen einstelligen Prozentbereich und damit für genaue Rechnungen durchaus wichtig. Für f0(500) zeigt sich nun wiederum, dass die Korrekturen sehr groß sind, die Loop-Level-Kopplungskonstanten ist um 24.57% kleiner. Für diesen Zerfalll sollte also bereits bei einer Abschätzung das Loop-Level Diagramm einbezogen werden. Stellt man die Berechnung mit endlichem Cutoff an, so stellt sich heraus, dass sich die exakten Werte zwar durchaus verändern, die Änderungen sind jedoch nicht so groß dass die Ergebnisse drastisch abweichen. Die Kopplungskonstante wird bei dem angenommenen Cutoff Λ = 0.95 GeV um 6.47% größer. In allen Varitionen fallen die Korrekturen kleiner als 33% aus. Als letztes ist die Genauigkeit der hier erhaltenen Ergebnisse zu beurteilen. Theoretisch sollten die numerischen Berechnungen mit beliebiger Genauigkeit durchführbar sein. Bei den im Rahmen dieser Arbeit durchgeführten Berechnungen trat jedoch das Problem auf, dass die numerischen Berechnungen des Integrals für Winkel sehr nahe 0° beziehungsweise 180° chaotisch wurden. Die Winkelintegration wurde daher nur von −0.99999 bis 0.99999 durchgeführt. Da das Impulsintegral bei diesen Winkeln etwa von der Größe 0.1 − 2 ist, abhängig von der Massenkonfiguration, entstehen dadurch Fehler der Größenordnung 10−5. Die Ursache für diesen Fehler liegt vermutlich darin begründet, dass sich für diese Winkel jeweils der dritte Pol auf den ersten und der vierte Pol auf den zweiten Pol verschiebt. In diesem Fall entsteht zwar an gleicher Stelle im Zähler eine Nullstelle (schaut man sich P1, P2 und P3 an, so befinden sich an diesen Stellen auch nur einfache Pole), die numerische Berechnung kann dadurch allerdings problematisch werden. Im Rahmen dieser Arbeit wurde eine Genauigkeit von 4 Nachkommastellen allerdings als ausreichend betrachtet. Abschließend lässt sich sagen, dass die Korrekturen in (fast) allen betrachteten Fällen klein sind. In Einzelfällen können sie allerdings durchaus relevante Dimensionen erreichen, wie am f0(500) Zerfall zu sehen ist. In zukünftigen Arbeiten sollte dieses Thema also auch für Wechselwirkungen mit Ableitungen und nicht-skalare Teilchen aufgegriffen werden.
The current performance of a 4π barium fluoride gamma detector consisting of 41 modules is evaluated. It will be used to measure neutron capture events in different samples that are exposed to a neutron beam that is expected to contain up to 10^7 neutrons/(cm^2 sec). The capture cross-sections acquired in this experiment will be relevant to a multitude of different areas, for example to s-process studies, or accelerator-driven systems. The detector array was re-mounted after having been moved from Karlsruhe to Frankfurt and in the course of this process, the detector modules have been checked for their current detection properties. Every module consists of a BaF2 crystal, a photomultiplier tube connected to the crystal by sillicon oil and a voltage divider to drive the PMT, so each of them is already an individual gamma detector. Using Cobalt-60 and Caesium-137 test sources the energy resolution and - more importantly - the time resolution of every module has been determined; the results are presented in this work and compared to previous data taken at the time the detector was built initially in the mid-1980s.
In dieser Arbeit wurden die ersten Schritte unternommen um Elektronen aus den Zerfällen schwerer Quarks zu messen. Im Folgenden wird zunächst ein Überblick zum physikalische Hintergrund gegeben und der elliptische Fluss als Sonde zur Untersuchung des QGP motiviert. Anschließend werden der LHC und ALICE näher beleuchtet und die einzelnen Detektorsysteme, die für diese Analyse wichtig sind, vorgestellt. Im weiteren wird eine Methode zur Identifizierung von Elektronen vorgestellt und die Kontamination des Elektronensignals durch Hadronen bestimmt. Abschließend wird der elliptische Fluss eines von Hadronen bereinigten Inklusiv-Elektronen Spektrums bestimmt und ein Ausblick auf weitere Analyseschritte gegeben.
In dieser Arbeit wurden im Rahmen des HADES-Experimentes von 2007 Proton-Proton-Stöße bei einer kinetischen Energie von Tkin = 3.5GeV der Reaktion pp → ppw simuliert. Insbesondere wurde mittels einer Pluto-Simulation untersucht, welche Auswirkungen die Berücksichtigung möglicher Verteilungsfunktionen für cos(θω) und cos(θ pp), die neben 2 weiteren Parametern als voneinander unabhängige Observablen zur Beschreibung der Reaktion gewählt wurden, auf die Anzahl der simulierten Ereignisse Nsim innerhalb der Detektorakzeptanz des HADES haben könnte. Hierbei stammt die gewählte Winkelverteilung für die w-Produktion aus Messungen des nicht mehr existierenden DISTO-Spektrometers, das Proton-Proton-Stöße bei einer leicht geringeren Energie von Tkin = 2.85GeV durchgeführt hatte, während die Verteilung für die Proton-Proton-Paar-Ausrichtung auf einer Annahme basiert und vorläufig gewählt wurde. Unter Verwendung eines weiteren Modells, das den 3-Teilchen-Zerfall ω → π+π−π0 beschreibt, wurde ein theoretisches Modell von Lutz et al. [1] in die Simulation implementiert, dessen Auswirkung auf Nsim es ebenfalls zu untersuchen galt. Dieses erlaubt eine Reduzierung der Anzahl der Freiheitsgrade des Systems von 12 auf 4, was eine Akzeptanzkorrektur der Reaktion pp→ ppω ermöglicht.
Die Ergebnisse zeigten eine starke Abhängigkeit der Anzahl der simulierten Teilchen von der Proton-Proton-Ausrichtung, die zu einer Reduzierung der Ereignisanzahl von etwa 15% führt. Dies hat zur Folge, dass eine Bestimmung der Verteilungsfunktion für diese Observable absolut notwendig ist. Die Auswirkungen der w-Winkelverteilung beträgt etwa 4−9%. Ein Vergleich der Simulationsergebnisse mit und ohne Modell führte zu dem Ergebnis, dass eine geringe Änderung der Nsim von 1−2% zu Gunsten des Zerfallsmodells vorliegt. Eine Berücksichtigung in Simulationen, die der Untersuchung des betrachteten Zerfalls dienen, ist also keine Notwendigkeit.
In dieser Arbeit wurden Simulationen des γ-Prozesses zu den vier p-Kernen 92;94Mo und 96;98Ru durchgeführt. Die Simulationen wurden mit den Simulationen aus [Rapp et al., 2006] verglichen, und die Ergebnisse waren bis auf wenige Ausnahmen die gleichen.
Die Untersuchung der Sensitivitäten auf insgesamt 38 geänderte Raten hat einige besonders wichtige Raten für jedes der Isotope identifiziert. Es stellte sich heraus, dass die Isotope jeweils auf eine destruktive Rate besonders sensitiv sind. Bei 92Mo war dies die 92Mo(γ,p) Rate, bei 94 die 94Mo(γ,n) Rate, bei 96Ru die 96Ru(γ,α) Rate und bei 98Ru die Destruktion über 98Ru(γ,n).
Diese Raten sind nur theoretisch bestimmt, haben aber großen Einfluss auf die Häufigkeiten der untersuchten Isotope. Experimentelle Untersuchungen dieser Raten sind nötig, um ein besseres Verständnis des γ-Prozesses in dieser Massenregion zu erlangen.
Leider konnten schon exisitierende neuere Untersuchungen im Rahmen dieser Arbeit nicht berücksichtigt werden, beispielsweise [Utsunomiya et al., 2013]. In zukünftigen Simulationen sollten diese Untersuchungen berücksichtigt werden. Außerdem sollten die Simulationen Neutroneneinfänge untersuchen, da diese vermutlich auch zur Produktion von 94Mo und 98Ru beitragen.
Ein Problem in dieser Arbeit war die Rekonstruktion der Reaktionsflüsse aus Raten und Häufigkeiten, in Zukunft sollten die Reaktionsflüsse direkt mitgeschrieben werden.
Die Unsicherheiten der Raten reichen nicht aus, um die Unterproduktion von 92;94Mo und 96;98Ru erklären. Zur Verdeutlichung dieser Tatsache befinden sich im Anhang A.15 Abbildungen der Überproduktionsfaktoren mit den geänderten Raten 92Mo(γ,p)x0.5 und 98Ru(γ,n)x0.5, also den beiden Raten, die eine Sensitivität größer eins aufweisen. Trotz der geänderten Raten werden 92Mo und 98Ru um mehr als einen Faktor 10 unterproduziert. Wenn man annehmen würde, dass die Sensitivität linear verläuft und eins beträgt, würde selbst die Reduktion der Raten auf Null nur eine Verdopplung der Häufigkeit bewirken. In der Realität wird sich die Sensitivität noch verringern, wenn andere Desintegrationsprozesse dominant werden. Es ist also nicht anzunehmen, dass die Unsicherheiten in diesen Raten die Unterproduktion erklären können. Dies war auch nicht erwartet worden[Rapp et al., 2006].
Einen größeren Einfluss auf die Endhäufigkeiten hat die Saatverteilung vor der Supernova Phase des Sterns. Diese wird durch einige entscheidende Reaktionen während der Sternentwicklung stark beeinflusst (Kapitel 1). Teilweise sind die Raten dieser Reaktionen mit großen Unsicherheiten behaftet, und eine Änderung führt zu sehr unterschiedlichen Häufigkeiten der p-Kerne [Pignatari et al., 2013]. Der Ort des p-Prozesses spielt ebenfalls eine entscheidende Rolle. Supernova Ia oder Neutronensterne könnten entscheidend zur Produktion der p-Kerne beitragen, speziell bei den leichteren Kernen mit A < 110. Diese Szenarien sind aber schwerer zu modellieren und wenig untersucht [Rauscher, 2010]. In zukünftigen Arbeiten sollten diese Szenarien genauer untersucht werden. Die Unterschiede in Saatverteilung und Temperaturverlauf sowie die neutronenreiche Umgebung einer Supernova Ia lassen veränderte Sensitivitäten erwarten.
Zum besseren Verständnis des p-Prozess sind also sowohl weitere experimentelle Daten als auch weitere Untersuchungen der Rahmenbedingungen nötig.
Diese Arbeit zeigt, dass die optimale Verteilung von Individuen in Gruppen unter Beachtung ihrer Zeitpräferenzen ein NP-schweres Problem ist. Daher liegt es Nahe, dass für große Teilnehmerzahlen eine optimale Lösung nicht in praxistauglicher Zeit berechnet werden kann. Hier kann eine geeignete Heuristik Abhilfe schaffen.
Da dieses Problem in Universitäten für Studierende bei der Zuteilung der Übungsgruppen für Hunderte von Teilnehmern jedes Semester aufs Neue gelöst werden muss, macht es Sinn, dabei eine rechnergestützte Lösung einzusetzen.
In dieser Arbeit werden die gängigsten in Deutschland und insbesondere an der Goethe-Universität Frankfurt am Main verwendeten Gruppeneinteilungssysteme untersucht. Alle aktuell eingesetzten Lösungen weisen offensichtliche Mängel auf. In dieser Arbeit wird analysiert, weshalb es dazu kommt und gezeigt, wie diese Mängel vermieden werden können. Außerdem werden Kriterien entwickelt und diskutiert, die ein gutes Gruppeneinteilungssystem erfüllen sollte.
Es wird beschrieben, inwiefern eine gute mit einer Heuristik schnell berechenbare approximative Lösung des Gruppeneinteilungsproblems besser als eine perfekte Lösung sein könnte. Mehrere Heuristiken werden verglichen und eine für dieses Problem gut passende wird entwickelt und implementiert. Mithilfe der Beispielimplementierung und anhand anonymisierter Anmeldedaten für die Veranstaltungen aus vergangenen Jahren wird gezeigt, welche Ergebnisse bei dem Wechsel zu einem solchen System erreicht werden können.
Weiterhin wird analysiert, wie ein solches Gruppeneinteilungssystem an die anderen an Universitäten eingesetzten digitalen Systeme angekoppelt werden kann. Das ist notwendig, um zu vermeiden, dass die redundanten Studierendendaten doppelt gepflegt werden müssen. Somit werden Konsistenz und Korrektheit der Daten bei dem Einsatz eines neuen Systems gefördert.
Abschließend wird ein Ausblick in die Zukunft der Gruppeneinteilungssysteme gegeben und beschrieben, welche Aspekte in diesem Bereich weiterhin wichtig sein könnten.
Diese Arbeit beschäftigt sich mit der Wasserkühlung einer normalleitenden CH-Kavität. Insbesondere stellt sich die Frage, ob die im CST Thermal Steady State Solver simulierten Temperaturen mit Messungen während High Power Tests übereinstimmen. Zusätzlich interessiert, inwiefern die Temperatur über die dissipierte Leistung aus dem CST Eigenmode Solver und dem gemessenen Volumenstrom im Kanal abgeschätzt werden kann. In dem Kontext wird auch geklärt, ob die Reihenschaltung der Mantelkanäle den Kühlanforderungen genügt.
Neben Volumenstrom- und Druckmessungen an den in Reihe und parallelgeschalteten Kanälen werden die Leistungs- und Temperaturwerte der Konditionierung in sämtlichen Simulationen aufgegriffen. Indem die Kavität in einzelne Sektionen unterteilt wird und in diesen die dissipierte Leistung mit dem Eigenmode Solver simuliert wird, die ein Kühlkanal abführt, werden die Temperaturerhöhungen direkt berechnet und verglichen.
Zusammengefasst hat sich der Durchfluss in kritischen Bauteilen wie den Stützen durch die Reihenschaltung der Mantelkanäle erhöht und wird damit empfohlen. Es werden die simulierten Temperaturverteilungen gezeigt. Die Näherung über den Eigenmode Solver liefert erneut für die thermisch belasteten Bauteile wie die Stützen präzise Vorhersagen.
Abschließend werden Erfahrungen aus dem Institut in dieser Arbeit zusammengetragen und die Verwendung des Steady State Solver freigegeben.
Im Rahmen dieser Arbeit wird ein Gammaspektroskopie-Aufbau unter Verwendung eines HPGe-Clover-Detektors zur Nutzung in Aktivierungsexperimenten charakterisiert und untersucht. Die für präzise Aktivitätsmessungen nach einer Aktivierung nötigen Effizienzen werden mit Hilfe der Eichquellen 60Co und 22Na unter Nutzung verschiedener Modi des Clover-Detektors abstandsabhängig errechnet. „Listmode“-Daten ermöglichen dabei eine „offline“-Verarbeitung. Begleitet werden die Messungen von aufwändigen Monte-Carlo-Simulationen in Geant4. Parallele Auswertungsmethoden erlauben einen genauen Vergleich zwischen simulierten und experimentellen Ergebnissen.
Erwärmt man Eis, so brechen die Molekülbindungen auf und bei einer kritischen Temperatur von 0°C entsteht durch einen Phasenübergang flüssiges Wasser. Dies ist wohl bekannt und das Phasendiagramm, sowie die Anomalie von Wasser ein bekanntes Hilfsmittel in Physik und Chemie. Doch was passiert, wenn man Kernmaterie erhitzt? Kann diese auch verschiedene Aggregatzustände annehmen? Physiker erwarten, dass ab einer definierten kritischen Temperatur auch die Bindungen zwischen den kleinsten Teilchen unserer Materie, den Quarks, aufbrechen und das bis dahin bestehende Hadronengas in ein Quark-Gluon-Plasma übergeht. In Experimenten auf der ganzen Welt sollen die Eigenschaften des Quark-Gluon- Plasmas und der Phasenübergang der Materie untersucht werden. Daraus möchte man ein Phasendiagramm für die hadronische Materie entwickeln (Abb. 1). In verschiedenen Experimenten werden die unterschiedlichen Stationen des Phasendiagramms abgelaufen. Die laufenden Projekte an den großen Teilchenbeschleuniger Anlagen am LHC (Large Hadron Collider) am CERN (Conseil Européen pour la Abbildung 1: Das Phasendiagramm stark wechselwirkender Materie. Aufgetragen ist die Temperatur gegen die Baryonendichte. Der braune Bereich stellt den Übergangsbereich zwischen Hadronengas und Quark-Gluon-Plasma dar [ZAM]. Recherche Nucléaire) und am RHIC (Relativistic Heavy Ion Collider) in Brookhaven untersuchen das Phasendiagramm bei hohen Temperaturen und geringen Dichten. An der neuen, noch im Aufbau befindlichen Beschleunigeranlage FAIR (Facility for Antiproton and Ion Research) soll nun, im Rahmen des CBM-Experiment (Compressed Baryonic Matter), das Phasendiagramm bei hohen baryonischen Dichten und geringeren Temperaturen untersucht werden. Dafür werden spezielle Detektorkomplexe entwickelt. Diese werden benötigt, um herauszufinden, wann ein Quark-Gluon-Plasma vorliegt. Hierbei ist die Identifizierung von Elektronen von großer Bedeutung. Beim CBM-Experiment wird zur Unterscheidung zwischen Pionen und Elektronen unter anderem ein Transition Radiation Detektor (TRD) verwendet. (Kapitel 4) Dessen Eingangsfenster besteht aus einer dünnen Mylar®-Folie, welche empfindlich auf Druckschwankungen reagiert. Dies führt zu einer Veränderung des Kammervolumens, was zu einer Variation der Gasverstärkung und des daraus gewonnenen Signals führt. Die Auswirkungen von Druckschwankungen auf das Eingangsfenster des CBM-TRDs sollen in der folgenden Arbeit anhand von Simulationen (Kapitel 5) sowie anhand von Messungen (Kapitel 6) untersucht und verglichen werden. Zunächst wird jedoch ein Überblick der Grundlagen gegeben.
When we browse via WiFi on our laptop or mobile phone, we receive data over a noisy channel. The received message may differ from the one that was sent originally. Luckily it is often possible to reconstruct the original message but it may take a lot of time. That’s because decoding the received message is a complex problem, NP-hard to be exact. As we continue browsing, new information is sent to us in a high frequency. So if lags are to be avoided and as memory is finite, there is not much time left for decoding. Coding theory tackles this problem by creating models of the channels we use to communicate and tailor codes based on the channel properties. A well known family of codes are Low-Density Parity-Check codes (LDPC codes), they are widely used in standards like WiFi and DVB-T2. In practical settings the complexity of decoding a received message can be heavily reduced by using LDPC codes and approximative decoding algorithms. This thesis lays out the basic construction of LDPC codes and a proper decoding using the sum-product algorithm. On this basis a neural network to improve decoding is introduced. Therefore the sum-product algorithm is transformed into a neural network decoder. This approach was first presented by Nachmani et al. and treated in detail by Navneet Agrawal in 2017. To find out how machine learning can improve the codes, the bit error rates of the trained neural network decoder are compared with the bit error rates of the classic sum-product algorithm approach. Experiments with static and dynamic training datasets of diverse sizes, various signal-to-noise ratios, a feed forward as well as a recurrent architecture show how to tune the neural network decoder even further. Results of the experiments are used to verify statements made in Agrawal’s work. In addition, corrections and improvements in the area of metrics are presented. An implementation of the neural network to facilitate access for others will be made available to the public.
As part of the research for this thesis, a momentum spectrometer was set up and initial measurements on accelerated ions were performed. For this purpose, the necessary hardware for the operation of the spectrometer and for high-precision measurements was were assembled. A control system for remote operation was developed and the spectrometer was installed at the used beamline.
There, measurements of low-energy ion beams in superposition with electrons confined in a Gabor lens can be carried out.
Investigations were made on both the Gabor lens-generated ions and the beam ions, leading to first results regarding the charge changes of beam ions during propagation through an electron atmosphere.
In der vorliegenden Arbeit werden Stabilitätstests an einer Vieldrahtproportionalkammer nach ALICE-Geometrie vorgestellt. Wegen elektrischer Instabilitäten, das heißt dem Abschalten der Hochspannungsversorgung einzelner Kammern aufgrund von Entladungen an der Ausleseebene, wurde die ALICE-TPC bisher mit zwei unterschiedlichen Gasmischungen betrieben. Es wurden die Gasmischungen Ne-CO2 (90-10) und Ne-CO2-N2 (90-10-5) verwendet.
In dieser Arbeit soll nun mit systematischen Stabilitätstests mit einer α- und einer γ-Quelle am Testaufbau am IKF untersucht werden, ob eine Beimischung von Stickstoff zur Gasmischung Ne-CO2 wirklich positive Auswirkungen auf die elektrische Stabilität der Vieldrahtproportionalkammern der ALICE-TPC hat. Messungen mit der Gasmischung Ar-CO2 (90-10) dienen dabei als Referenzmessungen.
Zunächst wurden vorbereitende Messungen zum bessseren Verständnis des Einflusses der Ausleseelektronik auf die Padsignale am Testaufbau durchgeführt. Die Untersuchung der von einem Pulser induzierten Signale zeigt, dass keine Korrektur der Nullverschiebung nötig ist. Auÿerdem konnten durch diese Messung die Verstärkungsfaktoren des verwendeten Hauptverstärkers ermittelt werden. Ein weiterer wichtiger Faktor für Stabilitätstests ist die Genauigkeit des Mischungsverhältnisses des Gases. Um eine hohe Genauigkeit zu gewährleisten, wurde der Gasfliss der verschiedenen Kanäle des zur Herstellung der Gasmischung genutzten Gasmischers überprüft und so die Bereiche für den Gasfluss gefunden, in denen sich das Mischungsverhältnis nicht ändert.
Eine gute Auflösung kann mit Vieldrahtproportionalkammern erreicht werden, wenn die Kammern auch bei einem möglichst groÿen Gain noch stabil betrieben werden können. Um den Gain aus Anodestrommessungen bestimmen zu können, wurden die Primärströme für die α- und die γ-Quelle ermittelt.
Frühere Messungen mit einer γ-Quelle, aufgrund derer Stickstoff als Beimischung in den Fokus rückte, ließen vermuten, dass sich durch die Beimischung von Stickstoff die Stabilität der Auslesekammern verbessern lassen würde. Die durchgeführten Messungen mit der γ-Quellen sollten diese Aussage nun überprüfen. Sie können die früheren Ergebnisse jedoch nicht bestätigen, sondern zeigen, dass die Gasmischung Ne-CO2-N2 (90-10-5) im Gegensatz zur Gasmischung Ne-CO2 (90-10) bei Bestrahlung mit der γ-Quelle zu instabileren Bedingungen für die Auslesekammer führt.
Zum Erzeugen der Anodensignale bei Stabilitätstests wurden erstmals geladene Teilchen aus einer α-Quelle verwendet. Im Gegensatz zur Messung mit der γ-Quelle kann die Auslesekammer bei der Beimischung von Stickstoff zu Ne-CO2 bis zu einem um 25% höheren Gain stabil betrieben werden als bei der Gasmischung Ne-CO2.
Aufgrund des je nach verwendeter Quelle unterschiedlichen Effekts auf die Stabilität der Auslesekammer lässt sich nicht mit absoluter Sicherheit sagen, ob eine Beimischung von Stickstoff die gewünschten Auswirkungen hat. Allerdings werden die Spuren in der ALICE-TPC durch geladene Teilchen hervorgerufen, sodass die Messungen mit der α-Quelle den experimentellen Bedingungen bei ALICE näher kommen als die Messungen mit der γ-Quelle und deshalb die Gasmischung Ne-CO2-N2 (90-10-5) zu bevorzugen ist.
Im Rahmen dieser Arbeit wurden zwei verschiedene Zerfallsprozesse behandelt. Zunächst wurde im Rahmen des erweiterten Linearen Sigma-Modells die Antwort auf die Frage gesucht, welches Teilchen als chiraler Partner des Nukleons in Frage kommt. Dazu wurde der Zerfall des chiralen Partners in ein Nukleon und ein skalares Teilchen betrachtet. Das skalare Teilchen wurde mit dem Tetraquark-Zustand f0(600) identifiziert. In Augenschein genommen wurden die Resonanzen N(1535) und N(1640). Aufgrund der berechneten Zerfallsbreiten erkannte man im Falle von N(1650) eine größere Übereinstimmung mit den experimentellen Werten. Die Zerfallsbreite von 45.91 MeV liegt in der Größenordnung des im Particle Data Book verzeichneten Intervalls. Der Wert, den man bei Verwendung von N(1535) als Ausgangsteilchen erhielt, ist allerdings gegenüber der Vorhersage zu groß.
Ein nächster Schritt im Studium dieses Sachverhalts stellt das erweiterte Misch-Szenario dar. Es beinhaltet nicht nur zwei, sondern vier Spinoren. Zwei davon beschreiben Nukleon-Resonanzen, zwei sind mögliche chirale Partner. Da die Zustände mischen, wird der chirale Partner nicht eindeutig durch ein, sondern durch zwei Resonanzen repräsentiert. Weiterhin steht die eingehende Betrachtung des Ursprungs von m0 aus. Dazu muss außer derWechselwirkung mit dem Tetraquark-Zustand auch die Wechselwirkung eines Glueballs mit den beteiligten Hadronen berücksichtigt werden. Dadurch erhält die Masse von m0 einen Anteil, der aus dem Glueball-Kondensat stammt. Dies muss beim Rückschluss auf die Nukleonmasse beachtet werden.
Als nächstes wurde der Zerfall des pseudoskalaren Glueballs in zwei Nukleonen betrachtet. Da die Kopplungskonstante dieses Zerfalls noch nicht experimentell bestimmt wurde, wurde ein Verhältnis zwischen zwei Zerfallskanälen berechnet. Es zeigte sich, dass der Zerfall in zwei Nukleonen fast doppelt so wahrscheinlich ist wie der Zerfall in Nukleon und chiralen Partner, der an der Energieschwelle liegt. Die Berechnung wurde mit einem Teilchen der Masse 2.6 GeV als Glueball durchgeführt. Die Untersuchung derart schwerer Glueballs wird in naher Zukunft erstmalig im Rahmen des PANDA-Experiments der GSI möglich sein.
Zukünftige Studien sollten die Beteiligung des Glueballs an gemischten Zuständen berücksichtigen. Außerdem sollte ein möglicher skalarer Glueball in die Betrachtung miteinbezogen werden.
Phänomenologie der Pseudovektormesonen und Mischung mit Axialvektormesonen im kaonischen Sektor
(2012)
In dieser Arbeit wurde die Messung des Flusses von Protonen in Silber-Silber-Kollisionen bei 1:58 AGeV beschrieben. Dabei wurden drei verschiedene Flow Koeffzienten betrachtet, der gerichtete, der elliptische sowie der dreieckige Fluss.
Nachdem die Protonen zunächst anhand ihrer Masse identifziert wurden, wurde die Reaktionsebene rekonstruiert. Nachfolgend wurde das Vorgehen zur Bestimmmung der ersten drei Flow-Koeffzienten v1, v2 und v3 beschrieben. Diese wurden anschließend in Abhäangigkeit des Transversalimpulses und der Rapidität für vier Zentralitätsklassen im Bereich von 0 - 40% Zentralität dargestellt.
Da die Daten ebenfalls Silber-Kohlenstoff Reaktionen enthalten, weisen die Spektren eine Abweichung vom erwarteten Verlauf auf. Daher wurden diese Reaktionen anhand des in Abschnitt 3.1 beschriebenen Energieverhältnisses ERAT abgeschätzt und mit Hilfe eines Cut-Off Werts ausgeschlossen. Die daraus resultierenden Spektren konnten dadurch verbessert werden.
Im Fall der Gold-Gold Strahlzeit aus dem Jahr 2012 konnten neben Daten der hier diskutierten Flow-Koeffzienten v1, v2 und v3 ebenfalls Koeffzienten höherer Ordnung, v4 und v5, sowie Hinweise auf ein Auftreten von v6 gefunden werden.
Ähnliche Analysen könnten im Fall der Daten der Silber-Silber Kollisionen durchgeführt werden. Hier tritt zwar ein quantitativ kleinerer Fluss auf, da es sich bei den kollidierenden Nuklei um ein kleineres System handelt, jedoch treten im Vergleich zu Gold-Gold Kollisionen etwa zweifach so hohe Event-Raten auf. Somit kann mit der in dieser Arbeit beschriebenen Herangehensweise unter Verwendung der Daten der gesamten Strahlzeit untersucht werden, ob Hinweise auf Flow-Koeffzienten höherer Ordnung zu finden sind.
Außerdem sollte bei den bestehenden Ergebnissen eine Korrektur des Effekts der Occupancy des Detektors durchgeführt werden, da dieser wie in Abschnitt 3.2.1 beschrieben zu Verfälschungen des gemessenen Flusses führt. Dieser Effekt wird insbesondere im Fall des gerichteten Flusses v1 deutlich.
Des Weiteren ist eine Abschätzung der systematischen Fehler der Messungen erforderlich.
Dafür kann untersucht werden, welche Auswahlkriterien und Parameter die Messung beeinflussen, beispielsweise die Spurrekonstruktion und -selektion oder die Teilchenidentifikation. Unter Betrachtung der Auswirkungen auf die Ergebnisse der Flow-Koeffzienten kann die Analyse daraufhin mit Variationen dieser Werte durchgeführt werden. Somit kann der Bereich der systematischen Fehler abgeschätzt werden.
Sprung-Diffusions-Modelle zur Bewertung Europäischer Optionen, BacIn dieser Arbeit wurden die Europäische Optionen in den Sprung-Diffusions-Modellen von Merton und dem Modell von Kou bewertet. So stellen die geschlossenen Lösungen für das Merton-Modell als Anwendung der Black-Scholes-Formel eine einfache Möglichkeit zur Berechnung eines Optionspreises dar. Die Verwendung einer analytischen Lösung für Merton ist allerdings nur eingeschränkt, d.h. für zwei spezielle Sprungverteilungsfunktionen (Plötzlicher Ruin und die Lognormalverteilung) möglich. Das Kou-Modell hingegen, hat eine geschlossene Lösung für Doppel-Exponentialverteilte Sprünge. Eine flexible Lösungsmöglichkeit zur Bestimmung eines Optionspreises ist die Verwendung des Monte-Carlo-Verfahrens für die Simulation der Kursbewegung mit zugrunde liegendem Sprung-Diffusions-Modell. In diesem Fall ist das Monte-Carlo-Verfahren zur Ermittlung des Optionspreises nur einmal anzuwenden. Dieses Verfahren konvergiert mit einer Konvergenzrate von 1/2.
Wie alle anderen Modelle, die auf Lévy Prozessen basieren, lässt das Kou-Modell eine empirische Beobachtung vermissen, nämlich die mögliche Abhängigkeit zwischen Renditen der Underlyings (der sogenannte "volatility clustering affect"), weil das Modell unabhängige Inkremente unterstellt. Eine Möglichkeit die Abhängigkeit mit einzubeziehen, wäre die Nutzung anderer Punktprozesse Ñ(t) mit abhängigen Inkrementen anstelle des Poisson-Prozesses N(t). Es muss natürlich die Unabhängikeit zwischen der Brownschen Bewegung, den Sprunghöhen und ~N(t) beibehalten werden. Das so modifizierte Modell hat keine unabhängigen Inkremente mehr, ist aber einfach die geschlossene Lösungsformel für Call- und Put-Optionen zu erhalten. Andererseits scheint es schwer analytische Lösungen für Pfadabhängige Optionen durch Nutzung von Ñ(t) anstelle von N(t) zu erhalten.
In dieser Arbeit wurden zwei unterschiedliche Konzepte für einen Rebuncher mit mehreren Aperturen auf der Symmetrieachse des geplanten Bunchkompressors für das FRANZ-Projekt untersucht. Die besonderen Anforderungen sind die Zeitstruktur des Strahls und der geringe seitliche Abstand der unterschiedlichen Strahlwege...
Zur Erforschung des Strahlstransports durch zwei Toroidsegmente wurden im Rahmen dieser Arbeit theoretische Betrachtungen, Simulationen und experimentelle Untersuchungen durchgeführt. Dazu wurde ein toroidaler Teststand, bestehend aus zwei 30 Grad Toroidsegmenten mit einer magnetischen Feldstärke von 0,6 T und einer Driftsektion zwischen diesen beiden Magneten von 400 mm Länge, verwendet. Von einer Volumenionenquelle wurde ein Wasserstoffionenstrahl erzeugt und dieser mittels eines Solenoids angepasst und in das erste Toroidsegment eingeschossen. Mit Hilfe eines beweglichen Detektors konnte der Ionenstrahl an jeder Position im Rezipienten beim Transport durch den toroidalen Aufbau experimentell untersucht und vermessen werden.
Bei den Experimenten mit dem vorhandenen Detektor konnten auf den Aufnahmen der Leuchtdichteverteilung starke Sekundärelektroneneffekte beobachtet werden, welche die Untersuchung des Ionenstrahls mit dem Detektor erschwerten oder teilweise ganz unmöglich machten. Aus diesem Grund wurde zur Unterdrückung dieser Elektronen eine Wasserstoffatmosphäre im Rezipienten aufgebaut, welche die Elektronen stärker absorbiert als die Ionen und damit die Beobachtung des Ionenstrahls ermöglichen sollte. Auf diesem Wege lässt sich das transversale Verhalten des Strahls beim Strahltransport durch die toroidalen Magnetfelder mit dem vorhandenen Detektor untersuchen. Die Auswirkungen des Wasserstoffgases auf die geladenen Teilchen wurden dabei theoretisch und experimentell untersucht und analysiert. Die Auswirkung von Helium-, Stickstoff- und Argongas auf den Ionenstrahl und die Elektronen wurde in diesem Zusammenhang experimentell betrachtet.
Des Weiteren wurde mit Hilfe des Computerprogramms TBT der Strahltransport durch die zwei toroidalen Magnetfeldsegmente unter Verwendung von Referenzeinstellungen simuliert und die Ergebnisse mit den theoretischen und experimentellen Daten des Strahltransports verglichen. Bei diesen Simulationen konnten die Gyrationsbewegungen sowie die Transmission des Ionenstrahls durch die Driftsektion genauer untersucht werden.
Da die Magnetfelder der Toroidsegmente auch in der Driftsektion als Führungsfelder dienen sollen, sind die im experimentellen Aufbau verwendeten Toroidsegmente nicht magnetisch geschirmt. Dies hat zur Folge, dass das von den Magneten erzeugte Feld Auswirkungen auf andere Komponenten des toroidalen Teststandes besitzt. Aus diesem Grund wurden die Auswirkungen dieser Magnetfelder auf die Ionenquelle sowie auf das Druckmesssystem des Teststands genauer betrachtet.
Ein zentraler Bestandteil der Teilchenphysik ist die Berechnung der Zerfallsbreiten bzw. Lebensdauern von Teilchen. Die meisten bekannten Teilchen sind instabil und zerfallen in zwei oder mehr leichtere Teilchen. Die Formel für die Berechnung einer Zerfallsbreite enthält zwei verschiedene Komponenten: Die kinematischen Faktoren, die lediglich vom Anfangs- und Endzustand abhängen und aus der Energie- und Impulserhaltung folgen, und die dynamischen Faktoren, die sich aus der Art der Wechselwirkung und eventuellen Zwischenstufen ergeben. Gibt es mehrere Zerfallskanäle, die zu den gleichen Endzuständen führen, so unterscheiden diese sich nur in den dynamischen Faktoren. Aus diesem Grunde werden kinematische und dynamische Faktoren getrennt, da nur letztere für die Analyse der Wechselwirkung relevant sind.
Die kinematischen Faktoren von Zwei- und Dreikörperzerfällen haben einen fundamentalen Unterschied: Beim Zweikörperzerfall ist durch die Erhaltungssätze die Verteilung der Energien der Produktteilchen komplett festgelegt, während sie bei einem Dreikörperzerfall innerhalb bestimmter Grenzen variieren kann.
Ein Dreikörperzerfall kann auf zwei verschiedeneWeisen auftreten: Bei einem direkten Zerfall entstehen gleichzeitig alle drei Endprodukte. Bei einem indirekten Zerfall zerfällt das Startteilchen zuerst in zwei Teilchen, von denen eines stabil ist und das andere erneut zerfällt. Im Falle des indirekten Zerfalls haben die resultierenden Teilchen eine andere Impulsverteilung als bei einem direkten Zerfall, woraus sich Informationen über den Zwischenzustand gewinnen lassen.
Im ersten Kapitel dieser Arbeit widmen wir uns der expliziten Berechnung der Zerfallsbreite für die verschiedenen Fälle. Wir beschränken uns hier und in allen weiteren Rechnungen auf skalare und pseudoskalare Teilchen, bei denen keine Spineffekte auftreten.
Die Zerfallsbreite eines Dreikörperzerfalls lässt sich in einer besonders praktischen Form, dem sogenannten Dalitz-Plot, darstellen. Hierbei sind alle kinematischen Faktoren konstant und eine Darstellung der Zerfallsbreite in Abhängigkeit der entsprechenden Variablen lässt direkten Aufschluss über die Art der Wechselwirkung zu. Die Form eines Dalitz-Plots sowie dessen Interpretation ist Gegenstand des zweiten Kapitels.
Im dritten Kapitel beschäftigen wir uns kurz mit der Frage, welche Auswirkungen Prozesse höherer Ordnung auf den gesamten Zerfall haben. Hierbei beschränken wir uns auf die Betrachtung von Loopbeiträgen des Zwischenzustandes eines indirekten Zerfalls.
Im letzten Kapitel werden wir die theoretischen Betrachtungen am Zerfall eines pseudoskalaren Glueballs anwenden. Ein Glueball ist ein gebundener Zustand aus Gluonen, den Austauschteilchen der starken Wechselwirkung. Da die Gluonen aufgrund der nichtabelschen Struktur der Farbsymmetriegruppe selbst Farbladung tragen, ist es theoretisch möglich, Zustände nur aus Gluonen zu konstruieren, die farbneutral sind und damit den Regeln des Confinements entsprechen. Im Falle der betrachteten Glueballs tritt ein weiterer interessanter Effekt auf: Da es mehrere Zerfallskanäle gibt, die zum gleichen Endzustand führen, treten Interferenzeffekte auf, deren Auswirkung auf das Gesamtergebnis näher untersucht wird.
Assessing communicative accommodation in the context of large language models : a semiotic approach
(2023)
Recently, significant strides have been made in the ability of transformer-based chatbots to hold natural conversations. However, despite a growing societal and scientific relevancy, there are few frameworks systematically deriving what it means for a chatbot conversation to be natural. The present work approaches this question through the phenomenon of communicative accommodation/interactive alignment. While there is existing research suggesting that humans adapt communicatively to technologies, the aim of this work is to explore the accommodation of AI-chatbots to an interlocutor. Its research interest is twofold: Firstly, the structural ability of the transformer-architecture to support accommodative behavior is assessed using a frame constructed in accordance with existing accommodationtheories.
This results in hypotheses to be tested empirically. Secondly, since effective accommodation produces the same outcomes, regardless of technical implementation, a behavioral experiment is proposed. Existing quantifications of accommodation are reconciled,
extended, and modified to apply them to nonhuman-interlocutors. Thus, a measurement scheme is suggested which evaluates textual data from text-only, double-blind interactions between chatbots and humans, chatbots and chatbots and humans and humans. Using the generated human-to-human convergence data as a reference, the degree of artificial accommodation can be evaluated. Accommodation as a central facet of artificial interactivity can thus be evaluated directly against its theoretical paradigm, i.e. human interaction. In case that subsequent examinations show that chatbots effectively do not accommodate, there may be a new form of algorithmic bias, emerging from the aggregate accommodation towards chatbots but not towards humans. Thus, existing, hegemonic semantics could be cemented through chatbot-learning. Meanwhile, the ability to effectively accommodate would render chatbots vastly more susceptible to misuse.
Rituale geben Menschen Stabilität und Kraft im täglichen Leben. Durch eine Migration können sich Modifikationen in der Performanz und Materialität der Rituale ergeben. Die Bachelorarbeit befasst sich mit diesen Veränderungen am Beispiel der Materialität des Hindu Rituals Puja. Das Ziel der Arbeit ist die Betrachtung, inwiefern aufgrund einer Migration Aneignungsprozesse in der Materialität stattfinden und diese ein Beispiel für Ritualdynamik sein können. Basierend auf den Ergebnissen eines in 2021/22 durch die Verfasserin durchgeführten Projekts im Rhein-Main Gebiet wird beschrieben, welche Gaben von den Gläubigen benutzt werden, welche Beschaffungsprozesse durchlaufen werden und welche Bedeutung eventuelle Veränderungen für die Gläubigen haben. Hierzu werden die Hypothesen erstellt und bestätigt, dass ein Aneignungsprozess und somit ein ritualdynamischer Prozess stattfindet und die Puja, aufgrund ihrer Flexibilität, ein geeignetes Ritual zur zukünftigen Untersuchung von Ritualdynamik darstellt.
Zunächst legt die Autorin den ethnologischen Ritualbegriff unter anderem über die Ritualtypen von Ronald L. Grimes dar und erörtert die Theorien der ritual studies. Des Weiteren wird der Forschungsstand des Themenbereichs der Ritualdynamik anhand der Ergebnisse und Theorien des Sonderforschungsbereichs 619 (SFB 619) in Heidelberg (2002-2013) erläutert. Darauffolgend werden nach einer kurzen Vorstellung des Hindu-Glaubens und den Grundlagen der Puja die Erkenntnisse aus dem Forschungsprojekt dargelegt. Anhand der Ergebnisse aus Interviews, teilnehmenden und passiven Beobachtungen und einer Umfrage mithilfe eines Fragebogens wird die Veränderung bei der Materialität des Rituals am Beispiel der angebotenen Speisen (naivedya) und dem Wasser des heiligen Flusses Ganges (gangagel) beschrieben. Die Flexibilität des Rituals wird anhand von Bespielen durch Informanten veranschaulicht. Abschließend werden die Hypothesen bearbeitet und ein Ausblick in die Zukunft des Themas aus Sicht der Verfasserin gegeben.
Mit dieser Arbeit wurde gezeigt, wie sich Störung und Kopplung auf ein System zwei gekoppelter Resonatoren auswirkt. Das Einfahren des Tauchkolbens birgt die Möglichkeit die Eigenfrequenzen des Systems zu verändern und die Feldverteilungen anzupassen. Ein Tauchkolben auf der anderen Seite des Resonators wäre für die Anschauung der Störung praktisch gewesen, hätte jedoch keine weiteren Erkenntnisse geliefert.
Es ist möglich mit zwei verschiedenen eingekoppelten Frequenzen eine Schwebung im Resonator zu erzeugen. Dies könnte theoretisch für eine Hochfrequenzstrahlablenkung nützlich sein. Mit einer speziell auf Strahlablenkung optimierten Resonatorgeometrie gilt es dies praktisch zu überprüfen.
To accommodate the growth of the software industry, programming languages are getting increasingly easy to use. The latest trend in the simplification of the software development process is the usage of visual programming environments. To make visual programming effective, the graph-like representation of the source code must be clearly arranged. This thesis details some of the difficulties in automatic layout generation and proposes an interface as well as two different implementations of automatic layout generators to integrate into the VWorkflows visual programming framework.
Die vorgestellte Arbeit beschreibt die Messung neutraler Pionen in pp-Kollisionen bei √s = 8 TeV. Die Messung kann als Referenz für Pb-Pb-Kollisionen dienen und somit dazu beitragen, die Eigenschaften des QGP zu untersuchen. Für die Messung werden Daten des ALICE-EMCal-Detektors verwendet, die 2012 gemessen wurden. Das EMCal kann die deponierte Energie und die Position von Photonen messen. Es fasst die deponierte Energie zu sogenannten Clustern zusammen. Durch die Kombination von Clustern aus derselben Kollision werden π0 rekonstruiert. Mithilfe des ITS wird der primäre Vertex bestimmt, um die Verteilung der Cluster-Paare als Funktion von minv und pT anzugeben. Die potentiellen π0 werden anschließend in pT-Bereiche eingeteilt. Durch die mixed Event Methode wird der unkorrelierte Untergrund abgezogen. Das im Folgenden extrahierte π0-Signal wird parametrisiert, um die Position des peaks zu bestimmen. Ausgehend von der Parametrisierung wird der korrelierte Untergrund subtrahiert und das Signal in einem definierten Bereich um die peak-Position integriert. Man erhält ein pT abhängiges Spektrum. Das Spektrum wird sowohl für die gemessenen Daten als auch für simulierte Daten berechnet. Durch die Simulation wird eine Korrektur des Spektrums hinsichtlich der Akzeptanz des Detektors und Effizienz der Analyse-Methoden ermöglicht. Das korrigierte Spektrum wird für die Standardanalyse sowie für systematische Variationen berechnet. Aufgrund von resultierenden Unterschieden kann eine systematische Unsicherheit für das Ergebnis abgeschätzt werden.
Ergebnis dieser Arbeit ist der Lorentz-invariante Yield (vgl. Abbildung 23) als Funktion von pT. Das Raw Yield wurde dazu mithilfe von Simulationen korrigiert und systematische Fehler wurden abgeschätzt.
Die Messung kann mit anderen π0 Analysen verglichen werden. Für π0 Analysen können neben dem EMCal auch weitere Detektoren verwendet werden. Eine dieser Analysen verwendet eine Rekonstruktion der π0 durch konvertierte Photonen, die sogenannte Photon-Conversion-Method (PCM). Außerdem sind Analysen mit dem PHOS Kalorimeter und hybride Methoden möglich, beispielsweise PCM-EMCal.
Es sollte eine Simulationsumgebung mit einem Straßennetz und eine KDNA, die Autos auf diesem Straßennetz kontrolliert, implementiert werden. Für die Simulation wurde eine einfache graphische Darstellung entwickelt auf der eine variable Anzahl Autos auf einem vorprogrammierten Straßennetz fahren. Eine KDNA steuert diese Autos über Kontrolle von Gas-, Bremse- und Steuerradpositionen, wobei Geschwindigkeits- und Richtungskontrolle unabhängig stattfinden. Bei der Analyse der KDNA für mehrere Autos traten Leistungsprobleme auf, deren Quelle genauer untersucht wurde. Die Last wurde primär durch die Kommunikation zur Verwaltung der KDNA-Tasks im AHS erzeugt.
Im Fachbereich der Computerlinguistik ist die automatische Generierung von Szenen aus, in natürlicher Sprache verfassten, Text seit bereits vielen Jahrzehnten ein wichtiger Bestandteil der Forschung, welche in der "Kunst", "Lehre" und "Robotik" Verwendung finden. Mit Hilfe von neuen Technologien im Bereich der Künstlichen Intelligenzen (KI), werden neue Entwicklungen möglich, welche diese Generierungen vereinfachen, allerdings auch undurchsichtige interne vom Modell getroffene Entscheidungen fördern.
Ziel der vorgeschlagenen Lösung „ARES: Annotation von Relationen und Eigenschaften zur Szenengenerierung“ ist es, ein modulares System zu entwerfen, wobei einzelne Prozesse für den Benutzer verständlich bleiben. Außerdem sollen Möglichkeiten geboten werden, neue Entitäten und Relationen, welche über die Textanalyse bereitgestellt werden, auch in die Szenengenerierung im dreidimensionalen Raum einzupflegen, ohne dass hierfür Code zwingend notwendig wird.
Der Fokus liegt auf der syntaktisch korrekten Darstellung der Elemente im Raum. Dagegen lässt sich die semantische Korrektheit durch weitere manuelle Anpassungen, welche für spätere Generierungen gespeichert werden erhöhen. Letztlich soll die Menge der zur Darstellung benötigten Annotationen möglichst gering bleiben und neue szenenbezogene Annotationen durch die implementierten Annotationstools hinzugefügt werden.
Die vorliegende Arbeit beschäftigt sich mit optischen und elektrischen Untersuchungen an einer koaxial aufgebauten Lorentz-Drift-Geometrie. So wurden Messungen an der Lorentz-Drift-Sputterquelle bezüglich der Durchbruchspannung durchgeführt. Es hat sich gezeigt, dass das Verhalten der Durchbruchspannung in Abhängigkeit vom Druck trotz der koaxialen Elektrodengeometrie vergleichbar mit der Paschenkurve fur eine planparallele Anordnung ist.
Zur Untersuchung des Sputterverhaltens wurden zunächst einige Kurzzeitaufnahmen mit einer Belichtungszeit im Mikrosekundenbereich durchgefuhrt, um so die Ausbreitung der Plasmawolke zu betrachten. Bei einem Durchbruch führt der Stromfluss zu einem Magnetfeld, sodass ein Lorentz-Drift entsteht. Durch die resultierende Kraft wird das Plasma beschleunigt.
Es zeigt sich, dass sich die Plasmawolke mit zunehmender Zeit bzw. zunehmendem Abstand von den Elektroden homogener im Rezipient verteilt. Da durch die Ausbreitung der Plasmafront auch ausgelöstes Elektrodenmaterial zu einem entsprechend platzierten Substrat beschleunigt wird, lagert sich dort eine dünne Schicht an.
Die Ablagerungen am Substrat wurden bei verschiedenen Drucken und verschiedenen Abständen zu den Elektroden betrachtet. Erste Messungen zeigen, dass die Schichten mit größerem Abstand homogener werden und besser am Substrat haften bleiben, jedoch die Schichtdicke geringer wird. Bei geringem Abstand lagern sich vergleichsweise dicke Schichten an, die jedoch sehr inhomogen und instabil sind. Durch Optimierung sollte es aber möglich sein, einen gewünschten Kompromiss aus Schichtdicke, Stabilität und Homogenität zu finden.
Bei niedrigeren Drucken und somit hohen Durchbruchspannungen kommt es aufgrund der höheren Stromdichte zu stärkeren Lorentz-Drifts, sodass die Teilchenenergien im Plasma steigen und es zu dickeren Ablagerungen kommt.
Die Schlussfolgerung dieser Arbeit ist, dass die Beschichtung durch eine Lorentz-Drift-Geometrie prinzipiell möglich ist. Es konnten bisher qualitative Messungen durchgeführt werden, die jedoch noch quantitativ verifiziert werden sollten.
The main goal of this work was to create a network environment for the Unity Engine project StolperwegeVR, developed by the Text Technology Lab of Goethe University, in which you will be able to annotate one to several documents in a group. For this, basic network utils like seeing other users or moving objects had to be implemented which had to be easy to use and work with in the future.
In der LEBT-Sektion der Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) befinden sich zur transversalen Fokussierung des Ionenstrahls vier Solenoide. Die ersten beiden dienen dem Einschuss in das ExB-Choppersystem, die letzten beiden dem Einschuss in die erste Beschleunigerstruktur, den Radiofrequenzquadrupol (RFQ). In numerischen Transportsimulationen konnte gezeigt werden, dass insbesondere der erste Solenoid einen hohen Füllgrad aufweisen wird, was zu Strahlaberrationen und damit zu einer unerwünschten Erhöhung der Strahlemittanz führen kann.
Um diesen Effekt zu untersuchen, wurden die Fokussier- und Abbildungseigenschaften des ersten FRANZ-Solenoides analysiert. Analytische Rechnung unter Verwendung der Twissparametertransformation wurden durchgeführt, numerische Simulationen mit einem idealisiertem und einem realistischem Magnetfeldverlauf gemacht und 2 Messaufbauten mit einer Volumenquelle, dem Solenoid und einer Schlitz-Gitter-Emittanzmessanlage realisiert, um gemessene mit analytischen und numerischen Daten vergleichen zu können. Die Parameter, die ausgewertet und verglichen wurden, sind die Lage der Emittanzellipse, die Emittanz im x-x'-Phasenraum und die normierten vierten Momente (Wölbung) im Ortsraum.
Spam detection in wikis
(2012)
Wikis haben durch ihre kollaborativen Eigenschaften maßgeblich an der Entstehung des Web 2.0 beigetragen: Durch die Zusammenarbeit vieler Benutzer ist es möglich geworden, große Mengen an Daten aufzubereiten und strukturiert zusammenzustellen. So ist ein Datenschatz angewachsen, der wertvoll für die maschinelle Verarbeitung von Text ist: Mittels der Techniken des TextMining lassen sich aus Wikis viele Informationen extrahieren. Dazu ist es zunächst sinnvoll, deren Inhalte herunterzuladen und lokal zu speichern.
Zum Editieren von Seiten existieren häufig keine Zugangsbeschränkungen. So wird die genannte Akkumulation von Informationen ermöglicht, da sich viele Benutzer beteiligen können. Jedoch birgt dies die Gefahr, dass Wikis durch Spam verunreinigt werden: Zur Verwendung als Wissensbasis ist dies hinderlich.
Gängige Anti-Spam-Maßnahmen finden online statt und setzen unter anderem auf die Überwachung durch die Nutzer oder den Einsatz von Blacklists für Weblinks. Im Gegensatz dazu wird im Rahmen dieser Arbeit folgender Ansatz gewählt: Ein lokal gespeichertes Wiki wird einer Bestandsaufnahme unterzogen und in seiner Gesamtheit untersucht. Es werden ausschließlich die Inhalte der Seiten berücksichtigt. Die Spam-Erkennung beruht auf einer Kombination von Entscheidungsregeln sowie der Berücksichtigung von Wortwahrscheinlichkeiten. Dadurch konnten gute Ergebnisse erzielt werden.
Quasi-Monte-Carlo-Verfahren zur Bewertung von Finanzderivaten, BacDas Gebiet der Optionsbewertung ist durch die Entwicklungen zu neuen und immer komplexer werdenden Optionstypen und durch Verbesserungen im Bereich der Aktienkurs-Modelle geprägt. Diese Entwicklung und die gestiegene Leistungsfähigkeit der Parallelrechner haben das Interesse an den flexiblen Quasi-Monte-Carlo-Verfahren neu geweckt.
Die experimentellen Untersuchungen bestätigen die Überlegenheit des Quasi-Monte-Carlo-Verfahren gegenüber den klassische Monte-Carlo-Verfahren in Bezug auf niedrigdimensionale Optionstypen. Dieser Überlegenheit nimmt aber mit zunehmender Dimension ab, was eine Nachteil für das Quasi-Monte-Carlo Verfahren darstellt. Zur Verbesserung des Verfahrens gibt das Dimensions-Reduktions-Prinzip (effective dimension) und weitere Niederdiskrepanz-Folgen, wie Niederreiter-Folgen, Lattice-Regeln, usw. Weitere Verbesserungsmöglichkeiten könnten auch durch Wahl von anderen Diskretisierungsverfahren mit höherer starker Ordnung, wie z.B dem Milstein-Verfahren, erreicht werden. Mit dem Quasi-Monte-Carlo-Verfahren lässen sich auch komplizierte Optionen bewerten,
wie z.B. Bermuda-Optionen, Barrier-Optionen, Cap-Optionen, Shout-Optionen, Lokkback-Optionen, Multi-Asset-Optionen, Outperformance-Optionen, und auch mit weiteren Bewertungs-Modellen kombinieren, wie z.B. dem Black-Scholes-Modell mit variabler Verzinsung, Black-Scholes-Modell mit zeitabhängiger Volatilität, Heston-Modell für stochastische Volatilität, Merton-Sprung-Diffusion-Modell und dem Libor-Markt Modell für Zinsderivate, auf die ich in dieser Bachelorarbeit nicht mehr eingehen werde, mit denen ich mich jedoch in der Masterarbeit genauer beschäftigen werde.
Reproducible annotations
(2022)
This bachelor thesis presents a software solution which implements reproducible annotations in the context of the UIMA framework. This is achieved by creating an automated containerization of arbitrary analysis engines and annotating every analysis engine configuration in the processed CAS document. Any CAS document created by this solution is self sufficient and able to reproduce the exact environment under which it was created.
A review of the state-of-the art software in the field of UIMA reveals that there are many implementations trying to increase reproducibility for a given application relying on UIMA, but no publication trying to increase the reproducibility of UIMA itself. This thesis improves upon that technological gap and provides a throughout analysis at the end which shows a negligible overhead in memory consumption, but a significant performance regression depending on the complexity of the analysis engine which was examined.
Durch die steigende Bedeutung von multimedialen Lernmaterialien in der Lehre und in der Wirtschaft, wachsen die Anforderungen, die an die Herstellung der Materialien gestellt werden. Verwaltung, Archivierung und Wiederverwendbarkeit sind die zentralen Begriffe um die Effektivität von multimedialen Lernmaterialien zu steigern und damit auch kommerziellen Erfolg zu erzielen. Es ist effektiv wenn Lernmaterialien ein Thema nicht erneut aufarbeiten, wenn es bereits ausreichend Materialien dazu gibt. Vorhandene Materialien können genutzt werden und sparen somit Ressourcen, die ansonsten zur Herstellung neuer Materialien genutzt werden müssten. In dieser Arbeit werden Metadaten als Mittel eingesetzt, um die Effektivität zu steigern. Dabei soll vor allem der Mehrwert durch die Verwendung von Metadaten deutlich gemacht werden. Eine Analyse aktueller Autorensysteme soll zeigen, wie Metadaten bereits eingesetzt werden und wo Probleme existieren. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer Erweiterung des Autorensystems LernBar verwendet. Um den Mehrwert der Metadaten deutlich zu machen, soll der gesamte Autorenprozess innerhalb der LernBar erweitert werden. Das heißt, dass der gesamte Ablauf, vom Erfassen bis zum Verwenden der Metadaten, abgebildet wird. Im Fokus der Erweiterung steht die Unterstützung des Autors bei der Erstellung von Lernmaterialien. Vorlagen und automatisierte Vorgänge dienen der Bedienbarkeit der neuen Funktionen.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Neutroneneinfangquerschnitte werden häufig mithilfe der Aktivierungsmethode bestimmt. Hierbei wird die zu untersuchende Probe mit Neutronen der gew¨unschten Energie bestrahlt und danach in einem untergrundoptimierten Labor ausgezählt. Am Institut für Angewandte Physik der Goethe Universität Frankfurt wurde ein solcher Aufbau realisiert. Er besteht aus zwei Clover Detektoren, die gegenüberliegend in enger Geometrie angeordnet sind. Die aktivierte Probe wird mittels spezieller Probenhalter reproduzierbar und zentriert zwischen den Detektoren platziert. Die Clover Detektoren sind mit passiven Schilden (Pb) und einer aktiven Abschirmung (BGO) umgeben. Die unterschiedlichen Abschirmungen wirken sich in verschieden Energiebereichen jeweils anders aus.
Diese Arbeit befasst sich mit der astrophysikalischen Motivation und dem Aufbau, mit dem später die Ausbeute einer neutronenaktivierten Probe bestimmt werden kann. Außerdem werden die Ergebnisse der verschiedenen Untergrundmessungen miteinander verglichen.
Die folgende Arbeit handelt von einem Human Computer Interaction Interface, welches es gestattet, mit Hilfe von Gesten zu schreiben. Das System ermöglicht seinen Nutzern, neue Gesten hinzuzufügen und zu verwenden. Da Gesten besser erkannt werden können, je genauer die Darstellung der Hände ist, wird diese durch Datenhandschuhe an den Computer übertragen. Die Hände werden einerseits in der Virtual Reality (VR) dargestellt, damit sie der Nutzer sieht. Andererseits werden die Daten, die die Gestenerkennung benötigt, an das Interface weitergeleitet. Die Erkennung der Gesten wird mit Hilfe eines Neuronales Netz (NN) implementiert. Dieses ist in der Lage, Gesten zu unterscheiden, sofern es genügend Trainingsdaten erhalten hat. Die genutzten Gesten sind entweder einhändig oder beidhändig auszuführen. Die Aussagen der Gesten beziehen sich in dieser Arbeit vor allem auf relationale Operatoren, die Beziehungen zwischen Objekten ausdrücken, wie beispielsweise „gleich“ oder „größer gleich“. Abschließend wird in dieser Arbeit ein System geschaffen, das es ermöglicht, mit Gesten Sätze auszudrücken. Dies betrifft das sogenannte gestische Schreiben nach Mehler, Lücking und Abrami 2014. Zu diesem Zweck befindet sich der Nutzer in einem virtuellen Raum mit Objekten, die er verknüpfen kann, wobei er Sätze in einem relationalen Kontext manifestiert.
Die vorliegende Bachelorarbeit untersucht die Möglichkeiten der mobilen Produktion und Verwaltung von Web- und Multimedia-Inhalten, welche mit geografischen Koordinaten verknüpft sind.
Durch die stetig wachsende Verbreitung mobiler Geräte wie Smartphones, Tablets oder Netbooks und der damit in Anspruch genommenen Verfügbarkeit von mobilen Internetzugängen in Form von WLAN, GPRS, UMTS oder LTE, wird die gemeinsame Erstellung und Verwaltung von geolokalisierten Inhalten durch Teilnehmer einer Interessengruppe ermöglicht.
Besonders Inhalte deren Standort relevant ist, können von automatisierter Lokalisierung profitieren. Durch Ortungsmechanismen können Daten bei ihrer Erstellung oder Bearbeitung automatisch mit dem Standort des Geräts versehen werden. So lassen sich zum einen geografische Daten sammeln und zum anderen Inhalte auf unkomplizierte Art und Weise mit dem Standort des Autors zum Zeitpunkt ihrer Erstellung verknüpfen.
Darüber hinaus können Anwender abhängig von ihrem Aufenthaltsort Informationen über ihre Umgebung abrufen, ohne zuvor in einer Kartenansicht zu ihrer aktuellen Position navigieren zu müssen.
Die vorliegende Arbeit behandelt sowohl das Erhalten als auch das Erzeugen multimedialer Inhalte in Abhängigkeit von ihren geografischen Koordinaten. Die technische Realisierung dieses Konzepts findet mit Hilfe der frei verfügbaren MediaWiki-Software[1] als Content-Management-System sowie einer, für mobile Geräte optimierten Webseite als Frontend statt.
Der Umfang der Arbeit umfasst neben dem Entwurf eines Konzepts und der ausführlichen Beschreibung einer möglichen Implementierung eine Einführung in die Grundlagen der verwendeten Komponenten. Zuletzt sollen ein Fazit und ein Ausblick Konzept und Realisierung kritisch betrachten, um einen Einblick in vorhandene Potenziale der Lösung zu bieten.