Universitätspublikationen
Refine
Year of publication
Document Type
- Bachelor Thesis (158) (remove)
Has Fulltext
- yes (158) (remove)
Is part of the Bibliography
- no (158)
Keywords
- NLP (5)
- Text2Scene (3)
- TextAnnotator (3)
- Annotation (2)
- Beschleunigerphysik (2)
- Classification (2)
- Ionenstrahl (2)
- Machine Learning (2)
- Strahldynamik (2)
- Strahlprofil (2)
Institute
- Physik (74)
- Informatik (35)
- Informatik und Mathematik (18)
- Mathematik (8)
- Gesellschaftswissenschaften (7)
- Wirtschaftswissenschaften (3)
- Erziehungswissenschaften (2)
- Geowissenschaften (2)
- Geschichtswissenschaften (2)
- Sprach- und Kulturwissenschaften (2)
Animal agriculture is responsible for at least 16.5% of global yearly CO2e (carbon dioxide equivalent) emissions (Twine 2021: 3) and thus partially causal for the corresponding climate change, and its disastrous consequences for millions (Romanello et al. 2023: 1-2). At the same time, animal agriculture restricts and damages the bodily autonomy of animals regularly (Hampton et al. 2021: 28) which could be unethical depending on the underlying ethical theory. The policy option of veganism by law is, nevertheless, rarely considered. The definitions of veganism range from an individual ethic of the abstention from consuming animal products to a political philosophy calling for the abolition of animal agriculture (Mancilla 2016: 1-3). Because veganism through the cessation of animal agriculture could be the policy solution to the aforementioned issues concerning the rights of present and future generations affected by climate change and the rights of animals, I explore arguments for and against the implementation of veganism by law.
Although a veganized agriculture would provide 52% of the required emission reductions for the 2°C target of the Paris climate accord (Eisen and Brown 2022: 6), and could allow for greater animal welfare, current policies of many governments promote the opposite. For example, 82% of the subsidies of the European Union’s Common Agricultural Policy are routed towards the production of animal products and animal feed (Kortleve et al. 2024: 1-2). Moreover, for American adults the U.S. Department of Agriculture and the U.S. Department of Health and Human Services (2020: 96) promotes the consumption of 720ml of cow milk or other dairy per day and recommends a protein intake through meat and eggs between 652 g and 936 g per week.
In this bachelor thesis I outline the current state of animal agriculture, its emissions and the associated harm towards animals and humans. The empirical findings are dissected ethically with a consequentialist approach and a deontological approach. The ethical analysis concerning the decisions of individuals is then converted into a political philosophy regarding the duties of states towards present and future generations and animals including corresponding policy implications.
The normative argument is mainly based on the example of industrialized animal agricul-ture, the area where most of the interaction between animals and humans occurs. Nevertheless, other sectors where animals are used for human consumption or entertainment are discussed in less detail, in order to analyze the arguments for veganism by law.
In short, using the recommended political argument structure of Abel et al. (2021: 6) the following hypothesis acts as the basis for the political and philosophical discussion and is revised where necessary:
Moral claims: The state should protect present and future generations and animal rights.
Empirical claims: Animal agriculture is a major contributor to climate change and its corresponding effects and violates the wellbeing of animals regularly.
Conclusion: The state should enforce veganism by law.
This bachelor thesis developed a pipeline for automatic processing of scanned hospital letters: HospLetExtractor. Hospital letters can contain valuable information about potential adverse drug reactions and useful case information relevant to pharmacovigilance. To make this data accessible, this thesis presents a pipeline consisting of image pre-processing, optical character recognition and post-processing. Pre-processing deskews the images, removes lines and rectangles, reduces noise and applies super-resolution. For the post-processing a spell checking system was set up including a newly built word frequency dictionary for german medical terms based on a created corpus of german medical texts. Furthermore, classical and deep learning models for the classification of hospital letters were compared, in which the transformer-based models performed best. In order to train and test the models, a new gold standard was created. By making these medical documents accessible for automatic analysis, hopefully a contribution can be made to expand the scope of pharmacovigilance.
Natural Language Processing (NLP) for big data requires an efficient and sophisticated infrastructure to complete tasks both fast and correctly. Providing an intuitive and lightweight interaction with a framework that abstracts and simplifies complex tasks assists in reaching this goal. This bachelor thesis extends the NLP framework Docker Unified UIMA Interface (DUUI) by an API and a web-based graphical user interface to control and manage pipelines for automated analysis of large quantities of natural language. The extension aims to reduce the entry barrier into the field as well as to accelerate the creation and management of pipelines according to UIMA standards. Pipelines can be executed in the browser or using the web API directly and then monitored on a document level. The evaluation in usability and user experience indicates that the implementation benefits the framework by making its usage more user friendly, lightweight, and intuitive while also making the management of pipelines more efficient.
Assessing communicative accommodation in the context of large language models : a semiotic approach
(2023)
Recently, significant strides have been made in the ability of transformer-based chatbots to hold natural conversations. However, despite a growing societal and scientific relevancy, there are few frameworks systematically deriving what it means for a chatbot conversation to be natural. The present work approaches this question through the phenomenon of communicative accommodation/interactive alignment. While there is existing research suggesting that humans adapt communicatively to technologies, the aim of this work is to explore the accommodation of AI-chatbots to an interlocutor. Its research interest is twofold: Firstly, the structural ability of the transformer-architecture to support accommodative behavior is assessed using a frame constructed in accordance with existing accommodationtheories.
This results in hypotheses to be tested empirically. Secondly, since effective accommodation produces the same outcomes, regardless of technical implementation, a behavioral experiment is proposed. Existing quantifications of accommodation are reconciled,
extended, and modified to apply them to nonhuman-interlocutors. Thus, a measurement scheme is suggested which evaluates textual data from text-only, double-blind interactions between chatbots and humans, chatbots and chatbots and humans and humans. Using the generated human-to-human convergence data as a reference, the degree of artificial accommodation can be evaluated. Accommodation as a central facet of artificial interactivity can thus be evaluated directly against its theoretical paradigm, i.e. human interaction. In case that subsequent examinations show that chatbots effectively do not accommodate, there may be a new form of algorithmic bias, emerging from the aggregate accommodation towards chatbots but not towards humans. Thus, existing, hegemonic semantics could be cemented through chatbot-learning. Meanwhile, the ability to effectively accommodate would render chatbots vastly more susceptible to misuse.
Die Arbeit widmet sich der im Jahr 2017 verstorbenen Frankfurter Künstlerin Martina Kügler und der Darstellung von Geschlechtlichkeit in ihren Zeichnungen. Der erste Teil der Arbeit beschreibt ihre Ausbildung an der Städelschule und ihre künstlerische Entwicklung. Schon früh entwickelte Kügler einen eigenen, radikal reduktionistischen, aber dennoch figürlichen Stil in ihren Zeichnungen. Vor dem Hintergrund gesellschaftlicher und künstlerischer Strömungen, die sich der sexuellen Liberalisierung verschrieben hatten, experimentierte Kügler in ihren Arbeiten mit sexuell konnotierten Motiven und geschlechtlichen Zuschreibungen, verarbeitete und zitierte dabei Vorbilder der klassischen und modernen Kunstgeschichte und spielte nicht ohne Ironie mit hergebrachten Bildtraditionen. Der zweite Teil der Arbeit analysiert die Geschlechtlichkeit in Küglers Zeichnungen vor dem Hintergrund von Erkenntnissen der feministischen Kunstgeschichte und der Genderstudies. Dabei zeigt sich, dass Erotik und Sexualität in den Zeichnungen allgegenwärtig sind, ohne dass nackte Körper einem antizipierten Begehren der Betrachtenden zur Schau gegeben werden. Die Künstlerin löst sich von Bildtraditionen, die mit ästhetisierendem Framing oder aufreizenden Posen auf männliche Triebhaftigkeit Bezug nehmen. Sexualität und Erotik erscheinen als lustvolles anarchisches Geschehen, frei von objektifizierenden Blick-Perspektiven. Dies zeigt sich insbesondere im Vergleich mit erotischen Zeichnungen von Surrealisten wie Hans Bellmer und André Masson. Auch bezüglich des Geschlechts der Figuren wird erkennbar, dass Kügler heteronormative Traditionen hinter sich lässt. Viele ihrer Figuren passen nicht in eine binäre Ordnung von männlich/weiblich. Die Geschlechter vermischen sich und durchdringen einander zu einem allgemein menschlichen Bild von Lust und Begehren. Damit scheinen in Küglers Zeichnungen bereits in den 1970er und 1980er Jahren Aspekte von Geschlechtlichkeit auf, die erst später in der feministischen Kunstwissenschaft und in den Genderstudies expliziert wurden.
In online video games toxic interactions are very prevalent and often
even considered an imperative part of gaming.
Most studies analyse the toxicity in video games by analysing the messages that are sent during a match, while only a few focus on other interactions. We focus specifically on the in-game events to try to identify toxic matches, by constructing a framework that takes a list of time-based events and projects them into a graph structure which we can then analyse with current methods in the field of graph representation learning.
Specifically we use a Graph Neural Network and Principal Neighbour-
hood Aggregation to analyse the graph structure to predict the toxicity of a match.
We also discuss the subjectivity behind the term toxicity and why the
process of only analysing in-game messages with current state-of-the-art NLP methods isn’t capable to infer if a match is perceived as toxic or not.
Die Forschungsfrage dieser Arbeit untersucht die Veränderungen in der sicherheits- und verteidigungspolitischen Agenda von Bündnis 90/Die Grünen seit dem Ausbruch des Ukraine-Krieges 2022. Die Analyse zeigt, dass die Grünen ihre Agenda angepasst haben, jedoch ihre politische Kultur beibehalten. Obwohl sie sich neuen sicherheitspolitischen Herausforderungen stellen, bleiben ihre pazifistischen Grundprinzipien erhalten. Es wurde eine Reihe von Veränderungen festgestellt, darunter eine verstärkte Unterstützung für militärische Maßnahmen, jedoch bleibt die Priorität bei nicht-militärischen Ansätzen wie Diplomatie und humanitärer Hilfe. Die Ergebnisse zeigen, dass die Grünen eine pragmatischere Betrachtung der Sicherheitspolitik angenommen haben, ohne ihre grundlegenden Werte zu verlieren. Die Erkenntnisse dieser Arbeit bieten eine Grundlage für zukünftige Forschungen zur Entwicklung der sicherheitspolitischen Agenda der Grünen und zur öffentlichen Wahrnehmung dieser Veränderungen.
Metahumans ist ein innovatives Framework für die Unreal Engine, das hochgradig realistische digitale Charaktere zur Verfügung stellt. Metahumans zeichnen sich durch eine vollständige Control Rig aus, die es Entwicklern ermöglicht, vorgefertigte Animationen zu nutzen und sie nach Bedarf anzupassen und zu erweitern.
Im Rahmen dieser wissenschaftlichen Arbeit wird die Anwendung von Metahumans in der virtuellen Umgebung der Unreal Engine 5 untersucht. Das Hauptziel besteht darin, die Fähigkeit eines Metahumans zu untersuchen, mittels eines herkömmlichen Virtual Reality Headsets mithilfe von Motion Tracking gesteuert und animiert zu werden. Dabei wird speziell auf die Verwendung von Inverse Kinematics als Methode zur Erzeugung möglichst natürlicher Bewegungsabläufe eingegangen. Zusätzlich wird angestrebt, die Interaktion zwischen verschiedenen Metahuman-Avataren in einer Online-Sitzung zu ermöglichen.
Um den Einfluss auf das Immersionserlebnis der Benutzerinnen und Benutzer zu analysieren, werden Probandinnen und Probanden eingeladen, ihre Nutzererfahrungen zu evaluieren. Zu diesem Zweck werden zwei vergleichbare Level erstellt: eines in der Unreal Engine mit Metahumans und das andere in Unity mit den Meta Avataren von Oculus.
Diese wissenschaftliche Untersuchung zielt darauf ab, ein umfassendes Verständnis für die Leistungsfähigkeit von Metahumans zu erlangen, insbesondere im Vergleich zu anderen Avatar-Systemen.
Supermassive black hole binaries (SMBHBs) are among the most powerful known sources of gravitational waves (GWs). Accordingly, these systems could dominate the stochastic gravitational wave background (GWB) in the micro- and millihertz frequency range. The time until the merger of two SMBHs in the nucleus of a galaxy can be shortened through dynamical friction due to the presence of dark matter (DM) spikes around the SMBHs. To calculate the orbital evolution of individual SMBHBs within the Newtonian approximation, the SMBHBpy code is developed. This work confirms that the GW signals from SMBHBs with DM spikes can be clearly distinguished from those without any matter. Making use of the upper limit on the characteristic strain of the GWB derived from the data of the Cassini spacecraft mission in 2001/2002, a lower limit on the matter density around SMBHBs is derived in this study. The result is subsequently compared with the theoretical density profiles for cold dark matter and self-interacting dark matter spikes.
Large language models have become widely available to the general public, especially due to ChatGPT's release. Consequently, the AI community has invested much effort into recreating language models of the same caliber as ChatGPT, since the latter is still a technical blackbox. This thesis aims to contribute to that cause by proposing R.O.B.E.R.T., a Robotic Operating Buddy for Efficiency, Research and Teaching. In doing so, it presents a first implementation of a lightweight environment which produces tailor-made, instruction-following language models with a heavy focus on conversational capabilities that instruct themselves into a given domain-context. Within this environment, the generation of datasets, the fine-tuning process and finally the inference of a unique R.O.B.E.R.T. instance are all carried out as part of an automated pipeline.
Rituale geben Menschen Stabilität und Kraft im täglichen Leben. Durch eine Migration können sich Modifikationen in der Performanz und Materialität der Rituale ergeben. Die Bachelorarbeit befasst sich mit diesen Veränderungen am Beispiel der Materialität des Hindu Rituals Puja. Das Ziel der Arbeit ist die Betrachtung, inwiefern aufgrund einer Migration Aneignungsprozesse in der Materialität stattfinden und diese ein Beispiel für Ritualdynamik sein können. Basierend auf den Ergebnissen eines in 2021/22 durch die Verfasserin durchgeführten Projekts im Rhein-Main Gebiet wird beschrieben, welche Gaben von den Gläubigen benutzt werden, welche Beschaffungsprozesse durchlaufen werden und welche Bedeutung eventuelle Veränderungen für die Gläubigen haben. Hierzu werden die Hypothesen erstellt und bestätigt, dass ein Aneignungsprozess und somit ein ritualdynamischer Prozess stattfindet und die Puja, aufgrund ihrer Flexibilität, ein geeignetes Ritual zur zukünftigen Untersuchung von Ritualdynamik darstellt.
Zunächst legt die Autorin den ethnologischen Ritualbegriff unter anderem über die Ritualtypen von Ronald L. Grimes dar und erörtert die Theorien der ritual studies. Des Weiteren wird der Forschungsstand des Themenbereichs der Ritualdynamik anhand der Ergebnisse und Theorien des Sonderforschungsbereichs 619 (SFB 619) in Heidelberg (2002-2013) erläutert. Darauffolgend werden nach einer kurzen Vorstellung des Hindu-Glaubens und den Grundlagen der Puja die Erkenntnisse aus dem Forschungsprojekt dargelegt. Anhand der Ergebnisse aus Interviews, teilnehmenden und passiven Beobachtungen und einer Umfrage mithilfe eines Fragebogens wird die Veränderung bei der Materialität des Rituals am Beispiel der angebotenen Speisen (naivedya) und dem Wasser des heiligen Flusses Ganges (gangagel) beschrieben. Die Flexibilität des Rituals wird anhand von Bespielen durch Informanten veranschaulicht. Abschließend werden die Hypothesen bearbeitet und ein Ausblick in die Zukunft des Themas aus Sicht der Verfasserin gegeben.
As part of the research for this thesis, a momentum spectrometer was set up and initial measurements on accelerated ions were performed. For this purpose, the necessary hardware for the operation of the spectrometer and for high-precision measurements was were assembled. A control system for remote operation was developed and the spectrometer was installed at the used beamline.
There, measurements of low-energy ion beams in superposition with electrons confined in a Gabor lens can be carried out.
Investigations were made on both the Gabor lens-generated ions and the beam ions, leading to first results regarding the charge changes of beam ions during propagation through an electron atmosphere.
Non-Fungible Token und die Blockchain Technologie haben in dem vergangenen Jahr immer mehr an Popularität gewonnen. Wie bei jeder neuartigen Technologie stellt sich jedoch die Frage, in welchen Bereichen diese eine Anwendung finden können.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, ob Non-Fungible Token und die Blockchain Technologie eine sinnvolle Anwendung im Bereich von akademischen Zertifikaten hat.
Um diese Frage zu beantworten, sind Gründe für die Anwendung von Non-Fungible Token gegen Nachteile abgewogen und Lösungsansätze für potentielle Risiken erhoben worden. Außerdem wurde selbstständig ein ERC-721 Token Contract für akademische Zertifikate mittels Solidity entwickelt.
Die Arbeit zeigt, dass Blockchain basierte akademische Zertifikate vor allem die Mobilität von Studenten unterstützen, den administrativen Aufwand der Ausstellung und Verifizierung von Abschlusszeugnissen verringern und entgegen der Fälschung von Abschlüssen arbeiten. Außerdem können erwägte Risiken und Nachteile durch Zusammenschluss von Institutionen zu einer Konsortialen Blockchain umgangen werden.
Die erfolgreiche Entwicklung des ERC-721 Token Contracts “MetaDip” zeigt eine potentielle Umsetzung für die Digitalisierung von Abschlusszeugnissen und demonstriert, dass Non-Fungible Token basierte akademische Zertifikate aktuell bereits technisch realisierbar sind.
Die Arbeit legt dar, dass Non-Fungible Token und die Blockchain Technologie eine vielversprechende Zukunft für akademische Zertifikate bietet und bereits von vereinzelten Institutionen realisiert wird. Jedoch müssen noch einige Vorkehrungen getroffen werden, bevor eine breite Umsetzung von Blockchain basierten akademischen Zertifikaten möglich ist.
In dieser Bachelorarbeit werden verschiedene Methoden zur Bestimmung der Betriebsfrequenz von CH-Kavitäten untersucht. Aufgrund der geometrisch komplexen Form der Beschleunigungsstruktur, können die Eigenfrequenzen nicht mithilfe von analytischen Methoden bestimmt werden. Üblicherweise werden die Eigenfrequenzen, ihre Ladungsund Stromdichten, sowie die elektromagnetischen Felder über numerische Methoden der Computational Electromagnetics (CEM) ermittelt. Die CEM ist eine junge Disziplin, deren Performanz und Anwendungsgebiete in den letzten 20 Jahren rapide gewachsen sind. Hauptverantwortlich hierfür ist zum einen das exponentielle Wachstum der Rechenleitung bei gleichbleibenden Kosten, zum anderen die Entwicklung und Verbesserung der Algorithmen. Bis zum Ende des letzten Jahrhunderts wurden elektronische Komponenten hauptsächlich dadurch entwickelt, indem Prototypen angefertigt und analysiert wurden. Diese zeitaufwendige und kostspielige Herangehensweise ist heutzutage nahezu vollständig durch CEM-Simulationen ersetzt worden. Die Hauptmethoden der CEM sind die Finite-Differenzen-Methode (FDM), die Momenten-Methode (MoM) und die Finite-Elemente-Methode (FEM). Für die Bestimmung der Eigenwerte und Eigenvektoren der Beschleunigungsstrukturen eignet sich aufgrund der Stabilität von diesen Dreien am besten die Methode der finiten Elemente. Da die FEM ein rechen- und speicherintensives Verfahren ist, wurde in dieser Arbeit nach einer schnelleren Methode gesucht, um die Betriebsfrequenz von CH-Kavitäten zu bestimmen. Hierfür wurden 84 CH-Kavitäten mithilfe von CST Studio Suite erstellt und simuliert. Es handelt sich hierbei um vier Grundtypen, drei wurden bei einer fixierten Sollfrequenz von 300 MHz konstruiert; die Sollfrequenz des vierten Grundtyps betrug 175 MHz. Die Teilchengeschwindigkeit wurde jeweils in 0,01er-Schrtitten von 0,05 c bis 0,25 c variiert. Aus den Untersuchungen der EM-Felder wurde anschließend ein semi-analytisches Modell entwickelt, das aufgrund der Geometrie der CH-Kavität die Betriebsfrequenz liefern soll.
Debate topic expansion
(2022)
Given a debate topic, it is often to make an expansion of the topic, the reasons can be the followings: (1) The scope of the debate topic is too shallow and we eager to discuss more. (2) A debate topic is sometimes related to the others and the discussion will not be complete when we do not discuss the others as well. (3) We may want to discuss the particular concept or the core the debate topic. It's thus meaningful to build a model in order to find the expansions of the topics.
IBM Research Team has proposed a method to expand the boundary and find the expansion topics of the given debate topics in 2019. There are two types of topic expansions in their paper, consistent and contrastive expansions. We focus on the consistent expansions. Consistent expansions are defined as the expansions that expand our topics in a positive way or at least neutral.
The main objective of this paper is to follow and examine the steps of IBM Research Team's idea and since the original discusses the model in english, we would like to implement a topic expansion model with 7 steps, including pattern extraction, filtering, training, etc, in another language (german) using translator and compare the result between different models to propose the final german model at the end.
Das CBM Experiment konzentriert sich auf die Untersuchung des Phasendiagramms von stark wechselwirkender Materie im Bereich moderater Temperaturen, aber hoher Netto-Baryonendichte. Dabei sollen unter anderem Proben aus dem frühen und hochdichten Stadium des Quark-Gluon Plasmas detektiert werden. Ein Beispiel dafür ist das J/ψ-Meson. Das Vektormeson gilt wegen seiner Eigenschaften und Interaktion mit dem QGP als eine der wichtigen Proben stark wechselwirkender Materie.
In dieser Arbeit wird die Performance der Detektoren anhand einer Simulation in Hinsicht auf die Messung des J/ψ-Mesons studiert. Es werden hierfür unterschiedliche Simulationsansätze verglichen. Die Simulation wird im FairRoot und CbmRoot Framework durchgeführt. Es werden Proton+Gold Kollisionen bei einer Strahlenergie von 30 GeV pro Proton simuliert. Dabei verwenden wir das Standard-Setup des SIS100 für Elektronen. Das J/ψ-Meson wird über den e+e−-Zerfallskanal rekonstruiert. Bei der J/ψ-Rekonstruktion werden zuerst Schnitte gesetzt, mit der ein großer Teil der Teilchenspuren, die nicht aus J/ψ-Zerfällen stammen, aussortiert werden und so der Untergrund verringert wird.
Die Effizienz für Elektronen im Detektor-Setup RICH+TRD+TOF beträgt 65 Prozent. Für das J/ψ-Meson erhalten wir mit den gleichen Detektoren eine Effizienz von 25 Prozent. Das invariante Massenspektrum, das wir aus einer Simulation mit 8,5 Millionen Ereignisse bilden, zeigt uns, dass der hauptsächliche Anteil des Untergrunds aus Pion-Elektron-Kombinationen besteht. Es folgen im e+e−-Zerfallskanal unkorrelierte Elektron-Positron-Kombinationen als der zweitgrößte Beitrag zum Untergrund. Die Statistik ist bei der Full Simulation zu gering, um das J/ψ-Signal extrahieren zu können. Eine Integration liefert uns ein J/ψ Signal von 0,021 bei 8,5 Millionen Ereignisse, d.h. für die Detektion eines J/ψ-Mesons werden ca. 1010 Ereignisse benötigt.
Die Fast Simulation Methode ermöglicht uns in kürzerer Zeit eine größere Menge an Ereignissen zu simulieren. Dazu werden Information aus der Full Simulation entnommen, die als Antwort-Funktionen bezeichnet werden. Die Antwort-Funktionen werden der Fast Simulation übergeben, um so zeitintensive Prozesse in der Simulation überspringen zu können. Zum Zeitpunkt der Arbeit fehlen Pionen, Protonen und Kaonen in den invarianten Massenspektren der Fast Simulation. Das Problem soll in Zukunft behoben werden. Folglich haben wir ein invariantes Massenspektrum mit 85 Millionen simulierten Ereignissen, jedoch ohne Pionen, Protonen und Kaonen. Wir erhalten daher ein signifikantes J/ψ-Signal, allerdings mit einem unrealistisch hohen S/B-Verhältnis. Ein weiteres Ziel, nach der Implementierung der fehlenden Teilchen, soll die nochmalige Extrahierung des J/ψ-Signals mit korrektem Untergrund sein.
In dieser Arbeit wurde die Messung des Flusses von Protonen in Silber-Silber-Kollisionen bei 1:58 AGeV beschrieben. Dabei wurden drei verschiedene Flow Koeffzienten betrachtet, der gerichtete, der elliptische sowie der dreieckige Fluss.
Nachdem die Protonen zunächst anhand ihrer Masse identifziert wurden, wurde die Reaktionsebene rekonstruiert. Nachfolgend wurde das Vorgehen zur Bestimmmung der ersten drei Flow-Koeffzienten v1, v2 und v3 beschrieben. Diese wurden anschließend in Abhäangigkeit des Transversalimpulses und der Rapidität für vier Zentralitätsklassen im Bereich von 0 - 40% Zentralität dargestellt.
Da die Daten ebenfalls Silber-Kohlenstoff Reaktionen enthalten, weisen die Spektren eine Abweichung vom erwarteten Verlauf auf. Daher wurden diese Reaktionen anhand des in Abschnitt 3.1 beschriebenen Energieverhältnisses ERAT abgeschätzt und mit Hilfe eines Cut-Off Werts ausgeschlossen. Die daraus resultierenden Spektren konnten dadurch verbessert werden.
Im Fall der Gold-Gold Strahlzeit aus dem Jahr 2012 konnten neben Daten der hier diskutierten Flow-Koeffzienten v1, v2 und v3 ebenfalls Koeffzienten höherer Ordnung, v4 und v5, sowie Hinweise auf ein Auftreten von v6 gefunden werden.
Ähnliche Analysen könnten im Fall der Daten der Silber-Silber Kollisionen durchgeführt werden. Hier tritt zwar ein quantitativ kleinerer Fluss auf, da es sich bei den kollidierenden Nuklei um ein kleineres System handelt, jedoch treten im Vergleich zu Gold-Gold Kollisionen etwa zweifach so hohe Event-Raten auf. Somit kann mit der in dieser Arbeit beschriebenen Herangehensweise unter Verwendung der Daten der gesamten Strahlzeit untersucht werden, ob Hinweise auf Flow-Koeffzienten höherer Ordnung zu finden sind.
Außerdem sollte bei den bestehenden Ergebnissen eine Korrektur des Effekts der Occupancy des Detektors durchgeführt werden, da dieser wie in Abschnitt 3.2.1 beschrieben zu Verfälschungen des gemessenen Flusses führt. Dieser Effekt wird insbesondere im Fall des gerichteten Flusses v1 deutlich.
Des Weiteren ist eine Abschätzung der systematischen Fehler der Messungen erforderlich.
Dafür kann untersucht werden, welche Auswahlkriterien und Parameter die Messung beeinflussen, beispielsweise die Spurrekonstruktion und -selektion oder die Teilchenidentifikation. Unter Betrachtung der Auswirkungen auf die Ergebnisse der Flow-Koeffzienten kann die Analyse daraufhin mit Variationen dieser Werte durchgeführt werden. Somit kann der Bereich der systematischen Fehler abgeschätzt werden.
Ziel dieser Arbeit war die Untersuchung eines neuen Prototypen für den Übergangsstrahlungsdetektor im zukünftigen CBM-Experiment. Da der TRD zur Untersuchung des Quark-Gluon-Plasmas im Bereich hoher Baryonendichten bei hohen Kollisionsraten besonders schnell sein muss, wurde ein Prototyp mit einem kleinen Gasvolumen ohne Driftbereich entwickelt. Die Geometrie ist jedoch mit einer Reduzierung der Stabilität der Gasverstärkung verbunden, denn das elektrische Feld in der Kammer ist bei den geringen Abständen von Verformungen des dünnen Kathodenfensters abhängig. Daher wurde eine vielversprechende, veränderte Drahtgeometrie eingeführt: zwischen den Anodendrähten wurden zusätzliche Felddrähte positioniert, um das elektrische Feld im Bereich der Gasverstärkung zu stabilisieren.
Der neue Prototyp mit alternierender Hochspanngung und mit einer Dicke von 8 mm sowie einer aktiven Fläche von 15 x 15 cm2 wurde im Labor mit einer 55Fe-Quelle getestet.
Dazu wurden Strommessungen und eine spektrale Analyse für 25 verschiedene Positionen der Quelle vor der Kammer durchgeführt, sowohl mit der neuen Kammer als auch mit einer Standardkammer als Referenz. Die mit der neuen Kammer verbundenen positiven Erwartungen konnten durchweg bestätigt werden. Sowohl für die Strom- als auch für Energiemessung konnte eine signifikante Verbesserung der Stabilität der Gasverstärkung festgestellt werden. Variationen von über 60 % über die verschiedenen Messpunkte für die Standardkammer konnten mit der Kammer mit alternierender Hochspannung auf unter 15 % reduziert werden. Auch bei einer Variation des differentiellen Drucks, der mit der Ausdehnung des Folienfensters verbunden ist, kann das elektrische Feldes mithilfe der Felddrähte stabilisiert werden. Ebenso kann eine Analyse der Energieauflösung für die mit den Prototypen aufgezeichneten Spektren den stabilisierenden Effekt bestätigen. Eine zusätzliche Verbesserung durch das Anlegen einer negativen Spannung an den Felddrähten konnte allerdings nicht beobachtet werden. Ebenso zeigten die Messungen mit einer zweiten Kammer mit asymmetrischer Geometrie, das heißt die Drahtebene wurde in Richtung der hinteren Kathode verschoben, keine weitere Stabilisierung. Messungen der an den Felddrähten influenzierten Ströme zeigen, dass diese etwa bei einem Drittel der Anodenströme liegen, wobei sie für eine Erhöhung der Felddrahtspannung ebenso wie für die Messung mit der asymmetrischen Kammer leicht ansteigen. Die Ströme an den Felddrähten sind mit der Bewegung der Ionen in der Kammer verbunden, die das elektrische Feld stören können. Durch die Einführung der Felddrähte wird sich ein Teil der Ionen zu diesen bewegen, anstelle den Weg durch die Kammer bis zu den Kathoden zurückzulegen.
Die positiven Ergebnisse für die Kammer mit alternierenden Drähten sind nun Ausgangspunkt für weitere Schritte. Größere Kammern mit einer Fläche von 60 x 60 cm2, wie sie auch im finalen Experiment eingesetzt werden, wurden bereits gebaut und in einem gemischten Elektron-Pion-Strahl am PS (Protonsynchrotron) und mit einem Bleitarget am SPS (Super-Proton Synchrotron) am CERN getestet. Dabei wurde die Dicke des Gasvolumens nochmals – auf 7 mm – reduziert, was die Schnelligkeit des Detektors weiter erhöht, allerdings auch die Stabilität der Gasverstärkung wieder auf die Probe stellt. Die Daten werden derzeit ausgewertet. Eine weitere Analyse auf Basis der Padauslese im Labor ist in Planung. Hierbei ist insbesondere die Verteilung eines Signals über die Pads (Pad-Response-Funktion) von Bedeutung, wobei diese von der Bewegung der Ionen und damit von der Geometrie des elektrischen Feldes beeinflusst wird. Die Einführung der Felddrähte spielt hier eine wesentliche Rolle; insbesondere beträgt der Drahtabständ zwischen den Andodendrähten nun 5 mm, während die Abstände bei den vorhergehenden Generationen bei 2-3 mm lagen.
Auch die Signalform ist von Interesse. Die derzeit ebenfalls in Entwicklung befindliche Ausleseelektronik und die Algorithmen zur Datenverarbeitung sind auf die bekannte Signalform eines Standardprototypen ausgerichtet. Eine veränderte Form müsste entsprechend berücksichtigt werden, um aussagekräftige Ergebnisse zu erhalten. Die Auswertungen in dieser Arbeit zeigen, dass sich die Signalform grundsätzlich nicht von der des Standardprototypen unterscheidet. Wichtig sind auch die Driftzeiten für Elektronen aus der Lawine. Sie spielen eine entscheidende Rolle für die die Schnelligkeit des Detektors. Mit der Einführung der Felddrähte liegen sie zwar zum großen Teil nach wie vor im Bereich eines Standardprototyen mit entsprechender Dicke des Gasvolumens von 8 mm bei bis zu 150 ns, jedoch folgt dann ein sehr langsamer Abfall mit Elektrondriftzeiten von bis zu 450 ns [47]. Eine Verbesserung ist durch ein kleineres Gasvolumen möglich, für einen Anoden-Kathoden-Abstand von 3 mm sinken die maximalen Driftzeiten auf 300 ns. Eine andere Alternative ist das Anlegen einer negativen Spannung an das Eintrittsfenster.
In dieser Arbeit wurde der spezifische Energieverlust im TOF Detektor genutzt, um leichte Kerne zu identifizieren. Da die gemeinsame Betrachtung aller Szintillatorstäbe bei der aktuellen Kalibrierung des TOF Detektors keine eindeutige Zuordnung ermöglicht, wurde der Energieverlust der einzelnen Stäbe individuell parametrisiert. So konnten Helium und sogar Lithium Kerne selektiert werden. Die Impulskorrektur hat für zweifach geladene Kerne, abgesehen von sehr hohen Impulsen, eine erfolgreiche Korrektur der Masse ermöglicht. Bei Lithium hingegen wurde der Impuls überkorrigiert, sodass die Masse zu niedrig rekonstruiert wurde.
Durch Optimierung der Impulskorrektur könnte zusammen mit einer verbesserten Kalibrierung des TOF Detektors ein sehr hohes Auflösungsvermögen erreicht werden. Daher sollte die systematische Impulskorrektur für hohe Impulse durch weitere Simulationen verbessert und der Energieverlust vor dem Auftreffen auf den META Detektor genauer untersucht werden. Optimalerweise würde zur Kalibrierung des TOF Detektors die Abhängigkeit des Energieverlustes vom Winkel, in welchem die Teilchen auf den Detektor treffen, berücksichtigt werden. Ziel ist es, alle Stäbe pro zurückgelegter Wegstrecke zu kalibrieren, sodass weder ein Unterschied durch den Einfallwinkel der Teilchen noch durch die verschiedenen Stablängen aufkommt. Folglich wäre eine sehr spezifische Teilchenselektion möglich.