Universitätspublikationen
Refine
Year of publication
- 2019 (2) (remove)
Document Type
- Doctoral Thesis (2) (remove)
Language
- English (2)
Has Fulltext
- yes (2) (remove)
Is part of the Bibliography
- no (2)
Keywords
- ALICE (2) (remove)
Institute
- Informatik (1)
- Physik (1)
Der Urknall vor ungefähr 13.8 Milliarden Jahren markiert die Entstehung des Universums. Die gesamte Energie und Materie war in einem Punkt konzentriert und expandiert seitdem kontinuierlich. Wenige Sekundenbruchteile nach dem Urknall war die Temperatur und Dichte dieser Materie extrem hoch und die erschaffenen Elementarteilchen, speziell Quarks und Gluonen, durchliefen einen Zustand den man als Quark-Gluon-Plasma (QGP) bezeichnet und innerhalb dessen die starke Wechselwirkung dominiert. Innerhalb dieses Plasmas können Quarks und Gluonen, welche sonst in Hadronen gebunden sind, sich frei bewegen. Die direkte Beobachtung des frühzeitlichen QGPs ist mit heutigen Mitteln nicht möglich. Allerdings ist es möglich die Dynamik und Kinematik innerhalb eines künstlich erzeugten QGPs zu erforschen und damit Rückschlüsse auf die Vorgänge während des Urknalls zu machen.
Um künstliche QGPs unter kontrollierten Bedingungen zu erzeugen, werden heutzutage ultrarelativistische Schwerionen zur Kollision gebracht. Der stärkste je gebaute Schwerionenbeschleuniger LHC befindet sich am Kernforschungzentrum CERN in der Nähe von Genf. Das ALICE Experiment, als eines der vier großen Experimente am LHC, wurde speziell gebaut um das QGP näher zu untersuchen. Vollständig ionisierte Bleikerne werden mit nahezu Lichtgeschwindigkeit in den Experimenten zur Kollision gebracht. Die deponierte Energie lässt die Temperatur der Quarks und Gluonen innerhalb der kollidierenden Nukleonen ansteigen bis eine kritische Temperatur überschritten wird und ein Phasenübergang in das QGP erfolgt. Im Laufe der Kollision kühlt das Medium ab und gelangt unter die kritische Temperatur. Nun werden aus den ehemals freien Quarks Hadronen gebildet. Diese Hadronen oder Zerfallsprodukte dieser Hadronen können daraufhin in die Detektoren des Experiments fliegen und werden dann dort gemessen.
Es gibt mehrere mögliche Observablen des QGP, die messbar mit dem ALICE Experiment sind. Die Observablen, die in dieser Arbeit detailliert untersucht werden, sind die invariante Masse und der Paartransversalimpuls eines Dielektrons. Ein Dielektron besteht aus einem Elektron und einem Positron, welche miteinander korreliert sind. Dielektronen sind ideale Sonden zur Vermessung des QGPs. Sie werden durch verschiedene Prozesse während allen Kollisionsphasen produziert, wie beispielsweise bei den initialen, harten Stößen der kollidierenden Nukleonen oder durch den elektromagnetischen Zerfall verschiedener Hadronen wie π0 und J/ψ. Zusätzlich strahlt das QGP Dielektronen abhängig von seiner Temperatur ab. Theoretisch erlaubt dies die direkte Temperaturmessung des QGPs. Ein weiterer Vorteil der Dielektronenmessung gegenüber der Messung von Hadronen liegt darin, dass Elektronen und Positronen keine Farbladungen tragen und somit auch nicht mit der dominierenden starken Wechselwirkung innerhalb des QGPs interagieren und somit unbeeinflusst Informationen über seine Dynamik liefern können.
In dieser vorliegenden Arbeit werden Dielektronenspektren als Funktion der invarianten Masse und des Paartransversalimpulses in Blei-Blei-Kollisionen mit einer Schwerpunktsenergie von √sNN = 5.02 TeV gemessen. Das erste Mal in Schwerionenkollisionen konnte an einem der großen LHC Experimente der minimale Transversalimpuls der gemessenen Elektronen und Positronen auf peT > 0.2 GeV/c minimiert werden. Dies gibt im Vergleich zu der publizierten Messung mit peT > 0.4 GeV/c die Möglichkeit auch sogenannte weiche Prozesse zu messen, erhöht aber auch den Komplexit ätsgrad der Messung durch massiv gesteigerten Untergrund. Zusätzlich ist die Messung zentralitäsabhängig durchgeführt. Zentralität ist ein Maß für den Abstand der beiden Bleikerne zum Zeitpunkt der Kollision. Je zentraler eine Kollision, desto größer ist die deponierte Energie und desto größer und heißer ist das erzeugte QGP und die daraus resultierenden Effekte.
Die gemessenen Dielektronenverteilungen werden mit dem erwarteten Beiträgen aus hadronischen Zerfällen verglichen. Die Messung ergibt, dass der Beitrag aus semileptonischen Zerfällen von Charmquarks gemessen im Vakuum, welcher mit der Anzahl der binären Nukleon-Nukleon-Kollisionen in Blei-Blei-Ereignissen hochskaliert ist, nicht das Dielektronenspektrum beschreibt. Eine Modifizierung des Beitrag gemäß des unabhängig gemessenen nuklearen Modifikationsfaktors für einzelne Elektronen aus Charm- und Beautyquarks verbessert die Beschreibung des Dielektronenspektrums. Zusätzlich wurde der Beitrag virtueller direkter Photonen abgeschätzt. Die gemessenen Werte sind vergleichbar mit vorangegangenen Messungen bei einer niedrigeren Schwerpunktsenergie. Ebenso ist es möglich in periphären Kollisionen einen Beitrag durch eine Quelle zu vermessen, die Dielektronen bei niedrigem Transversalimpuls pT,ee < 0.15 GeV/c aussendet.
Programmable hardware in the form of FPGAs found its place in various high energy physics experiments over the past few decades. These devices provide highly parallel and fully configurable data transport, data formatting, and data processing capabilities with custom interfaces, even in rigid or constrained environments. Additionally, FPGA functionalities and the number of their logic resources have grown exponentially in the last few years, making FPGAs more and more suitable for complex data processing tasks. ALICE is one of the four main experiments at the LHC and specialized in the study of heavy-ion collisions. The readout chain of the ALICE detectors makes use of FPGAs at various places. The Read-Out Receiver Cards (RORCs) are one example of FPGA-based readout hardware, building the interface between the custom detector electronics and the commercial server nodes in the data processing clusters of the Data Acquisition (DAQ) system as well as the High Level Trigger (HLT). These boards are implemented as server plug-in cards with serial optical links towards the detectors. Experimental data is received via more than 500 optical links, already partly pre-processed in the FPGAs, and pushed towards the host machines. Computer clusters consisting of a few hundred nodes collect, aggregate, compress, reconstruct, and prepare the experimental data for permanent storage and later analysis. With the end of the first LHC run period in 2012 and the start of Run 2 in 2015, the DAQ and HLT systems were renewed and several detector components were upgraded for higher data rates and event rates. Increased detector link rates and obsolete host interfaces rendered it impossible to reuse the previous RORCs in Run 2.
This thesis describes the development, integration, and maintenance of the next generation of RORCs for ALICE in Run 2. A custom hardware platform, initially developed as a joint effort between the ALICE DAQ and HLT groups in the course of this work, found its place in the Run 2 readout systems of the ALICE and ATLAS experiments. The hardware fulfills all experiment requirements, matches its target performance, and has been running stable in the production systems since the start of Run 2. Firmware and software developments for the hardware evaluation, the design of the board, the mass production hardware tests, as well as the operation of the final board in the HLT, were carried out as part of this work. 74 boards were integrated into the HLT hardware and software infrastructure, with various firmware and software developments, to provide the main experimental data input and output interface of the HLT for Run 2. The hardware cluster finder, an FPGA-based data pre-processing core from the previous generation of RORCs, was ported to the new hardware. It has been improved and extended to meet the experimental requirements throughout Run 2. The throughput of this firmware component could be doubled and the algorithm extended, providing an improved noise rejection and an increased overall mean data compression ratio compared to its previous implementation. The hardware cluster finder forms a crucial component in the HLT data reconstruction and compression scheme with a processing performance of one board equivalent to around ten server nodes for comparable processing steps in software.
The work on the firmware development, especially on the hardware cluster finder, once more demonstrated that developing and maintaining data processing algorithms with the common low-level hardware description methods is tedious and time-consuming. Therefore, a high-level synthesis (HLS) hardware description method applying dataflow computing at an algorithmic level to FPGAs was evaluated in this context. The hardware cluster finder served as an example of a typical data processing algorithm in a high energy physics readout application. The existing and highly optimized low-level implementation provided a reference for comparisons in terms of throughput and resource usage. The cluster finder algorithm could be implemented in the dataflow description with comparably little effort, providing fast development cycles, compact code and at, the same time, simplified extension and maintenance options. The performance results in terms of throughput and resource usage are comparable to the manual implementation. The dataflow environment proved to be highly valuable for design space explorations. An integration of the dataflow description into the HLT firmware and software infrastructure could be demonstrated as a proof of concept. A high-level hardware description could ease both the design space exploration, the initial development, the maintenance, and the extension of hardware algorithms for high energy physics readout applications.