Refine
Year of publication
- 2021 (248) (remove)
Document Type
- Doctoral Thesis (248) (remove)
Has Fulltext
- yes (248)
Is part of the Bibliography
- no (248)
Keywords
- Herrschaft (2)
- Neuroblastom (2)
- Praxistheorie (2)
- 19. Jahrhundert (1)
- 20. Jahrhundert (1)
- 21. Jahrhundert (1)
- 2D materials (1)
- AIFMD (1)
- ALICE upgrade (1)
- ARFI (1)
Institute
- Medizin (73)
- Biowissenschaften (48)
- Biochemie, Chemie und Pharmazie (40)
- Physik (27)
- Informatik und Mathematik (13)
- Gesellschaftswissenschaften (9)
- Geowissenschaften / Geographie (6)
- Neuere Philologien (6)
- Biochemie und Chemie (5)
- Sprach- und Kulturwissenschaften (5)
Clean water is fundamental to human health and ecosystem integrity. However, water quality deteriorates due to novel anthropogenic pollutants present at microgram per liter concentrations in urban water cycles (termed micropollutants). Wastewater treatment plants (WWTP) have been identified as major point sources for aquatic (micro-)pollutants. Chemical and ecotoxicological analyses have shown that conventional biological WWTPs do not fully remove micropollutants and associated toxicities, which is often because of mobile, polar and/or recalcitrant compounds and transformation products (TPs). To minimize possible environmental risks, advanced wastewater treatment (AWWT) technologies could be a promising mitigation measure. Multiple processes are therefore being developed and evaluated such as ozonation and ozonation followed by granulated activated carbon (GAC) or biological filtration. Assessing the performance of these combined AWWTs was the focus the TransRisk project. Within this project, this thesis accomplished four major goals.
Firstly, the preparation of (waste)water samples was optimised for in vitro bioassays. Acidification, filtration and solid phase extraction (SPE) were tested for their impact on environmentally relevant in vitro endocrine activities, mutagenicity, genotoxicity and cytotoxicity. Significantly different outcomes of these assays were detected comparing neutral and acidified samples. Sample filtration had a lesser impact, but in some cases retention of particle-bound compounds could have caused significant toxicity losses. Out of three SPE sorbents the Telos C18/ENV at sample pH 2.5 extracted highest toxicity, some undetected in aqueous samples. These results indicate that sample preparation needs to be optimised for specific sample matrices and bioassays to avoid false-positive or -negative detects in effect-based analyses.
Secondly, the above listed in vitro toxicities were monitored in a protected region for drinking water production in South-West Germany (2012-2015). Out of 30 sampling sites surface water and groundwater were the least polluted. Nonetheless, a few groundwater samples induced high anti-estrogenic activity that prompted further monitoring. The latter included a waterworks in which no toxicity was detected. Hospital wastewater also had elevated in vitro toxicities and hospitals are, thus, relevant intervention points for source control. The biological WWTPs were effective in removing most of the detected toxicity, and the selected bioassays proved to be pertinent tools for water quality assessment and prioritisation of pollution hotspots.
Thirdly, the in vivo bioassay ISO10872 based on Caenorhabditis elegans (C. elegans) was adapted for this thesis. Using this model, a median effect concentration (EC50) for reproductive toxicity of the polycyclic aromatic hydrocarbon β-naphthoflavone (β- NF) of 114 µg/L was computed which is slightly lower than reported in the scientific literature. β-NF induced cyp-35A3::GFP (a biomarker in transgenic animals) in a time and concentration dependent manner (≤ 21.3–24 fold above controls). β-NF spiked wastewater samples supported earlier hypotheses on particle-bound pollutants. Reproductive toxicity (96 h) and cyp-35A3 induction (24 h) of biologically treated and/or ozonated wastewater extracts and growth promoting effects of GAC/biologically filtered ozonated wastewater extracts were observed. This suggested the presence of residual bioactive/toxic chemicals not included in the targeted chemical analysis. It also highlighted the importance of integrating multiple (apical and molecular) endpoints in wastewater assessments.
Fourthly, five in vitro and the adapted C. elegans bioassay were integrated into a wastewater quality evaluation (developed within TransRisk). Out of the five AWWT options, ozonation (at 1 g O3,applied/g DOC, HRT ~ 18 min) combined with nonaerated GAC filtration was rated most effective for toxicity removal. All five AWWTs largely removed estrogenic and (anti-)androgenic activities, but not anti-estrogenic activity and mutagenicity, which even increased during ozonation. This has been observed in related studies and points towards toxic TPs. These results also emphasized the need for implementing an effective post-treatment for ozonation. The results from a parallel in vivo study with Lumbriculus variegatus and Potamopyrgus antipodarum conducted on site at the WWTP (using flow through systems) were in accordance with the C. elegans results. In this context, it is suggested to further implement C. elegans as sensitive, feasible and ecologically relevant model.
In conclusion, this thesis shows how optimised sample preparation, long-term (in vitro) environmental monitoring, sensitive and ecologically relevant (in vivo) bioassays as well as innovative evaluation concepts, are pivotal in improving the removal of micropollutants and their toxicities with AWWTs. Future research should further develop and evaluate measures at sewer systems, conventional biological, tertiary and other advanced treatment technologies, as well as sociopolitical strategies (e.g., source control or natural conservation) and restoration projects. The effect-based tools optimised in this thesis will support assessing their success.
Einleitung: Das Arbeiten in einer Notfallsituation ist stark von einer strukturierten Herangehensweise im Patientenmanagement abhängig. Junge Assistenzärzte sind in ihrem Alltag häufig die ersten vor Ort und sollten daher bereits mit Abschluss des Studiums in der Lage sein, häufige Notfallsituationen zu meistern. In den letzten Jahren hat sich die Simulation als hauptsächlich genutzte Methode für die Ausbildung im Fach Notfallmedizin herauskristallisiert, sodass immer mehr Universitäten realitätsnahe Szenarien für die Ausbildung nutzen. Jedoch ist unklar welches Ausmaß an Realitätsnähe in Hinblick auf Kosten/Aufwand-Nutzen-Bilanz sinnvoll ist. Das Ziel der vorliegenden Arbeit ist es, den Effekt von zwei unterschiedlich realitätsnahen Lernumgebungen (Seminarraum vs. realistische Simulationsumgebung) auf die erlernten notfallmedizinischen Kompetenzen zu analysieren. Dazu wurden Krankheitsbilder gewählt, die jedem Arzt in Präklinik, auf Station und im ambulanten Bereich begegnen können und die zügig erkannt und behandelt werden müssen: Asthma, Sepsis und Apoplex.
Material und Methoden: Bei der vorliegenden Arbeit handelt es sich um eine vergleichende Effektivitätsanalyse im crossover-Design. Teilnehmende waren Studierende des 4. Studienjahres der Goethe-Universität Frankfurt am Main, die den 3-TagesNotfallmedizinkurs im Rahmen ihrer curricularen Ausbildung im Querschnittsbereich Notfallmedizin absolvierten. Am ersten Tag durchliefen alle Studierenden ein standardisiertes Skillstraining notfallmedizinischer Basiskompetenzen. An den Folgetagen wurden verschiedene leitsymptombasierte Module vermittelt, die neben der interaktiven Erarbeitung der theoretischen Lerninhalte eine direkte Anwendung in themenspezifischen Szenarien fokussierten. Für die vorliegende Studie wurden die Teilnehmenden in vier Gruppen randomisiert, wobei Gruppen eins und zwei das Training in der Seminarraumumgebung durchliefen, während drei und vier die Szenarien in der realitätsnahen Simulationsumgebung absolvierten. Am dritten Tag fand eine formative Überprüfung der erlernten Fähigkeiten in Form eines OSCEs statt. Bei dieser Überprüfung absolvierten die Gruppen eins und drei in der Seminarraumumgebung und Gruppen zwei und vier im realitätsnahen Umfeld der Simulation das Assessment. Die Datenauswertung erfolgte mit MS Excel und bias.
Ergebnisse und Fazit: Die vorliegende Studie fand zwischen Juli und Oktober 2018 an der Goethe-Universität in Frankfurt am Main statt. 134 Teilnehmer absolvierten die Studie vollständig. Die Ergebnisse zeigen deutliche Unterschiede in der Performance der vier Gruppen, sowohl insgesamt als auch nach Geschlechtern und mit dem van-Elteren-Test. Prozentual betrachtet zeigten die Teilnehmenden der Gruppe 4 (Training und Prüfung im realitätsnahen Umfeld) die höchsten Ergebnisse. Die Realitätsnähe hat einen positiven Einfluss auf die Performance der Studierenden.
This dissertation investigates several aspects of nominal modification in Ògè, an understudied language of Benue-congo spoken in Àkókó Northwest in Nigeria. The study focuses on two areas of nominal modification namely, Nominal Attributive Modifiers (NAMs) and the strategies of number marking.
The discussion and analysis of NAMs in the language reveal that Ògè belongs to the group of languages which lacks adjectives as a lexical category. NAMs are nominal and they
are derived from an existing lexical category namely, verbs. Predicative modifiers and NAMs have forms that are similar to the long and short forms (LF & SF) of adjectives in languages in which adjectives form an open class, for example, Russian, SerBoCroatian (BCS) and German.
Based on the Minimalist program, the dissertation reveals that unlike Russian, BCS, and German in which the discrepancies between the two forms of adjectives are related to definiteness (as in the case of BCS) and Agree, the discrepancies in the two forms of modifiers in Ògè are related to the fact that Ògè lacks adjectives and resorts into the nominalization of stative verbs in order to derive attributive forms. Using the analyses of adjuncts according to Truswell (2004) and Zeijlstra (2020), the dissertation proposes that NAMs are adjuncts in a modification structure while they are heads in possessive and genitive constructions. In addition, I propose that NAMs are attributive-only modifiers which modify the NP rather than
the DP.
The dissertation also investigates the strategies of number marking in Ògè. Unlike languages in which number marking is obligatory in the nominal domain (Hebrew, German, English),
nouns in Ògè are not always marked for number. This means that nouns in Ògè have general number. The general number nature of nouns in Ògè is like that of the nouns in modifying plural marking languages namely, Halkomelem, Korean, Yucatec Maya and Yorùbá. However, I argue that unlike the modifying plural marking languages in which the Number Phrase (NumP) is not projected, NumP is projected in the nominal spine of Ògè, claiming that NumP bears an
interpretable number feature which values the uninterpretable number feature in D. Argument in support of this comes from the interpretation of the noun in the presence of òtúro (an element which translates to the plural definite interpretation of the noun). I analyze òtúro as a plural determiner which occupies the D-head in the syntax of Ògè. The dissertation argues following Alexiadou (2019) that the locus of the occurrence of the marker of plurality in the nominal spine does not depend on its interpretation as a plural morpheme, rather, the locus of the occurrence of the element that is sensitive to the plural interpretation of the noun depends on other parameters which are definiteness, specificity and animacy.
Das Projekt anan ist ein Werkzeug zur Fehlersuche in verteilten Hochleistungsrechnern. Die Neuheit des Beitrags besteht darin, dass die bekannten Methoden, die bereits erfolgreich zum Debuggen von Soft- und Hardware eingesetzt werden, auf Hochleistungs-Rechnen übertragen worden sind. Im Rahmen der vorliegenden Arbeit wurde ein Werkzeug namens anan implementiert, das bei der Fehlersuche hilft. Außerdem kann es als dynamischeres Monitoring eingesetzt werden. Beide Einsatzzwecke sind
getestet worden.
Das Werkzeug besteht aus zwei Teilen:
1. aus einem Teil namens anan, der interaktiv vom Nutzer bedient wird
2. und aus einem Teil namens anand, der automatisiert die verlangten Messwerte erhebt und nötigenfalls Befehle ausführt.
Der Teil anan führt Sensoren aus — kleine mustergesteuerte Algorithmen —, deren Ergebnisse per anan zusammengeführt werden. In erster Näherung lässt anan sich als Monitoring beschreiben, welches (1) schnell umkonfiguriert werden (2) komplexere Werte messen kann, die über Korrelationen einfacher Zeitreihen hinausgehen.
Fallzahlaufkommen und Qualitätsindikatoren bei der Versorgung des abdominellen Bauchaortenaneurysmas
(2021)
Hintergrund: Der MTL30 ist ein Surrogatparameter, der bisher in visceralchirurgischen Registern verwendet wird, um eine Prognose über die Qualität verschiedener komplikationsträchtiger Eingriffe abzugeben. Der Marker wird als positiv gewertet, wenn ein Patient am 30. postoperativen Tag verstorben (mortality) ist, in ein anderes Akutkrankenhaus verlegt (transfer) werden musste oder weiterhin im Krankenhaus verweilen muss (length of stay >30 days).
Zielsetzung: In dieser Arbeit sollte untersucht werden, ob der MTL30 eine Aussage über die Qualität der operativen Versorgung des Bauchaortenaneurysmas (AAA) abgeben kann. Dazu sollten Kliniken mit unterschiedlichem Fallaufkommen hinsichtlich Letalität und MTL30 miteinander verglichen werden. Zusätzlich sollten Literaturempfehlungen zu Mindestmengen des Fallaufkommens überprüft werden.
Methodik: Insgesamt wurden 18.205 elektive Eingriffe aus dem AAA- Register des Deutschen Instituts für Gefäßmedizinische Gesundheitsforschung (DIGG) der Deutschen Gesellschaft für Gefäßchirurgie und Gefäßmedizin (DGG) analysiert. 14.282 Patienten wurden mittels endovaskulärer Aortenaneurysmaversorgung (EVAR) und 3.923 Patienten mittels offener Versorgung (OAR) behandelt. Die Ergebnisse wurden zum Fallaufkommen der Kliniken in Beziehung gesetzt.
Ergebnisse: Weder für die Letalität noch für den MTL30-Wert konnten Volumen- Ergebnisbeziehungen gefunden werden. Bei EVAR lag die Sterblichkeit im Quintil 1 des Fallaufkommens bei 1,0% und im Quintil 5 bei 1,3%. Auch beim MTL30 ergaben sich keine signifikanten Unterschiede zwischen Quintil 1 und 5, der MTL30 belief sich jeweils auf 5,3%. Bei OAR war die Klinikletalität in dem Quintil mit dem geringsten Fallaufkommen (Quintil 1) mit 5,8% verglichen mit Quintil 5 (höchstes Fallaufkommen, Klinikletalität 3,5%) im Trend höher, aber nicht signifikant unterschiedlich (p= 0,505). Auch bei OAR korrelierte der MTL30 nicht mit dem Fallaufkommen (Quintil 1: 16,4% vs. Quintil 5:12,2%, p=0,110). Jedoch korrelierte die Liegedauer bei EVAR und OAR sowohl mit der Letalität (EVAR: Quintil 1 der Liegezeit 1,69% vs. Quintil 5 1,02%, p= 0,042; OAR: Quintil 1: 6,78% vs. Quintil 5: 2,16%, p= 0,000) als auch mit dem MTL30 (EVAR: Quintil 1 der Liegezeit 7,35% vs. Quintil 5 2,85%, p=0,000; OAR: Quintil 1 26,28% vs. Quintil 5 5,19%, p= 0,000).
Folgerung: Es konnte weder bei EVAR noch bei OAR ein Zusammenhang zwischen dem jährlichen Fallaufkommen und der Letalität bzw. dem MTL30 gefunden werden. Ob der MTL30 gegenüber der alleinigen Erfassung der Klinikletalität als Qualitätsparameter einen Zusatznutzen bietet, muss offenbleiben. Ein vielversprechenderer Marker scheint die stationäre Liegedauer zu sein, die zusätzlich zur Letalität als Qualitätsparameter verwendet werden könnte.
Diese Dissertation befasst sich mit Validierungsstrategien von Tests zur Erfassung studentischer Kompetenzen. Kompetenzen von Studierenden werden zu verschiedenen Zwecken erhoben. Dies beginnt beim Eintritt in das Studium durch Zulassungstests und wird im Studium fortgesetzt z.B. durch Tests zur Zertifizierung von Kompetenz (Benotung von Leistung) oder zur Zuteilung auf bestimmte Kurse (Einteilung in Sprachniveaus). Neben diesen internen Tests zur Erfassung studentischer Kompetenzen werden auch externe Tests genutzt um etwa die Lehre zu verbessern (Evaluation von Veranstaltungen). Die mit dem Einsatz von Tests verbundenen Konsequenzen können sowohl für Studierende als auch Lehrpersonen und Entscheidungsträger*innen schwerwiegend sein. Daher sollten Tests wissenschaftlichen Gütekriterien genügen.
Das wichtigste Kriterium für die Beurteilung von wissenschaftlichen Tests ist Validität. In dieser Dissertation wird ein argumentationsbasiertes Validierungsansatz verfolgt. In diesem wird nicht die Validität eines Tests untersucht, sondern die Plausibilität der Interpretation beurteilt, die mit den Testwerten verbunden ist. Bislang fehlt jedoch für viele der wissenschaftlichen Tests für den deutschen Hochschulbereich ein auf die Testwertinterpretation abgestimmtes Validitätskonzept.
In dieser Arbeit wird ein Validierungsschema vorgestellt, in das übliche Testnutzen der Erfassung studentischer Kompetenzen an deutschen Hochschulen eingeordnet werden können. Die Einordnung von Testnutzen in das Schema erlaubt die Ableitung von passenden Validitätsevidenzen. Im Fokus stehen das Verhältnis von Test zu 1) Konstrukt, 2) Lehre und 3) beruflichen Anforderungen.
Das Validierungsschema wird angewandt, um Testwertinterpretationen eines empirischen Forschungsprojektes zur Erfassung von Kompetenz in Nachhaltigkeitsmanagement bei Studierenden zu validieren. Der Schwerpunkt dieser Arbeit liegt auf der Validierung der Interpretation, dass die Testwerte von drei nachhaltigkeitsbezogenen Tests Indikatoren für hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement sind. Die Analysen zur Gewinnung von Validitätsevidenzen konzentrieren sich auf die Grundannahme, dass Lernfortschritte in den nachhaltigkeitsbezogenen Tests vorwiegend hochschulisch vermittelt werden. Dafür wurde ein Messwiederholungsdesign mit zwei Gruppen von Studierenden realisiert. Studierende in der Schwerpunktgruppe besuchten ein Semester lang eine reguläre Lehrveranstaltungen mit Bezug zu Nachhaltigkeitsthemen und Nachhaltigkeitsmanagement, Studierende der Kontrollgruppe besuchten keine solchen Lehrveranstaltung. Die Einteilung in Schwerpunkgruppe und Kontrollgruppe erfolgte über Analyse von Modulhandbüchern und verwendeten Lehrmaterialien. Die Ergebnisse zeigen, dass Studierende aus der Schwerpunktgruppe in zwei der drei Tests höhere Lernfortschritte zeigen als Studierende der Kontrollgruppe. Selbstberichte der Studierenden zu hochschulischen und außerhochschulischen Lerngelegenheiten lassen darauf schließen, dass Studierende der Schwerpunkgruppe auch außerhochschulisch ein höheres Interesse an Nachhaltigkeitsthemen zeigen, dies schlägt sich jedoch nicht in höherem Vorwissen in den verwendeten Tests nieder. Insgesamt wird daher für die zwei Tests mit höheren Lernfortschritten in der Schwerpunktgruppe die Interpretation als plausibel bewertet, dass die Testwerte hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement abbilden.
Next-generation DIRC detectors, like the PANDA Barrel DIRC, with improved optical designs and better spatial and timing resolution, require correspondingly advanced reconstruction and PID methods. The investigation of the PID performance of two DIRC counters and the evaluation of the reconstruction and PID algorithms form the core of this thesis. Several reconstruction and PID approaches were developed, optimized, and tested using hadronic beam particles, experimental physics events, and Geant simulations. The near-final design of the PANDA Barrel DIRC was evaluated with a prototype in the T9 beamline at CERN in 2018. The analysis finds excellent agreement between the experimental data and the Geant simulations for all reconstruction algorithms. The best PID performance of up to $5.2 \pm 0.2$ s.d. $\pi$/K separation at 3.5 GeV/c, was obtained with a time imaging PID method. The PANDA Barrel DIRC simulation, as well as the reconstruction and PID algorithms, were evaluated using experimental data from the GlueX DIRC as part of the FAIR Phase-0 program. The performance validation was carried out using physics events of the GlueX experiment and simulations. The initial analysis results of the commissioning dataset show a $\pi$/K separation power of up to 3 s.d. at a momentum of 3.0-3.5 GeV/c, obtained using a geometric reconstruction algorithm.
One of the most important events in human history occurred during the Early Pleistocene: the dispersal of early hominins out of Africa and into Europe and Asia. In Western Europe, the earliest evidences of the genus Homo have been found in the Baza Basin, at the sites of Orce in the SE of the Iberian Peninsula. These sites contain fossils and lithic industry dated approximately as 1.4–1.3 Ma.While hominin remains and artifacts at Orce, as well as the accompanying fauna, have been extensively studied, the properties and evolution of the Early Pleistocene vegetation in the basin remain unknown. The general effect of climate change on the expansion of early hominins from Africa into Eurasia still remains unclear. It is not known if the Early Pleistocene climate changes and the development of glacials periods led to the extirpation of European communities, or if those communities were able to endure and persist through such adverse climatic periods. This open question highlights the need for climate and environmental analyses for the time before, during and after the first presence of Homo in Europe. This PhD thesis contributes to that need by the presentation of the first long pollen record of the Baza Basin, where the oldest hominin sites in Western Europe are found.
Chronische Herzinsuffizienz ist eine der führenden Todesursachen im Rahmen kardiovaskulärer Erkrankungen und ist mit einer hohen Anzahl an Komorbiditäten assoziiert. Unter anderem führt Herzinsuffizienz zu Veränderungen des Immunsystems, welche denen der Immunoseneszenz ähneln. Als einflussreiche Modulatoren ganzer molekularbiologischer Regelkreise sind microRNAs in den letzten Jahren zunehmend in den Fokus gerückt. Diese nicht-kodierenden, kurzen RNA-Einzelstränge können die Genexpression von vielen Zielgenen durch spezifisches Binden der jeweiligen mRNA Transkripte kontrollieren. Aufgrund zum Teil gewebe-, zelltyp- und prozess-spezifischer Expression können microRNAs auch als mögliche Biomarker für spezifische klinische Fragestellungen dienen.
Im Rahmen der vorliegenden Arbeit wurde die Expression von immunmodulatorischen microRNAs im peripheren Blut (PB) von jungen und gealterten gesunden Probanden (y/h bzw. o/h) sowie Patienten mit chronischer Herzinsuffizienz (CHF) untersucht. Dabei wurde ein Bezug auf Immunoseneszenz bzw. die Auswirkung von CHF auf das Immunsystem hergestellt. Im Rahmen dessen wurden Leukozyten-, insbesondere Lymphozyten-Subpopulationen analysiert.
Hierzu wurden Probanden in die drei folgenden Gruppen eingeschlossen: Patienten mit CHF (n=18, durchschnittliches Alter 64 Jahre), alters-korrelierte gesunde Probanden (n=13, durchschnittliches Alter 64 Jahre) sowie junge gesunde Probanden (n=30, durchschnittliches Alter 25 Jahre). Neben der Erhebung der klinischen Daten wurde peripheres Blut zur Bestimmung der microRNA-Expressionslevels sowie für durchflusszytometrische Analysen der Leukozytenpopulationen gewonnen.
In den Expressionsanalysen konnte eine alters- und herzinsuffizienz-abhängige Dysregulation einzelner microRNAs beobachtet werden. Insbesondere Mitglieder der miR-181-Familie, spezifisch miR-181a und miR-181c, waren im Alter niedriger exprimiert, zudem war die Expression von miR-181c bei Vorliegen einer CHF deutlicher reduziert. Des Weiteren zeigte sich eine altersabhängige erhöhte Expression von miR-34a, wobei das Vorliegen von CHF keine Auswirkung auf die Expression zeigte. Bei den microRNAs miR-146a und miR-223 konnte keine signifikante alters- oder CHF-abhängige Regulation nachgewiesen werden. Lediglich zeigte bei der miR-155 zeigte sich eine signifikante Reduktion bei Vorliegen einer CHF im Vergleich o/h Probanden.
In Hinblick auf die Leukozytenpopulationen im peripheren Blut wiesen Patienten mit CHF höhere Zahlen an Leukozyten auf, alle miR-181 Mitglieder zeigten hierbei eine inverse Korrelation. Dagegen stellte sich in Hinblick auf die Zusammensetzung der Leukozyten-Subpopulationen eine Reduktion der Lymphozytenfraktion im Alter dar, besonders bei Patienten mit CHF. Insbesondere zeigte sich eine altersabhängige Abnahme der B-Lymphozytenpopulation, wobei auch hier das Vorliegen einer CHF diesen Effekt verstärkte. Die Expression miR-181a und miR-181c sowie miR-146a und miR-223 korrelierte positiv mit dem Anteil der B-Lymphozyten. Innerhalb der B-Zellen zeigte sich eine alters- und CHF-abhängige Reduktion der naïven B-Zellen, welche positiv mit der Expression von miR-181c, miR-146a und miR-223 korrelierte. Die beobachteten Veränderungen der B-Zell-Subpopulationen zeigten sich insbesondere bei CHF Patienten mit ischämischer Ursache im Vergleich zur dilatativen Kardiomyopathie.
Bei den untersuchten T-Lymphozyten-Subpopulationen zeigte sich eine altersabhängiger Abfall bei den zytotoxischen T-Zellen. Das Vorliegen einer CHF verstärkte diesen Effekt. Die beobachteten Veränderungen der T-Zell-Subpopulation korrelierten nicht mit der Expression der untersuchten microRNAs.
Im Gegensatz zu den lymphoiden Subpopulationen zeigte sich ein Anstieg der neutrophilen Granulozyten und der Monozyten im Alter, es stellte sich jeweils eine negative Korrelation mit der Expression von miR-181 Transkripten sowie miR-155, miR-146a und miR-223 dar.
Zusammenfassend zeigten sich signifikant erniedrigte Expressionslevels von miR-181c im Alter, was mit Immunoseneszenz-bedingten Veränderungen des peripheren Bluts einherging. Diese Veränderungen zeigten sich zusätzlich verstärkt bei Patienten mit CHF. Zukünftig könnten miR-181c Expressionslevel in peripherem Blut als Biomarker für die Immunfunktionen bei CHF Patienten dienen und in Hinblick auf eine mögliche prospektive Information evaluiert werden.
Das Feld der Hochenergie-Schwerionenforschung hat sich der Untersuchung des Quark-Gluon-Plasmas (QGP) gewidmet. Ein QGP ist ein sehr heißer und dichter Materiezustand, der kurz nach dem Urknall für einige Mikrosekunden das Universum füllte. Unter diesen extremen Bedingungen sind die fundamentalen Bausteine der Materie, die Quarks und Gluonen, quasi frei, also nicht in Hadronen eingeschlossen, wie es unter normalen Bedingungen der Fall ist. Hadronen sind Teilchen, die aus Quarks und Gluonen bestehen. Die bekanntesten Hadronen sind Protonen und Neutronen, die Bestandteile von Atomkernen, aus denen, zusammen mit Elektronen, die gesamte bekannte Materie aufgebaut ist.
Um ein QGP im Labor zu erzeugen, lässt man ultrarelativistische schwere Ionen, wie zum Beispiel Pb-208-Kerne, aufeinander prallen. Dies geschieht am CERN, dem größten Kernforschungszentrum der Welt. Der Teilchenbeschleuniger, welcher Protonen und Pb-Kerne beschleunigt und zur Kollision bringt, heißt Large Hadron Collider (LHC) und ist mit 27 km Umfang der größte der Welt. Bei einer einzigen Pb-Pb Kollision am LHC werden mehrere Tausend Teilchen und Antiteilchen erzeugt. Das dedizierte Experiment zur Untersuchung von Schwerionenkollisionen am LHC ist ALICE. ALICE ist mit mehreren Teilchendetektoren ausgerüstet, die es ermöglichen, tausende Teilchen gleichzeitig zu messen und zu identifizieren.
Unter den produzierten Teilchen befinden sich auch leichte Atomkerne, wenngleich diese nur sehr selten erzeugt werden. Die Anzahl der produzierten Teilchen pro Teilchensorte hängt nämlich von deren Masse ab. In Pb-Pb Kollisionen am LHC sinkt die Anzahl der produzierten (Anti)kerne exponentiell um einen Faktor 1/330 bei Hinzufügen jedes weiteren Nukleons. Die Menge an produzierten Teilchen pro Spezies stellt Informationen über den Produktionsmechanismus beim Übergang vom QGP zum Hadrongas zur Verfügung. Hierbei sind leichte (Anti)kerne von besonderem Interesse, da sie vergleichsweise groß sind und ihre Bindungsenergie bis zu zwei Größenordnungen kleiner ist als die Temperaturen, die bei der Erzeugung der Hadronen vorherrschen. Es ist bis heute noch nicht verstanden, wie leichte (Anti)kerne bei diesen Bedingungen erzeugt werden und überleben können.
Für diese Arbeit wurden ca. 270 Millionen Pb-Pb Kollisionen bei einer Schwerpunktsenergie von 5,02 TeV, die von ALICE im November 2018 aufgezeichnet wurden, analysiert. Es wurde die Produktion von (Anti)triton und (Anti)alpha untersucht. Wegen ihrer großen Masse werden beide Kerne sehr selten produziert, bei weitem nicht bei jeder Kollision. Antialpha ist der schwerste Antikern, der jemals gemessen wurde. Aufgrund dieser Seltenheit ist die Größe des zur Verfügung stehenden Datensatzes entscheidend. Es war möglich, das erste jemals gemessene Antialpha-Transversalimpulsspektrum zu extrahieren. Auch für (Anti)triton und Alpha wurden Transversalimpulsspektren bestimmt.
Die Ergebnisse wurden mit theoretischen Modellen und anderen ALICE Messungen verglichen.
Am Ende wird in einem Ausblick auf das kürzlich durchgeführte Upgrade der ALICE Spurendriftkammer (TPC) eingegangen. In der nächsten, bald startenden Datennahmeperiode wird der LHC seine Kollisionsrate erheblich erhöhen, was es ermöglichen wird, mehr als 100 mal so viele Daten wie bisher aufzuzeichnen. Hiervon werden die in dieser Arbeit beschriebenen (Anti)triton- und (Anti)alpha-Analysen beachtlich profitieren. Um mit den erheblich höheren Kollisionsraten zurecht zu kommen, mussten einige Detektoren, unter anderem die TPC, maßgeblich erneuert werden. In den ersten beiden Datennahmeperioden wurde die TPC mit Vieldrahtproportionalkammern betrieben. Diese sind allerdings viel zu langsam für die geplanten Kollisionsraten. Deshalb wurden sie im Jahr 2019, während einer langen Betriebspause des LHC, durch Quadrupel-GEM (Gas Electron Multiplier) Folien basierte Auslesekammern ersetzt, welche eine kontinuierliche Auslese der TPC ermöglichen. Da es sich um die erste jemals gebaute GEM TPC im Großformat handelt, war ein umfangreiches Forschungs- und Entwicklungs- (F&E) Programm notwendig, um die GEM Auslesekammern zu charakterisieren und zu testen. Im Rahmen dieses F&E Programms wurden am Anfang dieser Promotion systematische Messungen an einer kleinen Test TPC mit Quadrupel-GEM Auslese, die extra zu diesem Zweck gebaut worden war, durchgeführt. Hierbei wurde der Rückfluss der bei der Gasverstärkung erzeugten Ionen in das Driftvolumen der TPC und die Energieauflösung mit verschiedenen GEM Folien Typen und unterschiedlicher Anordnung gemessen. Das Ziel war, möglichst kleine Ionenrückflüsse bei möglichst guter Energieauflösung zu erreichen. Hierbei musste ein Kompromiss gefunden werden, da die beiden Größen sich gegenläufig verhalten. Es war jedoch möglich, mit mehreren GEM Konfigurationen Spannungseinstellungen zu identifizieren, bei denen beide Größen den gewünschten Anforderungen entsprachen.