Doctoral Thesis
Refine
Year of publication
- 2009 (391)
- 2010 (378)
- 2008 (315)
- 2007 (313)
- 2006 (295)
- 2004 (281)
- 2005 (249)
- 2023 (249)
- 2021 (248)
- 2022 (238)
- 2020 (235)
- 2011 (219)
- 2019 (211)
- 2018 (204)
- 2003 (202)
- 2002 (190)
- 2015 (188)
- 2017 (182)
- 2016 (178)
- 2014 (168)
- 2012 (164)
- 2013 (152)
- 2001 (141)
- 2000 (69)
- 2024 (50)
- 1998 (37)
- 1999 (32)
- 1997 (18)
- 1923 (9)
- 1996 (7)
- 1924 (6)
- 1925 (6)
- 1995 (6)
- 1921 (5)
- 1918 (4)
- 1926 (4)
- 1994 (4)
- 1933 (3)
- 1934 (3)
- 1952 (3)
- 1956 (3)
- 1966 (3)
- 1979 (3)
- 1990 (3)
- 1913 (2)
- 1917 (2)
- 1929 (2)
- 1930 (2)
- 1931 (2)
- 1935 (2)
- 1986 (2)
- 1991 (2)
- 1992 (2)
- 1993 (2)
- 1678 (1)
- 1735 (1)
- 1830 (1)
- 1850 (1)
- 1858 (1)
- 1865 (1)
- 1904 (1)
- 1908 (1)
- 1912 (1)
- 1914 (1)
- 1915 (1)
- 1919 (1)
- 1922 (1)
- 1927 (1)
- 1928 (1)
- 1937 (1)
- 1938 (1)
- 1941 (1)
- 1942 (1)
- 1948 (1)
- 1949 (1)
- 1950 (1)
- 1951 (1)
- 1953 (1)
- 1954 (1)
- 1955 (1)
- 1958 (1)
- 1961 (1)
- 1962 (1)
- 1963 (1)
- 1965 (1)
- 1968 (1)
- 1970 (1)
- 1971 (1)
- 1974 (1)
- 1977 (1)
- 1978 (1)
- 1989 (1)
Document Type
- Doctoral Thesis (5739) (remove)
Language
- German (3642)
- English (2068)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5739)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1531)
- Biowissenschaften (835)
- Biochemie und Chemie (729)
- Physik (597)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (311)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (111)
- Psychologie (97)
Blockchains in public administration : a RADIUS on blockchain framework for public administration
(2023)
The emergence of blockchain technology has generated a great deal of attention, as reflected in numerous scientific and journalistic articles. However, the implementation of blockchain for public administrations in Germany has encountered a setback owing to unsuccessful initiatives. Initial enthusiasm was followed by disillusionment. Nevertheless, technology continues to evolve. This paper examines whether the use of a blockchain can still optimize the processes of public administrations. Not only the failed projects are analysed, but also more current applications of the technology and their potential relevance for the administration, especially in the state of Hesse.
To answer if blockchains are promising to administrations, a Design Science Research (DSR) research approach is chosen. The DSR method is a research-based approach that aims to create new and innovative solutions to real-world problems through the development and evaluation of artefacts such as models, methods, or prototypes. For this work, the implementation of a framework to realize an Authentication, Authorization, and Accounting (AAA) system on the blockchain was identified as profitable. The framework aims to implement the aforementioned AAA tasks using a blockchain. The Remote Authentication Dial-In User Service (RADIUS) protocol has been identified as a potential protocol of the AAA system. The goal is to create a way to implement the system either entirely on a blockchain or as a hybrid system. Various blockchain technologies will be considered. Suitable for development, the framework AAA-me is named.
The development of AAA-me has shown that the desired framework for implementing RADIUS on the blockchain is possible in various degrees of implementation. Previous work mostly relied on full development. Additionally, it has been shown that AAA-me can be used to perform hybrid integration at different implementation levels. This makes AAA-me stand out from the few hybrid previous approaches. Furthermore, AAA-me was investigated in different laboratory environments. This was to determine the expected resilience against Single Point of Failure (SPOF). The results of the lab investigation indicated that a RADIUS system on top of a blockchain can provide benefits in terms of security and performance. In the lab environment, times were measured within which a series of authorization requests were processed. In addition, it was illustrated how a RADIUS system implemented using blockchain can protect itself against Man-in-the-Middle (MITM) attacks.
Finally, in collaboration with the Hessian Central Office for Data Processing (German: Hessische Zentrale für Datenverarbeitung) (HZD), another test lab demonstrated how a RADIUS system on the blockchain can integrate with the existing IT systems of the German state of Hesse. Based on these findings, this work reevaluated the applicability of blockchain technology for public administration processes.
The work has thus shown that the use of a blockchain can still be purposeful. However, it has also been shown that an implementation can bring many problems with it. The small number of blockchain developers and engineers also poses the risk of finding people to develop and maintain a system. In addition, one faces the problem of determining an architecture now that will be applied to many projects in the future. However, each project can, in turn, have an impact on the choice of architecture. Once one has solved this problem and a blockchain infrastructure is available, it can be established quickly and be more SPOF resistant, for example, for Public Key Infrastructure (PKI) systems.
AAA-me was only applied in lab and test environments. As a result, no real data ran over its own infrastructure. This allowed the necessary flexibility for development. However, system-related properties could appear in real situations that are not detectable here in this way. Furthermore, the initial stage of AAA-me’s development is still in its infancy. Many manual adjustments need to be made in order for this to integrate with an existing RADIUS system. Also, no system security effort in and of itself has been carried out in the lab environments. Thus, vulnerabilities can quickly open up on web servers due to misconfigurations and missing updates. For the above reasons, productive use should be discouraged unless major developments are carried out.
Discrepancies between knockdown and knockout animal model phenotypes have long stood as a perplexing phenomenon. Several mechanisms explaining such observations have been proposed, namely the toxicity or the off-target effects of the knockdown reagents, as well as, in certain cases, genetic robustness – an organism's ability to maintain its phenotype despite genetic perturbations. In addition to these explanations, transcriptional adaptation (TA), a phenomenon defined as an event whereby a mutation in one gene leads to transcriptional upregulation or downregulation of another, adapting, gene or genes expression, has been recently proposed as an alternative explanation for the conflicting knockdown and knockout phenotype paradox.
Since its discovery in 2015, TA's precise mechanism remains a subject of ongoing research. Majority of evidence suggests that mutant mRNA degradation plays a central in TA. Epigenetic remodeling is also thought to play a role, as evidenced by an increase in active histone marks at the transcription start sites of the adapting genes. Whether mRNA degradation is indeed the key player in TA remains debated. Furthermore, it is still unknown how exactly TA develops, what adapting genes it targets, and whether genomic mutations that render mutant mRNA sensitive to degradation are required for TA to occur.
Throughout the experiments described in this Dissertation, I have designed an inducible TA system where TA can be triggered on demand and its effects on the cell’s transcriptome followed through time. I have demonstrated that degradation-prone transgenes, once induced and expressed, can be efficiently degraded, resulting in the protein loss-independent upregulation of adapting genes via TA. Adapting genes with higher degree of sequence similarity become upregulated faster than genes with lower degree of sequence similarity. Further functionality of this approach to study TA is limited by the leakiness of the inducible gene expression system; however, constitutively expressed degradation-prone transgenes were used to demonstrate TA in human cells.
In addition, I have developed an approach to target wild-type cytoplasmic mRNAs without altering the cell’s genome and reported a TA-like phenomenon, which manifested as adapting gene upregulation not relying on mutations in other genes. Cytoplasmic mRNA cleavage with CRISPR-Cas13d triggered a TA-like response in three different gene models: Actg1 knockdown, Ctnna1 knockdown, and Nckap1 knockdown. After comparing two different modes of triggering TA, CRISPR-Cas9 knockout versus CRISPR-Cas13d knockdown, I reported little overlap between the dysregulated genes and suggested that diverse mRNA degradation modes led to distinct TA responses. In addition, the transcriptional increase of Actg2 caused by CRISPR-Cas13d-mediated Actg1 mRNA cleavage did not require chromatin accessibility changes.
Experiments and genetic tools described in this dissertation investigated how TA develops from its earliest onset, how it affects the global transcriptome of the cell, as well as provided compelling evidence for an mRNA degradation-central TA mechanism. I have created tools to study both direct and indirect TA gene targets and unveiled important insights into the temporal dynamics of TA. Genes with higher sequence similarity were found to be upregulated more rapidly than those with lower similarity. Furthermore, it was revealed that the epigenetic properties of TA responses vary depending on the triggering mechanism. Cas13d-mediated degradation of wild-type mRNAs led to immediate transcriptional enhancement independent of epigenetic changes, which stood in contrast to previously measured alterations in chromatin accessibility in CRISPR-Cas9 mutants. This research has thus significantly advanced our knowledge of TA and provided valuable tools and findings that contribute to the broader understanding of gene expression regulation in response to mRNA degradation.
Type 1 diabetes (T1D) is precipitated by the autoimmune destruction of the insulin-producing beta-cells in the pancreatic islets of Langerhans. Chemokines have been identified as major conductors of the islet infiltration by autoaggressive leukocytes, including antigen-presenting cells and islet autoantigen-specific T cells. We have previously generated a roadmap of the gene expression in the islet microenvironment during T1D in a mouse model and found that most of the chemokine axes are chronically upregulated during T1D. We focused our attention on CXCL10/CXCR3, CCL5/CCR5, CXCL16/CCR6, CX3CL1/CX3CR1, and XCL1/XCR1. First, we found that the absence of CCR6 and of CX3CR1 diminished T1D incidence in a mouse model for T1D. Further, the XCL1/XCR1 chemokine axis is of particular interest, since XCR1 is exclusively expressed on convention dendritic cells type 1 (cDC1) that excel by their high capacity for T cell activation. Here we demonstrate that cDC1 expressing XCR1 are present in and around the islets of patients with T1D and of islet-autoantibody positive individuals. Further, in an inducible mouse model for T1D, we show that XCL1 plays an important role in the attraction of highly potent dendritic cells expressing XCR1 to the islets. XCL1-deficient mice display a diminished infiltration of XCR1+ cDC1 and subsequently also a reduced magnitude and activity of islet autoantigen-specific T cells. XCR1-deficient mice display a reduced magnitude and activity of islet autoantigen-specific T cells. A 3D-visualization of the entire pancreas reveals that both XCL1-deficient mice and XCR1-deficient mice indeed maintain most of their functional islets after induction of the disease. Thus, the absence of XCL1 results in a profound decrease in T1D incidence. The XCR1-deficiency also reduces T1D incidence, even if in a less drastic way compared to XCL1-deficiency. An interference with the XCL1/XCR1 chemokine axis might constitute a novel target for the therapy for T1D.
Refraktives und visuelles Ergebnis nach Neuausrichtung von rotierten torischen Intraokularlinsen
(2023)
Hintergrund und Ziel der Studie
Das Ziel der Studie ist die Beurteilung des refraktiven und visuellen Ergebnisses von Patienten mit fehlausgerichteten torischen IOLs nach operativer Neuausrichtung, mit und ohne Rückberechnung der torischen Achse nach Implantation der IOL.
Methoden
Dies ist eine retrospektive Analyse von 39 Patienten, die sich von August 2013 bis Dezember 2019 an der Klinik für Augenheilkunde der Goethe-Universität Frankfurt am Main einer zweiten Operation zur Neuausrichtung einer fehlausgerichteten torischen IOL unterzogen haben. Die zweite Operaton zur Korrektur der Achsenlage wurde auf zwei Weisen durchgeführt: In der ersten Gruppe wurde auf die primär berechnete Achse rotiert und in der zweiten Gruppe wurde die Rotation auf eine neu berechnete Achse mit dem Rückrechner von astigmatisfix.com vorgenommen.
Ergebnisse
In dieser retrospektiven Studie wurden 39 Augen von 39 Patienten eingeschlossen. Die Ergebnisse nach der ersten Operation (die Linsenoperation) zeigte eine Besserung der (BCVA) von 0,28 ± 0,22 logMAR (20/40) auf 0,15 ± 0,14 logMAR (20/32). Nach der Linsenoperation zeigten die torischen IOLs durchschnittlich eine postoperative Fehlstellung von 25,69° ± 26,06°. Verglichen vor und nach der Rotation der torischen IOL blieb der BCVA unverändert bei 0,14 ± 0,14 logMAR (20/32), während sich der UDVA signifikant von 0,39 ± 0,29 logMAR (20/50) auf 0,27 ± 0,18 logMAR (20/40) verbesserte. Das refraktive Ergebnis zeigte eine Reduktion sowohl in der Restsphäre sowie in dem Zylinder. Die Ergebnisse der Gruppenanalyse demonstrierte für die erste Gruppe (Neuausrichtung auf die präoperativ berechnete Achse) eine postoperative UDVA 0,24 ± 0,16 logMAR mit einem Zylinder von 0,90 ± 0,90 D. In der zweiten Gruppe (Ausrichtung auf eine zurückberechnete Achse) betrug die UDVA 0,32 ± 0,20 logMAR mit einem Zylinder von 0,76 ± 0,72 D. Die IOLs mit hoher Zylinderstärke (≥ 2 D) zeigten bei der Rückberechnung eine stärkere Abnahme des Restzylinders als IOL mit niedriger Zylinderstärke (< 2 D) (27 % vs. 9 %). Der mittlere sphärische Äquivalent-Vorhersagefehler der Rückberechnung betrug 0,54 ± 0,55 D.
Schlussfolgerung
Die Neuausrichtung von fehlausgerichteten torischen IOLs verbessert die Sehschärfe und reduziert verbleibende Brechungsfehler. Insbesondere bei IOL mit hoher Zylinderstärke kann ein besseres refraktives Ergebnis erzielt werden, wenn vor der Neuausrichtung eine Rückberechnung durchgeführt wird.
The simultaneous inhibition of HDACs and BET proteins has shown promising anti-proliferative effects against different cancer types, including the difficult to treat pancreatic cancer. In this work, the strategy of concurrently targeting HDACs and BET proteins was pursued by developing different types of dual inhibitors.
By developing a novel scaffold that selectively inhibits HDAC1/2 together with BET proteins in cells, an effective tool for the investigation of pancreatic cancer, and other diseases which are sensitive to epigenetic processes, was created. The compound’s small size further gives the opportunity to further develop the inhibitor towards optimized pharmacokinetic properties, potentially resulting in a drug for cancer treatment.
A second novel approach that was pursued, was the development of a small-molecule degrader, targeting HDACs and BET proteins. Through synthesizing a variety of different molecules, a compound that was capable of lowering BRD4 levels and, at the same time, increasing histone acetylation was developed. While additional mechanistic investigations are needed to verify the degradation, the potent antiproliferative effects in pancreatic cancer cells encourage further studies following this alternative new strategy.
Molekulare Werkzeuge können in der Wissenschaft unter anderem dazu verwendet werden, biochemische Prozesse gezielt zu untersuchen, um sie somit besser zu verstehen. Dabei handelt es sich zum Beispiel, um kleine chemische Moleküle, die gezielt für ihr Anwendungsgebiet konzipiert worden sind. Mit Ihnen lassen sich z.B. Interaktionen zwischen (Makro-)Molekülen regulieren, chemische Gleichgewichte lokal verändern oder auch Botenstoffe zielgerichtet freisetzen. Die Effekte dieser temporären Einwirkung auf verschiedenste biologische Systeme können hilfreiche Erkenntnisse struktureller, funktioneller oder systematischer Art für die entsprechenden Forschungsgebiete liefern.
Um die interdisziplinären Problemstellungen zielgerichtet mit den entsprechend zugeschnittenen Werkzeugen zu adressieren, ist es dabei jedoch absolut notwendig, dass ein umfassendes und über die Grenzen der jeweiligen Fachgebiete hinaus gehendes Verständnis der jeweiligen Fragestellungen entwickelt wird.
Viele der bisher bekannten Werkzeuge benötigen für ihren Einsatz bis heute noch relativ harsche Reaktionsbedingungen, haben ein eingeschränktes Anwendungsfeld oder lassen sich nicht ausreichend Zeit- & Ortsaufgelöst „aktivieren“. Die Möglichkeit Licht als externes Trigger-Signal zu verwenden, um die entsprechenden molekularen Werkzeuge zu aktivieren (oder auch zu deaktivieren), überwindet genau diese Defizite und bringt neben der hohen zeitlichen und räumlichen Auflösung noch viele weitere Vorteile mit sich. Im Rahmen meiner Doktorarbeit ist es mir gelungen gemeinsam mit meinen Kooperationspartnern neue lichtaktivierbare molekulare Werkzeuge von Grund auf zu designen, zu synthetisieren, sie auf ihre photochemischen Eigenschaften zu untersuchen und sie anzuwenden. Durch die interdisziplinäre Zusammenarbeit mit Doktoranden aus der Organischen, Theoretischen und Physikalischen Chemie, konnte ein umfassendes Bild dieser neuen Substanzklassen aufgezeigt werden. Die verschiedenen Arten lichtaktivierbarer Werkzeuge sollen im Verlauf dieser Arbeit genauer herausgearbeitet werden. Generell kann man in drei grundlegenden Klassen von lichtaktivierbaren Werkzeugen unterscheiden: 1. irreversibel photolabile Schutzgruppen, 2. photoaktivierbare Label und 3. reversibel lichtschaltbare Photoschalter.
Auf dem Gebiet der photolabilen Schutzgruppen, auch photoaktivierbare Schutzgruppen oder Photocages genannt, ist es uns gelungen eine neue Spezies von Molekülen zu identifizieren, die dazu in der Lage sind, nach photochemischer Anregung eine spezifische Bindung innerhalb ihres molekularen Gerüsts zu spalten. Möglich gemacht wurde dies, indem wir den sog. „uncaging Prozess ganz neu gedacht“ haben und mit der Unterstützung von Theorie und Spektroskopie unsere Ergebnisse in einer Struktur-Aktivitäts-Beziehungs-Studie (SAR) festhalten konnten. Aus einer Substanzbibliothek von diversen theoretisch berechneten Kandidaten, wurden die vielversprechendsten Verbindungen anschließend synthetisiert und photochemisch charakterisiert. Nach initialen Untersuchungen und den daraus hervorgehenden Erkenntnissen, wurden weitere molekulare Struktur auf die Optimierungen der photochemischen Eigenschaften hin theoretisch berechnet und anschließend im Labor realisiert. Daraus resultierend entwickelten wir einen Photocage, der mit einer hohen Quantenausbeute mit Licht von über 450 nm photolysierbar ist und ebenfalls dazu in der Lage ist Neurotransmitter wie z.B. Glutamat zielgerichtet und lichtaktiviert freizusetzen. Eine weitere Struktur-Aktivitäts-Beziehungs-Studie wurde im Rahmen dieser Arbeit mit dem Isatin-Gerüst als potentiell neue photolabile Schutzgruppe durchgeführt.
Ebenfalls konnten in einer dritten Studie auf dem Gebiet der photolabilen Schutzgruppen Untersuchungen am Coumarin-Grundgerüst zeigen, dass eine systematische Einschränkung der Relaxationspfade im Molekül eine Verbesserung der photochemischen Eigenschaften mit sich bringen kann.
Photoaktivierbare Label werden in den verschiedensten Bereichen der Wissenschaft angewendet. Meist erlauben jedoch die chemischen Moleküle nur eine begrenzte „Beobachtungszeit“ der biochemischen Prozesse aufgrund der effizienten und damit schnellen Relaxationspfade zurück in den Grundzustand. Zu Beginn der durchgeführten Untersuchungen, bestand unsere Idee darin, die selektive Prä-IR-Anregung mit Hilfe eines UV/vis-Pulses (entsprechend der VIPER-Spektrokopie) in ein langlebiges Triplett-Signal eines geeigneten Chromophors zu überführen, welches anschließend für die Beobachtung vergleichsweise lang-lebiger biochemischer Prozesse verwendet werden könnte. Aus dieser Idee heraus entwickelten wir einen Chromophor, der neben einer Absorption im sichtbaren Bereich des elektromagnetischen Spektrums, zusätzlich eine IR-adressierbare funktionelle Gruppe, sowie die Eigenschaft, ein effizientes Inter-System-Crossing (ISC) nach photochemischer Anregung durchzuführen, besaß. Zu unserem Erstaunen zeigte dieses Derivat jedoch nach erfolgreicher Synthese nicht das erwartete Verhalten. Ein weiteres Beispiel für die hochgradige Komplexität der Photochemie.
Mit Hilfe von theoretischen und spektroskopischen Methoden konnten dennoch viele hilfreiche Erkenntnisse aus dieser Studie für zukünftige Untersuchungen aufgedeckt werden.
Ebenso war es während meiner Promotion eines der Ziele, den Schaltprozess des sog. Fulgid-Photoschalters genauer zu untersuchen und somit besser zu verstehen. Hierbei handelt es sich um ein ausgesprochen beständiges, photochemisch reversibel schaltbares Molekül, auch wenn dies vielleicht auf den ersten Blick ein Widerspruch in sich zu sein scheint. Es gelang uns diesen Photoschalter, genauer gesagt seine Photo-Isomere, auf dem Gebiet der chemischen Aktinometrie zu etablieren.
Dafür waren zahlreiche Messungen diverser Reaktivitäten (photochemische Reaktions-Quantenausbeuten) in verschiedenste Wellenlängenbereiche vom Nah-UV-Bereich bis hin zur 700 nm Grenze erforderlich. Außerdem wurden alle Werte mit der Referenzmessung einer Photodiode bzw. je nach Wellenlängenbereich auch mit der klassischen Ferri-Oxalat-Aktinometrie verglichen. Im Anschluss daran fokussierte ich mich weiter auf die einzelnen Photo-Isomere und ihre einzigartige chemische Struktur. Mit Hilfe der chiralen HPLC gelang es uns die einzelnen Photo-Isomere voneinander zu isolieren und diese mit verschiedensten photochemischen und theoretischen Methoden „genauer unter die Lupe“ zu nehmen. Die aus dieser Studie gewonnenen Erkenntnisse bereiten den Weg für diverse, zukünftige spektroskopische Anwendungen dieses Photoschalters.
Aim: The cytochrome P450 reductase (POR) along with the cytochrome P450 enzymes (CYP) are responsible for the metabolism of a multitude of metabolites important for the maintenance of tissue function. Defects in this system have been associated with cardiovascular diseases. These enzymes are known to produce vasoactive lipids that modulate vascular tone. The aim of this study was to identify the consequence of a loss in endothelial POR for vascular function.
Methods and Results: To identify the endothelial contribution of the POR/CYP450 system to vascular function, we generated an endothelial-specific, tamoxifen-inducible POR knockout mouse (ecPOR-/-). Under basal condition ecPOR-/- already exhibited endothelial dysfunction in aorta and mesenteric vessels (acetylcholine-dependent relaxation, LogEC50 -7.6M for CTR vs. -7.2M for ecPOR-/- in aorta) and lower nitric oxide levels in the plasma (CTR: 236.8 ±77.4; ecPOR-/- 182.8 ±34.1 nmol/L). This dysfunction was coupled to attenuated eNOS function detected by the heavy arginine assay and decreased eNOS phosphorylation on S1177. Furthermore, insulin-induced phosphorylation of the eNOS activator, AKT, was also attenuated in the aorta from ecPOR-/- mice as compared to control mice. CYP450-dependent EET production was lower in plasma, lung and aorta of ecPOR-/- mice and this was accompanied with increased levels of vasoconstriction prostanoids (lipidomics of aorta, plasma and lung freshly isolated from CTR and ecPOR-/- mice). MACE-RNAseq from these aortas also showed a significant increase in genes annotated to eicosanoid production. In an in vivo angiotensin II model, acute deletion of POR increased the blood pressure as measured by telemetry and tail cuff (137.4 ± 15.9 mmHg in WT; 152.1 ± 7.154 mmHg in ecPOR-/-). In a rescue experiment using the NSAID naproxen, the increase in blood pressure induced by deletion of endothelial POR was abolished.
Conclusion: Collectively, in endothelial cells POR regulates eNOS activity and orchestrates the metabolic fate of arachidonic acid towards the vessel dilating EETs and away from deleterious prostanoids. In the absence of POR this endothelial regulation is compromised leading to vascular dysfunction.
Nukleinsäuren und Proteine bilden zusammen mit den Kohlenhydraten und Lipiden die vier großen Gruppen der Biomoleküle. Dabei setzen sich Nukleinsäuren aus einer variierenden Abfolge von Nukleotiden zusammen. Gleiches trifft auf die Proteine zu, wobei deren Bausteine als Aminosäuren bezeichnet werden. Die Reihenfolge der Bausteine bestimmt zusammen mit der Interaktion, die die einzelnen Bestandteile untereinander eingehen, deren Funktion. Um deren Wirkungsweise verstehen und nachverfolgen zu können, wurden unterschiedliche Methoden entwickelt, zu welchen auch die EPR-Spektroskopie gehört.
Durch den Einbau modifizierter Nukleotide oder Aminosäuren lassen sich Spinlabel in die sonst EPR-inaktiven Nukleinsäuren und Proteine einführen. Diese Marker lassen sich grundsätzlich in drei Klassen unterteilen (Metallionen, Nitroxidradikale und TAMs), weisen aber immer mindestens ein ungepaartes Elektronenpaar auf. Die Festphasensynthese ist eine Standardprozedur zur Herstellung von markierten Nukleinsäuren und Proteinen. Allerdings führen die Bedingungen dieser Methode zumindest teilweise zur Zersetzung der Nitroxidradikale, die dieser Arbeit zugrunde liegen, wenn sie direkt während der Synthese eingebaut werden. Der direkte Einbau ist aber in vielen Fällen essenziell, um bestimmte Eigenschaften zu erzielen.
Um den Abbau des Nitroxidradikals während der Festphasensynthese zu verhindern, kann dieses vorübergehend mit einer Schutzgruppe versehen werden, welche sich anschließend wieder abspalten lässt.
Der Schwerpunkt dieser Arbeit liegt hierbei auf der Darstellung neuer photolabil geschützter Spinlabel zur Synthese markierter Proteine und Nukleinsäuren.
Basierend auf den Nukleotiden Uridin und Cytidin konnten zwei für die RNA-Synthese vorgesehene Phosphoramidite synthetisiert werden, welche jeweils an der 5-Position des Pyrimidinrings mit einem photolabil geschützten Spinlabel auf Basis von TPA versehen waren. Durch Einbau des Uridinderivats in das Neomycin-Aptamer konnte zudem der Einfluss der Spinlabel auf die lokale Struktur mit Hilfe von in-line probing gezeigt werden.
Der gleiche TPA-Label konnte ebenfalls mit einem Lysin gekuppelt werden, welches später über ein orthogonales tRNA/Aminoacyl-tRNA Synthetase Paares in eine Polypeptid eingebaut werden sollte. In Kooperation mit dem AK Grininger ist auch ein nicht geschützter Spinlabel zur kupferfreien Markierung der Fettsäuresynthase entstanden. Abschließend war noch die Synthese eines auf Phenylalanin basierenden photolabil geschützten Spinlabel in Arbeit, welcher jedoch nicht beendet werden konnte. Dieser sollte mittels Festphasensynthese einbaubar sein, weswegen er am N-Terminus mit Fmoc geschützt ist.
This thesis develops a naturalist theory of phenomenal consciousness. In a first step, it is argued on phenomenological grounds that consciousness is a representational state and that explaining consciousness requires a study of the brain’s representational capacities. In a second step, Bayesian cognitive science and predictive processing are introduced as the most promising attempts to understand mental representation to date. Finally, in a third step, the thesis argues that the so-called “hard problem of consciousness” can be resolved if one adopts a form of metaphysical anti-realism that can be motivated in terms of core principles of Bayesian cognitive science.
Die vorliegende Doktorarbeit beschäftigt sich mit der Untersuchung von molekularen Systemen, die aus mehreren Chromophoren bestehen und über einen Zweiphotonen-Prozess aktiviert werden können.
Die Zweiphotonen-Absorption (2PA) beschreibt die nahezu simultane Absorption zweier Photonen, deren Summe die Energie ergibt, die für den entsprechenden elektronischen Übergang nötig ist. Da für die Anregung somit zwei niederenergetische Photonen benötigt werden, kann für die 2PA Nahinfrarot-Licht (NIR-Licht) verwendet werden, welches eine geringe Phototoxizität aufweist und eine tiefe Gewebedurchdringung ermöglicht. Weiterhin wird durch die intrinsische dreidimensionale Auflösung der 2PA eine hohe Ortsauflösung der Photoaktivierung erzielt.
Photolabile Schutzgruppen (PPGs) bzw. Photocages sind chemische Verbindungen, die der vorübergehenden Maskierung der biologischen Funktion eines (Makro-)Moleküls dienen. Sie können durch Licht geeigneter Wellenlängen abgespalten werden (uncaging), wodurch die Aktivität des geschützten Substrats wiederhergestellt wird. Leider weisen viele der etablierten PPGs schlechte Zweiphotonen-Eigenschaften auf. Um die 2P-Aktivität einer PPG zu erhöhen, kann sie kovalent mit einem guten Zweiphotonen-Absorber verknüpft werden, der bei Bestrahlung das Licht über einen Zweiphotonen-Prozess absorbiert und anschließend mittels Energietransfer auf die photolabile Schutzgruppe überträgt. Dies führt schließlich zur Uncaging-Reaktion.
Im Zuge von Projekt I dieser Dissertation wurde eine solche molekulare Dyade für verbessertes Zweiphotonen-Uncaging bestehend aus einem Rhodamin-Fluorophor als Zweiphotonen-Absorber und einem Rotlicht-absorbierenden BODIPY als photolabile Schutzgruppe hergestellt und charakterisiert. Die Zweiphotonen-Aktivität des Fluorophors wurde mittels TPEF-Messungen (two-photon excited fluorescence) untersucht. Anschließend wurde das Rhodamin an einen 3,5-Distyryl-substituierten BODIPY-Photocage gekuppelt. Der Energietransfer innerhalb dieser Dyade wurde mithilfe von transienter Ultrakurzzeit-Spektroskopie und quantenmechanischen Berechnungen untersucht. Die Freisetzung der Abgangsgruppe para-Nitroanilin (PNA) bei Belichtung der Dyade konnte sowohl nach Einphotonen-Anregung des Rhodamins als auch des BODIPYs mithilfe von UV/vis-Absorptionsmessungen qualitativ nachgewiesen werden.
Da die Uncaging-Reaktion allerdings nicht besonders effektiv war, wurde für die Weiterführung des Projekts ein neuer BODIPY Photocage, der eine verbesserte Photolyse-Effizienz und eine höhere Photostabilität aufwies, verwendet und erneut an einen Rhodamin-Fluorophor geknüpft. Anhand dieser optimierten Dyade konnte die Einphotonen-Photolyse quantifiziert, d.h. eine Uncaging-Quantenausbeute für die Freisetzung von PNA bestimmt werden. Weiterhin wurde beobachtet, dass die Photolyse der Dyade mit einer deutlichen Änderung ihrer Fluoreszenzeigenschaften einherging. Dies ermöglichte einen Nachweis des Zweiphotonen-Uncagings mithilfe eines Fluoreszenzmikroskops. Die Dyaden-Moleküle wurden zur Immobilisierung in Liposomen eingeschlossen und unter dem konfokalen Fluoreszenzmikroskop belichtet. Sowohl nach Einphotonen- als auch nach Zweiphotonen-Anregung der Rhodamin-Einheit konnte die gewünschte Fluoreszenzänderung beobachtet und somit das Uncaging bestätigt werden.
In Projekt II der Dissertation wurde ein photoaktivierbarer Fluorophor (PAF) hergestellt. PAFs liegen in ihrer geschützten Form dunkel vor. Durch die Aktivierung mit Licht können sie Fluoreszenzsignale emittieren. Sie liefern somit ein direktes Feedback über die Lichtverteilung und –intensität innerhalb einer Probe und werden somit unter anderem für die Charakterisierung und Optimierung von Belichtungsapparaturen verwendet. Besonders wünschenswert ist hierbei eine Fluoreszenzaktivierung mit sichtbarem Licht bzw. mit NIR-Licht über einen Zweiphotonen-Prozess.
Im Zuge der Arbeit wurde ein Rhodamin-Derivat synthetisiert, das durch die Anbringung eines DEACM450-Photocages in seine nichtemittierende Form gezwungen wurde. Bei Bestrahlung mit 455 nm konnte die Abspaltung der Cumarin-Schutzgruppe und der damit verbundene Anstieg der Rhodamin-Fluoreszenz beobachtet und eine Uncaging-Quantenausbeute bestimmt werden. Für die Untersuchung der Zweiphotonen-Photolyse wurde der geschützte Fluorophor in einem Hydrogel immobilisiert und unter dem konfokalen Fluoreszenzmikroskop betrachtet werden. Anschließend wurden Fluoreszenzbilder vor und nach Photoanregung von bestimmten Regionen des Hydrogels aufgenommen. Durch das Uncaging der Probe konnten helle, definierte Muster geschrieben und ausgelesen werden. Die Photoaktivierung führte dabei sowohl über die Einphotonen-Anregung mit blauem Licht (488 nm) als auch über die Zweiphotonen-Anregung mit NIR-Licht (920 nm) zur Generierung von stabilen, gleichmäßigen Fluoreszenzmustern mit hohem Kontrast.
In this thesis, the flow coefficients vn of the orders n = 1 − 6 are studied for protons and light nuclei in Au+Au collisions at Ebeam = 1.23 AGeV, equivalent to a center-of-mass energy in the nucleon-nucleon system of √sNN = 2.4 GeV. The detailed multi-differential measurement is performed with the HADES experiment at SIS18/GSI. HADES, with its large acceptance, covering almost full azimuth angle, combined with its high mass-resolution and good particle-identification capability, is well equipped to study the azimuthal flow pattern not only for protons, deuterons, and tritons but also for charged pions, kaons, the φ-mesons, electrons/positrons, as well as light nuclei like helions and alphas. The high statistics of more than seven billion Au-Au collisions recorded in April/May 2012 with HADES enables for the first time the measurement of higher order flow coefficients up to the 6th harmonic. Since the Fourier coefficient of 7th and 8th order are beyond the statistical significance only an upper bound is given. The Au+Au collision system is the largest reaction system with the highest particle multiplicities, which was measured so far with HADES. A dedicated correction method for the flow measurement had to be developed to cope with the reconstruction in-efficiencies due to occupancies of the detector system. The systematical bias of the flow measurement is studied and several sources of uncertainties identified, which mainly arise from the quality selection criteria applied to the analyzed tracks, the correction procedure for reconstruction inefficiencies, the procedures for particle identification (PID) and the effects of an azimuthally non-uniform detector acceptance. The systematic point-to-point uncertainties are determined separately for each particle type (proton, deuteron and triton), the order of the flow harmonics vn, and the centrality class. Further, the validity of the results is inspected in the range of their evaluated systematic uncertainties with several consistency checks. In order to enable meaningful comparisons between experimental observations and predictions of theoretical models, the classification of events should be well defined and in sufficiently narrow intervals of impact parameter. Part of this work included the implementation of the procedure to determine the centrality and orientation of the reaction.
In the conclusion the experimental results are discussed, including various scaling properties of the flow harmonics. It is found that the ratio v4/v2 for protons and light nuclei (deuterons and tritons) at midrapidity for all centrality classes approaches values close to 0.5 at high transverse momenta, which was suggested to be indicative for an ideal hydrodynamic behaviour. A remarkable scaling is observed in the pt dependence of v2 (v4) at mid-rapidity of the three hydrogen isotopes, when dividing by their nuclear mass number A (A^2) and pt by A. This is consistent with naive expectations from nucleon coalescence, butraises the question whether this mass ordering can also be explained by a hydrodynamical-inspired approach, like the blast-wave model. The relation of v2 and v4 to the shape of the initial eccentricity of the collision system is studied. It is found that v2 is independent of centrality for all three particle species after dividing it by the averaged second order participant eccentricity v2/⟨ε2⟩. A similar scaling is shown for v4 after division by ⟨ε2⟩^2.
Einfache elektrochemische Methode zur Bestimmung von Chlorit in wässrigen und nicht-wässrigen Systemen Stoffe bzw. Verbindungen, welche nachweislich krebserregend oder fruchtbarkeitsschädigend sind, werden seit Jahren, insbesondere durch die WHO, streng reguliert. Zu diesen Stoffen zählt u. a. Chlorit, welches als Abbauprodukt in Desinfektionsmitteln, Poolwassern und im Rahmen von organischen Oxidationsprozessen vorkommt. Im Rahmen des Projektes sollte eine elektrochemische Methode zu Detektion von Chlorit in wässrigen und organischen Proben entwickelt werden, wobei auf eine Glaskohlenstoffelektrode in Kombination mit Li [NTf]2 im Wässrigen und [Bmpyrr][NTf]2/MeOH im Organischen als Elektrolyten zurückgegriffen wurden.
Bei der Methodenentwicklung wurde auf Differentielle-Puls-Voltammetrie zurückgegriffen, da diese im Vergleich zum Cyclovoltammetrie deutlich empfindlicher ist. Die Methodenvalidierung nach ICH-Guidelines konnte erfolgreich durchgeführt werden Dabei konnte im Wässrigen eine Nachweisgrenze von 0.07 mg L-1 (Organisch: 0.20 mg L-1) erhalten werden. Beide lagen deutlich unter den WHO-Grenzwerten von 0.7 mg L-1. Die Selektivität/Interferenz wurde gegenüber den übrigen Chlor-Spezies getestet; für alle Spezies, außer Hypochlorit, konnten für die Wiederfindungsrate von Chlorit Werte nahe 100% erhalten werden. Die entwickelte Methode konnte erfolgreich auf wässrige (Poolproben, Desinfektionsmittel) und organische Proben (aus Pinnick-Synthesen) angewendet werden. Insbesondere durch die Anwendung im Bereich der Pinnick-Oxidation war der Sensor für mögliche In-Line-Analytik geeignet. Bei den organischen Proben konnte zudem die ionische Flüssigkeit zu 92% zurückgewonnen werden, was den Elektrolyten in Hinblick auf Nachhaltigkeit und Wirtschaftlichkeit noch attraktiver macht.
Entwicklung ionenchromatographischer Methoden zur Detektion von Chloroxo-Spezies
Der Bedarf an schnellen, kostengünstigen Analysemethoden, welche den Vorgaben der einzelnen Behörden weltweit entsprechen, ist in den letzten Jahren enorm gestiegen. Im Rahmen des Projektes sollte eine ionenchromatographische Methode (IC) entwickelt werden, welche neben den Chloroxo-Spezies (Chlorid, Hypochlorit, Chlorit, Chlorat und Perchlorat) auch die bekannten Standardionen (Fluorid, Bromid, Nitrat, Phosphat, Sulfat, Iodid) nachweisbar macht. Zunächst gelang es, die Methodenparameter zu optimieren und so die Chloro-Spezies, außer Hypochlorit, von den übrigen Standardanionen innerhalb von 50 Minuten vollständig zu trennen. Die Methode konnte in der weiteren Entwicklung sogar noch um die Detergenzien-Anionen Acetat, Formiat, Oxalat und Tartrat erweitert werden. (ASupp 7, 45 °C, 0.8 mL min-1, 6 mmol L-1 Na2CO3 / 1 mmol L-1 NaHCO3 + 10% Acetonitril). Auch alle notwendigen Validierungsparameter konnten erfolgreich bestimmt werden. Zuletzt war es möglich, erfolgreich unterschiedliche Realproben zu vermessen.
Da ein Nachweis von Hypochlorit mittels IC nicht möglich war, wurden weitere Anstrengung unternommen, dieses Anion mittels IC-PCR (Nachsäulenderivatisierung) nachzuweisen. Als Detektionsprinzip wurde dabei auf eine Bromat-Nachweis-Methode mittels UV/VIS zurückgegriffen, welche im Rahmen des Projektes angepasst wurde. Da davon ausgegangen werden muss, dass das Hypochlorit mit reaktiven Stellen innerhalb des Säulenmaterials reagiert und somit nicht mehr detektiert werden kann, wurden Passivierungsexperimente an der Vorsäule und Säule für 24 h mit einer Hypochlorit-NaOH-Mischung durchgeführt. Nach 60 Stunden Passivierung konnten erstmals reproduzierbare Ergebnisse bei dem Nachweis von OCl- erhalten werden. Zuletzt konnten erfolgreich fünf unterschiedliche Realproben vermessen und der Hypochlorit-Gehalt mit bisher angewandten Methoden verglichen werden, wobei die erhaltenen Werte in der gleichen Größenordnung lagen.
Entwicklung eines Sensors unter Verwendung der Viologen-Grundstruktur auf metallischen Oberflächen
Früher fanden Viologene und deren Derivate Anwendung im Bereich der Schädlingsbekämpfung und wurden hauptsächlich als Kontaktherbizid verwendet. Mittlerweile hat sich das Anwendungsspektrum der Viologene deutlich verändert, u.a. werden die in organischen Redox-Fluss-Batterien als Elektrolyte eingesetzt. Im Rahmen diesen Projekts wurden mehrere bekannte Viologen-Grundkörper (u. A. Methylviologen (MV)) vollständig elektrochemisch charakterisiert Im Anschluss wurde MV mit unterschiedlichen Ankergruppen (Thiol-, Sulfonat, -Phosphonat-, Carboxylanker) modifiziert und auf metallische Oberfläche (u. A. Gold und Kupfer) abgeschieden mit dem Ziel ein neues Sensor-Motiv für die Analytik zu entwickeln. Der Thiolanker konnte erfolgreich auf Gold, der Carboxylanker erfolgreich auf Kupfer abgeschieden werden. Die anschließenden elektrochemischen Untersuchungen der abgeschiedenen Monolagen ergaben jedoch eine geringe Stabilität der Anker in wässriger und organischer Umgebung, sodass in Zukunft weitere Anstrengungen unternommen werden müssen, die Stabilität des Viologensystems auf der Oberfläche zu verbessern.
Seit Jahrzehnten finden Kunststoffe aufgrund ihrer vorteilhaften Materialeigenschaften wie z. B. Formbarkeit und im Vergleich zu Glas oder Metall geringe Kosten und leichtes Gewicht, vermehrt Anwendung in allen Bereichen des täglichen Lebens. Einhergehend gelangen Kunststoffe zunehmend in die Umwelt, und reichern sich dort an. Besondere Aufmerksamkeit erfahren Partikel im Größenbereich von 1-1000 µm, sogenanntes Mikroplastik (MP), welches entweder direkt eingetragen wird oder in der Umwelt durch Fragmentierung größerer Plastikteile entsteht. Lange Zeit fokussierte sich die MP Forschung vorrangig auf aquatische Ökosysteme, obwohl Schätzungen davon ausgehen, dass die Kunststoffeinträge in terrestrischen Ökosystemen um ein Vielfaches höher sind. Besonders relevante Eintragspfade sind neben der unsachgemäßen Entsorgung von Abfällen, die landwirtschaftliche Klärschlamm- und Kompostdüngung und der zunehmende Einsatz von Mulchfolien, sowie der im Straßenverkehr generierte Reifenabrieb.
Für eine Abschätzung und Bewertung der MP-Belastung in Böden sind analytische Messungen von MP in Umweltproben essenziell, derzeit jedoch kaum existent, da MP im Boden partikulär und heterogen verteilt vorliegt und deshalb nur schwierig zu detektieren ist. Die für viele Analyseverfahren notwendige Isolation der Kunststoffpartikel, sowie die für repräsentative Messungen erforderliche Aufbereitung großer Probenvolumina stellen besondere analytische Herausforderungen mit großem Kosten- und Zeitaufwand dar. Chromatografische Verfahren finden wenig Anwendung, bieten aber vorteilhafte Voraussetzungen als Screeningverfahren für die Untersuchung von Böden, da sie nicht zwangsweise eine Partikelisolation verlangen, und zudem als Ergebnis einen Massegehalt liefern.
Diese Dissertation zeigt drei Anwendungen Chromatografie basierter Analyseverfahren zur Charakterisierung von MP im Boden. Erstmalig wurde die Thermo-Extraktion-Desorption-Gaschromatografie-Massenspektrometrie (TED-GC/MS) für die Analytik von Reifenabrieb in realen Umweltproben angewandt bei minimaler Probenaufbereitung. Dafür wurde ein Straßenrandboden umfangreich beprobt und analysiert, und es konnte neben der Eignung der analytischen Methode auch eine repräsentative Probenahmestrategie und räumliche Verteilungsmuster von Reifenabrieb im Boden demonstriert werden.
Der zweite Forschungsschwerpunkt lag auf der Methodenentwicklung und validierung eines neuartigen chemischen Extraktionsverfahrens für die Bestimmung von Polyestern in Bodenproben. Das Verfahren basiert auf der hydrolytischen Spaltung von Polyestern in ihre Monomere, deren flüssigchromatografische Abtrennung von Matrixbestandteilen und der Detektion mittels UV-Absorption. Das Verfahren verlangt neben der Extraktion keine weiteren Probenaufbereitungsschritte, ist für unterschiedliche Umweltmatrizes geeignet und ist damit z. B. prädestiniert für den Nachweis von Polyesterfasern auf gedüngten landwirtschaftlichen Flächen.
MP ist nicht nur aufgrund seiner Persistenz problematisch, sondern auch, weil es hydrophobe organische Schadstoffe aus dem Umweltmedium anreichern und transportieren kann. Maßgeblich für das Sorptionsverhalten sind die Materialeigenschaften des zugrunde liegenden Kunststoffes, welche Änderungen durch Alterungsprozessen unterliegen. Der Zusammenhang zwischen Materialalterung und Sorptionsverhalten wurde in früheren Studien kontrovers diskutiert und ist der dritte Teil dieser Arbeit. In einem Sorptionsexperiment konnte mittels Headspace-Gaschromatografie mit Flammenionisations-Detektion die Aufnahme von Aromaten an den Kunststoffen Polypropylen und Polystyrol quantifiziert werden. Die Kunststoffe wurden materialwissenschaftlich charakterisiert, teilweise künstlich gealtert und die daraus resultierende Änderungen der Materialeigenschaften sowie einhergehenden Änderungen des Sorptionsverhaltens erfasst. Dadurch war es möglich den Einfluss einzelner Materialeigenschaften auf das Sorptionsverhalten zu bewerten, Rückschlüsse auf zugrunde liegende Sorptionsmechanismen zu treffen und zu zeigen, dass in vorliegendem Experiment die Polymeralterung bei MP nicht zu einer erhöhten Schadstoffsorption führte.
This thesis contains three theoretical works about certain aspects of the interplay of electronic correlations and topology in the Hubbard model.
In the first part of this thesis, the applicability of elementary band representations (EBRs) to diagnose interacting topological phases, that are protected by spatial symmetries and time-reversal-symmetry, in terms of their single-particle Matsubara Green’s functions is investigated. EBRs for the Matsubara Green’s function in the zero-temperature limit can be defined via the topological Hamiltonian. It is found that the Green’s function EBR classification can only change by (i) a gap closing in the spectral function at zero frequency, (ii) the Green’s function becoming singular i.e. having a zero eigenvalue at zero frequency or (iii) the Green’s function breaking a protecting symmetry. As an example, the use of the EBRs for Matsubara Green’s functions is demonstrated on the Su-Schriefer-Heeger model with exact diagonalization.
In the second part the Two-Particle Self-Consistent approach (TPSC) is extended to include spin-orbit coupling (SOC). Time-reversal symmetry, that is preserved in the presence of SOC, is used to derive new TPSC self-consistency equations including SOC. SOC breaks spin rotation symmetry which leads to a coupling of spin and charge channel. The local and constant TPSC vertex then consists of three spin vertices and one charge vertex. As a test case to study the interplay of Hubbard interaction and SOC, the Kane-Mele-Hubbard model is studied. The antiferromagnetic spin fluctuations are the leading instability which confirms that the Kane-Mele-Hubbard model is an XY antiferromagnet at zero temperature. Mixed spin-charge fluctuations are found to be small. Moreover, it is found that the transversal spin vertices are more strongly renormalized than the longitudinal spin vertex, SOC leads to a decrease of antiferromagnetic spin fluctuations and the self-energy shows dispersion and sharp features in momentum space close to the phase transition.
In the third part TPSC with SOC is used to calculate the spin Hall conductivity in the Kane-Mele-Hubbard model at finite temperature. The spin Hall conductivity is calculated once using the conductivity bubble and once including vertex corrections. Vertex corrections for the spin Hall conductivity within TPSC corresponds to the analogues of the Maki-Thompson contributions which physically correspond to the excitation and reabsorption of a spin, a charge or a mixed spin-charge excitation by an electron. At all temperatures, the vertex corrections show a large contribution in the vicinity of the phase transition to the XY antiferromagnet where antiferromagnetic spin fluctuations are large. It is found that vertex corrections are crucial to recover the quantized value of −2e^2/h in the zero-temperature limit. Further, at non-zero temperature, increasing the Hubbard interaction leads to a decrease of the spin Hall conductivity. The results indicate that scattering of electrons off antiferromagnetic spin fluctuations renormalize the band gap. Decreasing the gap can be interpreted as an effective increase of temperature leading to a decrease of the spin Hall conductivity.
Trait-dependent effects of biotic and abiotic filters on plant regeneration in Southern Ecuador
(2024)
Tropical forests have always fascinated scientists due to their unique biodiversity. However, our understanding of ecological processes shaping the complexity of tropical rainforests is still relatively poor. Plant regeneration is one of the processes that remain understudied in the tropics although this is a key process defining the structure, diversity and assembly of tropical plant communities. In my dissertation, I combine experimental, observational and trait-based approaches to identify processes shaping the assembly of seedling communities and compare associations between environmental conditions and plant traits across plant life stages. By working along a steep environmental gradient in the tropical mountains of Southern Ecuador, I was able to investigate how processes of plant regeneration vary in response to biotic and abiotic factors in tropical montane forests.
My dissertation comprises three complementary chapters, each addressing an individual research question. First, I studied how trait composition in plant communities varies in relation to the broad- and local-scale environmental conditions and across the plant life cycle. I measured key traits reflecting different ecological strategies of plants that correspond to three stages of the plant life cycle (i.e., adult trees, seed rain and recruiting seedlings). I worked on 81 subplots along an elevational gradient covering a large climatic gradient at three different elevations (1000, 2000 and 3000 m a.s.l.). In addition, I measured soil and light conditions at the local spatial scale within each subplot. My findings show that the trait composition of leaves, seeds and seedlings changed similarly across the elevational gradient, but that the different life stages responded differently to the local gradients in soil nutrients and light availability. Consequently, my findings highlight that trait-environment associations in plant communities differ between large and small spatial scales and across plant life stages.
Second, I investigated how seed size affects seedling recruitment in natural forests and in pastures in relation to abiotic and biotic factors. I set up a seed sowing experiment in both habitat types and sowed over 8,000 seeds belonging to seven tree species differing in seed size. I found that large-seeded species had higher proportions of recruitment in the forests compared to small-seeded species. However, small-seeded species tended to recruit better in pastures compared to large-seeded species. I showed that high surface temperature was the main driver of differences in seedling recruitment between habitats, because it limited seedling recruitment of large-seeded species. The results from this experiment show that pasture restoration requires seed addition of large-seeded species and active protection of recruiting seedlings in order to mitigate harmful conditions associated with high temperatures in deforested areas.
Third, I examined the associations between seedling beta-diversity and different abiotic and biotic factors between and within elevations. I applied beta-diversity partitioning to obtain two components of beta-diversity: species turnover and species richness differences. I associated these components of beta-diversity with biotic pressures by herbivores and fungal pathogens and environmental heterogeneity in light and soil conditions. I found that species turnover in seedling communities was positively associated with the dissimilarity in biotic pressures within elevations and with environmental heterogeneity between elevations. Further, I found that species richness differences increased primarily with increasing environmental heterogeneity within elevations. My findings show that the associations between beta-diversity of seedling communities and abiotic and biotic factors are scale-dependent, most likely due to differences in species sorting in response to biotic pressures and species coexistence in response to environmental heterogeneity.
My dissertation reveals that studying processes of community assembly at different plant life stages and spatial scales can yield new insights into patterns and processes of plant regeneration in tropical forests. I investigated how community assembly processes are governed by abiotic and biotic filtering across and within elevations. I also experimentally explored how the process of seedling recruitment depends on seed size-dependent interactions, and verified how these effects are associated with abiotic and biotic filtering. Identifying such processes is crucial to inform predictive models of environmental change on plant regeneration and successful forest restoration. Further exploration of plant functional traits and their associations with local-scale environmental conditions could effectively support local conservation efforts needed to enhance forest cover in the future and halt the accelerating loss of biodiversity.
Die kathetergestützte Thrombektomie ist, spätestens seitdem 2015 verschiedene Studien ihre Überlegenheit zur alleinigen medikamentösen Behandlung gezeigt haben, die bevorzugte Therapie bei Patienten mit akutem ischämi-schem Schlaganfall und embolischen Verschluss einer großen intrakraniellen Arterie. Obwohl die mechanische Thrombektomie mittlerweile zur Standardthe-rapie zählt, ist der Zusammenhang zwischen Lokalisation des Infarktareals und klinischem Behandlungsergebnis nach Thrombektomie bisher nicht gut untersucht. Die dieser Studie zugrunde liegende Hypothese war, dass Infarktdemar-kationen in der zentralen Corona radiata, Capsula interna und/oder den Ba-salganglien aufgrund einer potenziellen Schädigung der Fasern des Tractus corticospinalis mit einem schlechten Behandlungsergebnis (mRS 3 bis 6) nach mechanischer Thrombektomie assoziiert sind. Ziel dieser Studie war es somit, den Behandlungserfolg nach Thrombektomie bei Patienten mit entsprechender Infarktlokalisation zu untersuchen.
Hierfür wurden die Daten von 70 erwachsenen Patienten analysiert, die im Zeitraum von April 2016 bis Januar 2020 im Institut für Neuroradiologie des Universitätsklinikums Frankfurt aufgrund eines ischämischen Infarktes mit entsprechender Infarktdemarkation eine mechanische Thrombektomie erhalten haben. Alle erhobenen Daten stammen aus der elektronischen Krankenakte, dem Radiologie-Informations-System oder einem prospektiven Register zur internen Qualitätssicherung. Es erfolgte außerdem eine Unterteilung der Studi-enkohorte anhand des zusätzlichen kortikalen Infarktausmaßes bzw. der kortikalen Infarktlokalisation, um den Einfluss kortikaler Infarkte auf das Behandlungsergebnis beurteilen zu können. Die wichtigsten Endpunkte der Studie waren das klinische Behandlungsergebnis gemessen anhand der mRS nach 90 Tagen sowie die Ergebnisse der Subgruppenanalyse.
51,4 % der Studienpopulation erzielten nach 90 Tagen ein gutes klinische Be-handlungsergebnis (mRS 0 bis 2), 32,9 % der Patienten erreichten sogar ein exzellentes Ergebnis (mRS 0 bis 1). Insgesamt verstarben innerhalb von 90 Tagen nach dem Schlaganfallereignis 15,7 % aller Patienten und 32,9 % konn-ten nur ein schlechtes Behandlungsergebnis (mRS 3 bis 5) erzielen. Die Ergebnisse zeigen, dass die in der routinemäßig angefertigten Bildgebung nachgewiesenen Infarktdemarkationen im Verlauf der langen Bahnen nicht zwingend ein schlechtes Behandlungsergebnis bedingen. Bei Patienten mit ausge-dehnter Beteiligung des Kortex und Infarkten in definierten eloquenten Arealen waren die klinischen Behandlungsergebnisse allerdings schlechter als in der Vergleichsgruppe mit isolierten Läsionen der langen Bahnen.
Um künftig ein besseres Verständnis darüber zu erlangen, welche Patienten mit bestimmter Infarktlokalisation von einer mechanischen Thrombektomie langfristig profitieren können, sind weitere prospektive Studien mit exakt definierten Vergleichsgruppen und höherwertiger MRT-basierter Bildgebung erforderlich.
In den letzten Jahren haben sich die Therapiemöglichkeiten des Mammakarzinoms deutlich verbessert. Durch die Analyse von genetischen Veränderungen in den Tumorzellen oder in der Keimbahn ist eine zielgerichtete Tumortherapie bei einigen Subgruppen möglich; z.B. mit PARP- und PIK3CA-Inhibitoren.
In einer retrospektiven Analyse wurde in dieser Arbeit untersucht, wie genetische Mutationsanalysen in einer onkologischen Schwerpunktpraxis eingesetzt werden. Es sollte untersucht werden, wie häufig PatientInnen in einer onkologischen Praxis mit metastasiertem Mammakarzinom eine Mutationsanalyse brustkrebsassoziierter Gene erhalten haben, und welche Konsequenzen daraus gezogen wurden. Dabei wurde der Zeitraum von 2019 – 2022 betrachtet. Mithilfe der Software Albis wurden Daten von 49 PatientInnen identifiziert. 40 PatientInnen haben eine Keimbahndiagnostik der Gene BRCA1/2 erhalten. Von den PatientInnen, die die BRCA1/2-Analyse bekommen haben, konnten in 20% der PatientInnen eine Mutation in BRCA1 oder 2 detektiert werden. Bei den meisten dieser PatientInnen wurde der PARP Inhibitor Olaparib therapeutisch eingesetzt. 10 PatientInnen erhielten eine PIK3CA-Analyse, 9 von ihnen mittels PCR und eine mittels NGS. In dieser Gruppe wurde bei einer Patientin eine Mutation im PIK3CA-Gen ermittelt. 15 PatientInnen haben eine Multigenpanel-Diagnostik erhalten. Dabei ist eine Reihe weiterer genetischer Veränderungen nachgewiesen worden. Für einige dieser Veränderungen stehen therapeutische Möglichkeiten zur Verfügung, die zwar nicht für das Mammakarzinom, aber für andere Tumorentitäten bereits zugelassen sind.
Das Promotionsvorhaben ist im Bereich der arbeitssoziologischen Forschung angesiedelt. Vor dem Hintergrund der Individualisierung im arbeitssoziologischen Feld, sowie der gestiegenen Bedeutung von Home Office aufgrund der Corona-Pandemie, widmet sich das Vorhaben dem Problemfeld der wahrgenommenen Ambivalenz von Home Office, sowie dem Zusammenhang zwischen Home Office und Individualisierung, und dessen Bedeutung und Auswirkungen für und auf das Individuum.
Als methodisches Verfahren dient hier zur Theoriegenerierung die Grounded Theory. Gegenstand der Analyse ist die mediale Darstellung. Als mediale Daten werden Zeitungsartikel mit der thematischen Fokussierung auf Home Office betrachtet. Die hier gewählte Darstellung des Vorgehens, ermöglicht es, das Vorgehen mit der Grounded Theory kleinteilig und kleinschrittig nachzuvollziehen und verstehen zu können.
Ziel der Studie ist es, Home Office in Bezug zur Individualisierung zu setzen und die grundsätzlichen Zusammenhänge innerhalb der Wahrnehmungen von Home Office und Individualisierung herauszuarbeiten, sowie im medialen Kontext allgemeine Darstellungen und Wahrnehmungen von Home Office zu erkennen und zu verdeutlichen.
Letztlich zeigt sich, dass die Gemeinsamkeit in der medialen Darstellung von Home Office darin liegt, dass eine Aushandlung über die Notwendigkeit von Handlungsvermögen erfolgt. Diese Aushandlung spiegelt sich in den Aspekten der Darstellung von Handlungsmöglichkeiten und Handlungsgrenzen wieder, sowie in der Darstellung der Notwendigkeit von Gestaltungsspielraum und/oder der Notwendigkeit von Grenzen für das Individuum.
Die im Laufe der Auswertung entwickelten Darstellungsformen ermöglichen hierbei, die differenzierten Standpunkte im Hinblick auf die Arbeitsweise Home Office erfassen zu können. Es wurden Formen gebildet, um die verschiedenen Blickwinkel voneinander abgrenzen zu können. Bei Betrachtung dieser Formen wird jedoch ersichtlich, dass sich die exakte punktuelle Verortung des Subjektes zwischen Fremdbestimmung und Selbstbestimmung im Hinblick auf die Zielsetzung des maximalen persönlichen und/oder wirtschaftlichen Erfolges aus medialer Perspektive als schwierig erweist.
Die in der Auswertung entwickelten Darstellungsformen verdeutlichen außerdem die Gleichbedeutung von Arbeitssphäre und Lebenssphäre für das Individuum in der medialen Darstellung. Gleichzeitig zeigen sie den Wunsch nach Freiheit, den Wunsch nach Grenzen, sowie den Wunsch nach Selbstverwirklichung, Gestaltung und Entlastung von Erwartungen auf.
Das periinterventionelle Management von antikoagulierten Patienten stellt eine große Herausforderung im klinischen Alltag dar. Die genaue Abwägung von Blutungs- und Thromboembolierisiko ist essentieller Bestandteil der Frage, ob und wann die blutgerinnungshemmende Medikation pausiert werden soll. Ist das Zeitintervall zur geplanten Intervention zu kurz gewählt und daher die antikoagulierende Wirkung der Arzneimittel noch ausgeprägt, kann es leichter zu intra- und postoperativen Blutungen kommen. Umgekehrt kann es bei einer zu langen Unterbrechung der Antikoagulation zur Entwicklung von Thromboembolien kommen. Um diese Risiken zu minimieren und die Patientensicherheit zu verbessern ist ein leitliniengerechtes Handeln von großer Bedeutung. Durch den Einfluss des demographischen Wandels und die steigende Inzidenz der Erkrankungen, die eine Antikoagulation notwendig machen, erhöht sich ebenso die Anzahl der antikoagulierten Patienten, die sich einer elektiven Operation unterziehen müssen, wodurch das Thema schon seit Jahren an Bedeutung gewinnt. Trotz diverser Leitlinien, die in den letzten Jahren publiziert wurden, findet man im klinischen Alltag oftmals nicht auf Anhieb die passende Empfehlung, da diese von dem Einfluss etlicher Risikofaktoren, wie Alter, Geschlecht, Nierenfunktion u.a. bestimmt werden sollte. Der Einsatz eines Clinic Decision Support Systems (CDSS) kann ein leitliniengerechtes Handeln möglicherweise verbessern, indem patientenspezifische Risikokonstellationen anhand europäischer Leitlinien geprüft werden und dem Nutzer eine optimale Vorgehensweise unterbreitet wird.
Zielsetzung: In dieser Arbeit, soll die Eignung eines klinischen Entscheidungs-Unterstützungssystems (CDSS) anhand eines Multiple Choice (MC) Tests mit 11 kliniknahen Fallbeispielen, bezüglich evidenzbasierten perioperativen Managements von antikoagulierten Patienten untersucht werden.
Methoden: Im Rahmen einer klinischen prospektiven randomisierten multizentrischen Simulationsstudie beantworteten Ärztinnen und Ärzte einen Multiple Choice Test bestehend aus 11 Fallbeispielen zum Thema periinterventionelles Management von antikoagulierten Patienten. Dabei sollte zu - 5 - jedem Beispiel zwei möglichst leitliniengerechte Empfehlung ausgewählt werden.
Die Ärztinnen und Ärzte wurden vorab in zwei Gruppen randomisiert. Der PERI-KOAG Gruppe wurde das CDSS zur Beantwortung der Fragen zur Verfügung gestellt. Die Kontroll-Gruppe hatte hingegen keinen Zugriff auf die Applikation und sollte den Test mit frei zugänglichen Hilfsmitteln, zum Beispiel Leitlinien oder anderen allgemein verfügbaren Apps beantworten. Die beiden Gruppen wurden anschließend in Bezug auf die Gesamtergebnisse, die Bearbeitungszeit und Berufserfahrung verglichen.
Ergebnisse: Insgesamt wurden 168 Teilnehmer in die beiden Gruppen randomisiert, wovon 76 Teilnehmer, 42 Teilnehmer der PERI-KOAG Gruppe und 34 Teilnehmer der Kontroll-Gruppe den MC-Test vollständig beendeten und in die weitere Auswertung eingeschlossen wurden. Der MC-Test konnte mit maximal 22 Punkten (=100%) abgeschlossen werden. Die PERI-KOAG Gruppe erreichte dabei im Durchschnitt signifikant bessere Ergebnisse als die Kontroll-Gruppe (82 ±15% vs. 70 ±10%; 18 ±3 vs. 15 ±2 Punkte; P =0,0003). Unter Berücksichtigung der Bearbeitungszeit erzielten Teilnehmer mit längerer Bearbeitung durchschnittlich höhere Ergebnisse, als Kollegen welche den Test schneller abschlossen. Dieser Effekt zeigte sich in beiden Gruppen. Ein signifikanter Unterschied konnte hierbei nur in der PERI-KOAG Gruppe gezeigt werden (PERI-KOAG Gruppe ≥33 min. 89 ±10% (20 ±2 Punkte) vs. <33 min. 73 ±15% (16 ±3 Punkte), P =0,0005). Innerhalb der PERI-KOAG Gruppe zeigten sich tendenziell höhere Ergebnisse innerhalb der erfahreneren Gruppe (>5 Jahre Berufserfahrung), aber keinen signifikanten Unterschied zu weniger (≤5 Jahre Berufserfahrung) erfahrenen Kollegen (87 ±10% (19 ±2 Punkte) vs. 78 ±17% (17 ±4 Punkte), P =0,08). Dagegen konnte in der Kontroll-Gruppe kein Unterschied zwischen den Testresultaten von mehr und weniger erfahrenen Teilnehmern gezeigt werden (>5 Jahre: 71 ±8% (16 ±2 Punkte) vs. ≤5 Jahre: 70 ±13% (15 ±3 Punkte) P =0,66).
Diskussion: Diese Arbeit zeigt, dass im Rahmen eines MC-Tests mit Hilfe des CDSS ein leitliniengerechtes perioperatives Management von antikoagulierten Patienten signifikant verbessert werden kann. Eine fachgerechte Anwendung des Tools ist essentiell, um schwerwiegende Folgen, wie Blutungen oder Thromboembolien zu vermeiden. Eine längere Bearbeitungszeit und mutmaßlich intensivere Nutzung des CDSS, geht mit besseren Ergebnissen einher als eine schnelle Testbearbeitung. Ein insgesamt verbessertes leitliniengerechtes Management zeigt, unabhängig von der Berufserfahrung der Teilnehmer, das große Potential des CDSS.
In Deutschland existieren nur wenige Ergebnisse aus der klinischen Forschung, die im Kontext der allgemeinmedizinischen Versorgung gewonnen wurden. Dies ist u.a. damit zu begründen, dass Forschung in der Allgemeinmedizin in den Praxisalltag eingebunden sein muss, worauf die gegenwärtige Versorgungsstruktur nicht ausgelegt ist. Damit für Hausärztinnen und Hausärzte Forschung im Praxisalltag möglich ist, müssen also Strukturen geschaffen werden, die Forschung ermöglichen. Eine solche Struktur bieten Forschungspraxennetze (FPN) wie beispielsweise das Forschungspraxennetz „ForN“. ForN wurde vom Institut für Allgemeinmedizin der Goethe-Universität Frankfurt am Main im Jahr 2011 initiiert. In ForN tätige Forschungspraxen können sich mit einer Gültigkeit von fünf Jahren als „akademische Forschungspraxis“ akkreditieren lassen, wenn sie bestimmte Anforderungen erfüllen. Dazu gehört die Teilnahme an für Forschungsprojekte qualifizierenden Fortbildungen oder an Netz-begleitenden Treffen für Ärztinnen, Ärzte und Medizinische Fachangestellte (MFA) sowie die regelmäßige Teilnahme an Forschungsprojekten. Eine Verlängerung der Akkreditierung nach fünf Jahren ist möglich. Bisherige Publikationen über Forschung zu FPN bieten insbesondere Einblicke in Faktoren, welche den Beitritt in ein FPN fördern oder eher behindern. Forschung, die Faktoren der längerfristigen Mitwirkung der Praxen an FPN (wie Austrittsgründe, aber auch Motivation, eine Re-Akkreditierung anzustreben) untersucht, ist im Gegensatz dazu rar.
Diese Dissertation untersucht diese Faktoren anhand der folgenden Fragen: warum traten Forschungspraxen im Laufe der Zeit aus dem FPN ForN aus (ehemalige Mitglieder) und warum strebten andere eine Re-Akkreditierung an (aktive Mitglieder)? Weitere Unterfragen dieser Arbeit sind: welche Faktoren motivierten oder erschwerten hausärztlichen Teams eine Mitwirkung als Forschungspraxis? Wie wurde die bisherige Zusammenarbeit gesehen und als wie gut machbar wurden die Anforderungen zur Erlangung der Bezeichnung „akademische Forschungspraxis“ eingeschätzt?
Es wurde ein Fragebogen für ehemalige ärztliche ForN-Mitglieder entworfen und eingesetzt. Des Weiteren wurden Daten aus Fragebogenerhebungen von aktiven ForN-Mitgliedern (Hausärztinnen, Hausärzte, MFA) aufbereitetet. Die Daten wurden mithilfe der Datenanalysesoftware SPSS deskriptiv unter Angabe der Häufigkeiten, Mittelwerte, Standardabweichungen und Spannweiten ausgewertet.
Es konnten 14 Fragebögen von ehemaligen ärztlichen ForN-Mitgliedern aus 13 Praxen analysiert werden. Von den aktiven ForN-Mitgliedern wurden Fragebögen von 48 Ärztinnen und Ärzten sowie 57 MFA aus 41 Praxen ausgewertet. Als Gründe für den Austritt wurde von ehemaligen Mitgliedern insbesondere Zeitmangel und eine hohe Arbeitsbelastung angegeben. Weitere erschwerende Umstände waren ein Mangel an MFA, eine große Entfernung zum Standort des Instituts für Allgemeinmedizin und persönliche Gründe. Bis auf letztere Angabe waren dies auch die größten Hürden während der Teilnahme, die von aktiven Mitgliedern beschrieben wurden. Einen Beitrag für die Allgemeinmedizin zu leisten, persönliche Kompetenzen und Kompetenzen des Praxisteams zu erweitern sowie Abwechslung im Praxisalltag zu erleben, waren die wichtigsten motivierenden Faktoren einer Teilnahme im Forschungspraxennetz ForN, sowohl für aktive als auch für ehemalige Mitglieder. Die Anforderungen des FPN ForN an die Akkreditierung als Forschungspraxis wurden aus Perspektive der aktiven Mitglieder überwiegend als machbar empfunden. Nur die Umsetzung zusätzlicher, nicht verpflichtender Aktivitäten wurde als schwieriger erfüllbar bewertet. Bezüglich der Zusammenarbeit mit dem Institut für Allgemeinmedizin gaben ehemalige ärztliche ForN-Mitglieder an, eine gute Vorbereitung auf Forschungsaufgaben erfahren zu haben, dem ForN-Team des Instituts für Allgemeinmedizin vertrauen zu können und dass die Kommunikation allgemein gut war.
Gründe für den Austritt aus dem FPN und Hindernisse während der Teilnahme in ForN waren überwiegend externe Faktoren wie Zeitmangel, eine hohe Arbeitsbelastung oder ein Mangel an MFA. Auf diese Faktoren hat das Institut für Allgemeinmedizin keinen direkten Einfluss, es kann lediglich die administrativen Aufgaben innerhalb eines Forschungsprojektes für das Team einer Forschungspraxis so vorstrukturieren, dass sie möglichst gut im Praxisalltag bewältigt werden können. Ein Vergleich mit Publikationen, die sich mit förderlichen und hinderlichen Faktoren eines Beitritts in ein FPN auseinandersetzen, zeigt, dass ähnliche Gründe auch die längerfristige Mitwirkung beeinflussen.
Im Rahmen der Versorgung von polytraumatisierten (schwerstverletzten) Patienten ist insbesondere die systemische Inflammation zu beachten. Durch das initiale Trauma (“first hit“) kommt es zu einer systemischen Dysregulation der inflammatorischen Kaskaden, wobei sowohl eine überschießende (SIRS/Sepsis) wie auch unterschießende Reaktion (CARS) zu schweren Komplikationen wie Multiorganversagen bis hin zum Tod führen kann. Die notfallmässige chirurgische Versorgung fügt durch multiple Faktoren wie Weichteilverletzung, Blutverlust und Intubation dem Patienten einen “second hit“ zu, welcher sich auf den “first hit“ aufsummieren und besagte Komplikationen induzieren kann. Aufgrund dessen wurden verschiedene Therapiekonzepte entwickelt wie beispielsweise die “Damage control surgery“, welche durch minimalinvasive Techniken die notfallmässig versorgungsbedürftigen Verletzungen temporär stabilisiert/versorgt, bis der Patient sich physiologisch stabilisiert und definitiv versorgt werden kann. Eine weitere Strategie stellt die „Safe Definitive Surgery“ dar, welche eine Synopsis bildet aus zu einen frühzeitiger definitiver Versorgung gepaart mit minimalinvasiven Techniken, um während der Operation multipler Frakturen intraoperativ anhand der Physiologie des Patienten regelmäßig zu reevaluieren und daran zu adjustieren.
Bei der definitiven Versorgung von langen Röhrenknochen im Schaftbereich werden klinisch standardmässig Marknägel verwendet. Hierbei eröffnet man den langen Röhrenkochen am proximalen Eintrittspunkt, bohrt den Knochen intramedullär mittels “Reamer“ auf und führt den Nagel ein, welchen man mittels Schrauben multidimensional in der Corticalis verriegelt. Hierbei stellt die intramedulläre Aufbohrung den kritischsten Schritt dar, da hierbei zum einen Knochenmark austritt und durch den Bohrer Thermonekrosen im Knochen auftreten können sowie auch Knochenpartikel austreten. Um diese Nachteile zu beheben, wurde der “Reamer-Irrigator-Aspirator“ (RIA) entwickelt, welcher nebst der klassischen Bohrfunktion noch eine Spül-Saugfunktion innehat und somit parallel intramedullär eine Kühlung herbeiführt, wie auch das Knochenmark nebst Knochenpartikeln absaugt. Hiervon gibt es eine ältere (RIA 1) und eine neuere (RIA 2) Version, wobei sich diese geringfügig in Grösse des Bohrkopfes und der Saugfunktion wie auch im Handling unterscheiden. Wenig ist jedoch zum aktuellen Zeitpunkt bekannt, welche Auswirkungen diese unterschiedlichen Versionen verglichen mit dem konventionellen “Reamer haben“. Um dies näher zu evaluieren, wurde ein standardisiertes Polytrauma-Modell an 30 Schweinen (Sus scrofa) durchgeführt. Unter konstanter Analgesie wurde nach Erreichen einer standardisierten Baseline an 24 der Tiere ein Polytrauma, bestehend aus unilateraler Femurfraktur, stumpfem Thoraxtrauma inklusive Leberlazeration und hämorrhagischem Schock ausgeübt. Sechs Tiere fungierten als Kontrollgruppe (sham), welche kein Trauma sowie Therapie erhielten, aber sonst gleich behandelt wurden. Die polytraumatisierten Tiere erhielten Therapie nach Schockraum- und ATLS Versorgung nach dem Trauma. Bestehend aus “Abdominal Packing“, Kreislaufstabilisierung und Versorgung der Femurfraktur mittels intramedullärer Nagelung. Die 24 polytraumtisierten Versuchstiere wurden bezüglich der Versorgung der Femurfraktur in drei Gruppen aufgeteilt: 1) Konventionelles Reaming, 2) RIA 1 und 3) RIA 2. An sechs Zeitpunkte (t1 (-1.5h) - t6 (6h)) über 7.5 Stunden erfolgten regelmäßige Blut- wie Urinentnahmen und eine bronchoalveoläre Lavage vor fachgerechtem Exitus am letzen Zeitpunkt. Anschließend wurde mittels ELISA in besagten Proben das Interleukin-6, Interleukin-8, Interleukin-10 und Tumornekrosefaktor-alpha bestimmt und statistische Unterschiede zwischen den Gruppen ermittelt.
Die Ergebnisse legen nahe, dass die Verwendung des Reamer-Irrigator-Aspirator Typ 2 aufgrund spezifischer Modifikationen verglichen mit seinem Vorgänger (RIA Typ 1) eine geringere inflammatorische Immunantwort aufweist. Verglichen mit dem konventionellen Reaming konnte in unserer Versuchsreihe in Hinblick auf entzündliche Mediatoren systemisch wie lokal kein Unterschied zu der Versorgung mittels RIA aufgezeigt werden. Jedoch präsentierte sich bei der Benutzung des konventionellen Reamers auch in unserer Versuchsreihe das Auftreten einer Fett/Lungenembolie, was bereits in der Literatur als eine gängige Komplikation dieses Instrumentariums beschrieben wird. Zusammenfassend ist der Reaming-Irrigator-Aspirator eine modernisierte Version des konventionellem Reamers, welcher multiple Vorteile aufweist, jedoch im Rahmen der Kostensenkung wahrscheinlich erst im weiteren zeitlichen Verlauf regelmäßige Anwendung in der Klinik finden wird.
In this work I investigate two different systems - spin systems and charge-density-waves. The same theoretical method is used to investigate both types of system. My investigations are motivated by experimental investigations and the goal is to describe the experimental results theoretically. For this purpose I formulate kinetic equations starting from the microscopical dynamics of the systems.
First of all, a method is formulated to derive the kinetic equations diagrammatically. Within this method an expansion in equal-time connected correlation functions is carried out. The generating functional of connected correlations is employed to derive the method.
The first system to be investigated is a thin stripe of the magnetic insulator yttrium-iron-garnet (YIG). Magnons are pumped parametrically with an external microwave field. The motivation of my theoretical investigations is to explain the experimental observations. In a small parameter range close to the confluence field strength where confluence processes of two parametrically pumped magnons with the same wave vector becomes kinematically possible the efficiency of the pumping is reduced or enhanced depending on the pumping field strength. Because it is expected that that confluence and splitting processes of magnons are essential for the experimental observations I go beyond the kinetic theories that are conventionally applied in the context of parametric excitations in YIG and investigate the influence of cubic vertices on the parametric instability of magnons in YIG.
Furthermore, the influence of phonons is investigated. Usually in the literature these are taken into account as heat bath. Here, I want to explain experiments where an accumulation of magnetoelastic bosons - magnon-phonon-quasi-particles - has been observed. I employ the method of kinetic equations to investigate this phenomenon theoretically. The kinetic theory is able to reproduce the experimental observations and it is shown that the accumulation of magnetoelastic bosons is purely incoherent.
Finally, charge-density waves (CDW) in quasi-one-dimensional materials will be investigated. Charge-density waves emerge from a Peierls-instability and are a prime example for spontaneous symmetry breaking in solids. Again, the motivation for my theoretical investigations are an experiment where the spectrum of amplitude and phase phonon modes has been measured. Starting from the Fröhlich-Hamiltonian I derive kinetic equations and from these kinetic equations the equations of motion for the CDW order parameter can be derived. The frequencies and damping rates of amplitude and phase phonon modes will be derived from the linearized equations of motion. I compare my theory with existing methods. Furthermore, I also investigate the influence of Coulomb interaction.
Hintergrund und Ziele: Die Hämodialyse ist das am weitesten verbreitete Nierenersatztherapieverfahren und wird auch in den nächsten Jahren von immer mehr Patienten mit akutem und terminalen Nierenversagen beansprucht werden. Ein großlumiger, sicherer und komplikationsarmer Gefäßzugang ist essenziell für die Durchführung einer effizienten Hämodialyse. Während arterio-venöse Zugänge der klar präferierte Gefäßzugang zur chronischen Hämodialyse sind, eignen sie sich aufgrund ihrer Reifungsdauer nicht für Patienten mit akuter Dialysepflichtigkeit oder für Patienten mit untauglichen Gefäßeigenschaften. Für diese Patienten kann die Hämodialyse über einen Vorhofkatheter erfolgen. Die KDOQI Richtlinien (2019) empfehlen die präferierte Punktion der rechten Vena jugularis interna, jedoch muss für Patienten mit thrombosiertem oder obliteriertem Gefäßstatus die Verwendung neuer, unkonventionellerer Zugangswege erwogen werden, um die überlebenswichtige Hämodialyse zu ermöglichen. Ein solcher unkonventioneller Zugangsweg ist der erstmals 2006 von Betz et al. beschriebene Iliakalvenenkatheter, der während seines Beobachtungszeitraums von 1.500 Kathetertagen initial die Sicherheit und Effektivität des Verfahrens vermuten ließ.
Die vorliegende Arbeit stellt eine retrospektive Analyse des Langzeitverlaufs von 95 Iliakalvenenkathetern zur Hämodialyse dar, die in den Jahren 2004 bis 2022 im Universitätsklinikum Frankfurt implantiert wurden. Der nun deutlich längere kumulative Beobachtungszeitraum von 20.252 Tagen soll beurteilen, ob sich die ursprünglich durch Betz et al. beschriebenen Ergebnisse auch im Langzeitverlauf bestätigen und soll weiterführend einordnen, inwieweit der Iliakalvenenkatheter als Option des Zugangsweges zur chronischen Hämodialyse für Patienten mit schwierigem Gefäßstatus in Betracht gezogen werden kann.
Patienten und Methoden: Das Patientenkollektiv bestand aus 79 Patienten (49 Männer und 30 Frauen) eines breiten Altersspektrums zum Zeitpunkt der Implantation (27 bis 84 Jahre), die während des Beobachtungszeitraums einen oder im Verlauf mehrere Dialysekatheter über eine der Iliakalvenen implantiert bekamen. Insgesamt wurden 95 Iliakalvenenkatheter erfasst und im Hinblick auf ihre Liegedauer, Komplikationsraten und Dialyse-Effektivität evaluiert.
Die Datenerhebung erfolgte aus den archivierten Patientenakten und Dialyseprotokollen des Universitätsklinikums Frankfurt und ergänzend mittels Datenanforderung von weiterbehandelnden Zentren, Praxen und Kliniken.
Ergebnisse: Der Iliakalvenenkatheter kam bei einem speziellen Patientenkollektiv zum Einsatz, welches oftmals bereits eine lange nephrologische Krankheitsgeschichte (im Durchschnitt erfolgte die Implantation 895,5 Tage nach der primären Andialyse), mehrere gescheiterte Gefäßzugänge 3,01(±2,97) und keine Alternativen eines sicheren konventionellen Gefäßzugangs zur Hämodialyse aufwiesen. Die Katheter-Anlage verlief bei 98,96% der Implantationsversuche erfolgreich. Alle erfolgreichen Anlagen verliefen komplikationslos. Die durchschnittliche Katheter-Liegedauer betrug 853,7 (± 162,87) Kathetertage und die primary patency der Katheter lag im Mittelwert bei 507,60 (±58,33) Tagen. Die Gesamt-Infektionsrate der Iliakalvenenkatheter lag bei 0,69/1.000 Kathetertage und eine Katheter-Dysfunktion war in acht Fällen der Grund der Katheter- Entfernung (8,4%). Die durchschnittliche Urea Reduction Rate betrug 68,9% (± 7,1). Es bestand kein statistisch signifikanter Zusammenhang zwischen Alter (p=0.37), Geschlecht (p=0,61), BMI (p=0.97) oder Seitenlage des Katheters (p=0.22) und der Katheter-Liegedauer. Im Verlauf erfolgte bei drei Patienten eine erfolgreiche Nierentransplantation.
Schlussfolgerungen: Die Implantation des Iliakalvenenkatheters hat eine hohe Erfolgsrate, ein niedriges Komplikationsrisiko, ist technisch leicht zu erlernen und bedarf keiner aufwendigen interventionellen Rahmenbedingungen. Auch im Verlauf zeigt sich ein Komplikationsprofil, das in Bezug auf Katheter-Infektionen, Katheter-Dysfunktion, Katheter-Thrombosen und Komplikations-bedingten Explantationen den etablierten Zugangswegen mindestens gleichwertig ist. Außerdem konnte gezeigt werden, dass der Iliakalvenenkatheter eine lange Komplikations-freie Liegedauer hat und in Einzelfällen auch über mehrere Jahre hinweg eine suffiziente Hämodialyse gewährleisten kann. Geäußerte Bedenken, nach welchen eine spätere Nierentransplantation nicht möglich sei, konnten ausgeräumt werden. Des Weiteren beschreibt die vorliegende Studie erstmalig den Langzeitverlauf des Iliakalvenenkatheters bei einem Patientenkollektiv eines breiten Altersspektrums und zeigte auch die altersunabhängige Eignung des Zugangsweges.
Einleitung: Frailty (engl. für Gebrechlichkeit) bezeichnet eine mit hohem Alter zunehmende Verschlechterung des körperlichen und kognitiven Zustandes von Individuen, woraufhin der Körper nicht mehr in der Lage ist, adäquat auf äußere und innere Stressoren zu reagieren. Frailty ist mit einer erhöhten Morbiditäts- und Mortalitätsrate sowie längerer Krankenhausverweildauer und erhöhter postoperativer Komplikationsrate verbunden und stellt folglich einen chirurgischen Risikofaktor dar.
Problemstellung: Die Relevanz eines strukturierten Frailty Assessments in der präoperativen Risikostratifizierung führte zur Indikationsstellung, diverse validierte Risk Assessment Tools auf ihre prädiktive Vorhersagekraft bezüglich des Auftretens von postoperativen Komplikationen und postoperativer Sterbewahrscheinlichkeit zu untersuchen.
Methoden: In die vorliegende Studie wurden Patienten, die in dem Zeitraum vom 01.09.2018 und 31.01.2019 in der allgemeinchirurgischen Ambulanz vorstellig waren und einen allgemeinchirurgischen Eingriff erhielten, aufgenommen. Mittels Fragebögen wurden die Scores „Risk Analysis Index“, „Edmonton Frail Scale“ sowie „Charlson Comorbidity Index“ präoperativ erhoben und retrospektiv mit Daten aus der digitalen Patientenakte zusammengeführt. Endpunkte waren die 90-Tages- Mortalität sowie das Auftreten von schweren postoperativen Komplikationen ab Clavien Dindo Grad 3b. Die Analyse erfolgte in SPSS mittels Chi-Quadrat Test, t- Test und ROC-Kurven Analysen.
Ergebnisse: Das durchschnittliche Alter der Studienkohorte lag bei 56 ± 15.9 Jahren und der Anteil männlicher Patienten überwog mit 59.2% (n=282).
Die Fragebögen wurden 739 Patienten vorlegt und 476 Patienten konnten in die Datenanalyse eingeschlossen werden. Die 90-Tages-Mortalität lag bei 2.7% (n=13) und 9% (n=43) erlitten schwere postoperative Komplikationen ab Clavien-Dindo Grad IIIb. Die Einteilung nach der ASA-Klassifikation (p=0.024), maligne Diagnosen -7-(p<0.001) und Majorkomplikationen (p<0.001) stellten präoperative Risikofaktoren für postoperative 90-Tage-Mortalität dar. Von den Risk Assessment Scores zeigte lediglich der Risk Analysis Index eine signifikante Korrelation auf (p=0.013). Ein mittels ROC-Analyse ermittelter Cut-Off Wert von 23 klassifizierte 166 (34.9%) Patienten als frail, die mit 69% Sensitivität und 66% Spezifität (AUC=0.735) ein erhöhtes Risiko für postoperatives Versterben innerhalb von 90 Tagen aufwiesen (p=0.008). Risikofaktoren für das Auftreten schwerer postoperativer Komplikationen waren die ASA-Klassifikation (p=0.041), längere Krankenhausverweildauer (p<0.001) und maligne Diagnosen (p<0.001). Der Charlson Comorbidity Index (p=0.031) und RAI-C Werte ≥ 23 (p<0.001) korrelierten signifikant mit Majorkomplikationen. Das Alter ab 65 Jahren stellte mit 77 % Spezifität und 69 % Sensitivität ebenfalls einen prädiktiven Risikofaktor für postoperative Mortalität dar (AUC=0,787).
Schlussfolgerung: Mithilfe validierter Risk Assessment Tools ist es möglich Patienten, die ein erhöhtes Risiko für postoperative negative Ereignisse aufweisen, bereits präoperativ zu erkennen. Dies ermöglicht eine bessere Beurteilung der chirurgischen Indikationsstellung sowie das rechtzeitige Ergreifen von risikominimierenden Maßnahmen. Es ist notwendig die Ergebnisse dieser Arbeit künftig mit risikominimierenden Maßnahmen zu verknüpfen und zu untersuchen, ob die Implementierung der Risk Assessment Tools zu verbesserten postoperativen Ergebnissen führt, wenn modifizierbare Faktoren verbessert werden.
This thesis investigates exotic phases within effective models for strongly interacting matter.
The focus lies on the chiral inhomogeneous phase (IP) that is characterized by a spontaneous breaking of translational symmetry and the moat regime, which is a precursor phenomenon exhibiting a non-trivial mesonic dispersion relation.
These phenomena are expected to occur at non-zero baryon densities, which is a parameter region that is mostly non-accessible to first-principle investigations of Quantum chromodynamics (QCD).
As an alternative approach, we consider the Gross-Neveu (GN) and Nambu-Jona-Lasinio (NJL) model within the mean-field approximation, which can be regarded as effective models for QCD.
We focus on two aspects of the moat regime and the IP in these models.
First, we investigate the influence of the employed regularization scheme in the (3+1)-dimensional NJL model, which is nonrenormalizable, i.e., the regulator cannot be removed.
We find that the moat regime is a robust feature under change of regularization scheme, while the IP is sensitive to the specific choice of scheme.
This suggests that the moat regime is a universal feature of the phase diagram of the NJL model, while the IP might only be an artifact of the employed regulator.
Second, we study the influence of the number of spatial dimensions on the emergence of the IP.
To this end, we investigate the GN model in noninteger spatial dimensions d.
We find that the IP and the moat regime are present for d < 2, while they are absent for d > 2.
This demonstrates the central role of the dimensionality of spacetime and illustrates the connection of previously obtained results in this model in integer number of spatial dimensions.
Moreover, this suggests that the occurrence of these phenomena in three spatial dimensions is solely caused by the finite regulator.
In summary, this thesis contributes to advancing our understanding of the phase structure of QCD, particularly regarding the existence and characteristics of inhomogeneous phases and the moat regime.
Even though the investigations are performed within effective models, they provide valuable insight into the aspects that are crucial for the formation of an inhomogeneous chiral condensate in fermionic theories.
Unter den weltweit in ständigem Gebrauch befindlichen Chemikalien befinden sich nicht nur Verbindungen mit akuter toxischer Wirkung, sondern auch solche mit Wirkung auf das endokrine System. Eine große Rolle spielt hier vor allem die Störung der Geschlechtsdifferenzierung und der Reproduktion, ausgelöst durch natürliche oder synthetische Chemikalien mit endokrinem Potential, sogenannte endokrine Disruptoren (ED). Diese Chemikalien können über unterschiedliche Eintragspfade in die Umwelt gelangen. Seit Mitte des 20. Jahrhunderts werden mehr und mehr Fälle bekannt, in denen anthropogene Chemikalien die Pflanzen- und Tierwelt belasten, darunter zahlreiche Befunde zu Störungen des Hormonsystems von Mensch und Tier.
Im Rahmen der Gefahren- und Risikobewertung steht bereits eine Vielzahl harmonisierter Prüfrichtlinien für die Identifizierung und Evaluierung der Effekte von (potentiellen) ED zur Verfügung. Um die Gesamtheit aller potentiellen Interaktionen von ED mit dem Hormonsystem detektieren zu können, ist die In-vivo-Untersuchung an Vertebraten in der Chemikalienregistrierung bisher unabdingbar. Bei der Untersuchung endokriner Potentiale in höheren Vertebraten spielen vor allem nager- und vogelbasierte Testsysteme eine wichtige Rolle. Diese bergen jedoch einen hohen zeitlichen, personellen und finanziellen Aufwand und erfordern eine massive Zahl an Versuchstieren, die für diese Tests benötigt werden. Darüber hinaus beinhalten Tierversuche eine Vielzahl von Problemen einschließlich ethischer Bedenken, die sich als Konsequenz der Tierhaltung unter Versuchsbedingungen ergeben. Ein sehr interessanter und vielversprechender Ansatz zur Reduktion von Tierversuchen ist die Entwicklung eines standardisierten Verfahrens für die Untersuchung potentieller ED in Vogelembryonen. Auf Vogelembryonen basierende In-ovo-Modelle stellen einen Mittelweg zwischen In-vitro- und In-vivo-Testsystemen dar. Mit dem Vogeleitest wird der sich entwickelnde Embryo, das für ED sensitivste Entwicklungsstadium im Leben eines Organismus, berücksichtigt.
Das Ziel der vorliegenden Arbeit war die Entwicklung und Eignungsuntersuchung eines auf dem Embryo des Haushuhns (Gallus gallus domesticus) basierenden Testsystems für den Nachweis von ED. Das resultierende Testsystem soll als Alternativmethode zu bisher etablierten nager- und vogelbasierten Testsystemen für die Untersuchung der Effekte hormonell aktiver Substanzen auf die Geschlechtsdifferenzierung in höheren Wirbeltieren eingesetzt werden.
Die im Rahmen der vorliegenden Dissertation durchgeführten Arbeiten umfassten sowohl die Charakterisierung der Normalentwicklung des Hühnerembryos, unbeeinflusst durch ED, als auch die morphologisch-histologischen Veränderungen der Gonaden von substanzexponierten Embryonen. Für die Untersuchung substanzbedingter Effekte, welche den Schwerpunkt der vorliegenden Arbeit darstellen, wurden die Embryonen gegenüber verschiedenen (anti)estrogenen und (anti)androgenen Substanzen exponiert. Unter Einfluss der Estrogene Bisphenol A (BPA) und 17α-Ethinylestradiol (EE2) entwickelten sich die Keimdrüsen der Männchen zu Ovotestes, während Weibchen ein Ovar mit deutlich schmalerem Cortex ausbildeten. Unter Einfluss der Antiestrogene Fulvestrant und Tamoxifen blieben Effekte auf die Gonaden männlicher Embryonen aus, eine durch das potente Estrogen EE2 hervorgerufene Feminisierung männlicher Gonaden konnte durch beide Substanzen jedoch effektiv antagonisiert werden. Weibchen bilden unter Einfluss von Tamoxifen deutlich schmalere linke Gonaden mit einem missgebildeten Cortex aus. Unter Einfluss der Androgene Tributylzinn (TBT) und 17α-Methyltestosteron (MT) blieben die Effekte auf männliche Embryonen aus, während die Weibchen anatomisch virilisierte Gonaden und eine Reduktion des linken gonadalen Cortex aufwiesen. Allein die untersuchten antiandrogenen Versuchssubstanzen Cyproteronacetat (CPA), Flutamid und p,p´-Dichlorodiphenyldichloroethen (p,p´-DDE) hatten keinen Effekt auf die gonadale Geschlechtsdifferenzierung männlicher und weiblicher Hühnerembryonen.
Es konnte gezeigt werden, dass der Embryo von G. gallus domesticus einen sensitiven Organismus innerhalb des Tierreichs darstellt und hinreichend sensitiv auf eine Reihe von endokrin wirksamen und reproduktionstoxischen Chemikalien reagiert. Anatomische und histologische Änderungen der Gonaden können daher als Biomarker für die Wirkung von ED bei Vögeln nützlich sein. Die untersuchten Endpunkte beziehen sich jedoch auf apikale Effekte und liefern keine mechanistischen Informationen zu den untersuchten Substanzen. Der
Hühnereitest ist eine sinnvolle Ergänzung zur bestehenden OECD-Testbatterie und zeichnet sich besonders durch seine kostengünstige und einfache Handhabung im Labor sowie einfach durchzuführende Tests aus. Durch die vergleichsweise kurze Versuchsdauer von nur 19 Tagen ist ein schnelles Substanzscreening möglich, welches zeitlich deutliche Vorteile gegenüber den etablierten nager- und vogelbasierten Testsystemen hat. Als Alternative zu bisherigen Assays könnte der vorgeschlagene Hühnereitest dazu beitragen, im Rahmen der (öko)toxikologischen Gefährdungs- und Risikobewertung von Chemikalien künftig weniger Versuchstiere zu verwenden.
By combining two unique facilities at the Gesellschaft fuer Schwerionenforschung (GSI), the Fragment Separator (FRS) and the Experimental Storage Ring (ESR), the first direct measurement of a proton capture reaction of stored radioactive isotopes was accomplished. The combination of well-defined ion energy, an ultra-thin internal gas target, and the ability to adjust the beam energy in the storage ring enables precise, energy-differentiated measurements of the (p,gamma) cross sections. The new setup provides a sensitive method for measuring (p,gamma) reactions relevant for nucleosynthesis processes in supernovae, which are among the most violent explosions in the universe and are not yet well understood. The cross sections of the 118Te(p,gamma) and 124Xe(p,gamma) reactions were measured
at energies of astrophysical interest. The heavy ions were stored with energies of 6 MeV/nucleon and 7 MeV/nucleon and interacted with a hydrogen gas-jet target.
The produced proton-capture products were detected with a double-sided silicon strip detector. The radiative recombination process of the fully stripped ions and electrons from the hydrogen target was used as a luminosity monitor.
Additionally, post-processing nucleosynthesis simulations within the NuGrid [1] research platform have been performed. The impact of the new experimental results on the p-process nucleosynthesis around 124Xe and 118Te in a core-collapse supernova was investigated. The successful measurement of the proton capture cross sections of radioactive isotopes rises the motivation to proceed with experiments in lower energy regions.
[1] M. Pignatari and F. Herwig, “The nugrid research platform: A comprehensive simulation approach for nuclear astrophysics,” Nuclear Physics News, vol. 22, no. 4, pp. 18–23, 2012.
This dissertation is concerned with the task of map-based self-localization, using images of the ground recorded with a downward-facing camera. In this context, map-based (self-)localization is the task of determining the position and orientation of a query image that is to be localized. The map used for this purpose consists of a set of reference images with known positions and orientations in a common coordinate system. For localization, the considered methods determine correspondences between features of the query image and those of the reference images.
In comparison with localization approaches that use images of the surrounding environment, we expect that using images of the ground has the advantage that, unlike the surrounding, the visual appearance of the ground is often long-term stable. Also, by using active lighting of the ground, localization becomes independent of external lighting conditions.
This dissertation includes content of several published contributions, which present research on the development and testing of methods for feature-based localization of ground images. Our first contribution examines methods for the extraction of image features that have not been designed to be used on ground images. This survey shows that, with appropriate parametrization, several of these methods are well suited for the task.
Based on this insight, we develop and examine methods for various subtasks of map-based localization in the following contributions. We examine global localization, where all reference images have to be considered, as well as local localization, where an approximation of the query image position is already known, which allows for disregarding reference images with a large distance to this position.
In our second contribution, we present the first systematic comparison of state-of-the-art methods for ground texture based localization. Furthermore, we present a method, which is characterized by its usage of our novel feature matching technique. This technique is called identity matching, as it matches only those features with identical descriptors, in contrast to the state-of-the-art that also matches features with similar descriptors. We show that our method is well suited for global and local localization, as it has favorable scaling with the number of reference images considered during the localization process. In another contribution, we develop a variant of our localization method that is significantly faster to compute, as it applies a sampling approach to determine the image positions at which local features are extracted, instead of using classical feature detectors.
Two further contributions are concerned with global localization. The first one introduces a prediction model for the global localization performance, based on an evaluation of the local localization performance. This allows us to quickly evaluate any considered parameter settings of global localization methods. The second contribution introduces a learning-based method that computes compact descriptors of ground images. This descriptor can be used to retrieve the overlapping reference images of a query image from a large set of reference images with little computational effort.
The most recent contribution included in this dissertation presents a new ground image database, which was recorded with a dedicated platform using a downward-facing camera. In addition to the data, we also explain our guidelines for the construction of the platform. In comparison with existing databases, our database contains more images and presents a larger variety of ground textures. Furthermore, this database enables us to perform the first systematic evaluation of how localization performance is affected by the time interval between the point in time at which the reference images are recorded and the point in time at which the query image is recorded. We find out that for outdoor areas all ground texture based localization methods have reliability issues, if the time interval between the recording of the query and reference images is large, and also if there are different weather conditions. These findings point to remaining challenges in ground texture base localization that should be addressed in future work.
Matroids are combinatorial objects that generalize linear independence. A matroid can be represented geometrically by its Bergman fan and we compare the symmetries of these two objects. Sometimes, the Bergman fan has additional automorphisms, which are related to Cremona transformations in projective space. Their existence depends on a combinatorial property of the matroid, as has been shown by Shaw and Werner, and we study the consequences for the structure of such matroids. This allows us to gain a better understanding of the so-called Cremona group of a matroid and we apply our results to root system matroids.
Im Rahmen dieser publikationsbasierten Dissertation wurden drei wissenschaftliche Arbeiten veröffentlicht. Als Erstautorenschaft wurde 2022 die Arbeit “Effectiveness of High-intensity Focused Ultrasound (HIFU) Therapy of Solid and Complex Benign Thyroid Nodules - A Long-term Follow up Two-center Study.” im Journal “Experimental and Clinical Endocrinology & Diabetes” veröffentlicht. Im Folgenden wird der Inhalt dieser Arbeit dargelegt. Ein kurzer Überblick über die Ergebnisse der anderen beiden mitpublizierten Arbeiten findet sich im Kapitel „Weitere Ergebnisse der Arbeitsgruppe“.
Durch die hohe Prävalenz benigner Schilddrüsenknoten sind deren Behandlungsalternativen von großem wissenschaftlichem Interesse. Dabei bildet die nebenwirkungsarme, minimalinvasive Thermoablation mittels high-intensity focused ultrasound (HIFU) eine attraktive Alternative zu herkömmlichen Verfahren wie der Schilddrüsenchirurgie oder der Radioiodtherapie. Bei der HIFU-Echotherapie werden die Schilddrüsenknoten auf 80 - 90 Grad Celsius erhitzt, sodass eine irreversible Koagulationsnekrose entsteht. Um den Therapieprozess und die Indikationsstellung von HIFU bei benignen Schilddrüsenknoten zu optimieren, ist es notwendig, genaue Studien durchzuführen.
Ziel der vorliegenden bizentrischen Langzeitstudie war, die Effektivität von HIFU-Echotherapien bei benignen Schilddrüsenknoten zu evaluieren und erstmalig den Einfluss der Knotenmorphologie auf den Therapieerfolg zu untersuchen. Vor der Therapie und in regelmäßigen Intervallen nach der Therapie wurden die Größe und die Morphologie der Schilddrüsenknoten mittels Ultraschall dokumentiert. In der retrospektiven Studie wurden Daten von 58 Patienten ausgewertet. Dabei wurde die Gesamtpopulation in eine Gruppe mit soliden und in eine Gruppe mit komplexen Knoten eingeteilt. Die durchschnittliche prozentuale Volumenreduktion in jeder Gruppe wurde mit dem Wilcoxon-Signed-Rank Test statistisch analysiert.
Die Gesamtpopulation zeigte eine Volumenreduktion der zuvor abladierten Knoten von 38.86 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p < 0.0001, n = 25), 42.7 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p < 0.0001, n = 18), 62.21 % nach 9 Monaten (Spannweite: 12.88 % - 93.2 %, p = 0.0078, n = 8) und 61.42 % nach 12 Monaten (Spannweite: 39.39 % - 93.2 %, p > 0.05, n = 4). Die soliden Knoten hatten eine Volumenreduktion von 49.98 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p = 0.0001, n = 15), 46.40 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p = 0.001, n = 11), 65.77 % nach 9 Monaten (Spannweite: 39.39 % - 93.2 %, p = 0.0156, n = 7) und 63.88 % nach 12 Monaten (Spannweite: 39.39 % - 93.2%, p > 0.05, n = 2). Komplexe Knoten hatten eine Volumenreduktion von 35.2 % nach 3 Monaten (Spannweite: 5.85 % - 68.63 %, p = 0.002, n = 10), 36.89 % nach 6 Monaten (Spannweite: 12.23 % - 68.63 %, p = 0.0156, n = 7) und 63.64 % nach 12 Monaten (Spannweite: 52,38 % - 73.91 %, p > 0.05, n = 2).
In der vorliegenden bizentrischen Langzeitstudie wurde deutlich, dass HIFU-Echotherapie eine effektive Behandlungsoption benigner Schilddrüsenknoten ist. Erstmalig gezeigt wurde der Trend, dass solide Knoten besser auf HIFU-Echotherapie ansprechen als komplexe Knoten.
Anhand der gewonnenen Ergebnisse und der neuen Erkenntnisse zum Einfluss der Knotenmorphologie auf die HIFU-Echotherapie benigner Schilddrüsenknoten kann HIFU als Therapieoption besser bewertet werden. Eine differenziertere Indikationsstellung in Bezug auf solide und komplexe Knoten wird ermöglicht und die HIFU-Echotherapie kann gegen andere thermoablative Verfahren abgewogen werden.
Diese Promotionsarbeit dient in erster Linie dazu herauszufinden, ob Unterschiede im Gesamt- und rezidivfreien Überleben zwischen dem laparoskopischen und offenen chirurgischen Zugangsweg der radikalen Nephroureterektomie (RNU) bei Patienten mit nicht-metastasiertem Urothelkarzinom des oberen Harntrakts bestehen. Als sekundäres Ziel soll untersucht werden, ob die Durchführung einer präoperativen Ureterorenoskopie (URS) bei Patienten mit nicht-metastasiertem Urothelkarzinom des oberen Harntrakts zu Unterschieden im Gesamt- und rezidivfreien Überleben führt.
Zur Untersuchung der Hypothesen wurden die Daten von Patienten, die zwischen 2010 und 2020 wegen eines Urothelkarzinom des oberen Harntrakts behandelt wurden, retrospektiv aus institutionellen Datenbanken erhoben. Die Studienpopulation bestand aus Patienten, die älter als 18 Jahre waren, sich einer offenen oder laparoskopischen RNU unterzogen und bei denen kein Verdacht auf Metastasen bestand (cM0). Patienten mit Verdacht auf Metastasen bei der Diagnose (cM1) oder anderen Therapien als einer RNU wurden ausgeschlossen. Die Daten wurden tabellarisch dargestellt und, mithilfe von Kaplan-Meier-Kurven, Unterschiede im Gesamt- und rezidivfreien Überleben hinsichtlich des chirurgischen Zugangs (laparoskopisch versus offen) untersucht. In gesonderten Kaplan-Meier-Kurven wurde darüber hinaus der Einfluss der präoperativen URS auf das Gesamt- und rezidivfreie Überleben beider Kohorten untersucht (unabhängig vom Zugangsweg).
Von den 59 Patienten, die sich einer RNU unterzogen, wurden 29% (n=17) laparoskopisch und 71% (n=42) offen operiert. Die Patienten- und Tumormerkmale waren in beiden Gruppen gleichmäßig verteilt (p≥0,2). Das mediane Gesamtüberleben unterschied sich nicht statistisch signifikant zwischen den Kohorten. Es betrug 93 Monate nach einer laparoskopischen RNU im Vergleich zu 73 Monaten nach einer offenen RNU (p=0,46). Das mediane rezidivfreie Überleben wies keine Unterschiede zwischen laparoskopischer und offener RNU auf und betrug für beide Kohorten 73 Monate (p=0,93). Auch das mediane Gesamt- und rezidivfreie Überleben unterschied sich nicht zwischen Patienten mit und ohne präoperativer URS (p=0,1).
Basierend auf den Ergebnissen einer retrospektiven, unizentrischen Studie zeigten die Gesamt- und rezidivfreien Überlebensraten bei Patienten mit nicht-metastasiertem Urothelkarzinom des oberen Harntrakts, die mit laparoskopischer oder offener RNU behandelt wurden, keinen signifikanten Unterschied. Das laparoskopische Verfahren kann dem offenen Verfahren also ebenbürtig angesehen werden. Außerdem führte eine präoperative URS vor der RNU nicht zu verringerten Gesamt- oder rezidivfreien Überlebensraten.
Trotz der nennenswerten Ergebnisse bestehen auch für die vorliegende Studie Einschränkungen. Sie begründen sich einerseits auf dem retrospektiven Studiendesign, was in einer schlechteren Qualität der Daten resultiert sowie andererseits auf der geringen Stichprobengröße, weshalb die Ergebnisse nur eingeschränkt auf die Allgemeinheit anwendbar sind.
Auf der Grundlage dieser Studie sollten multizentrische, randomisierte, prospektive Studien mit einer umfangreicheren Kohortengröße erfolgen, um diese Ergebnisse zu bestätigen und die verbleibenden Unsicherheiten hinsichtlich des onkologisch günstigsten chirurgischen Verfahrens zu klären.
A central concern in genetics is to identify mechanisms of transcriptional regulation. The aim is to unravel the mapping between the DNA sequence and gene expression. However, it turned out that this is extremely complex. Gene regulation is highly cell type-specific and even moderate changes in gene ex- pression can have functional consequences.
Important contributors to gene regulation are transcription factors (TFs), that are able to directly interact with the DNA. Often, a first step in understanding the effect of a TF on the gene’s regulation is to identify the genomic regions a TF binds to. Therefore, one needs to be aware of the TF’s binding preferences, which are commonly summarized in TF binding motifs. Although for many TFs the binding motif is experimentally validated, there is still a large number of TFs where no binding motif is known. There exist many tools that link TF binding motifs to TFs. We developed the method Massif that improves the performance of such tools by incorporating a domain score that uses the DNA binding domain of the studied TF as additional information.
TF binding sites are often enriched in regulatory elements (REMs) such as promoters or enhancers, where the latter can be located megabases away from its target gene. However, to understand the regulation of a gene it is crucial to know where the REMs of a gene are located. We introduced the EpiRegio webserver that holds REMs associated to target genes predicted across many cell types and tissues using STITCHIT, a previously established method. Our publicly available webserver enables to query for REMs associated to genes (gene query) and REMs overlapping genomic regions (region query). We illus- trated the usefulness of EpiRegio by pointing to a TF that occurs enriched in the REMs of differential expressed genes in circPLOD2 depleted pericytes. Further, we highlighted genes, which are affected by CRISPR-Cas induced mutations in non-coding genomic regions using EpiRegio’s region query. Non-coding genetic variants within REMs may alter gene expression by modifying TF binding sites, which can lead to various kinds of traits or diseases. To understand the underlying molecular mechanisms, one aims to evaluate the effect of such genetic variations on TF binding sites. We developed an accurate and fast statistical approach, that can assess whether a single nucleotide polymorphism (SNP) is regulatory. Further, we combined this approach with epigenetic data and additional analyses in our Sneep workflow. For instance, it enables to identify TFs whose binding preferences are affected by the analyzed SNPs, which is illustrated on eQTL datasets for different cell types. Additionally, we used our Sneep workflow to highlight cardiovascular disease genes using regulatory SNPs and REM-gene interactions.
Overall, the described results allow a better understanding of REM-gene interactions and their interplay with TFs on gene regulation.
Das adaptive Immunsystem schützt den Menschen vor extra- wie auch intrakorporal auftretenden Pathogenen und Krebszellen. Die Funktionalität dieses Prozesses geht hierbei auf die Interaktion und Kooperation einer Vielzahl verschiedener Zelltypen des Körpers zurück und ist vorwiegend innerhalb der Lymphknoten lokalisiert. Ist auch nur ein Bestandteil dieses sensiblen Prozesses gestört, kann dies zu einem teilweisen oder vollständigen Verlust der immunologischen Fitness des Menschen führen. Daher war es das Ziel dieser Arbeit, solche Aberrationen des humanen Lymphknotengewebes umfassend digital-pathologisch zu detektieren und zu definieren.
Hierfür wurde zunächst eine digitale Gewebedatenbank etabliert. Diese basiert auf dem im Rahmen dieser Arbeit implementierten Content-Management-System Digital Tissue Management Suite. Weiterhin wurde die Software Feature analysis in tissue histomorphometry entwickelt, welche die Analyse von zweidimensionalen whole slide images ermöglicht. Hierbei werden Methoden aus dem Bereich Computer Vision und Graphentheorie eingesetzt, um morphologische und distributionale Eigenschaften der Zelltypen des Lymphknotens zu charakterisieren. Darüber hinaus enthält diese Software Plug-ins zur Visualisierung und statistischen Analyse der Daten.
Aufbauend auf der eigens implementierten, digitalen Infrastruktur, in Kombination mit der Software Imaris wurden zweidimensional und dreidimensional gescannte, reaktive und neoplastische Gewebeproben digital phänotypisiert. Hierbei konnten neue mechanische Barrieren zur Kompartimentalisierung der Keimzentren aufgeklärt werden. Weiterhin konnte der Erhalt des quantitativen Verhältnisses einzelner Zellpopulationen innerhalb der Keimzentren beschrieben werden. Ausgehend von den reaktiven Phänotypen des Lymphknotens, wurden pathophysiologische Aberrationen in verschiedenen lymphatischen Neoplasien untersucht. Hierbei konnte gezeigt werden, dass speziell die strukturelle Destruktion häufig mit einer morphologischen Veränderung der fibroblastischen Retikulumzellen einhergeht.
Neben strukturellen Veränderungen sind auch zytologische Veränderungen der Tumormikroumgebung zu verzeichnen. Eine besondere Rolle spielen hierbei sogenannte Tumor-assoziierte Makrophagen. Im Rahmen dieser Arbeit konnte gezeigt werden, dass speziell Makrophagen in der Tumormikroumgebung des diffus großzelligen B-Zell-Lymphoms und der chronisch lymphatischen Leukämie spezifische pathophysiologische Veränderungen aufzeigen. Auch konnte gezeigt werden, dass genetische Änderungen neoplastischer B-Zellen mit einer generellen Reduktion der CD20-Antigendichte einhergehen.
Zusammenfassend ermöglichten die Ergebnisse die Generierung eines umfassenden digital-pathologischen Profils des klassischen Hodgkin-Lymphoms. Hierbei konnten morphologische Veränderungen neoplastischer, CD30-positiver Hodgkin-Reed-Sternberg-Zellen validiert und beschrieben werden. Auch konnten pathologische Veränderungen des Konnektoms und der Tumormikroumgebung dieser Zellen parametrisiert und quantifiziert werden. Abschließend wurde unter Anwendung eines Random forest-Klassifikators die diagnostische Potenz digital-pathologischer Profile evaluiert und validiert.
In this thesis, we present a detailed consideration of both qualitative and quantitative properties of static spherically symmetric solutions of the Einstein equations with self-interacting scalar fields. Our focus is on solutions with naked singularities. We study the qualitative properties of the solutions of the Einstein equations with real static self-interacting $N$ scalar fields, making some assumptions on self-interaction. We provide a rigorous proof that the corresponding solutions will be regular up to $r=0$. Furthermore, we find the rigorous form of asymptotic solutions near the singularity and at spatial infinity. We construct some examples of spherical-like naked singularities at $r=r_s\neq0$ in curvature coordinates.
We analyze the stability of the previously considered solutions against odd-parity gravitational perturbations and also examine the fundamental quasi-normal modes spectra. For the general class of the self-interaction potential, we demonstrate well-posedness of the initial problem and stability for positively defined potentials. As an example, we numerically study the case of the scalar field with power-law self-interaction potential and find the fundamental quasi-normal modes frequencies. We demonstrate that they differ from the standard Schwarzschild black hole case.
We study in detail the motion of particles in the vicinity of previously considered solutions. Mainly, we are interested in considering properties of the distribution of stable circular orbits around the corresponding configurations and images of the accretion disk for a distant observer. For all cases, we find possible types of stable circular orbit distributions and domains of parameters where they are realized.
We also demonstrate that the presence of self-interaction can lead to a new type of circular orbit distributions, which is absent in the linear massless scalar field case. We build Keplerian disk images in the plane of a distant observer and demonstrate the possibility to mimic the shadows of black holes.
Der Fokus der Arbeit liegt auf der Untersuchung von Wechselwirkungen zwischen Molekülen in selbst-anordnenden Monolagen (SAMs) auf Goldoberflächen mittels Rastertunnelmikroskopie und komplementären Methoden wie z.B. Infrarot-Reflektions-Absorptions-Spektro-skopie.
In dieser Arbeit wurde das kürzlich etablierte Konzept von eingebetteten Dipolmomenten in aromatischen, SAM-bildenden Molekülen eingehender untersucht. Das Ausmaß des Dipol-moments und die Größe der SAM-bildenden Moleküle wurden synthetisch variiert und der Einfluss auf die Struktur und elektronischen Eigenschaften der SAMs untersucht. Binäre, gemischte Monolagen aus SAM-bildenden Molekülen mit "entgegen gerichteten", Dipolmomenten wurden hergestellt und charakterisiert. Zur Herstellung der binären, gemischten Monolagen wurden zwei Methoden verwendet: die Monolagen wurden a) aus bereits gemischten Lösungen der Moleküle abgeschieden oder b) eine reine SAM in die Lösung des anderen Moleküls eingelegt, so dass ein Austausch stattfand. Der Vergleich der beiden Methoden ermöglicht Rückschlüsse über die Abscheidungsprozesse. Die Charakterisierung der SAMs dieser Mischungsreihen gab Aufschluss über Eigenschaften wie Packungsdichte, Austrittsarbeit, elektronischen Ladungstransport in Monolagen und Orientierung der Moleküle relativ zur Oberfläche und erlaubte Schlussfolgerungen über die Mischbarkeit und das Ausmaß der Dipolwechselwirkungen der Moleküle in der Monolage. In einem ähnlichen Ansatz zu dem oben beschriebenen Vorgehen wurden Quadrupolwechselwirkungen zwischen SAM-bildenen, Benzol-, Naphtalin- und Anthracenderivaten untersucht. In Mischungsreihen wurden SAMs von nicht- und teilweise (hoch)fluorierten, SAM-bildenden Molekülen auf Goldoberflächen charakterisiert. Die Ergebnisse der Untersuchungen können bei der gezielten Einstellung der elektronischen Eigenschaften in elektronischen Bauteilen wie OFETs Anwendung finden.
In einem weiteren Projekt wurde der Einfluss von polaren Endgruppen auf die in situ Abspaltung von Schutzgruppen an Terphenylthiol-Derivaten untersucht, wobei die Ergebnisse zum Aufbau größerer, aus organischer Elektronik bestehender, Netzwerke verwendet werden können.
This cumulative dissertation contains four self-contained chapters on stochastic games and learning in intertemporal choice.
Chapter 1 presents an experiment on value learning in a setting where actions have both immediate and delayed consequences. Subjects make a series of choices between abstract options, with values that have to be learned by sampling. Each option is associated with two payoff components: One is revealed immediately after the choice, the other with one round delay. Objectively, both payoff components are equally important, but most subjects systematically underreact to the delayed consequences. The resulting behavior appears impatient or myopic. However, there is no inherent reason to discount: All rewards are paid simultaneously, after the experiment. Elicited beliefs on the value of options are in accordance with choice behavior. These results demonstrate that revealed impatience may arise from frictions in learning, and that discounting does not necessarily reflect deep time preferences. In a treatment variation, subjects first learn passively from the evidence generated by others, before then making a series of own choices. Here, the underweighting of delayed consequences is attenuated, in particular for the earliest own decisions. Active decision making thus seems to play an important role in the emergence of the observed bias.
Chapter 2 introduces and proves existence of Markov quantal response equilibrium (QRE), an application of QRE to finite discounted stochastic games. We then study a specific case, logit Markov QRE, which arises when players react to total discounted payoffs using the logit choice rule with precision parameter λ. We show that the set of logit Markov QRE always contains a smooth path that leads from the unique QRE at λ = 0 to a stationary equilibrium of the game as λ goes to infinity. Following this path allows to solve arbitrary finite discounted stochastic games numerically; an implementation of this algorithm is publicly available as part of the package sgamesolver. We further show that all logit Markov QRE are ε-equilibria, with a bound for ε that is independent of the payoff function of the game and decreases hyperbolically in λ. Finally, we establish a link to reinforcement learning, by characterizing logit Markov QRE as the stationary points of a game dynamic that arises when all players follow the well-established reinforcement learning algorithm expected SARSA.
Chapter 3 introduces the logarithmic stochastic tracing procedure, a homotopy method to compute stationary equilibria for finite and discounted stochastic games. We build on the linear stochastic tracing procedure (Herings and Peeters 2004), but introduce logarithmic penalty terms as a regularization device, which brings two major improvements. First, the scope of the method is extended: it now has a convergence guarantee for all games of this class, rather than just generic ones. Second, by ensuring a smooth and interior solution path, computational performance is increased significantly. A ready-to-use implementation is publicly available. As demonstrated here, its speed compares quite favorable to other available algorithms, and it allows to solve games of considerable size in reasonable times. Because the method involves the gradual transformation of a prior into equilibrium strategies, it is possible to search the prior space and uncover potentially multiple equilibria and their respective basins of attraction. This also connects the method to established theory of equilibrium selection.
Chapter 4 introduces sgamesolver, a python package that uses the homotopy method to compute stationary equilibria of finite discounted stochastic games. A short user guide is complemented with discussion of the homotopy method, the two implemented homotopy functions logit Markov QRE and logarithmic tracing, and the predictor-corrector procedure and its implementation in sgamesolver. Basic and advanced use cases are demonstrated using several example games. Finally, we discuss the topic of symmetries in stochastic games.
Thomas Bowrey, who was an employee of the British colonial government, visited the Malay-speaking region at the end of the 17th century and published a dictionary of Malay (1701) which consists of 12,683 headwords. It is one of the oldest and largest collections of data on this language, which was the first language of the people he came into contact with while travelling through the Malay Peninsula, spending most of his time in harbours along its west coast. Malay, which was spoken in the various trading centres of this area (e.g. Penang, Malacca), had long previously begun to develop into a form of lingua franca during Bowrey’s stay there due to the fact that traders, especially those from Arabic countries (beginning in the 12th century), China (from the 15th century onwards), Portugal (since 1511), the Netherlands (since 1641), and less so from England, came into contact with Malays speaking their local dialects in the various trading posts in Malaya and probably began to become acquainted with the trade-language variant. Thus, Bowrey must have observed and recorded elements of both.
The data he collected is not limited to Malay variants spoken in coastal areas, but includes material from dialects which he encountered during his travels throughout the Malay Peninsula, though without, however, describing the locations in which he took notes on the lexicon and clauses. Not all of his material was written into manuscript form during his stay in Southeast Asia. A large part of his notes taken in situ were prepared for publication during his long journey home. His notes, which were used to print his dictionary, are in part kept in British libraries. Most of the material accessible to the public was studied during the preparation of this thesis.
Earlier works on this dictionary are quite limited in scope. They deal with very specific aspects such as the meanings of headwords found between the letters A and C (Rahim Aman, 1997 & 1998), and the work of Nor Azizah, who deals with the lexical change found in Bowrey’s dictionary between D and F, and syntactic and sociolinguistic aspects (Mashudi Kader, 2009), and collective nouns by Tarmizi Hasrah (2010). This study will discuss Bowrey’s dictionary as a whole in order to describe its contribution to our knowledge of linguistic and non-linguistic facts in 17th century Malaya. Besides analysing Malay synchronically, this thesis also deals with historical-comparative questions and asks whether Bowrey contributes to our knowledge of the changes to the Malay language between the 17th and 21st centuries.
In order to answer the research questions, this study not only relies on the dictionary in its entirety, but also on the notes found in British libraries as well as other material on early Malay, such as the Pigafetta list (1523), Houtman (1598–1603), and the Wilkinson dictionary (1901) as a complement to Bowrey’s dictionary; at the same time, the Malay Concordance Project (online), the SEAlang Project (online), Kamus Besar Bahasa Indonesia (online), and Kamus Dewan Edisi Keempat (2007) will represent modern Malay. It should be borne in mind that in contrast to the Thomas Bowrey dictionary (TBD), Kamus Dewan Edisi Keempat (KDE4) does not hold information on colloquial forms of Malay, many of which reflect features of lingua franca Malay. This study is divided into two different branches, namely the consideration of synchronic aspects and historical comparative aspects.
Finally, this study concludes that the Malay language in Thomas Bowrey’s dictionary is heavily influenced by both external and internal factors prevalent to the 17th century. The Malay language recorded in the Thomas Bowrey dictionary is very similar to modern Malay. The similarities between the Malay language of the 17th century and the Malay language of today are considerable, even though there are, of course, still some notable variances.
Hintergrund: Amblyopie ist nach Fehlsichtigkeit die häufigste Sehstörung bei Kindern. Sie ist eine wesentliche Ursache für eine lebenslange Minderung der bestkorrigierten Sehschärfe und ist meist unilateral. Eine Asymmetrie in der Qualität des visuellen Eindrucks während der sensiblen Phase führt in der Regel zu einer unzureichenden Entwicklung des binokularen Sehsystems. Die Standardtherapie der Amblyopie besteht aus optimaler optischer Korrektur vorhandener Brechungsfehler und der direkten Okklusion, wobei das funktionsbessere Auge zeitweise mit einem Augenpflaster abgedeckt wird. Bisherige Studien haben gezeigt, dass besonders bei Patienten mit tiefer Amblyopie, die Therapietreue oft mäßig ist. In einigen Fällen kann das amblyope Auge nicht mit der Foveola fixieren. Diese exzentrische Fixation beeinflusst den Therapieerfolg negativ. Unser Ziel war, bei dieser speziellen Patientengruppe die Okklusionsdauer objektiv zu registrieren und deren Auswirkung auf die Visusentwicklung und die Fixationsänderung in Abhängigkeit vom Alter über einen langen Zeitraum zu untersuchen.
Methoden: In unserer prospektiven multizentrischen Pilotstudie untersuchten wir amblyope Kinder mit exzentrischer Fixation im Alter von 3-16 Jahren während 12-monatiger Okklusionsbehandlung. Der Nahvisus wurde mittels Landoltringen und Lea-Symbolen (jeweils Reihenoptotypen) bestimmt. Die Okklusionsdauer wurde kontinuierlich mit einem TheraMon®-Mikrosensor aufgezeichnet, der am Augenpflaster angebracht wurde. Der Fixationsort am Augenhintergrund wurde mit einem direkten Ophthalmoskop bestimmt. Unsere Ziele waren: Evaluierung der Sehfunktion, Therapieadhärenz und Beurteilung des Fixationsortes des amblyopen Auges. Der Anteil des korrigierten Visusdefizits, die Dosis-Wirkungs-Beziehung und die Therapieeffizienz wurden berechnet.
Ergebnisse: In unserer Studie wurden 12 Patienten mit Schiel- und kombinierter Schiel- und Anisometropieamblyopie im Alter von 2,9-12,4 Jahren (im Mittel 6,5 ± 3,4 Jahre) untersucht. Der Anfangsvisus der amblyopen Augen nach 3 Monaten refraktiver Adaptationsphase lag im Mittel bei 1,4 ± 0,4 logMAR (Spannweite 0,9-2,0), und der 5 Führungsaugen bei 0,3 ± 0,3 logMAR (Spannweite -0,1-0,8). Die mittlere interokuläre Visusdifferenz (IOVAD, Visusunterschied zwischen dem amblyopen Auge und dem Führungsauge) zu Beginn betrug im Mittel 1,1 ± 0,4 log Einheiten (Spannweite 0,5-1,8). Die verschriebene Okklusionsdauer lag im Median bei 7,7 Stunden/Tag (Spannweite 6,6-9,9), die tatsächlich erreichte bei 5,2 Stunden/Tag (Spannweite 0,7-9,7). Nach 12 Monaten betrug die mediane Visusbesserung der amblyopen Augen 0,6 log Einheiten (Spannweite 0-1,6), die mediane IOVAD 0,3 log Einheiten (Spannweite 0-1,8). Multiple Regressionsanalyse mit Rückwärtselimination zeigte, dass sowohl das Alter (p=0,0002) als auch die Okklusionsdosis (p=0,046) signifikante Einflussfaktoren für den Visusanstieg waren. Kinder unter 4 Jahren zeigten das beste Ansprechen mit der niedrigsten Rest-IOVAD (Median 0,1 log Einheiten, Spannweite 0-0,3). Die Effizienzberechnung ergab eine Visusbesserung von etwa einer log Visusstufe pro 100 Stunden Okklusion in den ersten zwei Monaten und einer halben log Visusstufe nach 6 Monaten. Die Therapieeffizienz nahm mit zunehmendem Alter ab (p = 0,01). Trotz einer gewissen Visusbesserung auch bei Patienten im Alter von ≥8 Jahren (Median 0,4 log Einheiten), zeigten diese eine geringere Therapieadhärenz sowie -effizienz (mediane Rest-IOVAD 0,8 log Einheiten). Zentrale Fixation wurde von 9 Patienten nach im Median 3 Monaten erreicht (Spannweite 1-4 Monate). Drei Patienten (>6 Jahre) erreichten keine zentrale Fixation.
Schlussfolgerung: Amblyopie mit exzentrischer Fixation stellt auch bei guter Adhärenz eine Herausforderung für den Therapieerfolg dar. Unsere Studie zeigte erstmals prospektive quantitative Daten basierend auf elektronischer Erfassung der Okklusion bei dieser seltenen Patientengruppe. Es konnte die deutliche Abnahme der Therapieeffizienz mit zunehmendem Alter gezeigt werden. Die Visusbesserung wurde viel stärker vom Alter als von der Okklusionsdosis beeinflusst. Nur Kinder, die zum Okklusionsbeginn jünger als 4 Jahre waren, konnten im Studienzeitraum in ihren amblyopen Augen eine für ihr Alter annähernd normale Sehschärfe und eine IOVAD <0,2 log Einheiten erreichen. Demzufolge sind, trotz möglicher geringer Visusbesserung auch bei älteren Patienten, eine frühzeitige Diagnose und Therapie dieser Patientengruppe unerlässlich für den Therapieerfolg.
Förderung: bereitgestellt durch den Forschungspreis des Vereins „Augenstern e.V.“
The role of USP22 in nucleic acid sensing pathways and interferon-induced necroptotic cell death
(2023)
Every day, living organisms are challenged by internal and external factors that threaten to bring imbalance to their tightly regulated systems and disrupt homeostasis, leading to degeneration, and ultimately death. More than ever, we face the challenge of combating diseases such as COVID-19 caused by infection with the SARS-CoV-2 coronavirus. It is therefore crucial to identify host factors that control antiviral defense mechanisms. In addition, in the fight against cancer, it is becoming increasingly important to identify markers that could be used for targeted therapy to influence cellular processes and determine cell fate.
As a deubiquitylating enzyme, ubiquitin specific peptidase 22 (USP22) mediates the removal of the small molecule ubiquitin, which is post-translationally added to target proteins, thereby regulating several important processes such as protein degradation, activation or localization. Through its deubiquitylating function, USP22 controls several biological processes such as cell cycle regulation, proliferation and cancer immunoresistance by modulating key proteins involved in these pathways. Lately, USP22 was reported to positively regulate TNFα-mediated necroptosis, an inflammatory type of programmed cell death, in various human tumor cell lines by affecting RIPK3 phosphorylation. In addition, USP22 as a part of the Spt-Ada-Gcn5 acetyltransferase (SAGA) transcription complex is known to regulate gene expression by removing ubiquitin from histones H2A and H2B. However, little is known about the role of USP22 in global gene expression.
In this study, we performed a genome-wide screen in the human colon carcinoma cell line HT-29 and identified USP22 as a key negative regulator of basal interferon (IFN) expression. We further demonstrated that the absence of USP22 results in increased STING activity and ubiquitylation, both basally and in response to stimulation with the STING agonist 2'3'-cGAMP, thereby affecting IFNλ1 expression and basal expression of antiviral ISGs. In addition, we were able to establish USP22 as a critical host factor in controlling SARS-CoV-2 infection by regulating infection, replication, and the generation of infectious virus particles, which we attribute in part to its role in regulating STING signaling.
In the second part of the study, we connected the findings of USP22-dependent regulation of IFN signaling and TNFα-induced necroptosis and investigated the role of USP22 during necroptosis induced by the synergistic action of IFN and the Smac mimetic BV6 in caspase-deficient settings. We identified USP22 as a negative regulator of IFN-induced necroptosis, which does not depend on STING expression, but relies on a yet unknown mechanism.
In summary, we identify USP22 as an important regulator of IFN signaling with important implications for the defense against viral infections and regulation of the necroptotic pathway that could be exploited for devising targeted therapeutic strategies against viral infections and related diseases like COVID-19, and advancing precision medicine in cancer treatment.
Molecular oxygen (O2) is essential for numerous metabolic processes. Not surprisingly, hypoxia and the resulting adaptations play a pivotal role in pathophysiology, e.g., in cancer or in inflammatory diseases. Of note, myeloid cells are known to accumulate in hypoxic regions such as tumor cores or rheumatoid arthritis joints and may contribute to disease progression. While most studies so far concentrated on transcriptional adaptation by the hypoxia-inducible factors (HIF) 1 and 2 under short term hypoxia, prolonged oxygen deprivation and alternative post-transcriptional regulation are rather poorly investigated.
Consequently, the aim of the study was to generate a comprehensive overview of mRNA de novo synthesis and degradation and its contribution to total mRNA changes in monocytic cells in the course of hypoxia.
To this end, I used thiol-linked alkylation for the metabolic sequencing of RNA (SLAM-Seq) to characterize RNA dynamics under hypoxia. Specifically, I labeled monocytic THP-1 cells under normoxia (N), acute hypoxia (AH; 8 h 1% O2), or chronic hypoxia (CH; 72 h 1% O2) with 4-thiouridine (4sU), which allows for transcriptome-wide identification of de novo synthesized mRNAs and estimation of their half-lives. Total mRNA expression analyses revealed that most changes occurred under CH. Considering that HIF accumulation and resulting transcriptional regulation was shown to decline again under CH, I further analyzed the impact of RNA stability on gene expression. I observed a global reduction in RNA half-lives under hypoxia, indicative for the attenuation of energy-consuming protein synthesis upon oxygen deprivation. Moreover, I observed a subgroup of hypoxic destabilized transcripts with resulting decreased mRNA expression under CH, which consisted of 59 nuclear-encoded mitochondrial mRNAs. This might prevent futile production of new mitochondria under conditions, where mitochondria are even actively degraded to prevent production of detrimental reactive oxygen species.
While stability-regulated transcripts were mainly destabilized under hypoxia, the vast majority of differentially de novo synthesized transcripts were upregulated.
Functional analyses revealed not only hypoxia, but also cholesterol homeostasis and inflammatory response as top enriched terms, corroborating findings on total mRNA level. Focusing on hypoxia-altered cholesterol metabolism, I observed an 9 accumulation of early and a decrease in late cholesterol precursors, which are separated by several oxygen-dependent enzymatic steps. Although total cholesterol levels were only slightly reduced, my data indicate locally lowered endoplasmic reticulum (ER) cholesterol levels under hypoxia, which cause feedback activation of the ER cholesterol-sensing transcription factor sterol regulatory element-binding protein 2 (SREBP2) and induction of cholesterol biosynthesis enzymes. Interestingly, a broad range of interferon-stimulated genes (ISGs), mainly known for their antiviral function, was also induced under hypoxia with similar kinetics as SREBP2 targets, suggesting an immunometabolic crosstalk. While the availability of certain cholesterol biosynthesis intermediates as well as a direct involvement of SREBP2 seemed rather unlikely to cause hypoxic ISG induction, changes in intracellular cholesterol distribution appeared crucial for the hypoxic induction of chemokine-ISGs. Mechanistically, I found that MyD88-dependent toll-like receptor 4 (TLR4) signaling contributes to enhanced hypoxic ISG induction, likely sensitized by changes in cholesterol dynamics. Importantly, hypoxia amplified induction of chemokine-ISGs in monocytes upon treatment with severe acute respiratory syndrome coronavirus type 2 (SARS-CoV-2) spike protein via TLR4 similarly as after addition of infectious virus, which might contribute to systemic inflammation in hypoxemic patients with severe coronavirus disease-2019 (COVID-19).
Taken together, I comprehensively analyzed RNA dynamics in hypoxic monocytes. Specifically, I identified RNA stability as a modulating mechanism to limit production of mitochondria under oxygen-restricted conditions. Moreover, I characterized the immunometabolic crosstalk between disturbed cholesterol homeostasis and spontaneous induction of interferon (IFN)-signaling in hypoxic monocytes, which might contribute to systemic inflammation in severe cases of COVID-19.
Hintergrund: Die Aortenklappenstenose stellt in Europa und Nordamerika das häufigste Klappenvitium dar und ist vor allem auf eine degenerative Genese zurückzuführen. Da das Auftreten erster Symptome mit einer schlechten Prognose assoziiert ist, ist die transfemorale Aortenklappenimplantation mittels Katheter (TAVI) als minimalinvasive Therapie schon seit längerem eine Alternative zum operativen Ersatz der Aortenklappe und aktuelles Thema der Forschung. Zwar existiert eine Vielzahl an Transkatheterklappen und es werden fortlaufend neue Generationen entwickelt, allerdings liegt bislang noch keine Studie vor, die einen direkten Vergleich der intraannularen Portico-Prothese (Abbott) mit der ebenfalls selbstexpandierbaren, aber supraannularen, Symetis-Prothese (Boston Scientific) präsentiert.
Methoden: Es erfolgte eine retrospektive Analyse von 142 gematchten (nach Alter, BMI, NYHA-Klasse, EuroScore, insulinpflichtiger Diabetes Mellitus, arterielle Hypertonie, COPD, KHK, präinterventionelle eGFR, cAVK, Schlaganfall, TIA in der Vorgeschichte) Patienten je Klappenmodell im medianen Alter von 83 Jahren, die sich mit einer hochgradigen symptomatischen Aortenklappenstenose im Zeitraum vom 12.10.2015 bis zum 07.01.2020 einer transfemoralen TAVI im Universitätsklinikum in Frankfurt am Main unterzogen. Untersucht wurde als primärer Endpunkt die Gesamtmortalität nach 1 Jahr. Darüber hinaus wurden mittels multivariater Cox-Regression unabhängige Risikofaktoren identifiziert. Als sekundäre Endpunkte wurden Komplikationen innerhalb von 30 Tagen gemäß den Definitionen des Valve Academic Research Consortium (VARC) 2 gewählt wie die Implantationen neuer Schrittmacher, paravalvuläre Leckage, Gefäßkomplikationen und akutes Nierenversagen. Analysiert wurden außerdem prozedurale Faktoren, die Symptomatik anhand der NYHA-Klasse sowie einige Laborparameter vor und nach der TAVI.
Ergebnisse: In dieser Arbeit konnte gezeigt werden, dass die 1-Jahres-Mortalität mit der Portico-Prothese signifikant höher ist als mit der Symetis-Prothese (25,2% vs. 12,2%; p=0,011). Dabei gelten neben der Portico-Prothese eine reduzierte linksventrikuläre Funktion und die NYHA-Klassen III/IV gemäß multivariater Cox-Regressionsanalyse als unabhängige Risikofaktoren. Postinterventionell war in der Portico-Kohorte ein neuer Linksschenkelblock (34,5% vs. 23,2%; p=0,036), die Implantation neuer Schrittmacher (22,6% vs. 11,8%; p=0,011) sowie ein akutes Nierenversagen (25,5% vs. 12,8%; p=0,006) signifikant häufiger. Hinsichtlich prozedurbezogener Faktoren hat sich herausgestellt, dass mit der Symetis-Prothese häufiger nachdilatiert (41,5% vs. 25,3%; p=0,004), mit der Portico-Prothese hingegen häufiger vordilatiert (92,2% vs. 82,3%; p=0,012) wurde. Außerdem wurde in der Portico-Kohorte signifikant mehr Kontrastmittel eingesetzt und das Verfahren mit der Durchleuchtung dauerte signifikant länger. Echokardiographisch resultierte post TAVI mit der Symetis-Prothese eine signifikant andere bzw. günstigere Verteilung der Aortenklappeninsuffizienzgrade. Laborchemisch war der Wert für NT-proBNP als biochemischer Marker für eine Herzinsuffizienz signifikant höher als in der Symetis-Gruppe.
Schlussfolgerung: Diese Arbeit zeigte eine signifikant höhere Mortalität nach 1 Jahr mit der Portico-Prothese im direkten Vergleich mit der Symetis-Prothese. Außerdem ergab der Vergleich signifikant höhere Komplikationsraten in der Portico-Kohorte hinsichtlich Schrittmacherimplantationen, neuem Linksschenkelblock und akutem Nierenversagen. Weitere Studien sollten die beiden Prothesen im längerfristigen Verlauf vergleichend analysieren. Die Ergebnisse dieser Studie können zur Optimierung neuer Klappengenerationen beitragen, indem sie auf potenziell prognosebestimmende Aspekte des Designs und der Implantationstechnik aufmerksam machen. Außerdem sensibilisert die Studie für eine individuell für jeden Patienten angepasste Prothesenauswahl. Möglicherweise sollte bei Vorerkrankungen der Niere oder bei vorbekannten Herzleitungsstörungen die Symetis- gegenüber der Portico-Prothese vorgezogen werden.
Resistenzen gegenüber Carbapenemen sind eine Bedrohung für die globale Gesundheit mit wenigen verbleibenden Therapieoptionen. Ceftazidim/Avibavtam (CZA) ist die Kombination aus einem Cephalosporin und einem Diazabicyclooctan, mit der Eigenschaft eine Vielzahl von Carbapenemasen der Ambler Klasse A und D zu inhibieren. Resistenzen gegenüber Carbapenemen in gramnegativen Bakterien sind in Kolumbien und anderen Ländern Lateinamerikas weit verbreitet. In den hier vorgestellten Arbeiten wurden 2.235 Enterobakterien und 492 P. aeruginosa Isolate aus fünf Lateinamerikanischen Ländern auf ihre Empfindlichkeit gegenüber CZA und anderen klinisch verfügbaren Antibiotika untersucht. Die CZA-resistenten Isolate wurden mittels PCR und Genomsequenzierung auf die zugrundeliegenden Resistenzmechanismen hin analysiert. CZA zeigte Aktivitäten gegenüber 99,2% (2.217/2.235) aller untersuchten Enterobacterales und 77,8% (383/492) aller P. aeruginosa Isolate. Als plausible Erklärung für die Resistenz gegen CZA konnte mittels qPCR bei allen Enterobakterien und bei 38,5% (42/109) der P. aeruginosa Isolate ein Metallo-β-Laktamase (MBL)-kodierendes Gen nachgewiesen werden. Die verbleibenden P. aeruginosa Isolate wurden einer Genomsequenzierung unterzogen, dabei zeigten sich Mutationen in Genen, die zuvor mit einer verringerten Empfindlichkeit gegen CZA assoziiert wurden, wie z.B. Genen die mit der Überexpression von MexAB-OprM und AmpC (PDC) in Verbindung stehen, sowie Genen, die PoxB (blaOXA-50-like), FtsI (PBP3), DacB (PBP4) und OprD kodieren. Unsere Ergebnisse unterstreichen die Notwendigkeit von Therapieoptionen gegenüber MBL-produzierenden und anderen Carbapenem-resistenten Mikroorganismen. Des Weiteren sind diese Studien eine Momentaufnahme der Empfindlichkeit gegen CZA vor dessen Verfügbarkeit in Lateinamerika und dienen deswegen als Ausgangspunkt um die Entwicklung von Resistenzen in dieser Region zu verfolgen.
In this thesis, the early time dynamics in a heavy ion collision of Pb-Nuclei at LHC center-of-mass energies of 5 TeV is studied. Right after the collision the system is out-of-equilibrium and essentially gluon dominated, with their density saturating at a specific momentum scale Q_s. Based on a separation of scales for the soft and hard gluonic degrees of freedom, the initial state is given from an effective model, known as the Color Glass Condensate. Within this model, the soft gluons behave classical to leading order, making it possible to study their dynamics in gauge invariant fashion on a three dimensional lattice, solving Hamiltonian field equations of motion, keeping real time. Quark-Antiquark pairs are produced in the gluonic medium, known as the Glasma and manifest themselves as a source of quantum fluctuations.
They enter the dynamics of the gluons as a current, making the system semi-classical. In lattice simulations, the non-equilibrium system is tested for pressure isotropization, which is a necessary ingredient to reach a local thermal equilibrium (LTE), making a hydrodynamical description at a later stage possible. In addition, the occupation of energy modes is studied with its implications on thermalization and classicality.
The role of Apelin signaling and endocardial protrusions during cardiac development in zebrafish
(2023)
During cardiac development, cardiomyocytes (CMs) are delaminated from the compact muscle wall to increase the muscle mass of the heart. This process is also known as cardiac trabeculation. It has been shown that growth factors produced by endocardial cells (EdCs) are required for myocardial morphogenesis and growth. In particular, Neuregulin produced by EdCs promotes myocardial trabeculation. The deficiency of Neuregulin signaling leads to hypotrabeculation. Endocardial protrusions project from the endocardium to the myocardium are also essential for the trabeculae onset. Yet current studies only introduce the function of endocardial sprouts descriptively. This article first reports the mechanisms of endocardial sprouting during myocardial trabeculation. By living imaging, we first demonstrate that EdCs interact with CMs through membrane protrusions in zebrafish embryos. More interestingly, these protrusions stay in close contact with their target CMs in spite of the cardiac contraction. We utilize loss-of-function strategies to report the importance of myocardial apelin, which induces endocardial protrusion formation. Zebrafish lacking Apelin signaling exhibit defects in endocardial protrusion formation as well as excessive deposition of cardiac jelly and hypotrabeculation. Notably, we also present data that blocking protrusion formation in endocardial cells phenocopies the trabeculation defects in apelin mutants. Mechanistically, endocardial-derived Neuregulin requires Apelin signaling mediated endocardial protrusions, and Neuregulin dependent pERK expression is attenuated in the condition of reduced endocardial protrusion formation. Together, our data suggest that endocardial-myocardial communication through endocardial protrusions acts as an underlying principle allowing myocardial growth.
Understanding the brain's proactive nature and its ability to anticipate the future has been a longstanding pursuit in philosophy and scientific research. The predictive processing framework explains how the brain generates predictions based on environmental regularities and adapts to both predicted and unpredicted events. Prediction errors (PE) occur when sensory evidence deviates from predictions, triggering cognitive and neural processes that enhance learning and subsequent memory. However, the effects of PE on episodic memory have not been clearly explained. This dissertation aims to address three key questions to advance our understanding of PE and episodic memory. First, how does the degree of PE influence episodic memory, and how do expected and unexpected events interact in this process? Second, what insights can be gained from studying the electrophysiological activity associated with prediction violations, and what role does PE play in subsequent memory benefits? Lastly, how do memory processes change across the lifespan, and how does this impact the brain's ability to remember events? By answering these questions, this dissertation contributes to advancing our understanding of the cognitive and neural mechanisms underlying the relationship PE and episodic memory.
Das Experiment ALICE (A Large Ion Collider Experiment) am CERN (Conseil Européen pour la Recherche Nucléaire) LHC (Large Hadron Collider) fokussiert sich auf die Untersuchung stark wechselwirkender Materie unter extremen Bedingungen. Solche Bedingungen existierten wenige Mikrosekunden nach dem Urknall, als die Temperaturen so hoch waren, dass Partonen (Quarks und Gluonen) nicht zu farbneutralen Hadronen gebunden waren. In solch einem Quark-Gluon-Plasma können sich die Partonen frei bewegen, wobei sie allerdings mit anderen Partonen aus dem Medium stark wechselwirken. Am LHC werden Bleikerne auf ultra-relativistische Energien von bis zu 2.68 TeV beschleunigt und zur Kollision gebracht, wobei für weniger als 10 fm/c ein QGP entsteht, das schnell expandiert. Die Partonen hadronisieren, wenn das QGP sich auf Temperaturen von weniger als der Phasenübergangstemperatur von ≈155MeV abkühlt. Die finalen Teilchen- und Impulsverteilungen werden werden vom ALICE Detektor gemessen und geben Aufschluss auf elementare Prozesse im QGP.
Die TPC (Time Projection Chamber ) ist eines der wichtigsten Detektorsysteme von ALICE. Sie trägt maßgeblich zur Rekonstruktion von Teilchenspuren und zur Identifikation der Teilchensorten bei mittleren Rapiditäten bei. Die TPC ist eine große zylindrische Spurendriftkammer und besteht aus einem 88mˆ3 großen Gasvolumen, das von der zentralen Hochspannungselektrode in zwei Seiten geteilt wird. Durchquert ein Teilchen das Gasvolumen, ionisiert es entlang seiner Spur eine spezifische Menge von Gasatomen. Die Ionisationselektronen driften entlang des extrem homogenen elektrischen Feldes zu den Auslesekammern an den Endkappen auf beiden Seiten der TPC. Die Messung der Position und der Menge der Ionisationselektronen erlaubt die Rekonstruktion der Teilchenspur sowie, in Kombination mit der Impulsmessungen über die Krümmung der Teilchenspur im Magnetfeld, die Bestimmung der Teilchensorte über den spezifischen Energieverlust pro Wegstrecke im Gas. Das Gasvolumen der TPC war in LHC Run 1 (2010–2013) mit Ne-CO_2 (90-10) gefüllt. Die Gasmischung wurde zu Ar-CO_2 (88-12) für Run 2 (2015–2018) geändert. Als Auslesekammern wurden Vieldrahtproportionalkammern verwendet, die aus einer segmentierten Ausleseebene, einer Anodendrahtebene, einer Kathodendrahtebene und einem Gating-Grid (GG) bestehen. Das GG is eine zusätzliche Drahtebene, die durch zwei verschiedene Spannungseinstellungen transparent oder undurchlässig für Elektronen und positive Ionen geschaltet werden kann.
In den ersten Daten von Run 2 bei hohen Interaktionsraten wurden große Verzerrungen der gemessenen Spurpunkte beobachtet, die auf Grund von Verzerrungen des Driftfeldes auftreten und nicht von Daten aus Run 1 bekannt waren. Diese Verzerrungen treten nur sehr lokal an den Grenzen von manchen der inneren Auslesekammern (IROCs) auf. Zudem wurden auch große Verzerrungen in einer (C06) der äußeren Auslesekammern (OROCs) festgestellt, die sich bei einem bestimmten Radius über die ganze Breite der Kammer erstrecken. Die Ergebnisse dieser Arbeit befassen sich mit der Untersuchung jener Verzerrungen und ihrer Ursache, sowie mit der Entwicklung von Strategien um die Verzerrungen zu minimieren.
Messungen der Verzerrungen in den IROCs und Vergleiche mit Simulationen lassen darauf schließen, dass die Verzerrungen von positiver Raumladung hervorgerufen werden, die durch Gasverstärkung an sehr begrenzten Regionen der Auslesekammern entsteht und sich durch das Driftvolumen bewegt. Es werden charakteristische Abhängigkeiten von der Interaktionsrate sowie systematische Veränderungen bei Umkehrung der Orientierung des Magnetfeldes gemessen. Eine erneute Analyse von Run 1 Daten mit den Methoden aus Run 2 zeigt, dass die Verzerrungen bereits in Run 1 auftraten, jedoch durch die Ne-Gasmischung und niedrigere Interaktionsraten um eine Größenordnung kleiner waren. Neue Daten aus Run 2, für die die Gasmischung zeitweise wieder von Ar-CO_2 zu Ne-CO_2- N_2 geändert wurde, bestätigen die Ergebnisse der Run 1 Datenanalyse. Der Ursprung der Raumladung wird systematisch eingegrenzt. Es werden einzelne IROCs identifiziert, an deren Anodendrähten die Raumladung entsteht. Physikalische Modelle ermöglichen es, die Entstehung der Raumladung auf das Volumen zurückzuführen, das sich zwischen zwei IROCs befindet. Damit besteht die Vermutung, dass einzelne Spitzen von Anodendrähten am äußeren Rand dieser IROCs in das Gasvolumen hineinragen und somit hohe elektrische Felder erzeugen, an denen Gasverstärkung stattfindet. Die positiven Ionen können dann ungehindert in das Driftvolumen gelangen. Um diesen Effekt zu unterdrücken, wird das Potential der Cover-Elektroden angepasst, die sich auf den Befestigungsvorrichtungen der Drahtebenen an den Kammerrändern befinden. Dadurch kann die Menge von Ionisationselektronen, die in das Volumen zwischen zwei IROCs hineindriftet und vervielfacht wird, eingeschränkt werden. Über elektro-statische Simulationen und Messungen wird eine Einstellung für das Cover-Elektroden-Potential gefunden, mit der die Verzerrungen auf 30 % reduziert werden können. Die Verzerrungen in OROC C06 entstehen durch positive Ionen, die aus der Verstärkungsregion in das Driftvolumen gelangen, da an dieser bestimmten Stelle zwei aufeinanderfolgende GG-Drähte den Kontakt verloren haben. Die Verzerrungen werden um mehr als einen Faktor 3 reduziert, indem die Hochspannung der Anodendrähte um 50 V und somit der Gasverstärkungsfaktor um einen Faktor 2 verringert wird und indem das Potential der noch funktionierenden GG-Drähte erhöht wird.
Zusammenfassend konnten die lokalen Raumladungsverzerrungen für die letzte Pb−Pb Strahlzeit von Run 2 auf weniger als 1cm bei den höchsten Interaktionsraten verringert werden. Zudem wurde der Anteil des von Raumladungsverzerrungen betroffenen Volumens der TPC signifikant verringert, sodass die ursprüngliche Auflösung der Spurrekonstruktion wieder erreicht werden konnte.
Necroptosis is an immunogenic form of programmed cell death characterized by plasma membrane accumulation of activated mixed lineage kinase domain-like (MLKL) that eventually leads to membrane disruption and release of danger-associated molecular patterns (DAMPs). Necroptotic cell death is tightly controlled by checkpoints, including compartmentalization as well as post-translational modifications (PTMs), like phosphorylation and ubiquitination of receptor-interacting protein kinase (RIPK) 1, RIPK3 and MLKL. Removal of plasma membrane-located activated MLKL via endocytosis or exocytosis can counteract necroptosis, but up till now, the exact mechanisms by which necroptosis is regulated downstream of MLKL activation and oligomerization are not fully understood.
Ubiquitination is a key post-translational modification that regulates various cellular processes including cell survival and cell death signaling via ubiquitination of RIPK1, RIPK3 and MLKL. M1-linked (linear) poly-ubiquitination is mediated exclusively by the linear ubiquitin chain assembly complex (LUBAC) which critically regulates cell fate and immune signaling via death receptors such as TNF receptor 1 (TNFR1).
In this study, we demonstrate that M1 poly-Ubiquitin (poly-Ub) increases during necroptosis which can be blocked by inhibition of LUBAC activity with the small-molecule HOIL-1-interacting protein (HOIP) inhibitor HOIPIN-8 or by loss of LUBAC catalytic subunit HOIP. Intriguingly, HOIPIN-8, as well as the HOIP inhibitor gliotoxin, and HOIP knockdown effectively prevent TNFα/smac mimetic/zVAD.fmk-induced necroptotic cell death in cells of human origin, without affecting necroptotic RIPK1 and RIPK3 phosphorylation, necrosome formation and oligomerization of phosphorylated MLKL. We demonstrate that HOIPIN-8 treatment inhibits MLKL translocation to intracellular membranes and accumulation in plasma membrane hotspots as well as MLKL exocytosis. We further confirm that HOIPIN-8 treatment suppresses necroptotic cell death in primary human pancreatic organoids (hPOs). Using time-lapse imaging and live/dead staining, we demonstrate loss of organoid structure and hPO cell death induced by smac mimetics and caspase inhibitors, thus providing a novel platform to investigate necroptosis in near physiological settings. Inhibition of LUBAC activity with HOIPIN-8 prevents hPO collapse and extends cell viability. Of note, loss of the M1 Ub-targeting deubiquitinating enzymes (DUBs) OTU DUB with linear linkage specificity (OTULIN) and cylindromatosis (CYLD) in human cell lines does not affect necroptosis induction and HOIPIN-8-mediated rescue of necroptosis. Intriguingly, inhibition of LUBAC activity with HOIPIN-8 does not block necroptotic cell death in murine cell lines.
Using massive analyses of cDNA ends (MACE)-seq-based global transcriptome analysis we confirm that necroptosis induces a pro-inflammatory cytokine profile which is dependent on LUBAC function and necroptotic signaling. Loss of LUBAC activity prevents the MLKL-dependent production and release of pro-inflammatory cytokines and chemokines.
Finally, we identify Flotillin-1 and -2 (FLOT1/2) as putative targets of necroptosis-induced M1 poly-Ub. Ubiquitin-binding in ABIN and NEMO (UBAN)-based pulldowns of M1 poly-ubiquitinated proteins revealed enrichment of FLOTs after necroptosis induction which is dependent on LUBAC activity and can be blocked with necroptosis inhibitors Nec-1s, GSK’872 and NSA, targeting RIPK1, RIPK3 and MLKL, respectively. Of note, loss of FLOT1/2 potentiates necroptosis suppression induced by LUBAC inhibition with HOIPIN-8.
Together, these findings identify LUBAC-mediated M1 poly-Ub as an important mediator of necroptosis and identify FLOTs as novel putative targets of LUBAC-mediated M1 poly-Ub during necroptosis. In addition, by modeling necroptosis in primary human organoids, we further expand the spectrum of experimental models to study necroptosis in human cellular settings.
Hintergrund: Der Hypoparathyreoidismus (Hypopara) ist neben der Recurrensparese eine typische postoperative Komplikation nach Thyreoidektomie. Ziel dieser Arbeit soll die Prozessoptimierung des postoperativen Managements sein, um einen p.o. Hypopara frühzeitig zu erkennen und zu therapieren und somit die klinischen Symptome zu lindern oder zu vermeiden.
Methoden: Es wurden alle Patienten mit einer beidseitigen Schilddrüsenresektion eingeschlossen. Ausschlusskriterien waren simultane Nebenschilddrüsen- erkrankungen sowie fortgeschrittene Schilddrüsenmalignome mit geplantem Tumordebulking und/oder langem ITS-Aufenthalt. Postoperativ wurden Parathormon (EDTA) sowie Kalzium (Serum) bestimmt. Bei einem Parathormon (PTH) - Wert unter dem Referenzbereich (15,0-68,3 pg/ml) und/oder einer ausgeprägten Hypokalzämie mit einem Kalziumwert < 1,9 (Ref. 2,20-2,65 mmol/l) und/oder klinischen Zeichen wie Kribbelparästhesien oder Tetanie wurde Kalzium und Vitamin D mittels festem Schema verordnet. Die Symptombesserung wurde klinisch dokumentiert.
Ergebnisse: Am AGAPLESION Elisabethenstift gGmbH in Darmstadt wurden im Zeitraum zwischen Januar 2019 und Juni 2022 Schilddrüseneingriffe bei insgesamt 465 Patienten durchgeführt. Nach Berücksichtigung der Ein- und Ausschlusskriterien wurden 193 Patienten mit Thyreoidektomie in die Auswertung einbezogen. Ein p.o. Hypopara wurde bei 51 Patienten (26,4 %) festgestellt. Bei 40 Patienten (20,7 %) traten Symptome auf (39x Kribbelparästhesie, 1xTetanie). Von den 51 Patienten lag bei 26 (51 %) ein nur leicht erniedrigter Kalziumwert am 1. p.o. Tag vor (zwischen 2,00 und 2,20 mmol/l), bei 10 Patienten (19,6 %) war der Kalziumwert im Normbereich (2,20-2,65 mmol/l). Im Vergleich dazu lag bei 6 von 51 Patienten (11,8 %) ein normwertiger PTH-Wert vor. Bei 20 Patienten (10,4 %) erfolgte intraoperativ eine Nebenschilddrüsen-Replantation in den ipsilateralen M. sternocleidomastoideus. Davon trat bei 8 Patienten (40 %) ein Hypopara auf. Bei 29 Patienten (15 %) wurde in der Histologie ein akzidentiell mitentferntes Epithelkörperchen nachgewiesen. Davon trat bei 13 Patienten (44,8 %) ein Hypopara auf. Die mittlere Zeit nach OP zur PTH-Bestimmung lag bei 2,41 Tagen. Die mittlere Aufenthaltsdauer der Patienten mit Hypopara betrug 3,86 Tage (± 2,272), die der restlichen Patienten betrug 2,69 Tage (± 1,759), p < 0,001.
Schlussfolgerungen: Die PTH-Bestimmung ist neben der klinischen Visite essentiell zur Früherkennung eines p.o. Hypopara. Eine mehrtägige Kalziumbestimmung ist damit nicht zwingend erforderlich, sodass die Verweildauer verkürzt werden kann. Das verordnete Schema zur oralen Substitution von Kalzium und Vitamin D ist auch ambulant fortführbar. Die Replantation einer nicht erhaltbaren NSD hat bei 60 % einen Hypopara verhindert. Die gezielte Darstellung und Erhalt der NSD sollte bei jedem Eingriff eingehalten werden. Insgesamt zeigt diese Arbeit den höheren Stellenwert des postoperativen PTH-Wertes sowie der klinischen Zeichen als das Serumkalzium zur Erkennung und Therapie des Hypopara nach Thyreoidektomie.
Influenza is a contagious respiratory disease caused by influenza A and influenza B viruses. The World Health Organisation (WHO) reports that annual influenza epidemics result in approximately 1 billion infections, 3 to 5 million severe cases, and 300 to 650 thousand deaths. Understanding hidden mechanisms that lead to optimal vaccine efficacy and improvement antiviral treatment strategies remain continuous and central tasks. First, regarding the immune response to vaccines and natural infections, the antibody response echoes the dynamics of diverse immune elements such as B-cells, and plasma cells. Also, responses reflect the processes for B-cells to gain and adapt affinity for the virus. Antibodies (Abs) that respond to the virus surface proteins, particularly to the hemagglutinin (HA), have been identified to protect against infection. The Abs responses binding to HA can be broadly protective as this protein is considerably accessible on the virion. When following sequential infections with similar influenza strains, i.e. two infections with different strains of a subtype, an enhanced breadth and magnitude of Abs response is developed, mainly after the second infection. The effect of being effective to new strains is called Abs cross-reaction.
On the other hand, as for antiviral treatment, the WHO currently approves the use of neuraminidase inhibitors (NIs) such as zanamivir and oseltamivir. Diverse research areas such as system biology, learning-based methods, control theory, and systems pharmacology have guided the development of modern treatment schemes. To do so, mathematical models are used to describe a wide range of phenomena such as viral pathogenesis, immune responses, and the drug's dynamics in the body. Drug dynamics are usually expressed in two phases, pharmacokinetics (PK) and pharmacodynamics (PD) - the PK/PD approach. These schemes leverage pre-clinical and clinical data through modeling and simulation of infection and drug effects at diverse levels. Under such a framework, control-based scheduling systems seek to tailor optimal antiviral treatment for infectious diseases. Thus, influenza treatment can be theoretically studied as a control-based optimization duty (about systems stability, bounded inputs, and optimality). Finally, towards real-world implementation, learning-based methods such as neural networks (NNs) can guide solving issues on the control-based performance. Using NNs as identifiers provide a setting to deal with infrequent measures and uncertain parameters for the control systems.
This thesis theoretically explores central mechanisms in influenza infection via modeling and control approaches. In the first project, we explore how and to what extent antibody-antigen affinity flexibility could guide the Abs cross-reaction in two sequential infections using a hypothetical family of antigens. The set of antigens generally represent strains of influenza, such as those of a subtype. Each antigen is composed of a variable and a conserved area, generically representing the structures of the HA, head, and stalk, respectively. We test diverse scenarios of affinity thresholds in the conserved and variable areas of the antigens. The Abs response reaches a high magnitude when using equivalent affinity thresholds in the conserved and variable areas during the first infection. However, improved cross-reaction is developed when slightly increasing the affinity threshold of the variable area for the second infection. Key mutations via affinity maturation is a feature that, together with affinity flexibility between infections, guides Abs cross-reaction in the model outcome. These results could correlate with studies pointing out that broad responses might be dependent on reaching specific mutations for getting affinity to a newly presented antigen while broadly reaching related antigens. The general platform may serve as a proof-of-concept for exploring fundamental mechanisms that favor the Abs cross-reaction.
In a second project, theoretical schemes are developed to combine impulsive and inverse optimal control strategies to address antiviral treatment scheduling. We present results regarding stability, passivity, bounded inputs, and optimality using impulsive action. The study is founded on mathematical models of the influenza virus (target-cell limited model) adjusted to data from clinical trials. In these studies, participants were experimentally infected with influenza H1N1 and treated with NIs. Results show that control-based strategies could tailor dosage and reduce the amount of medication by up to 44%. Also, control-based treatment reaches the efficacy (98%) of the current treatment recommendations by the WHO. Monte Carlo simulations (MCS) disclose the robustness of the proposed control-based techniques. Using MCS, we also explore the applicability to the individualized treatment of infectious diseases through virtual clinical trials. Furthermore, bounded control strategies are applied directly in drug dose estimation accounting for overdose prevention. Finally, due to the limitations of the available technology intended for clinical practice, we emphasize the necessity of developing system identifiers and observers for real-world applications.
In the third project, the problem of data scarcity and infrequent measures in the real world is handled by means of learning-based methods. System identification is derived using a Recurrent High Order Neural Network (RHONN) trained with the Extended Kalman filter (EKF). Lessons learned from impulsive control frameworks are taken to develop a neural inverse optimal impulsive control --neurocontrol. The treatment efficacy is tested for early (one day post-infection) and late (2 to 3 days post-infection) treatment initiation. The neurocontrol reaches an efficacy of up to 95% while saving almost 40% of the total drug in the early treatment. Robustness is tested via virtual clinical trials using MCS.
Lastly, taking all together, the schemes developed in this thesis for modeling the Abs cross-reaction and control-based treatment tailoring can be extended and adapted to explore similar phenomena in different respiratory pathogens, such as SARS-CoV-2.
Nukleäre Rezeptoren (NRs) sind ligandengesteuerte Transkriptionsfaktoren, die sich aus einer Superfamilie von 48 humanen Mitgliedern zusammensetzt. Seit vielen Jahrzehnten stellen sie ein attraktives Forschungsgebiet für die Arzneistoffentwicklung dar, da sie eine bedeutende Rolle in zahlreichen Prozessen unseres Körpers spielen. Das Ziel dieser Forschungsarbeit bestand darin, neue innovative Liganden für den Peroxisomen-Proliferator-aktivierter-Rezeptor γ (PPARγ) sowie die Waisenrezeptoren Nervenwachtumsfaktor induzierter Klon B (Nur77) und Neuronen-abgeleiteter Waisenrezeptor (NOR-1) zu identifizieren.
Bei den Rezeptoren Nur77 und NOR-1 handelt es sich um noch unzureichend erforschte NRs der NR4A-Familie. Es fehlt insbesondere an Modulatoren dieser Rezeptoren als Werkzeuge, um ihr zum Teil noch unentdecktes Potential zu erforschen. Um diese Lücke zu schließen, wurde ein in vitro Screening durchgeführt und eine Arzneistoff-Fragment-Bibliothek mit 480 Fragmenten, die aus bekannten strukturellen Motiven zugelassener Arzneimittel stammen, auf ihre modulatorische Aktivität an Nur77 und NOR-1 gescreent. Durch das Screening und weitere Testungen konnten jeweils für Nur77 und für NOR-1 drei Verbindungen als Liganden identifiziert werden. Bei der weiteren Charakterisierung stellte sich insbesondere 41 als besonders vielversprechenden Ausgangspunkt für die Entwicklung von Liganden für Nur77 und NOR-1 heraus, der ein besseres Verständnis für die invers agonistische Aktivität lieferte und die Möglichkeit für eine agonistische Modulation aufzeigte. Zudem konnte durch ein weiteres Screening mit Computer-gestützten Verfahren auf Nur77 der Chemotyp von 41 noch weiter optimiert werden und führte zur Identifizierung von Verbindung 68 (EC50 = 2 ± 1 μM). Diese zeichnete sich durch eine hohe Potenz aus, die zu einer beachtenswerten Aktivierung von Nur77 (169 ± 18% maximale Aktivierung) führte. Die Untersuchung der strukturellen Erweiterung von 43 (IC50 = 47 ± 8 μM) führte zur Verbindung 75, die eine 3,5-fache Steigerung des inversen Agonismus auf NOR-1 zeigte. Die Erkenntnisse dieser Entdeckung ermöglichte den Rückschluss, dass das Einführen von voluminösen Resten, wie Brom oder Phenyl eine invers agonistische Potenz im unteren mikromolaren Bereich bewirkte. Die Identifizierung der Verbindungen 41 und 68 für Nur77 sowie 43 und 76 für NOR-1 könnten dazu beitragen, ein tieferes Verständnis der molekularen Mechanismen hinter der Aktivierung von Nur77 und NOR-1 zu erlangen und einen vielversprechenden chemischen Ausgangspunkt für die Entwicklung von noch wirksameren und selektiveren Liganden bieten.
Im anderen Teil dieser Forschungsarbeit stand die Synthese eines selektiven allosterischen PPARγ-Liganden im Fokus, um mit diesem die allosterische Modulation von PPARγ zu charakterisieren. Den Ursprung der Idee lieferte Garcinolsäure, dass in der Lage ist, PPARγ orthosterisch und allosterisch zu binden. Aufgrund der komplexen biologischen Effekte und der geringen synthetischen Zugänglichkeit konnte 37 nicht als Ausgangspunkt für dieses Vorhaben dienen. Auf der Suche nach einer geeigneten Ausgangsverbindung wurde durch ein in vitro Screening mit einer hauseigenen Sammlung von synthetischen PPARγ-Modulatoren, bei dem die orthosterische Bindungsstelle von PPARγ durch den irreversiblen Antagonisten GW9662 blockiert wurde, Verbindung 39 identifiziert. Diese ist wie 37 in der Lage PPARγ ortho- und allosterisch zu binden, weist aber eine bessere synthetische Zugänglichkeit auf. Die Co-Kristallisation von 39 mit der PPARγ-Ligandenbindungsdomäne zeigte, dass die orthosterische Bindungstasche (BT) keinen Platz für eine Verlängerung des Moleküls bietet, die allosterische BT ist dagegen Lösungsmittel exponiert, wodurch eine Verlängerung möglich schien. Daraufhin wurde die Hypothese aufgestellt, dass eine Verlängerung von 39 eine orthosterische Bindung verhinderte und dadurch eine selektive allosterische Bindung ermöglichen könnte. Aus diesem Grund wurde eine modifizierte Struktur von 39 verwendet, um eine einfache Einbringung eines Linkers in das Molekül zu ermöglichen. Durch verschiedenste Modifikationen und Anpassungen wurde 104 als potenzieller selektiver allosterischer Ligand synthetisiert. Die Testung von 104 im Reportergenassay zeigte eine schwache Aktivierung von PPARγ allein, jedoch offenbarte sich bei der Kombination mit dem orthosterischen Agonisten Pioglitazon eine dosisabhängige Steigerung der Aktivität von PPARγ. Diese Ergebnisse deuteten darauf hin, dass trotz der Bindung von 104 eine Bindung von 33 in die orthosterische BT immer noch möglich war. Diese Annahme konnte anschließend auch durch zellfreie Experimente (Isotherme Titrationskalorimetrie, MS-basierte-PPARγ-Ligandenbindungs-Assay) bestätigt werden. Der eindeutige Beweis für die selektive allosterische Bindung von 104 lieferte die Co-Kristallisation von 104 mit der PPARγ-LBD. Zusätzlich offenbarte sich, durch den strukturellen Vergleich der Bindungsmodi von anderen PPARγ-Liganden, der außergewöhnliche Bindungsmodus von 104, da 104 im Vergleich zu anderen Liganden selektiv die allosterische BT, ohne Überlappung in die orthosterische BT, besetzte. Weitere Untersuchungen, wie der Einfluss von 104 auf die Rekrutierung von Co-Regulatoren, die Differenzierung von adipozytären Stammzellen und die Genexpression zeigten eine bisher einmalige Modulation von PPARγ, die auf die selektive allosterische Modulation zurückzuführen war. Mit 104 wurde ein innovatives und vielfältig einsetzbares Werkzeug zur Erforschung der allosterischen Modulation von PPARγ entdeckt, dessen Geschichte an diesem Punkt noch nicht zu Ende ist.
Zielsetzung der vorliegenden Dissertation war die Validierung einer deutschsprachigen Version, der bereits für andere Sprachen validierten Repetitiven Verhaltensskala – Revidiert (RBS-R) für Kinder- und Jugendliche im Alter zwischen 4-17 Jahren. Die RBS-R ist ein aus 43 Items bestehendes, gut untersuchtes Screeninginstrument, welches restriktives, repetitives Verhalten (RRV) erfasst. RRV stellen einen heterogenen Symptomkomplex dar, welcher durch stereotype motorische, sprachliche und kognitive Verhaltensmuster gekennzeichnet ist.
RRV sind neben Abweichungen sozialer Interaktion und Kommunikation eines der Hauptkriterien für eine Autismus-Spektrum-Störung (ASS). RRV sind jedoch nicht nur Teil des Symptomspektrums einer ASS, sondern treten häufig auch bei anderen psychiatrischen Erkrankungen (PE), einer Intelligenzminderung (IM) oder bei altersentsprechend entwickelten Kindern (AE), beispielsweise in bestimmten Phasen des Heranwachsens auf. Bisher wurde die RBS-R fast ausschließlich an ASS untersucht. Es besteht die Notwendigkeit für ein valides und zuverlässiges Messinstrument für den deutschen Sprachraum, welches RRV hinsichtlich ihrer Heterogenität transdiagnostisch erfassen und den Schweregrad der Ausprägung ermitteln kann. Das Ziel dieser Arbeit war, dies durch eine möglichst große und heterogene Stichprobe (n= 948) mit Inklusion von Probanden mit einer ASS (n= 218), IM (n= 120), PE (n= 166) und AE (n = 444) zu gewährleisten. Zur Überprüfung der psychometrischen Eignung erfolgte nach der Adaptation der RBS-R für den deutschen Sprachraum eine Evaluation gemäß den Prinzipien der klassischen Testtheorie, insbesondere hinsichtlich Validität und Reliabilität. Darüber hinaus erfolgte unter Einbeziehung der vier Stichproben eine explorative Faktoranalyse (EFA) um eine geeignete Faktorlösung zu finden. Diese sollte sowohl den Anspruch Klinisch-Tätiger als auch Forschender erfüllen und eine Anwendung der RBS-R auch außerhalb von ASS ermöglichen. Zudem sollten RRV in den unterschiedlichen Kohorten, sowie in Bezug auf Alters- und Geschlechtseffekte bei ASS untersucht werden.
Die Bedeutung der Ergebnisse dieser Arbeit ist, ob der schon breit erforschten Eigenschaften der RBS-R, vor allem im Kontext mit den vorliegenden Studien zu betrachten. Einzigartig für diese deutschsprachige Validierung der RBS-R ist die Diversität und große Anzahl der teilnehmenden Probanden.
Die vorliegende Validierung der RBS-R erbrachte gute Ergebnisse für die Reliabilität und konvergente Validität der Skalen, vergleichbar mit den Ergebnissen vorheriger Studien. Die untersuchte Itemschwierigkeit war relativ gering, was durch die geringe Antwortvarianz in der großen Kohorte der AE erklärbar ist. Die Itemgesamtkorrelation zeigte gute Werte. Auch Items mit niedrigen Ergebnissen für die Itemzustimmung wurden nicht exkludiert. Dies geschah konkordant zum Vorgehen vorheriger Studien und hatte den Hintergrund, eine internationale Vergleichbarkeit des RBS-R beizubehalten. Die EFA bestätigte die gute Anwendbarkeit einer Vielzahl von Faktorlösungen. Wir legten eine 4-Faktorlösung für die deutschsprachige Version der RBS-R fest. Grundlage hierfür war das Bestreben die ursprünglichen Subskalen für eine internationale Vergleichbarkeit so getreu wie möglich beizubehalten. Die 4 Faktoren bildeten treffend RRV niedriger und hoher Ordnung ab. Gegen eine 5- oder 6-Faktorlösung sprach hierbei, dass dies zu Subskalen mit wenig Items und schwachen psychometrischen Eigenschaften führte (Lam et al, kritisiert durch Georgiades et al). Gegen eine 2- oder 3-Faktorlösung sprach die eingeschränkte klinische Interpretierbarkeit durch Subskalen mit vielen kumulierten Items. Hinsichtlich der Kohortenzugehörigkeit kann der RBS-R übereinstimmend mit Fulceri et al valide zwischen RRV in ASS und AE unterscheiden. Eine valide Unterscheidung zwischen ASS, PE und IM konnten wir nicht verifizieren. Betreffend der untersuchten Alterseffekts bestätigte sich, dass RRV bei ASS mit dem Alter abnehmen. Im Gegensatz zu einigen vorherigen Studien, welche keinen Geschlechtsunterschied bezüglich RRV bei ASS fanden, zeigten die männlichen Probanden der ASS Kohorte bei uns häufiger und ausgeprägter RRV.
Das schnelle und unkontrollierte Wachstum von Tumorzellen bedingt beim Glioblastom ein heterogenes Tumormikromilieu, mit lokalem Sauerstoff- und Nährstoffmangel. Lokaler Selektionsdruck bedingt eine Evolution besonders anpassungsfähiger Klone. Die integrierte Stressantwort (integrated stress response, ISR) ist ein zelluläres Programm, das durch zahlreiche Stressoren, wie endoplasmatische Retikulum Stress (ER-Stress), durch die Akkumulation ungefalteter Proteine, Hypoxie, Glukose- oder Aminosäuremangel aktiviert wird. Ein zentraler Schritt zur Aktivierung der ISR ist die Phosphorylierung der alpha Untereinheit des eukaryotischen Translationsinitiationsfaktors 2 (eIF2α) an Serin 51. Die Phosphorylierung von eIF2α führt zur Modulation der Translation mit Induktion des Transkriptionsfaktors ATF4 (Activating Transcription Factor 4), der dann zelluläre Anpassungsvorgänge einleitet.
Unsere Hypothese lautete, dass ATF4-vermittelte molekulare Anpassungsmechanismen menschlicher Glioblastom (GB)-Zellen an die Bedingungen der Tumormikroumgebung (wie z.B. Hypoxie und Nährstoffentzug) maßgeblich zur Therapieresistenz beitragen und auch die Empfindlichkeit gegen TMZ-Chemotherapie beeinflussen. Somit könnte eine Inhibition der integrierten Stressantwort über den zentralen Mediator ATF4 zu einem gesteigerten Ansprechen auf Therapiebedingungen führen.
Um die ISR und ATF4 als mögliche therapeutische Angriffspunkte im Glioblastom zu evaluieren, wurde die ATF4 Induktion in Glioblastomzellen pharmakologisch und genetisch moduliert und im Zusammenhang mit TMZ-Behandlung sowie Glukose- und Sauerstoffentzug untersucht. Unter Glutaminentzug, Hypoxie und TMZ-Behandlung, welche Aspekte der GB-Mikroumgebung widerspiegeln, zeigten sich erhöhte ATF4 Proteinspiegel. ATF4-gensupprimierte GB-Zellen (ATF4sh) exprimierten unter gleicher Behandlung wesentlich weniger ATF4.
Im Einklang mit der Hypothese, dass ATF4 zur Therapieresistenz humaner Glioblastomzellen beiträgt, waren ATF4-gensupprimierte GB-Zellen (ATF4sh) im Vergleich zur Kontrollzelllinie empfindlicher gegen Hypoxie-induzierten Zelltod und zeigten einen erhöhten Sauerstoffverbrauch. Umgekehrt zeigten GB-Zellen nach pharmakologischer ISR Induktion einen verminderten Sauerstoffverbrauch. Auch nach Behandlung mit TMZ war die Überlebensrate in ATF4sh Zellen im Vergleich zur Kontrollgruppe geringer. Zur Hemmung der ISR wurden verschiedenen Inhibitoren der Kinase PERK (Protein kinase R-like endoplasmic reticulum kinase) entwickelt. In unseren Untersuchungen war nach der Behandlung der GB-Zelllinien eine verminderte ATF4 Expression festzustellen. Dabei kam es allerdings gleichzeitig bei der Behandlung mit höheren Inhibitorkonzentrationen zu einer Induktion von ATF4. Für den PERK-Inhibitor GSK 414 wurde in der Literatur auch die Hemmung anderer Kinasen wie KIT und RIPK1 gezeigt. Daher konnte bei den Konzentrationen, die für eine vollständige PERK-Inhibition erforderlich waren, keine selektive Hemmung von PERK mehr gewährleistet werden. Besonders aufgrund ihrer Toxizität auf die Funktion des Pankreas eignen sich diese Inhibitoren nicht für eine in vivo Erprobung. Da aber durch die Inhibition der ISR eine neuroprotektive Wirkung beschrieben ist, besteht die Notwendigkeit, weitere Inhibitoren zur Hemmung der ISR zu entwickeln. ISRIB (Integrated Stress Response Inhibitor) ist ein partieller ISR Inhibitor, der eIF2B angreift, was als Guanidin-Nukleotid-Austauschfaktor im Translationsinitiationsprozess benötigt wird. Für ISRIB wurde bereits in vitro und in vivo eine neuroprotektive, aber keine toxische Wirkung beschrieben.
Zusammenfassend lieferten unsere Untersuchungen Hinweise auf die wichtige Rolle von ATF4 für die Anpassung humaner GB-Zellen an Bedingungen der Tumormikroumgebung und für die Entstehung von TMZ-Resistenzen. Die Hemmung der ISR in GB-Zellen könnte daher ein vielversprechender Therapieansatz sein.
Get3 in Arabidopsis
(2021)
Der guided entry of tail-anchored proteins (GET) Biogenese-Weg vermittelt den Transport und die Insertion von tail-anchor (TA) Proteinen in die Doppellipidschicht des Endoplasmatischen Retikulums (ER). TA Proteine sind dadurch gekennzeichnet, dass sie eine Transmembran Domäne (TMD) in den letzten 50 Aminosäuren ihrer Sequenz beherbergen. Diese TMD enthält die notwendigen Informationen, mit denen die Proteine an ihren jeweiligen subzellulären Zielort transportiert werden können. TA Proteine erfüllen eine Vielzahl von essentiellen biologischen Prozessen, sie fungieren zum Beispiel als Rezeptoren, sind maßgeblich an der Fusion von Vesikeln beteiligt sowie an der Initiation von Apoptose. Durch ihren modularen Aufbau können TA Proteine nicht mit dem Signalerkennungspartikel interagieren und müssen deshalb posttranslational zum ER geleitet werden. Im Modellorganismus Bäckerhefe (Saccharomyces cerevisiae) ist der GET Biogenese-Weg am besten beschrieben und läuft wie folgt ab: Nach der Termination der Translation bindet das Protein SgtA das TA Protein und händigt es über den Adapter-Komplex, bestehend aus Get4 und Get5, an die zytosolische ATPase Get3 aus. Get3 ist der zentrale Zielsteuerungsfaktor des GET Biogenese-Weges. Sobald sich ein Komplex aus Zeilsteuerungsfaktor und TA Protein gebildet hat, wird dieses zur Membran des ERs überführt. Dort wird das TA Protein an den Rezeptorkomplex bestehend aus Get1 und Get2 übergeben, welcher anschließend die Insertion des TA Proteins in die Doppellipidschicht des ERs initiiert.
Get3 hat im zellulären Kontext noch eine weitere Funktion. Unter oxidativem Stress oder Energie depletierenden Bedingungen wird Get3 zu spezifischen Foci rekrutiert, an denen sich noch weitere durch Stress -induzierbare Proteine, wie z.B. die der Familie der Hitze Stress Proteine (HSPs) versammeln. Analysen haben gezeigt, dass Get3 unter den oben genannten Bedingungen, Konformationsänderungen durchläuft und dann als ATP unabhängige Holdase fungiert. Diese kann die exponierten, hydrophoben Anteile von Proteinen binden, um dadurch die Proteostasis aufrechtzuhalten.
Durch die Bedeutsamkeit der TA Proteinen ist die zentrale ATPase Get3 in allen Domänen des Lebens hochgradig konserviert. Phylogenetische Analysen ergaben, dass sich Get3 im Allgemeinen in eine „A“ Gruppe sowie eine „BC“ Gruppe aufspaltet. Im Modellorganismus Arabidopsis thaliana (Ackerschmalwand) wurden drei Orthologe zu Get3 identifiziert. Eins davon gehört zu der „A“ Gruppe und befindet sich im Zytoplasma. Die anderen zwei Orthologe befinden sich in den Organellen endo-symbiotischen Ursprungs und gehören der „BC“ Gruppe an. Untersuchungen an verschiedenen Deletionsmutanten in A. thaliana haben gezeigt, dass die Mutationen einzelner GET Komponenten zu einer signifikanten Verkürzung der Haarwurzeln führen, obwohl der restliche Habitus der Pflanze unverändert bleibt. Diesbezüglich wurde SYP123 als einziges TA Proteine identifiziert, dessen Abundanz durch die Deletion von GET Komponenten beeinflusst werden kann. Von den anderen beiden Orthologen organellären Ursprungs ist, abgesehen von ihrer Lokalisation nichts weiter bekannt
Vier Orthologe Gruppen in Pflanzen
Da bislang nicht mehr als zehn Pflanzenarten für phylogenetische Analysen herangezogen wurden, wurden in dieser Arbeit die taxonomischen Beziehungen von Get3 zu einander in 50 Spezies der Viridiplantae auf Basis der Orthologie sowie Homologie untersucht. Dies führte zur Identifizierung einer zytolischen (AtGet3a), einer plastidären (AtGet3b), einer mitochondriellen (AtGet3c) sowie einer Monokotyledone spezifischen Gruppe (SBGet3). Die Lokalisation der ersten drei Gruppen wurde in selektierten Pflanzen, sowohl homolog als auch heterolog, der unterschiedlichen Spezies mittels saGFP untersucht, und es konnte gezeigt werden, dass mehrere Get3 Orthologe mit unterschiedlichen subzellulären Lokalisationen eine unter Pflanze häufig auftretende Eigenschaft ist. Das Weitern konnte gezeigt werden, dass manche Komponenten des Präzielsteuerungskomplexes (SgtA und Get4) sowie des Rezeptorkomplexes (Get1) in fast allen der 50 untersuchten Pflanzenarten vorhanden sind. Dies weist auf eine Konservierung des gesamten GET Biogenese-Weges in Pflanzen hin.
Get3a in Arabidopsis thaliana
Da die molekulare Zusammensetzung des Präzielsteuerungskomplexes für AtGet3a in A. thaliana nicht bekannt ist, habe ich Co-Immunpräzipitationen mit Zellextrakten aus weißer Zellkultur und einen von mir selbst aufgereinigten Antikörper gegen AtGet3a durchgeführt. Nach anschließender Gelelektrophorese und einer Anfärbung mit Coomassie Brilliant Blue ließ sich ein reproduzierbares Muster aus Proteinbanden erkennen, welche ausgeschnitten und mittels LC-MS/MS analysiert wurden. Dadurch wurde ein putativer Kandidat für Get5 identifiziert sowie eine Assoziation mit Chaperonen und proteasomalen Untereinheiten.
Um die Zielsteuerungseffizienz und Topologie von ER-Membranproteinen zu analysieren habe ich (i) die rekombinante Synthese eines Modell-TA Proteins mit glykosylierbarem opsin bovine glycosylation Tag (OPG) etabliert sowie (ii) eine Methode etabliert um in isolierten Protoplasten die Richtigkeit der Insertion zu überprüfen. Mit Hilfe dieser Methoden können nun verschiedene Mutanten auf ihre Insertions-Wirksamkeit untersucht werden. Desweitern können durch Mutationsanalysen die notwendigen physikochemischen Eigenschaften für die Erkennung des Substrates ermittelt werden.
Eine weit verbreitete Methode im GET Feld ist die tail-anchor translocation (TAT). Bei dieser Methode werden isolierte mikrosomale Fraktionen des rauen ERs mit rekombinanten Komplexen bestehend aus Zielsteuerungsfaktor und TA Protein inkubiert. Durch einen rekombinanten OPG, der im Lumen des ERs post-translational modifiziert werden kann, ist die Beobachtung einer zeitabhängigen Kinetik der Glykosylierung möglich. Dieses System wurde bislang nur für Komponenten aus Säugern oder Hefen benutzt, aber noch nie mit einem System auf pflanzlicher Basis. Um dies zu verwirklichen, habe ich die rekombinante Proteinexpression soweit optimiert, dass der Großteil des synthetisierten Proteins sich im löslichen Anteil des Lysats statt in den Inclusion Bodies befand. Mittels dieser Optimierung konnte ich die Ko-Expression von Zielsteuerungsfaktor mit TA Protein als löslichen Komplex etablieren. Ergänzend zu den löslichen Komplexen habe ich eine geeignete Methode etabliert um mittels Saccharosegradienten mikrosomale Fraktionen aufzutrennen in denen AtGet3a angereichert ist. Leider müssen noch die Parameter der Reaktion optimiert werden, aber die Akquirierung alle nötigen Bestandteile ist etabliert.
Tinnitus is a symptom experienced by most people at least once in their lifetime. In most documented cases, a new onset of chronic tinnitus can be chronologically correlated with hearing loss. However, tinnitus can also occur in people with (apparently) normal hearing and remains without a traceable preceding cause. Despite the frequency of occurrence of tinnitus, the pathophysiological mechanisms are still not fully understood. A currently proposed hypothesis focuses on a "hidden" hearing loss called synaptopathy as a pathomechanism of tinnitus in normal hearing subjects. In the present study, the objective was to test whether finestructure audiometry or measurement of otoacoustic emissions can reveal possibly overlooked hearing impairment in presumed normalhearing individuals with chronic tinnitus. Thus, a hearing loss not audiologically detectable by the usual methods would supplement or replace the presumed synaptopathic pathomechanism. Another objective was to attempt to replicate the existing findings of another research group on synaptopathy as cause for tinnitus in normal hearing people. Schaette and McAlpine (2011) were able to demonstrate a significant difference in wave I amplitudes between groups of normal hearing subjects with and without chronic tinnitus by deriving clickevoked auditory brainstem potentials, thus supporting the hypothesis of synaptopathy18.
For the present study, a cohort of normal-hearing subjects consisting of a group of tinnitus subjects (N = 15) and a control group (N = 14) was tested. Manual puretone audiometry with 11 test frequencies was conducted to determine hearing performance. Inclusion criteria were defined as air conducted hearing thresholds of 10 dB HL or lower. A deviation at a test frequency of 15 dB HL or less was tolerated. Data of tinnitus characteristics, such as pitch and intensity, were collected by presentation and matching of comparative tones, quality and subjective disturbance by questionnaire. Furthermore, data was obtained from both test groups by Békésy gliding frequency audiometry (794 test frequencies), as well as DPOAE measurement (36 test frequencies) and auditory brainstem response (ABR) audiometry (derivation of early auditory evoked potentials). The results showed a correlation of the determined tinnitus comparison pitch with the frequency location of the largest deviation (impairment) from the normal hearing curve in the Békésy gliding frequency audiometry (p = 0.032). All further analyses of the finestructure hearing curve (steepness of hearing loss, slope, number of hearing loss dips) showed no statistically significant relationship between the morphology of the fine-structure hearing curve and tinnitus characteristics. Finestructure measurement revealed areas of hearing loss that were not mapped in manual puretone audiometry. These "undetected" hearing losses would have led to the exclusion of 12 of 29 subjects (41.4 %) if the finestructure hearing curve had been used as an inclusion criterion. A direct comparison of the mean finestructure hearing curves of both test groups showed a statistically significant better mean hearing performance of the tinnitus group (p < 0.05) in 3 different test frequency ranges (1.5 kHz, 3 kHz, 7 kHz) with a maximum of 4 dB HL. Analy-sis of the mean amplitudes of wave I of the ABRs showed, contrary to expectation, a weak trend toward higher amplitudes in the tinnitus group (p = 0.06). According to Schaette and McAlpine (2011), synaptopathy pathogenesis should have resulted in an opposite trend, i.e., a decrease in wave I amplitude in the tinnitus group. As a secondary finding, a weak trend between wave I amplitude and subjectively perceived disturbance of tinnitus was demonstrated (p = 0.06). Statistical analysis of the parameters determined from the DPOAE measurements did not reveal any significant differences between the tinnitus group and control group. Direct comparison of the DPOAE and finestructure hearing curves, revealed a significant difference in the differences of the frequencyspecific measurements around 2.4 kHz (p = 0.007).
The results of the study suggest that in previous studies with supposedly normal hearing tinnitus subjects there were unrecognized hearing losses that either went unrecognized by the screening by manual puretone audiometry, or subjects with previously aboveaverage hearing experienced a subtle spontaneous decrease in their hearing as tinnitus pathogenesis. This assumption is also supported by the fact that there is a significant correlation between the frequency range of the greatest hearing loss in the finestructure hearing curves and the tinnitus frequency.
The suspected pathomechanism of synaptopathy in "normal hearing" subjects with tinnitus could not be confirmed. The correlation between wave I amplitudes and subjectively perceived disturbance by tinnitus, indicated by the data of this study, should be investigated in more detail in future studies. Further research with more accurate measurement methods and larger subject groups is needed to clarify the hypothesis "Genesis of chronic subjective tinnitus without hearing loss".
The impact of the Covid-19 pandemic called for rapid responses in face of unprecedented challenges. In this context, earning more about the causative agent SARS-CoV-2 becomes imperative. Therefore, clinical virus isolates were studied with focus on infectivity, replication kinetic, and caspase activity.
Firstly, clinical specimens collected from patients were tested for infectivity in cell culture. Combined with polymerase chain reaction results, a formula predicting infectivity in cell culture based on abundance of viral RNA was developed. Additionally, analysis of different specimen types, sources, and material, elucidate the question of infectivity. Here, infectivity was demonstrated in specimens derived from different parts of the respiratory tract, including specimens collected from deceased persons. A protocol for virus isolation on human airway epithelium in air-liquid interface culture was established.
Secondly, replication kinetics of 20 clinical isolates were compared, including a subset of seven sequenced isolates. All isolates replicated in the colon epithelial cell culture model. Within the subset, differences between isolates carrying the D614G amino acid exchange and with original spike protein were observed.
Lastly, elevated caspase activity was demonstrated in two cell culture models including human airway epithelium in air-liquid interface culture.
Subsequently, caspase inhibition by small-molecule compound Emricasan and its effects on the cytopathic effect observed in cell culture were studied. Here, increased cell survival in a colon epithelial cell line was shown with unimpaired virus replication. Elevated caspase activity was identified as early marker of infection and validated by testing across 20 clinical virus isolates.
This study offers information on infectivity that can help shape the understanding of transmission risk. As such, parts of the data collected here were used for validation of rapid antigen tests. The insights gained by studying caspase activity contributed in part to the development of a drug screening method by Bojkova et al.,41 thus aiding routine laboratory workflow. It was demonstrated that Emricasan exhibits no antiviral effect, while the finding of increased cell survival in cell culture could give rise to further research on prevention of tissue damage.
Um sich an ändernde Umwelteinflüsse und metabolische Bedürfnisse anpassen zu können, ist es für Zellen essenziell, dass Boten-RNA (engl. messenger RNA, mRNA) stetig und schnell nach der Translation abgebaut wird. In Prokaryoten ist dafür der Proteinkomplex Degradosom verantwortlich, in dem Endo- und Exoribonukleasen RNase E und PNPase das RNA-Transkript in kleinere Fragmente und schließlich einzelne Nukleotide spalten. Die DEAD-Box Helikase RhlB im Komplex dient zusätzlich dazu, mögliche Sekundärstrukturen in der RNA zu entfalten, welche sonst die weitere Degradation behindern würden. Es konnte gezeigt werden, dass RhlB’s sehr geringe katalytische Aktivität – gemessen durch ATP-Verbrauch und Rate an entwundener RNA – signifikant durch die allosterische Bindung an Komplexpartner RNase E erhöht wird. Gleichzeitig deuten andere Studien darauf hin, dass RhlB eine mögliche Selektivität für doppelsträngige RNA-Substrate mit 5‘-Einzelstrang-Überhängen aufweist.
Diese Arbeit liefert neue Erkenntnisse in Bezug auf die Kommunikation zwischen den Degradosom-Komponenten RhlB und RNase E aus E. coli, indem das potenzielle Wechselspiel zwischen RhlBs RNA-Selektivität und der allosterischen Aktivierung durch RNase E untersucht wurde. Der vielseitige Einsatz NMR-spektroskopischer Techniken sowie die Verwendung kurzer RNA-Substrate mit spezifischen Strang-Eigenschaften ermöglicht es, mit einen ungewöhnlichen, RNA-zentrierten Ansatz an diese unzureichend verstandene Protein-Interaktion heranzugehen.
Zunächst wurden hierzu eine Reihe kurzer doppelsträngiger RNA-Konstrukte hergestellt, die sich nicht nur in ihren Einzelstrang-Merkmalen unterscheiden, sondern auch die thermodynamischen Anforderungen eines DEAD-Box Helikase Substrats erfüllen, und gleichzeitig eine ausreichende NMR-spektroskopische Signal-Zuordnung erlauben. Die thermale Stabilität, das Faltungsverhalten sowie die 1H Imino-protonen- und 13C HSQC-Zuordnungen aller geeigneten Konstrukte wurden erfolgreich bestimmt.
Um den Einfluss spezifischer RNA-Substrate sowie die Bindung zweier verschiedener RNase E Fragmente auf RhlBs ATP-Umsatzrate zu untersuchen, wurde sich zunächst eines photometrischen Phosphat-Assays bedient. Damit konnte deutlich gezeigt werden, dass RhlB in Abwesenheit des Komplex-Partners nicht in der Lage ist, signifikante Mengen an ATP umzusetzen, unabhängig davon, welches RNA-Konstrukt eingesetzt wird. Die Bindung der RNase E Fragmente erhöhte signifikant die ATP-Hydrolyse-Rate der Helikase, wobei die größte Aktivierung für den RNA-Duplex mit 5‘-Einzelstrang sowie ein einzelsträngiges Substrat zu beobachten ist. Da diese Ergebnisse deutlich eine RNA-Abhängigkeit beim ATP-Umsatz der Helikase zeigen, wurde untersucht, ob diese Unterschiede ihren Ursprung bereits in der Bindung der spezifischen RNA-Substrate haben. Mittels einer Mischapparatur, die es erlaubt die enzymatische Reaktion direkt im Spektrometer zu initiieren sowie zeitaufgelöster 31P NMR-Experimente konnte die allosterische Aktivierung der ATP-Hydrolyse-Rate von RhlB auch unter NMR-spektroskopischen Messbedingungen nachgewiesen werden.
Da die Ergebnisse des ATPase Assays deutlich eine RNA-Abhängigkeit bei der ATP-Umsatz-Rate der Helikase zeigen, wurde zusätzlich untersucht, ob diese Unterschiede ihren Ursprung in den Affinitäten für die verschiedenen RNA-Substrate haben und ob diese durch die Bindung von RNase E and RhlB beeinflusst werden. Um im gleichen Zuge zu überprüfen, ob die Bindung der RNA an RhlB die RNA-Konformation oder Basenpaarung ändert, werden 1H NMR-Titrationsexperimente durchgeführt. Es konnte erstmals gezeigt werden, dass RhlB eine inhärente Präferenz für Duplexe mit 5‘-Überhang gegenüber Konstrukten mit 3‘-Überhang oder stumpfen Enden besitzt, was sich in einer erhöhten Affinität zeigt. Zusätzlich offenbaren die Messungen, dass RNase Es allosterische Bindung selektiv die Affinität gegenüber Konstrukten mit Einzelstrang-Überhang erhöht, während die Affinität zu RNA Duplexen ohne Überhang sogar verringert wird. Diese Ergebnisse liefern erstmals einen Nachweis, dass RNase E aktiv Einfluss auf RhlBs RNA-Bindung nimmt. Weder die Bindung der RNA and RhlB noch an den RhlB/RNase E Komplex scheint die Basenpaarung oder Konformation der RNA-Substrate zu beeinflussen, da lediglich eine homogene Peak-Verbreitung aller Imino-Protonen-Signale im 1H NMR-Spektrum beobachtet werden konnte.
Chapter I of this work addressed the piggyBac (PB) transposon system, a non-viral genome engineering tool that is capable of efficiently performing stable integration of DNA sequences into a target cells genome and has already been used in clinical trials. However, the PB transposase has the problematic property of preferentially integrating transposons near transcriptional start sites (TSSs). This increases the likelihood of causing genotoxic effects, limiting its potential use as a tool in clinical applications. It has been shown in the past that the PB transposase shows physical interactions with BET proteins (e.g. BRD4) through Co-IP experiments. Representatives of these proteins are part of the transcriptional activation complex and are abundant at TSSs. Accordingly, it was previously proposed that this interaction is the underlying cause for the biased integration preference. For the first chapter of this thesis, the goal was to disrupt this interaction potentially modifying said integration preference. A secondary structure hypothesized to be mainly responsible for said interaction was extensively mutated resulting in several PB variants that were analyzed for their interaction capacity through a series of Co-IP experiments with BRD4. In total, seven substitutions were identified (E380F, V390K, T392Y, M394R, K407C, K407Q, and K407V) which exhibited reduced interaction capacity with BRD4. Each of the aforementioned mutants were used to generate integration libraries and, through NGS, it was determined if the integration preferences of the respective mutants had changed. In the immediate range 200 base pairs up- and downstream from known TSSs all mutants used exhibited a reduced integration bias. At a wider observation window 3 kbp up- and downstream from TSSs, further mutants with the substitutions M394R, T392Y and V390K showed a reduction in integration frequency of 17.3%, 1.5% and 5.4%, respectively, compared to the wildtype. Of particular note was the M394R mutant, which showed a reduction in all window sizes analyzed with a maximum of 65% less integration preference in the immediate vicinity of TSSs, theoretically generating a safety advantage over the wildtype transposase.
Chapter II was dedicated to the overall safety improvement for transposon-based gene modification and addresses the time point after the transgene has already been integrated and serious side effects may not be preventable. With this in mind, the aim was to develop a novel suicide-switch that can be stably introduced into cells via transposition, and reliably leads to cell death of the modified cells once activated. A system based on CRISPR/Cas9 was developed, where single guide RNAs were used to guide the Cas9 nuclease to Alu elements. These are short, repetitive sequences, which are distributed over the human genome in more than one million copies. Inducing double strand breaks within these elements would lead to genomic fragmentation and cell death. To be inducible, a transcriptional as well as post- translational control mechanism was added. Transcription of the Cas9 nuclease was regulated using a tet-on system, making expression dependent on doxycycline (DOX) supplementation. Furthermore, a version of the Cas9 nuclease called arC9 was used that allows double strand break generation only in the presence of 4-Hydroxytamoxifen (4-HT). Together with an expression cassette for the Alu-specific guide RNA and an expression cassette for the reverse tetracycline controlled transactivator all components were arranged between transposase-specific recognition sequences on a plasmid to allow transposon-system based gene transfer. The system was tested in HeLa cells. First, conditional expression of the arC9 nuclease was confirmed by addition of 1 μg/ml DOX. Second, the suicide-switch was further induced by adding 200 nM 4-HT and protein extracts were assayed for the KAP1 phosphorylation. Only upon induction with DOX and 4-HT phosphorylated KAP1 was detected, indicating DNA damage. Further, extensive growth and survival experiments were conducted to determine the effect of suicide-switch induction on cell proliferation and survival. Between 24 and 48 hours after induction, a halt in cell division was detected, after which extensive cell death was observed. Within 5 days post induction, >99% of all cells were eliminated. In the absence of both inducers, no significant differences in survival were observed compared to control cells line lacking Alu-specific guide RNAs. Microscopic examinations of the <1% surviving cell fraction revealed a senescence-associated phenotype and showed no signs of resumption of the cell division process. Accordingly, the second chapter of this thesis also achieved its goal in developing a functional suicide-switch that can be inserted into human cells via transposition, is highly dependent on the necessary induction signals, and exhibits excellent elimination capabilities in the context tested.
Langzeitüberleben und Mortalitätsprädiktoren nach perkutanem
kathetergestütztem Aortenklappenersatz
(2022)
Ziel dieser Studie war die Evaluation von Patienten, die eine transfemorale oder eine transapikale TAVI erhalten haben, in Bezug auf ihre Mortalitätsprädiktoren und ihre Langzeit-Mortalität.
Methoden: Untersucht wurden Patienten mit einer minimalen FU-Zeit von sechs Jahren, welche im Zeitraum von 2006 – 2014 eine TAVI im Herzkatheterlabor des Universitätsklinikums in Frankfurt erhalten haben. Das Patientenkollektiv wurde basierend auf dem Zugangsweg (transfemoral oder transapikal) analysiert.
Ergebnisse: Insgesamt wurden 679 Patienten in die Studie eingeschlossen. 408 Patienten (59,82 %) bekamen eine transfemorale TAVI und 271 Patienten (39,74 %) bekamen eine transapikale TAVI. Der durchschnittliche STS-Score betrug in der transfemoralen Gruppe 4,21 ± 2,4 % und in der transapikalen Gruppe 4,19 ± 2,7 %. Die Mortalität war nach 30 Tagen (15,8 % transapikal versus 8,2 % transfemoral, p = 0,00) sowie im Langzeit-FU (79,5 % transapikal versus 68,3 % transfemoral, p = 0,00) signifikant höher in der transapikalen Gruppe. Viele postinterventionelle Komplikationen waren häufiger in der transfemoralen Gruppe. Postinterventionelle Schrittmacherimplantationen (15,7 % versus 4,1 %, p = 0,00), große und kleine vaskuläre Komplikationen (5,1 % versus 1,1 %, p = 0,01) sowie große und kleine zerebrovaskuläre Insulte (31,8 % versus 9,1 %, p = 0,00) kamen in der transfemoralen Gruppe signifikant häufiger vor. Allerdings war der transfemorale Zugangsweg mit einer besseren Überlebensrate assoziiert (Log Rank Test p = 0,01 und HR 1,33 (1,04 – 1,71), p = 0,03). Patienten mit einem hohen STS-Score (HR 1,09 (1,03 – 1,15), p = 0,00), einem vorbestehenden Diabetes Mellitus (HR 0,75 (0,58 – 0,97), p = 0,03) sowie großen Gefäßkomplikationen (HR 0,60 (0,37 – 0,99), p = 0,04) korrelieren mit einem schlechteren Langzeit-Überleben.
Zusammenfassung: Für den kathetergestützten Aortenklappenersatz weisen beide Zugangswege spezifische Risiken auf, daher sollte die individuell beste Variante für jeden Patienten ausgewählt werden.
This study investigates a historical event that occurred during the Indonesian Revolution as depicted in Indonesian historical films and argues that these films not only attempt to depict the past but also use the past as a means of social commentary, teaching moral insight, and historical reinforcement. The historical films selected are The Long March (Darah dan Do’a) (1950) and Mereka Kembali (1972). Both films deal with the Long March event experienced by the troops of the Siliwangi Division in 1948. These troops were previously assigned to infiltrate Yogyakarta and its surrounding areas. They were instructed to march back to their original base in West Java as a part of the military strategies to confront the Dutch during the Indonesian Revolution, also known as the Indonesian War of Independence. This event became known as the Long March of the Siliwangi Division. This study examines not only the representation of the past or the texts of the films but also the production process, which includes the motivations of the filmmakers and the public reception when the films were screened for the public at the time—in 1950 and 1972, respectively. This approach provides a broader and richer dimension, valuable insights into the behind-the-scenes process of making the selected historical films, and essential information about the public reception of the films. From the production point of view, there are two main reasons for making these historical films: personal reason and social engagement. Further, the military also plays a vital role in these historical film productions. From the historical representation aspect, these two films depict the events of the Long March of the Siliwangi Division as a journey full of various obstacles and difficulties, such as harsh terrain, lack of food, battles against the Dutch, and internal disputes with fellow Indonesians: Darul Islam. From the reception aspect, the audience’s point of view, these films provide several representations that meet their expectations about the Long March of the Siliwangi Division. However, the audience disagrees with some of the other representations. Finally, the study revealed that historical films are potential vehicles for telling, interpreting, entertaining, legitimating and preserving the past. In addition, this study has a vital implication for reopening the tradition of Indonesian film studies and reigniting attention to old films.
Untersuchung zur Sicherheit bei der simultan bilateralen Cochlea-Implantation bei Erwachsenen
(2023)
Schwerhörigkeit ist sowohl für die betroffenen Patienten als auch sozioökonomisch eine relevante Erkrankung. Sie stellt ein Hindernis für die soziale Teilhabe dar, reduziert die Lebensqualität und führt zu direkten und indirekten Gesundheitskosten.
Cochlea-Implantate sind vielkanalige Neuroprothesen, die über einen chirurgisch in die Hörschnecke eingebrachten Elektrodenträger das erste Neuron der Hörbahn direkt elektrisch stimulieren und so eine Hörwahrnehmung induzieren.
Dadurch kann ein Funktionsverlust der Haarzellen, welcher die häufigste Ursache für eine Schwerhörigkeit ist, ersetzt werden. Cochlea-Implantate stellen den Goldstandard der Hörrehabilitation bei hochgradig schwerhörigen oder postlingual ertaubten erwachsenen Patienten sowie in der Versorgung prälingual ertaubter Kinder dar.
Bei vielen schwerhörigen Patienten besteht die Indikation zur beidseitigen Versorgung mit einem Cochlea-Implantat. Prinzipiell besteht die Möglichkeit, diese chirurgische Versorgung beidseits einzeitig (simultan) oder zweizeitig (sequenziell) durchzuführen. Während die Sicherheit der bilateral-simultanen Operation für Kinder durch mehrere Studien belegt wurde, liegen für Erwachsene erst wenige Daten vor.
Die vorliegende Studie untersucht, ob die bilaterale simultane Implantation mit höheren Komplikationsraten als die sequenzielle Operation assoziiert ist und leistet damit einen Beitrag zur Entscheidungsfindung von Patienten und Behandlern.
Es konnten 169 zwischen 2008 und 2017 bilateral implantierte Patienten eingeschlossen werden. Davon wurden 34 simultan (Gruppe 1) und 135 (Gruppe 2) sequenziell versorgt. Es wurde die Dauer der Operation, das Auftreten von Minor- und Major-Komplikationen sowie die Dauer des stationären Aufenthalts erfasst und zwischen beiden Gruppen verglichen.
Die Ergebnisse zeigten, dass die Gesamtzeit der Patienten im Operationssaal in der simultan implantierten Gruppe deutlich kürzer war. Die Häufigkeit chirurgischer Major- und Minor-Komplikationen unterschied sich hingegen nicht signifikant. Bezüglich einer letalen nicht-chirurgischen Komplikation in der simultan implantierten Gruppe erfolgte eine umfangreiche Aufarbeitung, ohne dass ein kausaler Zusammenhang mit der gewählten Behandlungsmethode nachgewiesen werden konnte. Die Dauer des Krankenhausaufenthalts war in der simultanen Gruppe 0,7 Tage länger als bei unilateraler Implantation, aber 2,8 Tage kürzer als bei beiden sequenziellen Operation zusammen.
In der Zusammenschau aller berücksichtigten Komplikationen und der komplikationsrelevanten Faktoren ist die Sicherheit der simultan bilateralen Operation gegenüber dem sequenziellen Vorgehen als gleichwertig zu bewerten.
Jedoch muss individuell auf mögliche Risikokonstellationen des Patienten eingegangen werden, die bei der längeren Operationszeit der simultanen Implantation relevant sein kann. Daher ist eine sorgfältige Auswahl der Patienten
unter besonderer Berücksichtigung bestehender Komorbiditäten unerlässlich.
Global analysis of halogenated trace gases in the UTLS: from long-lived to short-lived substances
(2023)
In this dissertation, the distribution of chlorinated and brominated substances in the upper troposphere and lower stratosphere is investigated. These substances contribute significantly to the catalytic decomposition of ozone and are involved in the recurrent formation of the polar ozone hole in the Antarctic winter and spring. The Montreal Protocol, a multilateral environmental treaty to protect the ozone layer, has successfully reduced emissions of long-lived chlorine- and bromine-containing substances. Short-lived chlorinated and brominated substances, some of which are natural and anthropogenic in origin, are not regulated by the Montreal Protocol and it can be assumed that their relative contribution to the stratospheric halogen budget will increase, while the contribution of long-lived compounds will steadily decrease. The distribution of long- and short-lived halogenated substances are part of current research. For the upper troposphere and lower stratosphere, the very short-lived substances are particularly important. The lower stratosphere needs special investigation in this respect, since its composition is influenced by different transport processes. The influences on ozone trends in the lower stratosphere are subject to great uncertainties. Especially in the Southern Hemisphere, the number of observations is very limited.
In this work, the GhOST (Gas chromatograph for Observational Studies using Tracers) instrument was used during the SouthTRAC measurement campaign on the German HALO (High Altitude and LOng range) research aircraft, providing observations of halogenated hydrocarbons in Antarctic late winter to early spring 2019, a generally poorly sampled region. The polar vortex was, compared to previous years, significantly weaker and shifted towards the eastern South Pacific and South America. From the airborne measurements of chlorinated source gases, inorganic chlorine (the sum of active chlorine and reservoir gases; Cly) could be inferred with the result that Cly within the vortex increased up to 1687 ± 19 ppt at 385 K potential temperature, accounting for about 50 % of the total chlorine within the vortex and only 15 % of the total chlorine in the southern mid-latitudes. A comparison with the Northern Hemisphere could be made using the PGS measurement campaign in the Arctic winter 2015/2016. Under comparable conditions (season and distance from the tropopause), only 40 % of the total chlorine was in the inorganic form within the Arctic polar vortex and about 20 % was found in the mid-latitudes of the Northern Hemisphere. In addition, about 540 ppt more Cly was present in the Antarctic vortex than in the Arctic vortex, exceeding the annual variations previously reported for Antarctica.
The mean age of air plays an essential role in the derivation of Cly via the organic source gases, as was done in this work. A new method for determining the mean age of air from observational data has been introduced that accounts for extra-tropical input to the stratosphere in addition to tropical input. This new method was compared with the previously used method, which considered only the tropical input. The new method shows more realistic values especially near the tropopause. On average, the air of the lower stratosphere in the Northern Hemisphere was older than in the Southern Hemisphere by about 0.5 ± 0.3 years. About 65 K above the tropopause, the pattern changed with older air in the mid-latitudes of the Northern Hemisphere, but older air in high latitudes of the Southern Hemisphere, which implies differences in the strength and isolation of the respective polar vortex as well as the wave forcing in the shallow branch of the Brewer-Dobson circulation of the respective hemisphere. This is in good agreement with the distribution of Cly. The difference in the lower stratosphere was not clearly evident with the old method and it can be assumed that investigations of the differences in Cly of Northern and Southern Hemisphere will benefit from the new method.
Finally, the global and seasonal distribution of the two most important representatives of the short-lived brominated substances, CH2Br2 and CHBr3, was investigated. For this purpose, two additional HALO measurement campaigns have been used, the 2012 TACTS measurement campaign and the 2017 WISE measurement campaign, as well as the HIAPER Pole-to-Pole Observations (HIPPO) and Atmospheric Tomography (ATom) measurement campaigns. Observations of CH2Br2 show a pronounced seasonality in the free and upper troposphere of both hemispheres with slightly larger values in the Northern Hemisphere. CHBr3, on the other hand, shows a generally higher variability and lower seasonality with larger mixing ratios at mid and high latitudes in the northern hemispheric winter and autumn. A comparison of the lower stratosphere is limited to autumn and spring of both hemispheres due to the limited data basis of the observations. The distributions in each spring are similar (less than 0.1 ppt differences for e.g., CH2Br2). In hemispheric autumn, larger differences are evident with substantially smaller mixing ratios in the southern hemispheric lower stratosphere. This suggests that the transport processes of the two hemispheres may be different and implies that the input of tropospheric air (flushing) to the Northern Hemisphere lowest stratosphere is more efficient than in the Southern Hemisphere. Vertical profiles of CH2Br2 and CHBr3 in the mid-latitudes of both hemispheres and resulting vertical gradients support this conjecture. However, the Southern Hemisphere data set is insufficient to quantify this difference and further measurements are needed.
With the rise of digitalization and ubiquity of media use, both opportunities and challenges emerge for academic learning. One prevalent challenge is media multitasking, which can become distracting and hinder learning success. This thesis investigates two facets of this issue: the enhancement of data tracking, and the exploration of digital interventions that support self-control.
The first paper focuses on digital tracking of media use, as a comprehensive understanding of digital distractions requires careful data collection to avoid misinterpretations. The paper presents a tracking system where media use is linked to learning activities. An annotation dashboard enabled the enrichment of the log data with self-reports. The efficacy of this system was evaluated in a 14-day online course taken by 177 students, with results confirming the initial assumptions about media tracking.
The second paper tackles the recognition of whether a text was thoroughly read, an issue brought on by the tendency of students to skip lengthy and demanding texts. A method utilizing scroll data and time series classification algorithms is presented and tested, showing promising results for early recognition and intervention.
The third paper presents the results of a systematic literature review on the effectiveness of digital self-control tools in academic learning. The paper identifies gaps in existing research and outlines a roadmap for further research on self-control tools.
The fourth paper shares findings from a survey of 273 students, exploring the practical use and perceived helpfulness of DSCTs. The study highlights the challenge of balancing between too restrictive and too lenient DSCTs, particularly for platforms offering both learning content and entertainment. The results also show a special role of media use that is highly habitual.
The fifth paper of this work investigates facets of app-based habit building. In a study over 27 days, 106 school-aged children used the specially developed PROMPT-app. The children carried out one of three digital activities each day, each of which was supposed to promote a deeper or more superficial processing of plans. Significant differences regarding the processing of plans emerged between the three activities, and the results suggest that a child-friendly planning application needs to be personalized to be effective.
Overall, this work offers a comprehensive insight into the complexity and potentials of dealing with distracting media usage and shows ways for future research and interventions in this fascinating and ever more important field.
Synaptic transmission is a fundamental process that involves the transfer of information from a presynaptic neuron to a target cell through the release of neurotransmitters. The SV cycle is a complex series of events that enables the recycling of SVs, allowing for the sustained release of neurotransmitters. This process is mediated by a variety of proteins and enzymes, and its regulation is critical for maintaining proper synaptic function. Despite extensive research efforts, many aspects of the SV cycle and the underlying synaptic proteins remain poorly understood, highlighting the need for continued investigation into this important process. During this work, multiple aspects of synaptic transmission were studied by performing
behavioural, pharmacological, optogenetic, electrophysiological and ultrastructural assays on Caenorhabditis elegans. First, the role of two proteins (ERP-1 and RIMB-1) were analysed in the synaptic vesicle cycle. Second, a new optogenetic tool, the pOpsicle assay was described, which enables the direct visualization of synaptic vesicle (SV) release.
Activity-dependent bulk endocytosis (ADBE) enables the endocytosis of SV membrane and proteins in a fast manner during intense stimulation, resulting in bulk endosomes (also so-called large vesicles, LVs). Recycling proteins can be characterized by its site of action, whether they act at the plasma membrane (participating at the LV formation), or at the LV membrane (participating at the SV formation). ERP-1 (the C. elegans ortholog of Endophilin B) was recently identified as a possible SV recycling factor, its contribution to synaptic transmission has not been analysed before. During this project the function and possible cooperation of three proteins, ERP-1, UNC-57 (the C. elegans ortholog of Endophilin A) and CHC-1 (the C. elegans ortholog clathrin heavy chain) were studied, with a special emphasis of the site of action. It has been confirmed that these proteins participate together in synaptic vesicle recycling. Endophilins (ERP-1 and UNC-57) act both at the PM and the LV level, but while UNC-57 has been identified as the main player, ERP-1 rather has a minor role and acts as a back-up protein. CHC-1 functions the LV level in the first place, but it can compensate for the loss of UNC-57 and acts as a back-up protein at the PM.
RIM-binding protein is an evolutionarily conserved active zone protein, which interacts directly with RIM and N, P/Q, as well as L-type Ca2+ channels. RIM-BP and RIM have redundant functions in different model organisms including C. elegans, however, while the loss of UNC-10 (the C. elegans ortholog of RIM) led to drastic behavioural defects, the loss of RIMB-1 (the C. elegans ortholog of RIM-BP) led only to mild phenotypes. During this work the synaptic function of RIMB-1 and its interaction with UNC-10 and UNC-2 (C. elegans ortholog of the CaV2 1 subunit) were extensively investigated. It has been shown that RIMB-1 contributes to the precise localization of VGCCs in cooperation with UNC-10. Furthermore, it has been demonstrated, that RIMB-1 plays different roles in cholinergic and GABAergic neurons, thus it contributes to maintain a proper excitation/inhibition balance.
There are numerous available assays, which enable the indirect analysis of synaptic transmission, however, a tool, that enables the direct visualization of SV release, is highly desired. pOpsicle is a method which combines the optogenetic stimulation of cholinergic neurons with real-time visualization of SV release. A pH-sensitive fluorescence protein, pHuji, was inserted into the second intravesicular loop of the synaptic vesicle membrane protein, synaptogyrin (SNG-1). The fluorescence of pHuji is quenched inside the vesicles, but once they are released, the pH increases and pHuji can be detected. pOpsicle enables not only the direct visualization of SV exo-, and endocytosis events, but also the identification of putative SV recycling proteins.
Semi-arid African ecosystems influence trends and variability in global terrestrial carbon dynamics. However, there are uncertainties in potential effects of future climates for semi-arid ecosystems, especially for niche ecosystems. At the same time, African ecosystems provide the livelihoods and ecosystem services for around 1.4 billion people. Future population growth and associated changes in land use pose a challenge for the protection of African biodiversity. Therefore, this work focussed on future impacts of climate change on African ecosystems and carbon dynamics and also for African protected areas (PAs), where they may cooccur with other global change factors. Another focus was on uncertainties associated with future projections and with modelling the Nama Karoo, as an example of a semi-arid niche ecosystem. Dynamic vegetation models (DVMs) were the main research tool.
In Chapter 2, we analysed climate change impacts on African ecosystems and carbon pools until the end of the 21st century and associated uncertainties based on an ensemble of vegetation simulations with the DVM adaptive dynamic vegetation model (aDGVM). We investigated the impact of increased atmospheric CO2 concentrations and two climate change scenarios (medium (RCP4.5) and high emissions (RCP8.5); RCP - representative concentration pathway) on vegetation changes. Differences in the simulated vegetation were primarily driven by assumptions about the influence of CO2 on plants. Elevated CO2 concentrations led to increased total aboveground vegetation biomass and shrub encroachment into grasslands and savannas for both climate scenarios. In simulations without the direct influence of CO2 on plants, there was hardly any shrub encroachment and vegetation biomass decreased or varied between a slight decrease in some cases and a slight increase in others. Based on these results, biome changes due to climate change are likely in Africa in the future. Due to the large uncertainties in future projections, strategies to adapt to climate change must be flexible.
The simulated vegetation in Chapter 2 represented potential, natural vegetation and is particularly suitable to investigate PAs. However, PAs do not exist isolated from their environment and social developments. In Chapter 3, the vegetation projections with CO2 effect from Chapter 2 were combined with projections for population density and land use. Except for many PAs in North Africa, most PAs were adversely affected by at least one of the three drivers by the end of the 21st century in both investigated scenarios ("middle-of-the-road" and "fossil-fuelled development"). Cooccurrence of the drivers varied by region and scenario for PAs. Both scenarios implied increasing challenges for the conservation of African biodiversity in PAs. The impact of climate change on vegetation is likely to be exacerbated by socio-economic change for most African PAs. Strong mitigation of future climate change together with equitable societal development may facilitate successful ecosystem conservation.
The simulations in Chapters 2 and 3 showed large-scale patterns of vegetation change, but their low resolution makes them unsuitable for local analyses. In Chapter 4, the challenges of simulating smaller scale, semi-arid ecosystems and their carbon cycle were analysed for the Nama Karoo with the aDGVM2 and its shrub module. The aDGVM2 is based on the aDGVM, but represents plants more flexibly. In all tested aDGVM2 configurations, the carbon fluxes improved compared to initial simulations but still overestimated them. The measured morphology of the dwarf shrubs and soil water dynamics were not reproduced in aDGVM2. Semi-arid soil water dynamics and coping strategies of semi-arid dwarf shrubs under drought stress are not adequately implemented in the aDGVM2. Further field research on semi-arid water and carbon dynamics of vegetation is necessary to parameterise the aDGVM2 for dwarf shrubs. If these challenges are overcome, DVMs can be a powerful tool for much-needed research on the impacts of climate change on the Nama Karoo.
The analyses have shown that climate change under medium to high emission scenarios is likely to lead to large-scale changes in ecosystems and the carbon balance in Africa. Because lower emissions scenarios come with less uncertainty, climate change adaptation strategies likely need to be less complex or extensive if climate change is minimised. For African PAs, the challenges of climate change may be exacerbated by socio-economic factors to a regionally varying extent. This research suggests that successful ecosystem conservation depends on climate change mitigation measures and ensuring equitable, sustainable development. The shown uncertainties, e.g., in the implementation of the CO2 effect on plants or vegetation dynamics in more niche ecosystems, help to focus future research efforts and increase our understanding of the range of plausible futures we may need to adapt to.
This dissertation is about case competition in headless relatives. Case competition is a situation in which two cases are assigned but only one of them surfaces. One of the constructions in which case competition takes place is in headless relatives, i.e. relative clauses that lack a head. This dissertation has two goals: (i) to give an overview of the data, and (ii) to provide an account for the observed data.
The grammaticality of a headless relative is determined by two aspects. The first aspect concerns which case wins the case competition. In all languages with case competition that I am aware of, this is determined by the case scale in NOM < ACC < DAT. A case more to the right on the scale wins over a case more to the left on the scale. This scale is not specific to case competition in headless relatives, but it can also be observed in syncretism patterns and morphological case containment. I show that that the case scale can be derived from assuming the cumulative case decomposition (cf. Caha 2009). A case wins over another case when it contains all features that the other case contains.
The second aspect of case competition in headless relatives concerns whether the winner of the case competition is allowed to surface when it wins the case competition. The winning case can be either the internal case required by the predicate in the relative clause, or the external case required by the predicate in the main clause. It differs from language to language whether they allow the internal and the external case to surface.
All language types I discuss allow for a headless relative when the internal and the external case match. The unrestricted type of language allows both the internal case and the external case to surface when either of them wins the case competition. Examples of this language type are Old High German, Gothic and Ancient Greek. The internal-only type of language allows only the internal case to surface when it wins the case competition, and it does not allow the external case to do so. An example of this language type is Modern German. The external-only type of language allows only the external case to surface when it wins the case competition, and it does not allow the internal case to do so. To my knowledge, there is no language that behaves like this. The matching type of language allows neither the internal nor the external case to surface when either of them wins the case competition. An example of this language type is Polish.
To account for the data, I set up a proposal that generates the attested patterns and excludes the non-attested ones. I let the variation between languages follow from properties of languages that can be independently observed. By investigating the morphology of the languages, I suggest differences between the lexical entries in the different languages. These different lexical entries ultimately lead languages to be of different types. In my proposal, I assume that headless relatives are derived from light-headed relatives. Light-headed relatives contain a light head and a relative pronoun. In a headless relative either the light head or the relative pronoun is deleted. The necessary requirement for deletion is that the deleted element (either the light head or relative pronoun) is structurally or formally contained in the other element.
I motivate the analysis for the internal-only type of language for Modern German, for the matching type of language for Polish and for the unrestricted type of language for Old High German. I first identify the morphemes that the light heads and relative pronouns in the languages consist of, and then I show to which features each of the morphemes correspond. The crucial difference between the internal-only type of language Modern German and the matching type of language Polish is how the phi and case features are spelled out. In Modern German they are spelled out by a phi and case feature portmanteau, and, in Polish, the same features are spelled out by a phi feature morpheme and a case feature morpheme. Old High German differs from the other two languages in that it has light heads and relative pronouns that are syncretic. I show how these differences in the morphology of the languages ultimately leads to different grammaticality patterns in headless relatives.
Comparing my account to others shows that all proposals account for the case facts using some kind of case hierarchy. The proposals differ in how they model the variation, both in the technical details of the proposal, but more importantly, also in empirical scope and predictions they make.
Experiments on Vibrational Energy Transfer (VET) in proteins contribute to our understanding of fundamental biological processes such as allostery, dissipation of excess energy, and possibly enzymatic catalysis. While these processes have been studied for a long time, many questions remain unanswered. The aim of this work was to expand the application of existing spectroscopic techniques to investigate VET, seeking tailored solutions for the diversity of proteins and amino acid environments. Additionally, new target proteins were to be established to broaden the spectrum of VET experiments towards the role of VET and low-frequency protein modes (LFMs).
To test their suitability as VET sensors, the non-canonical amino acids (ncAAs) Azidoalanine (N3Ala), azido-L-Homoalanine (Aha), p-azido-Phenylalanine (N3Phe), p-cyano-Phenylalanine (CNPhe), and 4-cyano-Tryptophan (CNTrp) were coupled to the VET donor β-(1-azulenyl)-L-Alanine (AzAla) in dipeptides. Their spectral properties were compared using FTIR and VET spectra in H2O, dimethyl sulfoxide, and tetrahydrofuran.
The solvent strongly influences the measured VET signals, which can be explained by the direct interaction of the solvent with the dipeptides. Additionally, the peak time within the subgroups of azide and nitrile sensors increased with the size of the side chain, indicating the dependence between peak time and the distance between VET donor and sensor. When incorporated into a protein, solvent interactions are less dominant. Therefore, Aha, N3Phe, and CNPhe were additionally incorporated at two different positions in the PDZ protein domain and investigated. Due to Fermi resonances, signals from azide sensors are challenging to predict, unlike those of the nitrile sensors.
Overall, the experiments showed that nitrile groups can serve well as VET sensors, as their lower extinction coefficient is compensated for by a narrower bandwidth. This expands the number of potential target proteins, and sensor incorporation can be less disruptive at various protein locations.
Since the VET donor AzAla can inject the energy of a photon into a protein as vibrational energy at a specific location, it can also be used for the targeted excitation of LFMs. If these modes are involved in an enzymatic reaction, a direct influence on activity is expected. This hypothesis has long existed but has not been definitively verified. Some studies have found evidence for the involvement of LFMs in formate dehydrogenase (FDH) catalysis. Therefore, FDH was chosen for the investigation of LFMs in enzymes. This specific system additionally allows the use of a natural VET sensor: it forms a stable complex with NAD+ and N3-, an excellent IR marker. Thus, it provided the opportunity to test low-molecular-weight non-covalent ligands as VET sensors.
After ensuring sufficient AzAla supply through the internal establishment of an enzymatic synthesis, AzAla could be incorporated at various positions in FDH. Despite spectral overlap between free and bound N3-, the latter could be identified by its narrower FWHM. For some variants, no binding could be observed. Circular dichroism spectra showed that these variants structurally deviate slightly from other variants and the wild type (WT). VET could be observed over 22 Å from two regions of the protein to the N3- bound in the active center, at protein concentrations of below 2 mM. Unbound N3- did not generate signals, allowing it to be added in excess ensuring the saturation of the protein in VET experiments.
The activity of FDH WT and four AzAla mutants was investigated under substrate saturation without and with AzAla excitation. In these experiments, a slight reduction in activity under illumination was observed, even for the WT, who is not expected to interact with the excitation light. So far, a difference in sample temperature cannot be excluded as the cause for this decline.
The presented experiments with FDH illustrate the potential of low-molecular-weight ligands as VET sensors, with N3- being particularly attractive due to its simple structure (preventing Fermi resonances) and its high extinction coefficient. Its use can add many metalloproteins as potential targets for VET experiments and allows investigation without a VET sensor ncAA. Additionally, initial experiments were conducted to measure light-dependent FDH activity. By specifically exciting protein LFMs, this project could contribute in the future to answering longstanding questions about the extraordinary catalytic efficiency of enzymes.
In the past decade, the optogenetic toolbox for the manipulation of ion currents and cNMP levels in Caenorhabditis elegans (C. elegans) expanded. However, the implemented tools for cAMP generation were soluble enzymes (euPAC, bPAC, IlaC22 k27 and PaaC) and thus they do not precisely mimic physiological cAMP signalling occurring in microdomains in close proximity to the plasma membrane. Here, cAMP is predominantly generated by membrane-bound adenylyl cyclases, that are located in microdomains together with G protein-coupled receptors (GPCRs), protein kinase A (PKA) and their targets, enabling spatially and temporal regulation of cAMP signalling. For this reason, one aim of this study was to develop and implement membrane bound photoactivatable adenylyl cyclases for the manipulation of cAMP mediated signalling in close proximity to the plasma membrane. For this purpose, the guanylyl cyclase domains of the Blastocladiella and Catenaria Cyclase Opsins (CyclOps) were mutated to adenylyl cyclases either by introducing the mutations E497K and C566D (abbreviated as (A-2x)) or by the mutations E497K, H564D, and C566T (abbreviated as (A-3x)).
To determine the nucleotide specificity switch from GTP to ATP and the extent of light-dependent cAMP generation, the engineered enzymes were expressed in body wall muscle cells of C. elegans and in vitro cNMP measurements using C. elegans extracts were performed. Here, the highest levels of light induced cAMP generation during sustained stimulation (0.5 mW/mm2; 470 nm, 15 min) were detected for the variants BeCyclOp(A-2x), YFP-BeCyclOp(A-2x), and YFP-CaCyclOp(A-2x) (39, 57, 40 nM, respectively), though they did not reach the extent produced by the soluble bPAC (142 nM). In contrast, low magnitudes of generated cAMP were measured for the versions BeCyclOp(A-3x) and CaCyclOp(A-2x) (8 and 7 nM, respectively). Importantly, no obvious residual cGMP and basal activity was ascertained for any of the engineered enzymes.
To assess their potential to trigger and modulate cAMP mediated cholinergic neurotransmission, and to evaluate the influence of cytosolic and membrane proximal optogenetic cAMP generation, the enzymes were expressed in cholinergic motor neurons and compared to the implemented soluble bPAC via locomotion behaviour analysis on solid and in liquid media. Photoactivation of BeCyclOp(A-2x), YFP-BeCyclOp(A-2x), and YFP-CaCyclOp(A-2x) caused similarly enhanced or even more potent behavioural changes (swimming and crawling) as bPAC, whereas a more rapidly decaying response was observed for the bPAC evoked effects. Moreover, an increased diversity of the behavioural output was detected for cytosolic cAMP production by bPAC, i.e. increased bending angles and a decreased body length.
Confocal fluorescence microscopy was performed to examine the expression levels of YFP-tagged enzymes in cholinergic neurons, whereas both YFP-CyclOp(A-2x)s were expressed at similar levels, but 1.4-fold lower relative to the soluble bPAC-YFP. To compare the amount of light-dependent cAMP generation bPAC and BeCyclOp(A-2x) at light conditions that match the conditions of the behavioural experiments (30 s), cAMP measurements using C. elegans extracts were performed, whereas BeCyclOp(A-2x) depicted a 4-fold lower amount of optogenetic cAMP production than the soluble bPAC.
In sum, local (membrane proximal) cAMP generation by the membrane-bound photoactivatable adenylyl cyclases may more specifically activate cAMP dependent neurotransmission of cholinergic motor neurons than cytosolic cAMP generation, i.e. an increased mobilization and priming/docking of synaptic vesicles and an increased filling of the synaptic vesicles with the neurotransmitter acetylcholine and thus an increase in locomotion behaviour.
The optogenetic toolbox for the manipulation of cGMP mediated signalling in C. elegans consisted of the natural membrane-bound BeCyclOp and the artificial soluble bPGC. The latter generates cGMP with low efficiency and slow kinetics (~0.2 cGMP s-1), whereas BeCyclOp enables the production of much larger amounts of cGMP (L/D = 5000) at a high turnover rate (~17 cGMP s-1). Thus, one aim of this thesis was to implement a tool with features in between those of BeCyclOp and bPGC. Several orthologous CyclOps were assessed by Gao et al., 2015 for light-regulated cGMP production by in vitro assays based on the measurement of the cNMP content from CyclOp containing oocyte membranes. Here, CaCyclOp showed the highest ratio of light versus dark activity (L/D = 230) after BeCyclOp, and thus was selected for characterization in C. elegans...
First-principles modeling techniques offer the ability to simulate a wide range of systems under different physical conditions, such as temperature, pressure, and composition, without relying on empirical knowledge. Density functional theory (DFT), a quantum mechanical method, has become an exceptionally successful framework for materials science modeling. Employing DFT makes it possible to gain valuable insights into the fundamental state of a system, enabling the reliable determination of equilibrium crystal structures. Over time, DFT has become an essential tool that can be incorporated into various schemes for predicting the properties of a material related to its structure, insulating/metallic behavior, magnetism, and optics. DFT is regularly applied in numerous fields, spanning from fundamental subjects in condensed matter physics to the study of large-scale phenomena in geosciences. In the latter, the effectiveness of DFT stems from its ability to simulate the properties found on the Earth, other planets, and meteorites, which may pose challenges for their direct study or laboratory investigation.
In this thesis, a comprehensive examination of a family of monosulfides and a perovskite heterostructure was conducted. These materials are relevant for their potential applications in technology, energy harvesting, and in the case of monosulfides, their speculated abundance on the planet Mercury.
Firstly, a DFT approach was used to analyze two non-magnetic monosulfides, CaS and MgS. We determined their structural properties and then focused on the modeling of their reflectivity in the infrared region. The calculation of the reflectivity considered both harmonic and anharmonic contributions. In the harmonic limit, the non-analytic correction was employed to accurately determine the LO/TO splitting, which is necessary to delimit the retstrahlend band, that is, the maximum of the reflectivity. The anharmonic effects given by up to three-phonon and isotopic scatterings, which were included using perturbation theory, primarily smeared the reflectivity spectra edges in the high-wave region.
Secondly, four polymorphs of MnS were studied using a combination of first-principles methods to simulate their antiferromagnetic (AFM) and paramagnetic (PM) states. The integration of DFT+$U$ with special quasirandom structures (SQS) supercells, and occupation matrix control techniques was crucial for achieving convergence, structural optimization accuracy, and obtaining finite energy band gaps and local magnetic moments in the PM phases. The addition of the Hubbard $U$ correction was necessary to treat the highly-correlated Mn $d$-electrons. The success of our approach was clear based on our electronic structure predictions for the PM rock-salt B1-MnS polymorph. Experimentally this phase has been observed to be an insulator, but multiple \emph{ab initio} works resulted previously in metallic behavior. Our computations, on the other hand, predicted insulating and magnetic properties that compare well with available measurements. Additionally, the pressure-field stability of the four MnS polymorphs was studied. In the case of the PM phases, B1-MnS was identified to be the most stable up to about 21 GPa, then transforming into the B31-MnS polymorph. This finding was in close agreement with high-pressure experiments reporting a similar phase transformation. The optical properties of B1-, B4-, and B31-MnS were also simulated. The SQS technique was used to obtain soft-mode-free phonon band structures within the harmonic approximation. Then, the anharmonic effects were included, and the reflectivity was calculated for B1-MnS and B4-MnS. In both cases, a good agreement for the LO/TO splitting was achieved in comparison to experimental results.
Lastly, the oxygen-deficient heterostructure of LaAlO$_{3-\delta}$ /SrTiO$_{3-\delta}$ was investigated also employing DFT+$U$, with a particular emphasis on the potential impact of vacancy clustering at the interface. Six distinct configurations of pairs of vacancies were studied and their energies were compared to find the most stable one. The orbital reconstruction of Ti orbitals was also examined based on their location with respect to the vacancies and the local magnetic moments were calculated. The final results showed that linearly arranged vacancies located opposite to Ti ions give the most energetically stable configuration.
Menschen mit Epilepsie (engl. PWE) haben im Vergleich zur Allgemeinbevölkerung ein erhöhtes Risiko, vorzeitig zu versterben. Der plötzliche, unerwartete Tod bei Epilepsie (engl. Sudden Unexpected Death in Epilepsy, kurz SUDEP) stellt die häufigste epilepsiebedingte Todesursache dar. Obwohl das Thema in Fachkreisen zunehmende Aufmerksamkeit erfährt, die Empfehlung zur SUDEP Aufklärung zunehmend in nationalen Leitlinien aufgenommen wird, und der Patientenwunsch nach einer generellen SUDEP Aufklärung in verschiedenen Studien gezeigt werden konnte, besteht weiterhin ein Informationsdefizit unter PWE. Ursache hierfür scheint insbesondere die Sorge der behandelnden Neurolog*innen zu sein, Menschen mit Epilepsie übermäßig emotional zu belasten und ihre Lebensqualität zu mindern. Diese Studie untersucht sowohl das Vorwissen über SUDEP als auch unmittelbare sowie langfristige Auswirkungen einer SUDEP Aufklärung auf Erwachsene mit Epilepsie. Ziel ist mögliche negative Auswirkungen der Aufklärung sowie Auswirkungen auf das Verhalten aufzudecken. Aus diesem Zweck wählten wir ein prospektives, multizentrisches, longitudinales Studiendesign. Die Daten wurden in halbquantitativen Interviews vor (vor der Aufklärung), unmittelbar nach (nach der Aufklärung) und drei Monate nach (3-Monats Follow-up) der SUDEP Aufklärung erhoben. Um die direkte Vergleichbarkeit zwischen den Zeitpunkten zu ermöglichen wurden folgende validierte Instrumente verwendet: das Neurological Disorders Depression Inventory for Epilepsy (NDDI-E) zur Erfassung depressiver Symptome, der EuroQoL (EQ-5D) zur Erfassung der gesundheitsbezogenen Lebensqualität (HRQoL), eine visuelle Analogskala (VAS) zur Erfassung des allgemeinen Gesundheitszustandes, die revised Epilepsy Stigma Scale (rESS) zur Erfassung der wahrgenommenen Stigmatisierung und die Seizure Worry Scale zur Erfassung anfallsbezogener Sorgen. Insgesamt wurden 236 Teilnehmende (Durchschnittsalter: 39,3 Jahre, Spannweite: 18-77 Jahre, 51,7 % Frauen) in die Studie eingeschlossen. 205 (86,9 %) der Teilnehmenden konnten erneut im Langzeit Follow-up nach drei Monaten befragt werden. Eine der Teilnehmenden verstarb im Zeitraum des Follow-ups an SUDEP. Keines der validierten Instrumente zeigte zwischen den Zeitpunkten vor der Aufklärung und dem 3-Monats Follow-up eine Verschlechterung. Vor der Aufklärung hatten nur 27,5 % der Teilnehmenden von SUDEP gehört, und nur 9,3 % gaben an, diese Informationen von ihrer bzw. ihrem Neurolog*in erhalten zu haben. Nach der Aufklärung gaben mehr als 85 % der Teilnehmenden an, mit der SUDEP Aufklärung zufrieden oder sehr zufrieden zu sein. Drei Viertel der Teilnehmenden gaben an, durch die Aufklärung nicht oder überhaupt nicht belastet zu sein. Mehr als 80 % der Teilnehmenden befürworteten eine generelle SUDEP Aufklärung für alle Menschen mit Epilepsie. Bei dem 3-Monats Follow-up gab die Mehrheit der Teilnehmenden an, keine Verhaltensänderung vorgenommen zu haben, 24,8 % berichteten jedoch von starken Verhaltensänderungen.
Unsere Studie zeigt, dass eine SUDEP Aufklärung keine negativen Auswirkungen auf den allgemeinen Gesundheitszustand, die HRQoL, depressive Symptome, krankheitsbezogene Stigmatisierung oder Sorgen vor Anfällen hat. Insgesamt zeigte sich eine hohe Zustimmung zur SUDEP Aufklärung. Eine generelle SUDEP Aufklärung könnte sich zudem positiv auf die Compliance auswirken und das Mortalitätsrisiko senken. Eine SUDEP Aufklärung bietet allerdings keinen sicheren Schutz vor SUDEP.
Identifizierung und funktionelle Analyse von Pathogenitätsfaktoren in Bartonella bacilliformis
(2023)
Die Carrión-Krankheit ist eine durch Vektoren übertragene vernachlässigte Tropenkrankheit (neglected tropical disease), die in den südamerikanischen Andentälern auf einer Höhe von 600 3.200 m über dem Meeresspiegel vor allem in Peru, aber auch in Ecuador und Kolumbien endemisch ist. Der Erreger dieser Infektionskrankheit ist Bartonella bacilliformis, ein strikt humanpathogenes, Gram-negatives, fakultativ intrazelluläres Stäbchen der Klasse der Alphaproteobakterien. In der akuten Krankheitsphase, die als "Oroya-Fieber" bezeichnet wird, infizieren die Erreger Erythrozyten und verursachen eine schwere akute hämolytische Anämie, hohes Fieber sowie eine ausgeprägte Immunsuppression. Für diese Phase wurden Sterblichkeitsraten von bis zu 88% beschrieben. Dem Oroya-Fieber folgt meist eine chronische Infektion der vaskulären Endothelzellen, bei der durch vaskulo-endotheliale Proliferationen noduläre, Hämangiom-ähnliche, kutane Gefäßläsionen, die als "Verruga peruana" bezeichnet werden, entstehen. Diese beiden Phasen treten in der Regel nacheinander, manchmal aber auch unabhängig voneinander auf. Die Übertragung auf dem Menschen erfolgt durch den Biss infizierter Sandmücken (Lutzomyia spp.), die in den hochgelegenen Regionen der Anden vorkommen. Klimatische Veränderungen führen jedoch zur Expansion des Vektors auf angrenzende Regionen und begünstigen damit die Ausbreitung von B. bacilliformis-Infektionen.
In der Erforschung der Carrión-Krankheit besteht ein erheblicher Wissensmangel zu zahlreichen Aspekten (z. B. Epidemiologie, Infektionsbiologie, Diagnostik, Therapie), wodurch die Entwicklung von potenziellen Diagnostika, Therapeutika oder Vakzinen verhindert wird. Auch wenn frühere Studien zum Ziel hatten, immundominante Proteine für die Entwicklung serodiagnostischer Verfahren und Impfstoffe zu identifizieren, ist bislang kein validierter serologischer Test bzw. ein Impfstoff verfügbar. Daher sollte im ersten Teil dieser Arbeit ein serologischer Test zum Nachweis von anti-B. bacilliformis-Antikörpern entwickelt werden. Hierzu wurde ein Ansatz aus reverser Vakzinologie in Kombination mit einer Analyse heterologer genomischer Expressionsbibliotheken verfolgt, um geeignete immundominante Proteine zu identifizieren. Insgesamt wurden 21 potenziell immundominante Proteine identifiziert, rekombinant produziert, und auf ihre Reaktivität mit B. bacilliformis Patientenseren mittels Immunoblotting analysiert. Von den 21 Antigenkandidaten erwiesen sich 14 als immunreaktiv, die anschließend in einer Lineblot-Analyse mit 26 Serumproben von peruanischen B. bacilliformis Patienten und 96 Serumproben von gesunden deutschen Blutspendern ohne Reisevorgeschichte in Südamerika auf ihren potenziellen Nutzen für serologische Test untersucht wurden. Drei Antigene (Porin-B, Autotransporter-E und hypothetisches Protein-B) erwiesen sich für die Entwicklung eines diagnostischen ELISA als geeignet und wurden in zwei verschiedenen Antigenkombinationen (ELISA 1: Porin-B, Autotransporter-E, ELISA 2: Porin-B, Autotransporter-E, hypothetisches Protein B) verwendet. Um die Leistungsfähigkeit des B. bacilliformis ELISA zu bewerten, wurde eine Receiver-Operating-Characteristic-Analyse durchgeführt. Für die Kombination aus Porin-B und Autotransporter-E lag die Sensitivität des Tests bei 80,8% und die Spezifität bei 94,8%, wohingegen die Kombination aus Porin-B, Autotransporter-E und dem hypothetischem Protein-B in einer Sensitivität von 76,9% und einer Spezifität von 93,8% resultierte. Dieser neu entwickelte ELISA könnte ein nützliches serodiagnostisches Instrument für künftige epidemiologische Studien über B. bacilliformis in endemischen Gebieten darstellen. Darüber hinaus könnten die hier identifizierten immundominanten Antigene eine erste Grundlage für die zukünftige Entwicklung von Impfstoffen für die Prävention Carrión-Krankheit bilden.
Erythrozyten-Invasion und Hämolyse sind wahrscheinlich die wichtigsten Schritte in der Pathogenese der Carrión-Krankheit und verantwortlich für die hohe Sterblichkeitsrate beim Menschen. Genaue mechanistische Kenntnis dieses Prozesses sind entscheidend für die Entwicklung therapeutischer Arzneimittel. Im zweiten Teil dieser Arbeit sollten die in der Hämolyse involvierten Pathogenitätsfaktoren von B. bacilliformis identifiziert werden. Hierzu wurde eine Tn5-Transposonmutagenese in den beiden B. bacilliformis Stämmen KC583 und KC584 durchgeführt. Ein screening nach Hämolyse-defizienten Mutanten führte zur Identifizierung von zwei Pathogenitätsfaktoren: einem Porin (Porin-A) und einer α/β-Hydrolase. Ihre vermutete Funktion im Prozess der Hämolyse wurde durch eine zielgerichtete markerlose Deletion sowie durch genetische Komplementationen in vitro funktionell bestätigt. Dabei zeigte sich, dass Porin-A und die α/β Hydrolase jeweils essenzielle Faktoren für die Hämolyse darstellen. Durch eine in silico-Charakterisierung konnte konservierte biologische Funktionen identifiziert sowie die dreidimensionale Struktur der Proteine vorhergesagt werden. Diese Versuche bilden eine experimentelle Basis, um die Rolle von Porin-A und der α/β-Hydrolase näher untersuchen zu können und um potenzielle (Porin-A und α/β-Hydrolase) Inhibitoren mit anti-hämolytischer und damit therapeutische Wirkung testen zu können.
mRNS ist einer der wichtigsten Informationsträger in lebenden Zellen. Mit ihr wird die in der DNS gespeicherte Information zu aktiven Zellprozessen umgesetzt. Dabei finden erste regulatorische Prozesse, die den Phänotyp eines Organismus bestimmen können, bereits über Strukturelemente auf der mRNS statt. Diese, als Riboschalter bezeichneten Strukturen, können spezifisch, kleine Moleküle binden und dadurch ihre Struktur ändern. Durch diese dynamische Änderung der Struktur, in An- oder Abwesenheit des Liganden, wird reguliert, ob nachfolgende Gene vom Ribosom abgelesen werden können. Der Cd1-Riboschalter aus Clostridium Difficile ist schon während der Transkription aktiv und ein Teil des regulatorischen Netzwerkes, das bestimmt, ob das Bakterium einen mobilen oder stationären Lebensstil einnimmt. Das zentrale Signalmolekül in diesem Netzwerk ist der sekundäre Botenstoff c-di-GMP, der gleichzeitig auch der Ligand des Cd1-Riboschalters ist. In der folgenden Arbeit wurde der zeitliche und strukturelle Ablauf des Cd1 Regulationsmechanismus und die Bindung von c-di-GMP untersucht. Auch ohne einen Riboschalter in der Sequenz ist strukturierte mRNS ein interessanter Forschungsgegenstand. Wie die Covid-19 Pandemie und die Forschungen, mRNS Abschnitte als Krebsmedikamente zu gebrauchen, zeigen, gewinnt RNS immer mehr an Bedeutung für die medizinische Forschung und Anwendung. Mit dieser Motivation im Hintergrund wurden drei weitere RNS Projekte bearbeitet. Im ersten wurde ein 19F-Screening für die Erkennung von RNS bindenden Fragmenten etabliert. Im zweiten wurde ein RNS Doppelstrang untersucht, der mit Hilfe verschiedener, kovalent gebundener Spiropyrane reversibel gefaltet und entfaltet werden sollte. Im abschließenden Projekt wurden im Rahmen der COVID-19-NMR Initiative zwei Sekundärstrukturelemente der Covid-19 RNS untersucht.
Bei der Untersuchung des Cd1-Riboschalters konnten folgende Ergebnisse erzielt werden. Es wird gezeigt, dass die Bindung von c-di-GMP an das Cd1-Aptamer ein konzentrationsabhängiges Magnesiumverhältnis braucht. Dieses Verhältnis wurde ausgehend von initialen Messungen als 1/40 (RNS/Ligand) bestimmt. Spätere ITC Messungen geben aber Hinweise darauf, dass dieses Verhältnis bei niedrigen RNS Konzentrationen höher liegt und bei größeren RNS Konzentrationen niedriger. Die Bestimmung des Start- und Endpunktes der c-di-GMP Bindung wird in Unterkapitel 3.1.2 behandelt. Es wurde ermittelt, dass Cd1 bei 83 Nukleotiden eine alternative schwach Ligand bindende Konformation einnimmt, die wahrscheinlich durch eine P1 Helix bis zum Erreichen von Cd1-87 stabilisiert wird. Ab Cd1-87 bildet sich die reguläre von der Literatur vorhergesagte Bindetasche. Das Ende der c-di-GMP Bindung wird mit Cd1-148 erreicht, auch wenn hier noch Reste der Reportersignale für Bindung zu sehen sind. Diese Reste werden aber aller Wahrscheinlichkeit nach durch eine Cd1-83 entsprechende Konformation der Bindetasche erzeugt. In Kapitel 3.2 wird gezeigt, wie durch NMR Messungen die Zuordnung der Sekundärstruktur des Cd1-Riboschalters vollzogen wurde. Durch diese Messungen konnte bestätigt werden, dass in allen Längen eine P2 und P3 Helix vorhanden ist. Im Aptamer wird die Ligandbindung durch zwei Interaktionen zwischen P2 und P3 stark stabilisiert und der untere Abschnitt der P3 erst dann nicht mehr dynamisch, wenn c-di-GMP gebunden wird. Durch x-filter Experimente und Mutationen konnte nachgewiesen werden, dass C87 das basenpaarende Nukleotid an einem G des Liganden ist. Die Anwesenheit des HP1 Stamms konnte in den Längen 147, 148 und 160 nachgewiesen werden, wobei besonders der Vergleich der NOESY Spektren von Cd1-147 und Cd1-148 die Änderung der Sekundärstruktur hin zum Antiterminator zeigen. Der Verlauf der Bindungsaffinitäten wurde auch durch ITC Messungen an Cd1-83, 86, 87, 88, 135 und 146 bestätigt. Für die volle Länge (Cd1-160) des Riboschalters konnte gezeigt werden, dass der Terminatorstamm ausgeformt ist. Die erreichten Ergebnisse wurden in einem Modell zusammengefasst und der zeitliche Verlauf der Cd1 Regulation simuliert. Aus der Simulation ist zu erkennen, dass Cd1, wie erwartet, Ligand abhängig schaltet. Dabei ist der Aus-Zustand bei hoher Ligandkonzentration zu 90% populiert und der An-Zustand zu 100% bei niedriger Konzentration. Des Weiteren konnte gezeigt werden, dass die Transkriptionsgeschwindigkeit bei hohen Ligandkonzentrationen einen starken Einfluss auf die Regulationseffizienz des Riboschalters hat. So ist bei einer Transkriptionsgeschwindigkeit von 100 nt/s nach 1 s eine Gleichverteilung von An- und Aus-Zustand zu erkennen. Dieses Verhalten kann durch einen Stopp der Transkription an der potentiellen Pausierstelle U141-145 aufgehoben werden. Unter den Rahmenbedingungen des Modells erwiesen sich Transkriptionsgeschwindkeiten von um die 20 nt/s als optimal und bei niedrigen Ligandkonzentrationen hatte die Transkriptionsgeschwindigkeit faktisch keine Auswirkungen auf die Regulation. Ein interessantes Ergebniss der Modellierung ergab sich aus der Notwendigkeit der Verwendung einer Rate für konkurrenzlose Basenpaarschließungen. Hier konnte gezeigt werden, dass eine Rate von 400 nt/s ausreicht um einen voll funktionsfähigen Riboschalter zu beschreiben.
Beim 19F Bindungsscreenings von 101 Fragmenten, die alle ein oder mehrere 19F Atome besaßen, an Cd1-98 wurden 9 Fragmente gefunden die an Cd1-98 binden. Diese sind größtenteils planar mit Ausnahme von 2 Fragmenten bei denen die eine Hälfte des Moleküls nicht aromatisch ist. Des Weiteren besitzen alle Fragmente, außer einem, mindestens eine Aminogruppe im Molekül. Die daraus resultierende Vermutung, dass die Fragmente in die RNS interkalieren, konnte durch RNS beobachtende NMR Messungen nicht überprüft werden, da keine Signaländerung im Imino-Bereich zu erkennen war. Durch Verdrängungsexperimente konnte gezeigt werden, dass die Fragmente, nicht wie c-di-GMP, die RNS Faltung homogenisieren und auch nicht in der Bindetasche gebunden werden.
Our mind has the function of representing the physical and social world we are in, so that we can efficiently interact with it. This results in a constant and dynamic interaction between mind and world that produces a balance when representations are at the same time accurate with respect to what the world is communicating to our organism, but also compatible with how our mind works.
A paradigmatic case of this interaction is offered by perception, which is the mental function that represents contingent aspects of the world built from what is captured by our senses. Indeed, the dominant philosophical view in cognitive science is that our perceptual states are representations of the world and not direct access to that world. These representational perceptual states therefor include the aspects of the world they represent and that initiate the perception by stimulating our sensory organs.
Perceptual representations are built using information from the sensory system, i.e., bottom-up information, but are also integrated with information previously acquired, i.e., top-down information, so that perception interacts with memory through language and other mental functions. Such organization is believed to reflect a general mechanism of our mind/brain, which is to acquire and use information to make efficient predictions about the future, continuously updating older information with present information.
This predictive processing works because the world is not random, but shows a regular structure from which reliable expectations can be built. One way that our minds make these predictions is by adapting to the structure of the world in an implicit, automatic and unconscious way, a process that has been called Implicit Statistical Learning (ISL). ISL is a learning process that does not require awareness and happens in an incidental and spontaneous way, with mere exposure to statistical regularities of the world. It is what happens when we learn a language during early childhood, and that allows us to be implicitly sensitive to the phonological structure of speech, or to associate speech patterns with objects and events to learn word meaning.
A specific case of ISL is the learning of spatial configuration in the visual world, which we apply to abstract arrays of items, but most importantly, also to more ecological settings such as the visual scenes we are immersed in during our everyday life. The knowledge we acquire about the structure of visual scenes has been called “Scene Grammar”, because it informs about presence and position of objects in a similar way to what linguistic grammar tells us about the presence and position of words. So, we implicitly acquire the semantics of scenes, learning which objects are consistent with a certain scene, as well as the syntax of scenes, learning where objects are positioned in a consistent way within a certain scene.
More recent developments have proposed that scene grammar knowledge might be organized based on a hierarchical system: objects are arranged in the scene, which offers the more general context, but within a scene we can identify different spatial and functional clusters of objects, called “phrases”, that offer a second level of context; within every phrase, then, objects have different status, with usually one object (“anchor object”) offering strong prediction of where and which are the other objects within the phrase (“local objects”). However, these further aspects of the organization of objects In scenes remain poorly understood.
Another problem relates to the way we measure the structure of scenes to compare the organization of the visual world with the organization in the mind. Typically, to decide if an object appears or not in a certain scene, and whether or not it appears in a certain position within a scene, researchers based their decision on intuition and common-sense, maybe validating those decisions with independent raters. But it has been shown that often these decisions can be limited and more complex information about objects’ arrangement in scenes can be lost.
A potential solution to this problem might be using large set of real-world images, that have annotations and segmentations of objects, to measures statistics about how objects are arranged in the environment. This idea exploits the nowadays larger availability of this kind of datasets due to increasing developments of computer vision algorithms, and also parallels with the established usage of large text corpora in language research.
The goals of the current investigation were to extract object statistics from this image datasets and test if they reliably predict behavioural responses during object processing, as well as to use these statistics to investigate more complex aspects of scene grammar, such as its hierarchical organization, to see if this organization is reflected in the organization of objects in our mind.
Climatology of morphology and cloud-radiative properties of marine low-level mixed-phase clouds
(2023)
Marine stratocumuli cover about 40 - 60% of the ocean surface. They self-organize into different morphological regimes. The two organized cellular regimes are called open and closed mesoscale-cellular convective (MCC) clouds. In mid-to-high latitudes, open and closed cells are the two most frequent types of MCC clouds. In particular, many MCC clouds consist of a mixture of vapor, liquid droplets, and ice particles, referred to as mixed-phase clouds (MPCs). Even for the same cloud fraction, the albedo of open cells is, on average, lower than that of closed MCC clouds. Cloud phase and morphology individually influence the cloud radiative effect. Thus, this thesis investigates the relationships between the cloud phase, MCC organization, cell size, and differences regarding the cloud-radiative effect.
This thesis focuses on space-borne retrievals to achieve extensive temporal and spatial coverage. The liDAR-raDAR (DARDAR) version 2 product collocates two active and one passive satellite: CloudSat, Cloud-Aerosol Lidar and Infrared Pathfinder Satellite Observations (CALIPSO), and Moderate Resolution Imaging Spectroradiometer (MODIS). The cloud phase of DARDAR is vertically integrated to establish a single cloud phase at each data point. The MCC classification data set based on the liquid water path (LWP) of MODIS scenes is collocated with the DARDAR product to determine the MCC organization. Cell-size statistics of both MCC clouds are obtained using a marker-based image segmentation method on MODIS reflectance scenes. In addition, based on MODIS reflectance scenes, a convolutional neural network (CNN) is developed to classify open and closed MCC scenes to avoid missing mature MPCs with a low LWP.
The first part of this thesis explores the relationships between cloud phase, morphology, and cloud albedo in the Southern Ocean (SO). At a given cloud-top temperature (CTT), seasonal changes in the mixed-phase fraction, defined as the number of MPCs divided by the sum of MPC and supercooled liquid cloud (SLC) pixels, are stronger than the morphological changes. Therefore, external factors seem to influence these changes instead of morphology. The dependence of cloud phase on cloud-top height (CTH) is more substantial than on CTT in clouds with CTHs below 2.5 km. The previously observed acceleration of closed-to-open transition in MPCs, known as preconditioning, is not the primary driver of climatological cloud morphology statistics in the SO. The morphological differences in cloud albedo are more pronounced in SLCs than in MPCs. This change in albedo alters the cloud radiative effect in the SO by 21Wm−2 to 39Wm−2 depending onseason and cloud phase.
Open and closed MCC clouds exhibit larger equivalent cell diameters in the MPCs than in SLCs in austral summer, whereas, in austral winter, the SLCs are larger. The cell’s aspect ratio accounts for varying CTHs. Closed cells have smaller aspect ratios than open cells, so their cell diameter is smaller, independent of CTH. While the seasonal differences in closed cells are due to changes in CTH, the seasonal aspect ratio differences in open cells are mainly caused by MPCs. With increasing aspect ratios, the cloud albedo decreases in both open and closed MCC clouds, with the most substantial decrease in open MPCs clouds. This leads to cloud-radiative changes of 60 - 75Wm−2 in the SO, depending on cloud phase and aspect ratio.
The established CNN exhibits a good accuracy of 80.6%, with even higher accuracies in the Open (85.5%) and Closed (87.3%) categories. The global MCC climatology based on the CNN generally agrees well with previous MCC distributions. The most notable difference occurs in the Northern Hemisphere (NH) in boreal winter, with a higher occurrence frequency of closed and open MCC clouds. This might indicate missing MPCs in previous studies based on the LWP and some restricted to warm cloud scenes. Thus, the developed CNN seems to better represent the different morphologies in MPCs than in previous classifications.
In conclusion, this thesis shows that understanding the dependencies of cloud phase, cloud morphology, and cell size is important to enhance predictions of the cloud-radiative effect and thus, it is important to evaluate how cloud phase, cloud morphology, and cellsize change in a warming climate.
This study examines the political contestation among Malay Professional Satirists (MPS) through their selected political satire works between 2011-2018. Political satire challenges those in power and is often regarded as fake news and libel. Therefore, political satirists tend to be frequently subject to legal action and are accused of disrupting national harmony. However, there is another group within the social and cultural community, which I call Social and Cultural Professionals (SCP), who also use satire but are supported by the government. This group frequently received financial benefits from the state and are at lower risk of suffering legal consequences. These contrasting conditions raise several important questions: who are the Malaysian Professional Satirists? Who are the targets of MPS in their satirical work? Why do MPS satirise them? And why do the MPS still produce political satire despite the potential legal consequences? Therefore, this study attempts to identify the characters, themes, and issues the MPS highlight; it also considers the reasons and motivations that political satirists have for creating such allegedly controversial works. Malaysia’s Reformasi movement and the booming use of the internet in 1998 mobilised multiple alternative social movements, mainly through art-related activities. Art workers, NGOs, as well as musical and cultural groups, protested creatively against the UMNO-BN ruling regime. Creative protests that employed satire and humour somehow succeeded in attracting a significant proportion of the public to follow political and current issues, especially youths in universities who had been depoliticised with the inception of the University and University College Act (AUKU 1979). This study establishes a point of view that political satire is a fun, loose, free form of resistance, contrasting with formal procedural democracy. The previous literature proposes that the study of Malaysia’s political system should focus on formal political procedures, especially election and representation. However, the study of political satire vis-à-vis democratisation is often neglected and thus such studies are scarce, which might have resulted from how satire is strictly discussed in terms of language and media. There has been a growing interest in how satirist and satirical works are regarded; hence, this study attempts to fill a gap in research on political satire in Malaysia. In contrast, democratisation is often discussed in terms of history, politics, anthropology, sociology, and economics. This qualitative study presents a comprehensive account of interviews with four (4) art workers identified as MPS, as based on appropriate criteria. Each informant had either partaken in alternative social movements or faced legal action from authorities or, indeed, both. In this study, the Theory of Contestation and Two-Social Reality serves as a primary framework to lead to an understanding of the contestation of power in Malaysia through political satire. This study further intends to broaden the knowledge of political satire and humour in the study of democratisation, adding to the existing literature, particularly outside formal political procedures.
IL-38 is the latest discovered cytokine of the IL-1 family and has been added to the IL-36 subfamily. Since its discovery in 2001, increasing evidence suggests predominantly anti-inflammatory properties of IL-38, which are most likely exerted through three potential receptors, the IL-1 Receptor 1 (IL-1R1), IL-36 Receptor (IL-36R) and the IL-1 Receptor Accessory Protein Like 1 (IL-1RAPL1). However, to this date detailed knowledge of IL-38 functioning remains to be examined. Importantly, how IL-38 is processed, secreted from cells and the exact mechanisms of target receptor binding and intracellular signaling are not fully understood. Further, IL-38 has been associated with regulatory functions in autoimmune diseases like systemic lupus erythematosus (SLE) and psoriasis. At the same time however, connections between B cells as indispensable part of immunity and IL-38 remain rare.
In this study we examined the influence of IL-38 in peripheral human blood B cells differentiating into antibody secreting cells using a three-step in vitro differentiation process. We first show that all potential IL-38 binding receptors are present on peripheral blood B cells on a gene expression level and remain detectable throughout B cell differentiation. Next, while B cells treated with exogenous IL-38 depict no differences in early B cell activation markers, the process of B cell differentiation revealed significant alterations in B cell phenotype created by IL-38 treatment. Predominantly on day 7 of the differentiation process, IL-38 treated B cells showed significantly reduced CD38 expression which depicts an important step in development towards plasma cells. We hypothesize that IL-38 acts antagonistically on the IL-1R1 pathway reducing Nuclear factor kappa B (NFκB) expression and consequently decreasing CD38 expression. Further IL-38 reduced early antibody production while increasing IgM secretion at the end stages of differentiation. Next, we repeated the differentiation assays under the influence of additional IL-21 stimulation to further enhance plasma cell development. In these experiments, the impact of IL-38 on B cell differentiation and immunoglobulin production were reduced, indicating a comparatively moderate relevance of IL-38 for B cell differentiation. We then examined how proliferation and cell death were impacted by exogenous IL-38 during B cell differentiation. IL-38 treatment alone significantly reduced B cell survival which was further augmented by IL-21 stimulation. We conclude that IL-38 and IL-21 act synergistically in promoting B cell apoptosis, also depicting an anti-inflammatory property of IL-38. Finally, using a siRNA we successfully performed an IL-38 knockdown experiment of human blood B cells reducing IL-38 expression to 44% measured on day 4 of B cell differentiation. In these experiments we observed reversed tendencies of CD38 expression compared to exogenous IL-38 treatment. Here, IL-38 knockdown cells showed increased CD38 expression indicating endogenous regulatory properties of IL-38 in B cell differentiation.
Our project, for the first time proves direct effects of IL-38 on human B cells. The results support previous research of IL-38 to act anti-inflammatory as it seems to modulate B cell differentiation, survival, and immunoglobulin production in a down-regulatory manner. These findings pave way for more detailed research on the connection between B cell homoeostasis and IL-38 function.
In this thesis, the focus is on the actions of primary school children using digital and analogue materials in comparable mathematical situations. To emphasise actions on different materials in the mathematical learning process, a semiotic perspective according to C. S. Peirce (CP 1931-35) on mathematics learning is adopted. This theoretical research perspective highlights the activity itself on diagrams as a mathematical activity and brings actions to the forefront of interest. The actions on comparable digital and analogue diagrams are the basis for the reconstruction of mathematical interpretations of learners in 3rd and 4th grade.
The research questions investigate to what extent possible differences between the reconstructed interpretations of the learners can be attributed to the different materials and what influence the material has on the mathematical relationships that the learners take into account in their actions to manipulate the diagram.
For the reconstruction of the diagram interpretations based on the learners' actions on the material, a semiotic specification of Vogel's (2017) adaptation of Mayring's (2014) context analysis is used. This specification is based on Peirce's triadic theory of signs (Billion, 2023). The reconstructed interpretations of the analogue and digital diagrams are compared in a second step to identify possible differences and similarities.
The results of the qualitative analyses show, among other things, that despite the different actions of the learners on the digital and analogue diagrams, it is possible to reconstruct the same diagram interpretations if the learners establish the same mathematical relationships between the parts of the diagrams in their actions. There are also passages in the analyses where the same diagram interpretations cannot be reconstructed based on the actions on the digital and analogue materials. If the digital material acts as a tool and automatically creates several relationships between the parts of the diagram triggered by an action, then the reconstruction of the learners' diagram interpretations based on the analysis of their actions is partially possible. If the tool automatically establishes relationships, these must then be interpreted by the learners using gestures and phonetic utterances to understand the newly created diagram. Thus, a tool changes how mathematical relationships are expressed, because learners no longer have to interpret the relationships before their actions to manipulate the diagram itself, but afterwards through gestures and phonetic utterances. Regarding diagrammatic reasoning according to Peirce (NEM IV), this means that with analogue material the focus is on the construction and manipulation of diagrams through rule-guided actions, whereas with digital material, which functions as a tool, there is more emphasis on observing the results of the manipulations on the diagram.
At the end of the thesis, a recommendation for teachers on how to design mathematics lessons for primary school children using digital and analogue materials will be derived from the results.
The literature cited in this summary can be found in the references of the presented thesis.
Anthropogenic interventions have altered all ecosystems around the world. One of those ecosystems are forests, the main resource for timber. They have been strongly transformed in their structure with large consequences on forest biodiversity. Especially the decrease in dead-wood volume due to the timber extraction and alternation of natural forest structures with even-aged stands of less diverse tree species composition has put especially saproxylic, i.e., dead-wood dependent species, under threat, which comprise about 20% of all forest species. Beetles, fungi and bacteria are three functional important groups for decomposition processes but we still lack much information about their sampling and the drivers of their diversity, thus it is difficult to comprehensively protect their diversity. Saproxylic fungi are a highly diverse species group and the main drivers of dead-wood decomposition; hence they play a major role in the global carbon cycle. Due to their cryptic lifestyle, many species are still unknown, but the recent advances in environmental DNA barcoding methods (metabarcoding) shed light on the formerly underestimated diversity. Yet, this method's accuracy and suitability in detecting specific species have not been assessed so far, limiting its current usefulness for species conservation. On the other hand, these methods are a convenient tool to study highly diverse areas with high numbers of unknown species, enabling the study of global diversity and its drivers, which are unknown for saproxylic fungi, but important to assess to predict the future impacts of global change. Since nature conservation concepts are usually not applied on a global scale, the drivers of diversity must also be assessed on smaller scales. Besides understanding the drivers of diversity, to identify focus scales to create comprehensive, evidence-based conservation concepts must utilize multi-taxonomic studies since saproxylic species are differently sensitive towards environmental variables and closely interact with each other. Filling these knowledge gaps is utterly needed to protect the high saproxylic diversity and ensure the functional continuity of decomposition processes, especially regarding the global change.
To address the usefulness of metabarcoding for fungal species conservation, I compared the traditional method of fruit body sampling with metabarcoding and their efficiency in detecting threatened fungal species in the first chapter of this thesis. Both methods have advantages and disadvantages. Their ability to detect threatened saproxylic fungal species and their dependencies on detecting specific fungal groups have not been compared, albeit they are important to inform species conservation like Red Lists properly. I found metabarcoding to generally detect more threatened fungal species than fruit body sampling with a higher frequency than fruit body sampling. Moreover, fruit body sampling detected a unique set of species, while fruit body sampling missed large parts of fungal diversity due to species-specific fruiting characteristics. Metabarcoding with high sampling intensity is thus a viable method to assess threatened saproxylic fungal diversity and inform nature conservation like Red Lists about distribution and abundances. Nevertheless, a complementary approach with fruit body sampling is indispensable for assessing all threatened fungal species.
In order to analyse the global diversity of saproxylic fungi and its drivers, I examined whether fungal species richness increases from the poles towards the equator and thus follows the latitudinal diversity gradient already found in many other species groups. I further investigated whether such an increase is caused by increasing ecological specialisation, i.e., niche partitioning, or local tree diversity, i.e., niche space. Gamma diversity per biome increased from the boreal, over the temperate to the tropics and thus confirmed the latitudinal diversity for saproxylic fungi. Contrastingly, alpha diversity at the log level did not significantly increase towards the tropics, suggesting a grain size dependency of the observed pattern and an equal niche space within dead-wood across latitudes. Ecological specialisation on the plot level was globally on a high level but did not increase significantly towards the equator. Additionally, I found local tree species richness to drive plot-based fungal diversity. Further analysis of gamma diversity against the total number of sampled tree species strengthened the assumption that tree species diversity and not increased ecological specialisation was the main driver of the latitudinal diversity gradient, as there was no significant difference between the gamma diversity of the temperate and tropical biome. Nonetheless, as the gamma diversity of the boreal biome was still significantly smaller, my results do not allow a complete neglection of the ecological specialisation hypothesis. The overall results indicate a strong dependency of saproxylic fungi diversity with host tree species diversity and that the global loss of tree species threatens saproxylic fungi with an unpredictable impact on carbon and nutrient cycling.
To support saproxylic conservation, I conducted two analyses. First, I compared the beta diversity of the three main decomposer groups (beetles, fungal fruit bodies, mycelial fungi (metabarcoding), and bacteria (metabarcoding)) across different scales to assess the impact of different environmental variables on their overall diversity. I used an experimental design to disentangle two different spatial scales, influenced by differences in macroclimate, forest microclimate and spatial distance, and two host scales, driven by differences between tree lineages and tree species. I set these beta diversities in relation to the gamma diversity of the three main decomposer groups to identify whether a unified conservation concept could be applied to one scale to optimally protect the diversity of all three species groups. Second, I identified whether diversity and community composition of fungi and bacteria differed among climate and land use gradients. Further I explored whether specialisation and niche packing could explain the expected pattern. To do so I used an experimental design disentangling climate and land use across a large gradient in Germany. The results differed among the species groups, denying a unified conservation concept focusing on one scale. Saproxylic beetle and fruit body beta diversity was equally high on each scale, as they are more sensitive towards environmental factors like macro- and microclimate. On the other hand, mycelial fungi and bacteria beta diversity was highest on the host scale, especially the host tree scale, indicating a high host specificity of the two groups. The second study also identified tree species as the main driver of diversity and community composition of these two study groups. Specialisation of fungi was not influenced by land use or climate. Bacterial specialisation and diversity were under a strong influence of mean precipitation. Comprehensive conservation of multi-taxonomic diversity across regions thus requires the integration of several scales. Within different macroclimatic regions, forests of varying microclimates, i.e., forest management, must be implemented. In these forests, dead-wood of different tree lineages, i.e., angio- and gymnosperms and tree species, must be provided.
Taken together, I could demonstrate that metabarcoding is an efficient method to sample threatened fungal species and identify differing drivers of fungal diversity present as fruit bodies or mycelium. Its usefulness will further increase due to the ongoing improvement of sequencing databases and thus better inform conservation concepts. Using metabarcoding, I could demonstrate that high host specialisation of saproxylic fungi is not a European but a global phenomenon and identify tree species loss under global change as one major concern for saproxylic diversity. My dissertation further highlighted the importance of multi-taxonomic studies for evidence-based nature conservation, as different species groups require varying concepts. These results were especially important for saproxylic bacteria as the drivers of their diversity are still largely unknown. Howbeit, large research gaps still exist regarding the impacts of global change on species and processes. Moreover, the spatial coverage of studies is needed to confirm or neglect the generality of current research especially concerning the highly diverse tropical areas. An increased focus on the drivers of diversity in these areas is crucial to ensure a globally comprehensive saproxylic conservation and the various ecosystem functions they control.
Die Kernspinresonanz(NMR)-Spektroskopie ist ein leistungsstarkes analytisches Werkzeug. Allerdings ist ihre Empfindlichkeit aufgrund geringer Wechselwirkungs-energie zwischen den Kernspins und dem externen Magnetfeld begrenzt. Die dynamische Kernpolarisation (DNP) erhöht DNP die Empfindlichkeit der NMR, indem sie die Polarisation von ungepaarten Elektronenspins auf die benachbarten Kernspins überträgt. In den letzten Jahrzehnten hat die DNP bei hohen Magnetfeldern erneut an Aufmerksamkeit gewonnen, bedingt durch die Verfügbarkeit leistungsstarker Gyrotron-Mikrowellen(mw)-Quellen. Jedoch wurde die Anwendung von DNP für Flüssigkeiten im Vergleich zu Festkörperproben bei niedrigen Temperaturen (≈100 K) weit weniger erforscht. Zwei Gründe können dafür hauptsächlich benennt werden. Bei hohen Magnetfeldern (entsprechend hohen mw-Frequenzen) wird die mw-Strahlung sehr stark von Flüssigkeiten absorbiert, was zu einer starken Erwärmung führt. Darüber hinaus sind die Translations- und Rotationsdynamik der Radikale und Target-Molekülen nicht schnell genug, um Spectraldichten bei den hohen mw-Frequenzen zu erzeugen, die für eine Overhauser-Effekt (OE) DNP Verstärkung benötigt werden. In dieser Arbeit wird gezeigt, Flüssigzustands-DNP bei hohen Magnetfeldern, insbesondere bei 9,4 T, mit hocheffizienten DNP-Probenköpfen möglich ist.
Der von skalaren Hyperfein-Wechselwirkung (hfWW) angetriebene OE ist für Flüssigzustands-DNP-Forschungen von besonderem Interesse, da der von der Theorie vorhergesagte Mechanismus auch bei hohen Magnetfeldern noch effizient ist. In der vorliegenden Arbeit wurde eine Methode zur Vorabprüfung potenzieller DNP-Kandidaten durch Messungen ihrer paramagnetischen NMR-Verschiebungen vorgeschlagen und untersucht. Wir beobachtete signifikante 13C-skalare OE DNP-Verstärkungen bis zu 50 bei den ausgewählten kleinen Biomolekülen, einschließlich Imidazol, Indol, verschiedene Aminosäuren und Kohlenhydraten. Das Lösungssystem wurde auch von organischen Lösungsmitteln auf Wasser erweitert.
Im Kontext von dipolarer OE DNP haben wir den Beitrag der Rotation des Radikals neben der Translationsbewegung zwischen Radikal und Target-Molekül zur OE DNP-Effizienz systematisch untersucht, indem wir verschiedene Nitroxidderivate mit unterschiedlichen Ringgeometrien und Substituenten verwendet haben. Mithilfe eines Models, das eine 'out-sphere' Translationsbewegung und eine 'inner-sphere' Rotationsbewegung des Radikal-Lösungsmittel-Komplexes enthält, konnte unsere Beobachtungen quantitativ simuliert werden. Außerdem wurde ein anderes Model untersucht, das eine Translationsbewegung mit der Rotation von Radikalen, bei denen das ungepaarte Elektron nicht im Zentrum sitzt, kombiniert.
Eine weitere neue Entdeckung in der DNP bei hohen Magnetfeldern waren der beobachtete SE (Solid-Effekt) an Lipidmolekülen mit BDPA-Radikal oberhalb der Lipidphasen-übergangstemperatur. Die neue Anwendung von SE DNP bietet einen alternativen Mechanismus zur OE DNP in Flüssigkeiten bei hohen Magnetfeldern und könnte möglicherweise auf Makromoleküle mit relativ langsamer Rotationsbewegung angewendet werden.
Wir haben zusätzliche Untersuchungen an den Lipiddoppelschichten mit Nitroxid-radikale durchgeführt, basierend auf dem beobachteten 1H DNP-Verstärkungen in einer viskosen Lipidumgebung bei 9,4 T . Durch Messung des Feldprofils wurden DNP-Verstärkungen durch OE und SE in Abhängigkeit ihrer relativen Verschiebungen von der Elektronen-Larmor-Frequenz bestimmt. Die individuelle OE DNP-Effizienzen für Protonen des Wassers, der Lipid-Cholin-Kopfgruppen oder der Lipid-Acylketten wurde bestimmt. Dadurch wird ein quantitativer Vergleich mit MD-Simulationen ermöglicht. Obwohl die von der MD-Simulationen vorhergesagten DNP Kopplungsfaktoren noch deutliche Abweichungen von den experimentellen Beobachtungen aufweisen, wird die schnelle Dynamik nahe der Elektronen-Larmor-Frequenz, die für einen erfolgreichen OE DNP Transfer erforderlich ist, von den MD-Simulationen gut erfasst.
In der Arbeit wurden auch zwei unterschiedliche Dreifachresonanz-DNP-Experimente durchgeführt. Zum einen wurde 13C OE DNP unter 1H-Entkopplung in wässriger Natriumpyruvatlösung, und zum anderen 13C-NMR von Glycin, verstärkt durch SE DNP an 1H zusammen mit einem 1H-13C INEPT-Polarisationstransfer, im Rahmen dieser Doktorarbeit durchgeführt.
The role of lncRNAs in the CVS and the endothelium is highly diverse and has been subject to a substantial amount of research over the last decade. The identification of lncRNAs as clinically relevant biomarkers and as co-regulatory molecules let to the appreciation of the functional relevance of lncRNAs.
In the present study, LINC00607 was identified as an endothelial-enriched, human-specific lncRNA. With its distinct functions, LINC00607 maintains and supports the endothelial homeostasis especially in response to VEGF-A signalling.
In the first part of this study, LINC00607 was functionally characterized in human endothelial cells. LINC00607 is highly and specifically expressed in endothelial cells and is differentially regulated in CVDs. Depletion of LINC00607 resulted in decreased angiogenic sprouting, reduced integration of ECs in a newly formed vascular network in vivo, enhanced endothelial migration and differential expression of many important genes for endothelial cell homeostasis. Functionally, LINC00607 maintains ERG-driven endothelial gene expression programs through BRG1. BRG1 secures stably accessible enhancer regions as well as TSS of ERG target genes, thus enabling transcription of endothelial gene programs.
The second part of this study proposes an additional mode of action for LINC00607. The strongly impaired response to VEGF-A after LINC00607 KO can only be partially explained by its’ expression control of ERG target genes. It rather appears that LINC00607 is involved in the control of alternative splicing of VEGF receptor FLT1. The differential splicing of FLT1 produces the anti-angiogenic soluble isoform of FLT1. Even though further validation is needed to uncover the underlying mechanism, there is the potential of a more general role of LINC00607 in splicing control through BRG1. As AS of FLT1 is a clinical marker in preeclampsia, LINC00607 might qualify to be an additional marker for the onset and manifestation of the pregnancy disorder.
Taken together, LINC00607 is a target in future for molecular therapy in CVD to restore a healthy endothelial phenotype and has the potential to serve as a biomarker in preeclampsia.
Binary neutron star mergers represent unique observational phenomena because all four fundamental interactions play an important role at various stages of their evolution by leaving imprints in astronomical observables. This makes their accurate numerical modeling a challenging multiphysics problem that promises to increase our understanding of the high-energy astrophysics at play, thereby providing constraints for the underlying fundamental theories such as the gravitational interaction or the strong interaction of dense matter. For example, the first and so far only multi-messenger observation of the binary neutron star merger GW170817 resulted in numerous bounds on the parameters of isolated non-rotating neutron stars, e.g., their maximum mass or their distribution in radii, which can be directly used to constrain the equation of state of cold nuclear matter. While many of these results stem from the observation of the inspiral gravitational-wave signal, the postmerger phase of binary neutron star mergers encodes even more details about the extreme physics of hot and dense neutron star matter. In this Thesis we focus on the exploration of dissipative and shearing effects in binary neutron star mergers in order to identify novel approaches to constrain hot and dense neutron star matter.
The first effect is the well-motivated dissipation of energy due to the bulk viscosity which arises from violations of weak chemical equilibrium. We start by exploring the impact of bulk viscosity on black-hole accretion. This simplified problem gives us the opportunity to develop a test case for future codes taking into account the effects of dissipation in a fully general-relativistic setup and build intuition in the physics of relativistic dissipation. Next, we move on to isolated neutron stars and binary neutron star mergers by developing a robust implementation of bulk-viscous dissipation for numerical relativity simulations. We test our implementation by calculating the damping of eigenmodes of isolated neutron stars and the violent migration scenario. Finally, we present the first results on the impact of bulk viscosity on binary neutron star mergers. We identify a number of ways how bulk viscosity impacts the postmerger phase, out of which the suppression of gravitational-wave emission and dynamical mass ejection are the most notable ones.
In the last part of this Thesis we investigate how the shearing dynamics at the beginning of the merger affects the amplification of different initial magnetic-field topologies. We explore the hypothesis that magnetic fields which are located only in a small region near the stellar surface prior to merger lead to a weaker magnetic-field amplification. We show first evidence which confirms this hypothesis and discuss possible implications for constraining the physics of superconduction in cold neutron stars.
Die nachfolgende Dissertation wurde an der Goethe-Universität Frankfurt am Institut für Geowissenschaften (FB 11) in der Arbeitsgruppe Kristallographie und Mineralogie (AG Winkler) verfasst. Die Betreuung der hier durchgeführten Arbeiten erfolgte hauptsächlich durch Prof. B. Winkler in Zusammenarbeit mit Dr. L. Bayarjargal, PD Dr. E. Haussühl und PD Dr. V. Vinograd. Bei dem vorliegenden Manuskript handelt es sich um eine kumulative bzw. publikationsbasierte Dissertation, welche die Forschungsergebnisse verschiedener bereits veröffentlichter wissenschaftlicher Fachartikel zusammenfasst.
Die Arbeit beschreibt verschiedene Synthesen und Untersuchungen an Carbonaten und teilt sich im Wesentlichen in zwei Abschnitte. Zum einen wurden Experimente mit Carbonaten bei Extrembedingungen bzw. unter hohen Drücken und hohen Temperaturen durchgeführt, wie sie auch im Inneren der Erde zu finden sind. Im zweiten Teil wurden Carbonate bei Raumbedingungen synthetisiert und der Einbau von Seltenerdelementen untersucht. Grundsätzlich werden jedoch in beiden Teilen dieser Arbeit die Strukturen und Eigenschaften verschiedener Carbonate und eine mögliche Kationensubstitution bzw. die Synthese isostruktureller Verbindungen erforscht.
Die rechtsmedizinische Begutachtung von Knochenfunden : eine hessenweite retrospektive Studie
(2023)
Einleitung: Zufällige Funde von Knochen(fragmenten) können von großem Interesse für z. B. Strafverfolgungs- und Denkmalbehörden oder Bauträger sein. Zur Beurteilung einer etwaigen strafrechtlichen oder historischen Relevanz tragen forensisch-osteologische Untersuchungen in einem hohen Maße bei. Die vorliegende Arbeit soll einen Überblick über die forensisch-osteologische Arbeit der beiden hessischen Institute für Rechtsmedizin geben und durch die Interpretation der Ergebnisse im (inter-)nationalen Vergleich regionale Besonderheiten und die Rolle der Rechtsmedizin bei der Begutachtung aufzeigen. Der daraus entstandene Erkenntnisgewinn soll ein Problembewusstsein schaffen sowie Fallarbeit und Lehre verbessern.
Material und Methoden: Zunächst wurden für den Zeitraum von 2005 bis 2019 die im Institut für Rechtsmedizin Gießen archivierten osteologischen Gutachten deskriptiv statistisch ausgewertet. Es wurden Daten zu Fundort, -umständen, Humanspezifität, postmortalem Intervall, Spuren von Gewalt und die Ergebnisse weiterführender Untersuchungen erhoben.
In einer zweiten Studie wurde die Auswertung auf archivierte forensisch- osteologische Gutachten des Instituts für Rechtsmedizin Frankfurt am Main ausgeweitet und der Auswertungszeitraum auf die Jahre 2011 bis einschließlich 2020 angepasst, um eine hessenweite Datengrundlage zu generieren.
Ergebnisse: In der ersten Studie wurden von den in dem 15-Jahres-Zeitraum begutachteten 172 Knochenfunden aus dem Institut für Rechtsmedizin Gießen 40 % in Wald- und Wiesengebieten aufgefunden. In 58 % enthielten die Funde menschliche Knochen, davon wurde in 32 % eine forensisch relevante Liegezeit von 50 Jahren oder weniger nicht ausgeschlossen, und 6% wiesen Zeichen perimortaler Gewalteinwirkung auf. Bei den Fällen, in denen eine Humanspezifität ausgeschlossen wurde, handelte es sich am häufigsten um Knochen von Hirsch bzw. Reh (32 %), Schwein (29 %) und Rind (14 %). In 20 % aller Fälle wurden
ergänzende DNA-Untersuchungen durchgeführt; in 62 % verlief die Typisierung humaner STR-Systeme erfolgreich und davon gelang in 41 % die Zuordnung zu einem antemortalen Profil einer vermissten Person.
In der zweiten, hessenweiten Studie, wurden 288 Knochenfunde eines 10-Jahres-Zeitraums ausgewertet. Mit 38,2 % wurden die meisten Funde in Wäldern, Wiesen und großen Parks getätigt. In 50,7 % der Fälle enthielten die Funde menschliche Knochen, davon wurde in 37,0 % eine forensisch relevante Liegezeit angenommen. Zeichen einer Gewalteinwirkung wurden in 77,4 % der Fälle mit menschlichen Knochen beschrieben, dabei handelte es sich mit 78,8 % am häufigsten um postmortale Beschädigungen, in 9,7 % um perimortale und in 11,5 % um antemortale Verletzungen. In 40,4 % der als human klassifizierten Knochenfunde wurden DNA-Untersuchungen durchgeführt. Dabei konnte in 81,3 % ein STR-Profil erstellt werden, das in 35,4% zu einer sicheren Identifizierung führte. Bei den zur Untersuchung überstellten nicht-menschlichen Knochen handelte es sich am häufigsten um Knochen vom Schwein (23,4 %), Hirsch (18,1 %), Rind (16,4 %), Reh (11,7 %) und Schaf (11,7 %).
Diskussion: Die Begutachtung von Knochen und Knochenfragmenten ist ein fester Bestandteil der rechtsmedizinischen Fallarbeit und zwingend erforderlich, um Fälle von forensischem Interesse zu identifizieren. Die makroskopische Befundung durch einen geschulten Untersucher erlaubt in der Regel bereits, Aussagen über die forensische Relevanz eines Fundes zu treffen und so die Weichen für das weitere Vorgehen zu stellen. Hilfreich bei der makroskopischen Beurteilung ist eine gute Kenntnis der regionalen Besonderheiten in dem Gebiet, in dem die Knochen gefunden wurden. Die makroskopische forensisch-osteologische Begutachtung stellt trotz der sich ständig weiterentwickelnden technischen Möglichkeiten ein unverzichtbares Werkzeug in der Bearbeitung von Knochenfunden dar. In Deutschland ist es Aufgabe der Rechtsmedizin, diese Expertise zu pflegen und vorzuhalten, mit dem Ziel, zur Aufklärung von Vermisstenfällen beizutragen und unentdeckte nichtnatürliche Todesfälle aufzuklären.
This work focuses on the investigation of K+, K- and ϕ-meson production in Ag(1.58 A GeV)+Ag collisions. The energetically cheapest channel for direct K+ production in binary NN-collisions NN→NΛK+ lies at exactly this energy. For the remaining K- and ϕ-mesons, an excess energy of 0.31 GeV and 0.34 GeV in the centre of mass system has to be provided by the system. This makes these particles an excellent probe for effects inside the medium.
K+ and K- mesons can be reconstructed directly as they possess a cτ of approximately 3.7 m. Using the approximately 3 billion recorded Ag(1.58 A GeV)+Ag 0-30% most central collision events, all reconstructed K+ and K- within the detector acceptance are investigated for their kinematic properties and their particle production rates compared to a selection of existing models.
Einleitung: Die Bronchiolitis obliterans ist eine seltene Lungenerkrankung unterschiedlicher Ätiologie, die mit einer chronischen Entzündung der kleinen Atemwege einhergeht. Mit der Identifizierung von Kandidaten-miRNA sollen Biomarker evaluiert werden, die in der Diagnostik der postinfektiösen Bronchiolitis obliterans (PIBO) herangezogen werden sowie in Zukunft eine mögliche Therapieoption darstellen können.
Material und Methoden: 19 Patientinnen und Patienten mit PIBO sowie 18 gesunde Kontrollen wurden in die Studie eingeschlossen. Nach Komplettsequenzierung wurden die miRNA-Profile der Patienten mit den Profilen der alters- und geschlechtsadaptierten gesunden Kontrollgruppe verglichen. Als Nebenzielgrößen wurden die Lungenfunktion und Sputum-Biomarker erfasst.
Ergebnisse: Die Patientenkohorte wies signifikant niedrigere Werte in der Lungenfunktionsdiagnostik (Patienten, Median: FVC (%) 76,3***, FEV1 (%) 59,8***, FEV1/FVC 0,68***, FEF75 (%) 25,1***, *p<0,05, **p<0,01, ***p<0,001) sowie eine signifikante Erhöhung der neutrophilen Granulozyten und der proinflammatorischen Zytokine IL-1β, IL-6 und IL-8 in der Sputumanalyse auf (Patienten, Median: Neutrophile (%) 82,5***, IL-1β (pg/ml) 1453,0**, IL-6 (pg/ml) 825,6**, IL-8 (pg/ml) 35368,0***). Die Analyse der miRNA-Expression ergab insgesamt 40 unterschiedlich regulierte miRNAs (padj ≤ 0,05). 22 miRNAs waren in der Patientenkohorte vermehrt exprimiert, 18 miRNAs waren vermindert exprimiert. Die vier miRNAs mit pbonf < 0,05 wurden in der weiteren Analyse berücksichtigt. Die miRNAs hsa-let-7b-3p und hsa-miR-146a-3p waren signifikant vermehrt exprimiert, wohingegen die miRNAs hsa-miR-1287-5p und hsa-miR-27b-3p signifikant vermindert exprimiert waren. Die identifizierten miRNAs spielen unter anderem eine Rolle im TGF-β- und Hippo-Signalweg.
Schlussfolgerung: Die Ergebnisse zeigen, dass das miRNA-Expressionsmuster bei Patienten, die an postinfektiöser Bronchiolitis obliterans erkrankt sind, alteriert ist. Die identifizierten miRNAs sind relevante Biomarker und können als potentielle Ziele von miRNA-Therapeutika in Betracht gezogen werden.
Einleitung: Im Jahr 2016 wurde eine neue, individuelle Lehrform, das „Lernzentrum für ein individualisiertes medizinisches Tätigkeitstraining und Entwicklung“ („Limette“), an der Westfälischen Wilhelms-Universität Münster entwickelt. Das Ziel dieser Lernform ist und war es, nicht nur die theoretische Lehre, sondern vor allem die praktische Lehre und praktische Szenarien in einem geschütztem Lernumfeld in der medizinischen Lehrdidaktik in den Vordergrund zu stellen.
Die Studierenden nehmen an verschiedenen Fächern der Limette teil. In dieser Promotionsarbeit liegt der Fokus auf der Limette Patient Blood Management (PBM) und Transfusionsmedizin.
Vor Kursbeginn wird den Studierenden Zugang zu verschiedenen Vorbereitungsvideos sowie weiteren theoretischen Materialien über PBM und Transfusionsmedizin zur Verfügung gestellt. Bei der Limette durchläuft jeder Studierende sechs verschiedene Stationen. Hierbei beobachten Dozenten die Fertigkeiten und die Umsetzung der Aufgabenlösung durch halbverspiegelte Scheiben, im Umgang mit echten Blutprodukten oder die Kommunikation mit Patienten, die von Schauspielern dargestellt werden. Die Beobachtungen werden den Dozenten des Seminars, welches im Anschluss zur Nachbesprechung stattfindet, mitgeteilt. Hier teilen die Studierenden untereinander ihr Wissen, können den Dozenten Fragen stellen und werden ihnen weitere theoretisch-praktische Kenntnisse vermittelt.
Ziel der Arbeit: Die Promotionsarbeit hat die Auswertung der Selbsteinschätzungsbögen vor und nach der Limette mit anschließender Interpretation der Ergebnisse zum Ziel. Es soll eruiert werden, ob diese neue Lehrmethodik effektiv in der Umsetzung des Lehrerfolgs ist.
Methodik: Die Selbsteinschätzungsbögen hinsichtlich medizinischer Fertigkeiten und Tätigkeiten werden vor und nach der Limette von den Studierenden ausgefüllt. Die Aufgabenstellungen fokussieren sich jeweils auf medizinische Tätigkeiten, bei denen aus 13 verschiedenen Entrustable Professional Activities (EPAs) diejenigen hinterlegt werden, die bei dieser Aufgabe gelehrt werden. Die Differenz von post- zu prä- Selbsteinschätzung zeigt den Lehrerfolg. Die EPAs werden alle analysiert und mit Hilfe der sogenannten Cohen-Zahl interpretiert. Die Cohen Zahl ist definiert als die Differenz zwischen den Mittelwerten zweier Gruppen dividiert durch die gemeinsame Standardabweichung der beiden Populationen. Nach dem Autor Hattie wurde die Skalierung von Cohen für die Lehre angepasst und dabei folgende Einteilung definiert: d = 0,2 (klein), d = 0,4 (mittel) und d = 0,6 (groß). Alle Methoden mit d > 0,4 wurden als „Zone der gewünschten Effekte“ eingestuft.
Ergebnisse: Im Wintersemester 2021/2022 nahmen n=122 Studierende teil, von welchen n=50 beide Fragebögen komplettierten. Eine signifikante Zahl der dargestellten EPAs (50%) hat gute Ergebnisse erzielt, weist mithin einen Cohen´s Wert von d > 0,40 auf. Im Sommersemester 2022 nahmen n=99 Studierende teil, wobei nur n=29 beide Selbsterhebungsbögen komplettierten. Aufgrund des niedrigen Rücklaufs war die Zahl der ausgefüllten Selbsteinschätzungsbögen deutlich geringer und zugleich die Ergebnisse geringer ausgeprägt. In jenem Semester weist die Mehrheit der Ergebnisse einen Cohen´s d-Wert zwischen 0,15 und 0,4 auf, was als durchschnittlicher Lehrerfolg beurteilt wird.
Schlussfolgerung: Die Lehrform der Limette ist eine neue Form der praktischen Lehrvermittlung, die kontinuierlichen Anpassungen unterliegt. Eine hohe Zahl an ausgefüllten Selbsteinschätzungsbögen ist erstrebenswert, um den Lehrerfolg positiv und statistisch signifikant interpretieren zu können. Hierbei ist es nötig, die Lehre in der Limette auszuwerten und gegebenenfalls weitere Anpassungen durchzuführen.
Die Limette ist eine neue Lehrmethode mit einem guten Lehrerfolg hinsichtlich der Vermittlung praktischer Fähigkeiten und sozialer Kompetenz, welche auch an anderen Institutionen angewandt und umgesetzt werden könnte.
Bislang sind die strukturellen Voraussetzungen für die Selektivität von Agonisten an den Retinoid Rezeptor Subtypen RXRα, RXRβ und RXRγ kaum erforscht, obwohl RXR-Modulatoren, die eine Subtypen-Präferenz aufweisen, aufgrund der unterschiedlichen Expressionsmuster der Subtypen Gewebe-spezifische Effekte vermitteln und somit Nebenwirkungen verringern könnten. Der Grund dieser Forschungslücke liegt teilweise darin, dass die Entwicklung Subtypen-selektiver RXR-Agonisten aufgrund der enormen strukturellen Ähnlichkeit der Ligandbindestellen in den RXR-Subtypen - alle Aminosäuren, die die Bindungsstellen bilden sind identisch - als unerreichbar angesehen wurde. Die Entdeckung des Naturstoffs Valerensäure als RXR-Agonist mit ausgeprägter Präferenz für den RXRβ-Subtyp hat jedoch gezeigt, dass Subtypen-selektive RXR-Modulation möglich ist249 und SAR-Studien an unterschiedlichen RXR-Ligand-Chemotypen haben in der Folge bestätigt, dass die Entwicklung von RXR-Liganden mit Subtypen-Präferenz erreicht werden kann.
Auf der Basis von Valerensäure und der in früheren Arbeiten entwickelten RXR-Agonisten wurden in dieser Arbeit Strukturmodifikationen identifiziert, die zu einer RXR-Subtypen-Präferenz beitragen. Durch die Verschmelzung dieser Strukturelemente ist es gelungen, einen neuen RXR-Agonist-Chemotyp (A) zu entwerfen, der durch strategische Methylierung und weitere Strukturmodifikationen zur Präferenz für jeden Subtyp optimiert werden konnte.
In einem Adipozyten-Differenzierungsexperiment konnte gezeigt werden, dass RXRα der wichtigste Heterodimer-Partner von PPARγ während der Adipogenese ist. Ferner unterstrich diese biologische Untersuchung das Potenzial von 99, 103 und 105 als Subtyp-präferentielle RXR-Agonisten in vitro Experimenten zu dienen.
Auf der Grundlage dieser Ergebnisse wurde eine mögliche Rolle von Acrylsäurepartialstrukturen natürlicher RXR-Liganden basierend auf dem zuvor entwickelten Chemotyp untersucht. Hierzu wurden das α-Methylacrylsäuremotiv des Naturstoffs Valerensäure (18) und das β-Methylacrylsäuremotiv des endogenen RXR-Agonisten 9-cis-Retinsäure in den Chemotyp A integriert (Chemotyp B), um die Rolle dieser Acrylsäuregruppen bei der Vermittlung der RXR-Subtypen-Selektivität zu untersuchen. Die Strukturmodifikationen an B zeigten, dass nur die α-Methyl-substituierte Acrylsäurekette toleriert bzw. von RXRβ präferiert wurde, was die RXR-Präferenz der Valerensäure (18) unterstützte.
In dieser Arbeit konnte gezeigt werden, dass RXR-Liganden mit Subtypen-Präferenz realisierbar sind und durch gezielte Strukturmodifikationen in ihrer Präferenz gesteuert werden können. Die Erkenntnisse zu den Struktur-Wirkungs-Beziehungen der neuen RXR-Agonist-Chemotypen A und B erweitern den Wissenstand über die strukturellen Voraussetzungen von RXR-Liganden für die Subtypen-Präferenz deutlich.
This cumulative dissertation examines learning in chemistry laboratories, focusing on the challenges and benefits of problem-based learning (PBL) for novices in the lab. It addresses the lack of consistent understanding about what should be learned in labs and why it's important. The research aims to understand what students learn, how they learn, and how lab learning can be improved.
A central concept in PBL labs is Information Literacy, defined as a sociocultural practice enabling learners to identify and use information sources within a specific context as legitimized by the practice community.
The first publication, Wellhöfer and Lühken (2022a), investigates the relationship between PBL and learner motivation. It identifies factors that can foster students' intrinsic motivation in a PBL lab. Autonomy is found to be a key factor, increasing student motivation and presenting a model of the autonomous scientific process. This model involves four steps: information acquisition, designing and applying experimental procedures, experimental feedback, and autonomous process optimization. The results suggest that intrinsic motivation in PBL labs can be enhanced by enabling students to independently execute these steps.
The second publication, Wellhöfer and Lühken (2022b), examines the information process students undergo during their first PBL lab. Using a sociocultural framework, it explores Information Literacy to understand students' handling of information and their perceptions of the information process. The findings reveal that in PBL labs, developing a practical, applicable experimental procedure is crucial for problem-solving and significantly shapes the information-acquisition process. This process is iterative, influenced by new information, leading to more precise information needs. Students assess information quality based on its usefulness for their problem, implementability (considering cognitive understanding, available equipment, and psychomotor skills), and safety.
Furthermore, the role of privileged knowledge forms in evaluating the quality of text sources is explored. Students viewed non-scientific sources as "poor" and scientific sources as "good," yet used both for information gathering. There were discrepancies between their assessment of source quality and actual use, indicating that perception of source quality doesn't always affect their practical decisions.
The third publication, Wellhöfer, Machleid, and Lühken (2023), investigates students' information practices in the lab, focusing on discourse between novice learners and experienced assistants. It shows that theoretical knowledge isn't sufficient for independent practical action, and students need actionable social information from experienced community members. The results highlight that information literacy in the lab for newcomers to a community of practice has distinctive features, and physical experience and tacit knowledge are crucial for learning the methods and group-specific knowledge of the practice community. The article demonstrates how learning information literacy in a practice community requires a social and physical experience and provides insights on how educators can support this process.
The Compressed Baryonic Matter (CBM) is one of the core experiments at the future Facility for Anti-proton and Ion Research (FAIR), Darmstadt, Germany. Its goal is to investigate nuclear matter characteristics at high net-baryon densities and moderate temperatures. The Silicon Tracking System (STS) is a central detector system of CBM.
It is placed inside a 1Tm magnet and operated at a temperature of about −10 °C to keep radiation-induced bulk current in the 300μm double-sided microstrip silicon sensors low. The design of the STS aims to minimize the material budget in the detector acceptance (2.5° < θ < 25°). In order to do so, the readout electronics is placed outside the active area, and the analog signals are transported via ultra-thin micro-cables. The STS comprises eight tracking stations with 876 modules. Each module is assembled on a carbon fiber ladder, which is subsequently mounted in the C-shaped aluminum frame.
The scope of the thesis focused on developing a modular control system framework that can be implemented for different sizes of experimental setups. The developed framework was used for setups that required a remote operation, like the irradiation of the powering modules for the front-end electronics (FEE), but also in laboratory-based setups where the automation and archiving were needed (thermal cycling of the STS electronics).
The low voltage powering modules will be placed in the vicinity of the experiment, therefore they will experience a total dose of up to 40mGy over the 10 years of STS lifetime.
To estimate the effects of the radiation on the low-voltage module performance, a dedicated irradiation campaign took place. It aimed at estimating the rate of radiation induced soft errors, that lead to the switch off of the FEE.
Regular power cycles of multiple front-end boards (FEBs) pose a risk to the experiment operation. Firstly, such behavior could negatively influence the physics performance but also have deteriorating effects on the hardware. It was further assessed what are the limitations of the FEBs with respect to the thermal cycling and the mechanical stress. The results served as an indication of possible failure modes of the FEB at the end of STS lifetime. Failure modes after repeated cycles and potential reasons were determined (e.g., Coefficient of Thermal Expansion (CTE) difference between the materials).
Due to the conditions inside the STS efficient temperature and humidity monitoring and control are required to avoid icing or water condensation on the electronics or silicon sensors. The most important properties of a suitable sensor candidate are resilience to the magnetic field, ionizing radiation tolerance, and fairly small size.
A general strategy for ambient parameters monitoring inside the STS was developed, and potential sensor candidates were chosen. To characterize the chosen relative humidity sensors the developed control framework was introduced. A sampling system with a ceramic sensor and Fiber Optic Sensors (FOS) were identified as reliable solutions for the distributed sensing system. Additionally, the industrial capacitive sensors will be used as a reference during the commissioning.
Two different designs of FOS were tested: a hygrometer and 5 sensors multiplexed in an array. The FOS hygrometer turned out to be a more reliable solution. One of the possible reasons for a worse performance is a relatively low distance between the subsequent sensors (15 cm) and a thicker coating. The results obtained from the time response study pointed out that the thinner coating of about 15μm should be a good compromise between the humidity sensitivity and the time response.
The implementation of the containerized-based control system framework for the mSTS is described in detail. The deployed EPICS-based framework proved to be a reliable solution and ensured the safety of the detector for almost 1.5 years. Moreover, the data related to the performance of the detector modules were analyzed and significant progress in the quality of modules was noted. Obtained data was also used to estimate the total fluence, which was based on the leakage current changes.
The developed framework provided a unique opportunity to automate and control different experimental setups which provided crucial data for the STS. Furthermore, the work underlines the importance of such a system and outlines the next steps toward the realization of a reliable Detector Control System for STS.
In the last twenty years, a variety of unexpected resonances had been observed within the charmonium mass region. Although the existence of unconventional states has been predicted by the quantum chromodynamics (QCD), a quantum field theory describing the strong force, a clear evidence was missing. The Y(4260) is such an unexpected and supernummerary state, first observed at BaBar in 2005, and aroused great interest, because it couples much stronger to hidden charm decays (charm-anticharm states like J/Psi or h_c) instead of open charm decays (D meson pairs). This is unusual for states with masses above the D anti-D threshold. Furthermore, it decays into a charged exotic state Y(4260)->Z_c(3900)^+- pi^-+. The charge of the Z_c(3900)^+- is an indication that it comprises of two more quarks than the charm-anticharm pair, and could therefore be assumed to be a four-quark state. Due to these still not understood properties of these QCD-allowed states, they are referred to as exotic XYZ states to emphasize their particularity.
In 2017, the collaboration of the Beijing Spectrometer III (BESIII) investigated the production reaction of the Y(4260) resonance based on a high-luminosity data set. This significantly improved precision of the measurement of the cross-section sigma(e+e- -> J/Psi pi^+ pi^-) permitted a resolution into two resonances, the Y(4230) and the Y(4360). The Z_c(3900)^+- had been discovered by the BESIII collaboration in 2013, thus this experiment at the Beijing Electron-Positron Collider II (BEPCII) is a top-performing facililty to study exotic charmonium-like states.
In this work, an inclusive reconstruction of the strange hyperon Lambda in the charmonium mass region is performed to study possible decays of Y states in order to provide further insight into their nature. Finding more states or new decay channels may provide crucial hints to understand the strong interaction beyond nonperturbative approaches.
Three resonances are observed in the energy dependent cross-section: the first with a mass of (4222.01 +- 5.68) MeV and a width of (154.26 +- 28.16) MeV, the second with a mass of (4358.88 +- 4.97) MeV and a width of (49.58 +- 13.54) MeV and the third with a mass of (4416.41 +- 2.37) MeV and a width of (23.88 +- 7.18) MeV. These resonances, with a statistical significance Z > 5sigma, can be interpreted as the states Y(4230), Y(4360) and psi(4415).
Additionally, a proton momentum-dependent analysis strategy has been used in terms of the inclusiveness of the reconstruction and to address the momentum discrepancies between generic MC and measured data.
"Autonomy is the condition under which what one does reflects who one is" (Weinrib, 2019, p.8). This quote encapsulates the core idea of autonomy, namely the correspondence of one’s inner values with one’s actions. This is a beautiful idea. After all, who wants their actions to be determined or controlled from the outside?
The classical definition of autonomy is precisely about this independence from external circumstances, which Murray (1938) primarily coined. Among other things, Murray characterizes autonomy as resistance to influence and defiance of authority. Similarly, Piaget (1983) describes individuals as autonomous, independent of external influences, in their thinking and actions, and foremost, adult authority. Subsequent work criticized this equation of autonomy with separation or independence (Bekker, 1993; Chirkov et al., 2003; Hmel & Pincus, 2002). In lieu thereof, autonomy is defined as an ability (Chirkov, 2011; Rössler, 2017) and as an essential human need (Ryan & Deci, 2006). Focus is now
on self-governing while relying on rationally determined values to pursue a happy life (Chirkov, 2011). According to Social Determination Theory (SDT), autonomy is about a sense of initiative and responsibility for one’s own actions. The experience of interest and appreciation can strengthen autonomy, whereas experiences of external control, e.g., through rewards or punishments, limit autonomy (Ryan & Deci, 2020). In the psychological discourse of autonomy, SDT is strongly represented (Chirkov et al., 2003; Koestner & Losier, 1996; Weinstein et al., 2012). Notably, SDT distinguishes between autonomy and independence as follows. While a person can autonomously ask for help or rely on others, a person can also be involuntarily alone and independent. Interestingly, these definitions are again closer to its etymological meaning as self-governing, originating from Greek αυτòνoμζ (autonomous).
The two strands of autonomy as independence and autonomy as self-determination are also reflected in the vital differentiation into reactive and reflective autonomy by Koestner and Losier (1996). Resisting external influence, particularly interpersonal in fluence, is what reactive autonomy entails. This interpretation is closely related to the classical concept of autonomy as separation and independence from others (Murray, 1938). On the other hand, reflective autonomy concerns intrapersonal processes, such as self-governing or self-regulation, as defined in Self-Determination Theory (Ryan et al., 2021). In this dissertation, we investigated the concept in three different approaches while focusing on its assessment and operationalization: To begin, in Article 1, we compared the layperson’s and the scientific perspective to each other to gain insight into the characteristics of autonomy. Then, in Articles 2 and 3, we experimentally tested behavioral autonomy as resistance to external influences. Simultaneously, we investigated the link between various autonomy trait measures and autonomous behavior. As a result, in Article 2, we looked at how people reacted to the effects of message framing and sender authority on social distancing behavior during the early COVID-19 pandemic. Finally, in Article 3 we investigated the resistance to a descriptive norm in answering factual questions, in the context of autonomous personality. In our first article, we used a semi-qualitative bottom-up approach to gain insights into the laypersons’ perspective on autonomy and compare it to the scientific notion. We followed a design proposed by Kraft-Todd and Rand (2019) on the term heroism. We derived five components from philosophical and psychological literature: dignity, independence from others, morality, self-awareness, and unconventionality. In three preregistered online studies, we compared these scientific components to the laypersons’ understanding of autonomy. In Study 1, participants (N = 222) listed at least three and up to ten examples of autonomous (self-determined) behaviors. Here, the participants named 807 meaningful examples, which we systematically categorized into 34 representative items for Study 2. Next, new participants (N = 114) rated these regarding their autonomy. Finally, we transferred the five highest-rated autonomy and the five lowest-rated autonomy items to Study 3 (N = 175). We asked participants to rate how strongly the items represented dignity, independence from others, morality, self-awareness, and unconventionality. We found all components to distinguish between high and low autonomy items but not for unconventionality. Thus, we conclude that laypersons’ view corresponds with the scientific characteristics of dignity, independence from others, self-awareness, and morality. A qualitative analysis of the examples also showed that both reactive and reflective definitions of autonomy are prevalent.
This Ph. D. thesis with the title "Characterisation of laser-driven radiation beams: Gamma-ray dosimetry and Monte Carlo simulations of optimised target geometry for record-breaking efficiency of MeV gamma-sources" is dedicated to the study of the acceleration of electrons by intense sub-picosecond laser pulses propagating in a sub-millimeter plasma with near-critical electron density (NCD) and resulting generation of the gamma bremsstrahlung and positrons in the targets of different materials and thickness.
Laser-driven particle acceleration is an area of increasing scientific interest since the recent development of short pulse, high-intensity laser systems. The interaction of intense high-energy, short-pulse lasers with solid targets leads to the production of high-energy electrons in the relativistic laser intensity regime of more than 1018 W /cm2. These electrons play the leading role in the first stage of the interaction of laser with matter, which leads to the creation of laser sources of particles and radiation. Therefore, the optimisation of the electron beam parameters in the direction of increasing the effective temperature and beam charge, together with a slight divergence, plays a decisive role, especially for further detection and characterisation of laser-driven photon and positron beams.
In the context of this work, experiments were carried out at the PHELIX laser system (Petawatt High-Energy Laser for Heavy Ion eXperiments) at GSI Helmholtz Center for Heavy-Ion Research GmbH in Darmstadt, Germany. This thesis presents a thermoluminescence dosimetry (TLD) based method for the measurement of bremsstrahlung spectra in the energy range from 30 keV to 100 MeV. The results of the TLD measurements reinforced the observed tendency towards the strong increase of the mean electron energy and number of super-ponderomotive electrons. In the case of laser interaction with long-scale NCD-plasmas, the dose caused by the gamma-radiation measured in the direction of the laser pulse propagation showed a 1000-fold increase compared to the high contrast shots onto plane foils and doses measured perpendicular to the laser propagation direction for all used combinations of targets and laser parameters.
In this thesis I present novel characterisation method using a combination of TLD measurements and Monte Carlo FLUKA simulations applicable to laser-driven beams. The thermoluminescence detector-based spectrometry method for simultaneous detection of electrons and photons from relativistic laser-induced plasmas initially developed by Behrens et al. (Behrens et al., 2003) and further applied in experiments at PHELIX laser (Horst et al., 2015) delivered good spectral information from keV energies up to some MeV, but as it was presented in (Horst et al., 2015) this method was not really suitable to resolve the content of photon spectra above 10 MeV because of the dominant presence of electrons. Therefore, I created new evaluation method of the incident electron spectra from the readings of TLDs. For this purpose, by means of MatLab programming language an unfolding algorithm was written. It was based on a sequential enumeration of matching data series of the dose values measured by the dosimeters and calculated with of FLUKA-simulations. The significant advantage of this method is the ability to obtain the spectrum of incident electrons in the low energy range from 1 keV, which is very difficult to measure reliably using traditional electron spectrometers.
The results of the evaluation of the effective temperature of super-ponderomotive electrons retrieved from the measured TLD-doses by means of the Monte-Carlo simulations demonstrated, that application of low density polymer foam layers irradiated by the relativistic sub-ps laser pulse provided a strong increase of the electron effective temperature from 1.5 - 2 MeV in the case of the relativistic laser interaction with a metallic foil up to 13 MeV for the laser shots onto the pre-ionized foam and more than 10 times higher charge carried by relativistic electrons.
The progressive simulation method of whole electron spectra described with two -temperatures Maxwellian distribution function has been developed and the results of dose simulations were compared with the acquired experimental data. The advanced feature of this method, which distinguishes it from the results of the simulation of the photon spectrum using the interaction with the target of mono-energetic electron beams (Nilgün Demir, 2013; Nilgün Demir, 2019) or the initial electron spectrum expressed as a function of one electron temperature (Fiorini, 2012), is the ability to simulate the initial electron spectrum described by the Maxwellian distribution function with two temperatures.
The important objective of this thesis was dedicated to the study and characterisation of laser-driven photon beams. In addition to this, the positron beams were evaluated. The investigation of bremsstrahlung photons and positrons spectra from high Z targets by varying the target thickness from 10 µm to 4 mm in simulated models of the interactions of electron spectra with Maxwellian distribution functions allowed to define an optimal thickness when the fluences of photons and positrons are maximal. Furthermore based on the results of FLUKA simulations the gold material was found to be the most suitable for the future experiments as e − γ target because of its highest bremsstrahlung yield.
Additionally Monte Carlo simulations were performed applying the obtained electron beam parameters from the electron acceleration process in laser-plasma interactions simulated with particle-in-cell (PIC) code for two laser energies of 20 J and 200 J. The corresponding electron spectra were imported into a Monte Carlo code FLUKA to simulate the production process of bremsstrahlung photons and positrons in Au converter. FLUKA simulations showed the record conversion of efficiency in MeV gammas can reach 10%, which reinforces the generation of positrons. The obtained results demonstrate the advantages of long-scale plasmas of near critical density (NCD) to increase the parameters of MeV particles and photon beams generated in relativistic laser-plasma interaction. The efficiency of the laser-driven generation of MeV electrons and photons by application of low-density polymer foams is essentially enhanced.
Herzkreislauferkrankungen führen weltweit weiterhin die Liste der häufigsten Todesursachen an. Dem frühzeitigen Erkennen kardialer Veränderungen kommt daher eine besondere Bedeutung zu. Das Erkennen subklinischer Veränderungen des Myokards mit Hilfe des myokardialen T1 Mappings und der Strain Analyse in der kardialen MRT mit der Bestimmung der Korrelation von T1 Mapping und Veränderung des myokardialen Strains war das primäre Ziel der vorliegenden Arbeit. Das native T1 Mapping sollte dabei diffuse kardiale Fibrose erkennen, während die Strainparameter zur Analyse der subtilen kardialen Funktion dienten. Wenn eine vermehrte diffuse Fibrose eine Einschränkung der myokardialen Funktion bedeutet, so müssten sich das native T1 Mapping und die Strainparameter gleichsinnig verändern.
Eingeschlossen in die Untersuchung wurden Patienten, die im Rahmen ihres Klinikaufenthaltes an der Kerckhoff-Klinik Bad Nauheim ein kardiales MRT erhielten und ihre Zustimmung zur Aufnahme in das geführte Register gaben. Alle durchgeführten MRT-Untersuchungen besaßen dabei eine medizinische Indikation. Die Untersuchung umfasste eine Blutentnahme sowie die Bildakquisition und das Ausfüllen eines Fragebogens. In der anschließenden Bildauswertung wurden das native T1 Mapping, eine Featuretrackinganalyse, sowie die reguläre diagnostische Beurteilung durch einen Facharzt durchgeführt. Die Patienten wurden anschließend nach ihren Diagnosen in Gruppen eingeteilt. Ein Jahr nach ihrer Untersuchung wurden die Patienten kontaktiert und erneut befragt, um den Anteil an „major adverse cerebro- and cardiovasculare events“ (MACCE) und der Gesamtsterblichkeit am Gesamtkollektiv festzustellen.
Es zeigten sich signifikante Zusammenhänge zwischen nativem T1 Mapping und den Strainparametern, ebenso wie signifikante Zusammenhänge von schwächerer Effektstärke zwischen ECV und den Strainparametern. Das erhöhte native T1 Mapping ging mit verringerten Strainparametern einher, was auf eine vermehrte Fibrose schließen lässt. In der Überlebensanalyse bezüglich des allgemeinen Überlebens zeigte sich nur das native T1 Mapping als unabhängiger Prädiktor, während bei den MACCE zusätzlich auch die Anzahl der betroffenen Segmente im „late gardolinium enhancement“ (LGE) einen unabhängigen Prädiktor darstellten. Der globale longitudinale Strain (GLS) verfehlte bezüglich der MACCE knapp das Signifikanzniveau, zeigte aber eine Tendenz zur Signifikanz.
Natives T1 Mapping und, in begrenztem Maße, möglicherweise auch der Strain haben eine besondere Rolle in der Diagnostik und können bereits früh kardiale Veränderungen detektieren. Da die erhöhten T1 Zeiten als Marker für morphologische Veränderungen mit den Strains als funktionelle Parameter korrelierten, lässt sich spekulieren, dass Fibrose eine Einschränkung der Funktion bedingt.
Diese Arbeit beschäftigt sich mit der türkischen Musikpolitik in der Zeit von Atatürk und seinem Auftrag insbesondere an den Komponisten, Ahmed Adnan Saygun, im Rahmen der vielfältigen Reformen in der jungen türkischen Republik, eine zeitgenössische türkische Kunstmusik zu schaffen. Mit dem Begriff des Kulturtransfers wird die Umsetzung von Atatürks Musikpolitik beschrieben, der auf die Entwicklung der Musik im 19. Jahrhundert, dem Zeitalter des sogenannten Nationalismus, zurückgreift und mit dem Kulturtransfer anderer Nationen verglichen wurde. Neben Saygun wurde auch das Wirken von vier anderen türkischen Komponisten, die mit Saygun die sogenannten ‚Türkischen Fünf‘ bildeten, erwähnt, die diesen Auftrag Atatürks sehr unterschiedlich umsetzten in einer Zeit der gesellschaftlichen Veränderungen und des ‚Kulturkampfs‘. In diesem Zusammenhang wurden die fünf Sinfonien von Saygun analysiert, der als ein Vorbild und Pionier fast aller Arten türkisch-klassischer Musik im Rahmen dieser musikalischen Revolution angesehen werden kann.
Saygun hat in Zusammenarbeit mit Béla Bartók türkische Volkslieder aufgenommen, verschriftlicht und systematisiert. In dieser Arbeit wurde daher untersucht, wie Saygun, der die türkische Kunst- und Volksmusik sowie in Paris die westeuropäische klassische Musik studiert hat, diese mit Mitteln klassischer Musikformen verbindet. Anhand der fünf Sinfonien von Ahmed Adnan Saygun wird gezeigt, dass er nicht nur als Komponist, sondern auch als Musikethnologe eine führende Rolle in der zeitgenössischen türkischen Kunstmusik übernahm und über den Kulturtransfer hinaus eine eigene ‚musikalische Sprache‘ entwickelte.
Eine der wichtigsten Quellen dieser Arbeit sind die handschriftlichen Partituren der Sinfonien und die Originalartikel von Ahmed Adnan Saygun, insbesondere Sayguns handgeschriebene Artikel ‚Orkestra‘ (dt.: Orchester) und die Artikelsammlung ‚Yalan‘ (dt.: Lüge), die in die deutsche Sprache übersetzt wurden. Als Ergebnisse der Analyse und Interpretation dieser und anderer Quellen, konnten Methoden aufgezeigt werden, die in Sayguns Werke und insbesondere in seinen Sinfonien in rhythmischen, melodischen, harmonischen und motivisch-thematischen Strukturkonstruktionen verwendet und als Beispiele einer zeitgenössischen türkischen Kunstmusik interpretiert werden. Dabei wurde herausgearbeitet, wie Saygun Elemente der türkischen Kunst- und Volksmusik verwendete, diese zunächst in tradierte Formen westeuropäischer klassischer Musik einbettete, um unter Hinzuziehung von eigenen kunstphilosophischen Ansätzen eine Form von ‚universaler Musik‘ zu kreieren.
Mechanistic characterization of photoisomerization reactions in organic molecules and photoreceptors
(2023)
In dieser Arbeit wurden verschiedene Einflüsse auf die Dynamik von Photoisomerisierungen in Phytochromen und indigoiden Photoschaltern untersucht. Beide Forschungsgebiete teilen wesentliche Aspekte wie die Kontrolle durch sterische Wechselwirkungen und den starken Einfluss der Polarität oder der ionischen Umgebung.
Auf dem Gebiet der Phytochrome wurde die relative Positionierung der knotenlosen Phytochrome innerhalb der Superfamilie der Phytochrome in Bezug auf ihre Photodynamik und den Effekt von Grundzustandsheterogenität herausgearbeitet. Es wurde anhand von ultraschnellen, zeitaufgelösten Anrege-Abtast-Experimenten der einzelnen GAF-Domäne All2699g1 im Vergleich mit dem vollständigen knotenlosen Phytochrom All2699g1g2 und dem strukturell ähnlichen knotenlosen Phytochrom SynCph2 gezeigt, dass knotenlose Phytochrome in ihrer Vorwärtsdynamik eine komplexe mehrphasige Kinetik mit einem langlebigen angeregten Zustand (~100 ps) aufweisen. Die beobachtete mehrphasige Kinetik konnte einer initialen Chromophordynamik sowie einer nicht exponentiellen Reorganisation der chromophor-umgebenden Proteinmatrix zugeordnet werden. Dies steht im starken Kontrast zur im Gebiet der Phytochrome etablierten Beschreibung derartiger mehrphasiger Kinetiken mittels heterogener Grundzustände. Stattdessen wurde ein konserviertes kinetisches Muster identifiziert, welches die mehrphasige Dynamik beschreibt und in allen in dieser Arbeit untersuchten Phytochrome beobachtet wurde. Zudem konnte dieses Muster in einem Phytochrom der Gruppe I und einem Phytochrom der Gruppe III, die einen ähnlichen Pr Dunkelzustand aufweisen, gezeigt werden, was eine breite Anwendbarkeit des damit verbundenen Mechanismus vermuten lässt. Weiterhin konnte die zentrale Rolle eines konservierten Tyrosins in der Photoisomerisierung anhand von Mutationsstudien in All2699g1 herausgearbeitet werden. Diese konservierte Aminosäure muss im Rahmen der Reorganisation der Proteinmatrix vom Chromophor weggezogen werden, damit die sterische Blockade abgebaut werden kann, die die Isomerisierung des Chromophors zunächst verhindert. Da diese Bewegung von diversen Faktoren in der den Chromophor umgebenden Proteinmatrix abhängt, weist sie eine nicht exponentielle Kinetik auf, die je nach Phytochrom, der spezifischen Flexibilität und dem vorhandenen Raum in der Bindetasche unterschiedliche Lebenszeiten aufweist.
Die Rückreaktion knotenloser Phytochrome konnte ebenfalls im Rahmen dieser Arbeit charakterisiert werden, welche im Pikosekundenbereich abläuft, und damit signifikant schneller ist als die Vorwärtsreaktion. Im Gegensatz zur Vorwärtsreaktion nimmt Grundzustandsheterogenität in der Rückreaktion eine weitaus bedeutendere Rolle ein. Hier weisen die in All2699g1 vorhandenen heterogenen Grundzustandspopulationen jeweils eine eigene Kinetik ihres angeregten Zustands auf, während die homogenen Grundzustände von All2699g1g2 und SynCph2 jeweils nur einen Zerfall des angeregten Zustands zeigen. Der Ursprung dieser Heterogenität konnte im Wasserstoffbrückennetzwerk des Chromophors lokalisiert und mit dem konservierten Tyrosin und einem konservierten Serin in der PHY-Domäne verknüpft werden. Die Anwesenheit der PHY-Domäne sorgt demnach für eine Verringerung der Grundzustandsheterogenität und des vorhandenen Raums in der Bindetasche, wodurch die Effizienz der Photoreaktion optimiert wird.
Zuletzt konnte die Millisekundendynamik knotenloser Phytochrome und der Einfluss der PHY-Domäne auf diese aufgeklärt werden. Die PHY-Domäne sorgt hierbei durch den verringerten Raum in der Bindetasche dafür, dass die zunächst stattfindende thermische Relaxation des Chromophors signifikant verlangsamt wird, während spätere Änderungen im Photozyklus nur wenig beeinflusst werden.
Auf dem Gebiet der indigoiden Photoschalter konnte, anhand eines sterisch überladenen Hemithioindigo Photoschalters, der Photoisomerisierungsmechanismus des Hula-Twists beobachtet und eine starke Lösungsmittelabhängigkeit der entsprechenden Kinetik aufgezeigt werden. Aus den durchgeführten zeitaufgelösten Anrege-Abtast-Experimenten in verschiedenen Lösungsmitteln konnte ein Modell für die Photodynamik des verwendeten Hemithioindigo Photoschalters entwickelt werden. In unpolaren Lösungsmitteln muss eine hohe Barriere zur produktiven konischen Durchschneidung überwunden werden, was zu Lebenszeiten des angeregten Zustands im Nanosekundenbereich führt. Der Weg zur produktiven konischen Durchschneidung folgt dabei dem Hula-Twist Mechanismus. Dieser Pfad ist in polaren Lösungsmitteln unerreichbar, weshalb eine schnelle Relaxation über eine unproduktive konische Durchschneidung stattfindet.
Im zweiten Projekt auf dem Gebiet der indigoiden Photoschalter wurde anhand der neuartigen Klasse der Iminothioindoxyl Photoschalter ein Schwingungsenergiedonor für Schwingungsenergietransferstudien entwickelt. Das daraus entwickelte Modellsystem, bestehend aus einer künstlichen Aminosäure auf Basis des Iminothioindoxyl Photoschalters und einem daran gekoppelten Schwingungsenergiesensor, wurde charakterisiert und die primäre Photoreaktion untersucht. Es konnte gezeigt werden, dass der angeregte Zustand des Modellsystems kurzlebig ist und unter Abgabe von großen Mengen an Schwingungsenergie zerfällt, unabhängig von der Anregungswellenlänge und dem verwendeten Lösungsmittel. Somit zeigt das entwickelte System vorteilhafte Eigenschaften für Schwingungsenergietransferstudien.
Insgesamt konnten somit die Mechanismen der Photoisomerisierungsreaktionen in knotenlosen Phytochromen und indigoiden Photoschaltern aufgeklärt und daraus die Relevanz der Umgebung für derartige Reaktionen herausgearbeitet werden.
Auszubildende sollen durch die Berufsausbildung u.a. die Kompetenz erlangen, berufliche Probleme zu lösen. Abschlussprüfungen dienen der Kompetenzerfassung, schriftlich-kaufmännische Prüfungsaufgaben bilden allerdings noch unzureichend Problemsituationen ab, deren Lösung Problemlösekompetenz erfordert. An der Erstellung von Prüfungsaufgaben sind auch Lehrkräfte kaufmännisch-beruflicher Schulen beteiligt. In der Arbeit wird untersucht, wie sie in der ersten und zweiten Phase der Lehrer*innenbildung auf das Erstellen problemhaltiger Aufgaben zu summativ-diagnostischen Zwecken vorbereitet werden. Hierfür werden Dokumentenanalysen zu beiden Phasen der Lehrer*innenbildung durchgeführt. Die Ergebnisse werden mittels einer Fragebogenstudie mit Studiengangsleiter*innen sowie Interviews mit Fachleiter*innen der Studienseminare gesichert. Um die Wahrnehmung angehender Lehrkräfte zu erfahren, werden Interviews mit Masterstudierenden der Wirtschaftspädagogik sowie Lehrkräfte im Vorbereitungsdienst (LiV) an kaufmännisch-beruflichen Schulen durchgeführt.
Durch die Vorstudien gelingt es, Optimierungsbedarfe in der Ausbildung von Lehrkräften kaufmännisch-beruflicher Schulen festzuhalten. Davon ausgehend wird ein Trainingskonzept begründet ausgewählt. Die Evaluation dessen erfolgt mittels einer quasi-experimentellen Studie mit Masterstudierende und LiV. Zur qualitativen Evaluation werden Interviews mit Teilnehmenden der Interventionsgruppe durchgeführt. Die Ergebnisse zeigen, dass die Teilnehmenden das Training als Intervention überwiegend positiv wahrnehmen und dieser, zumindest mit Blick auf das Erstellen von problemhaltigen Aufgaben, zu einem Lernzuwachs führt. Durch die bedarfsorientierte Intervention und dessen Evaluationsergebnisse wird ein Konzept vorgeschlagen, welches eine Lösung zur Deckung bestehender Optimierungsbedarfe bietet. Die Ergebnisse der Arbeit haben das Potential, langfristig einen Beitrag zur Verbesserung der Lehrer*innenbildung zu leisten und somit u.a. Assessmentaufgaben valider zu gestalten.
In this dissertation, different aspects of turbulent transport and thermally driven flows over complex terrain are investigated. Two publications concentrate on the vertical heat and moisture exchange in the convective boundary layer over mountainous terrain. To study this, Large-Eddy Simulation (LES) is used. Both turbulent and advective transport mechanisms are evaluated over the simple orography of a quasi-two-dimensional, periodic valley with prescribed surface fluxes. Here, terrain elevation varies along only one of the horizontal coordinate axes. Even a relatively shallow orography, possibly unresolved in existing numerical weather prediction models, modifies the domain-averaged moisture and temperature profiles. For the analysis, the flow is decomposed into a local turbulent part, a local mean circulation, and a large-scale part. An analysis of the turbulent kinetic energy and turbulent heat and moisture flux budgets shows that the thermal circulation significantly contributes to the vertical transport. It is found that thermal upslope winds are important for the moisture transport from the valley to the mountain tops. In total, moisture export out of the valley is mostly accomplished by the mean circulation. On the temperature distribution, which is horizontally relatively homogeneous, the thermal circulation has a weaker impact. If an upper-level wind is present, it interacts with the thermal circulation. This weakens the vertical transport of moisture and thus reduces its export out of the valley. The heat transport is less affected by the upper-level wind because of its weaker dependence on the thermal circulation. These findings were corroborated in a more realistic experiment simulating the full diurnal cycle using radiation forcing and an interactive land surface model.
Based on these results, coherent turbulent structures in the convective boundary layer over non-flat terrain are studied in further detail. A conditional sampling method based on the concentration of a decaying passive tracer is implemented in order to identify the boundary-layer plumes objectively. Conditional sampling allows to quantify the contribution of plume structures to the vertical transport of heat and moisture. In case of the idealized valley, vertical transport by coherent structures is the dominant contribution to the turbulent components of both heat and moisture flux. It is comparable in magnitude to the advective transport by the mean slope-wind circulation, although it is more important for heat than for moisture transport. A set of less idealized simulations considers the flow over three-dimensional terrain. In this case, conditional sampling is carried out by using a simple domain-decomposition approach. We demonstrate that thermal updrafts are generally more frequent on hill tops than over the surroundings, but they are less persistent on the windward sides when large-scale winds are present in the free atmosphere.
The tools for flow decomposition and budget analysis are also applied in another idealized case with a quasi-two-dimensional valley featuring the stable boundary layer. Here, the formation of a low stratus cloud is investigated. The main driver for the cloud formation is radiative cooling due to outgoing longwave radiation. Despite a purely horizontal flow, the advection terms in the prognostic equations for heat and moisture produce vertical mixing across the upper cloud edge leading to a loss of cloud water content. However, this behavior is not due to any kind of thermally-driven circulation. Instead, this spurious mixing is caused by the diffusive error of the advection scheme in regions where the sloping surfaces of the terrain-following vertical coordinate intersect the cloud top. It is shown that the intensity of the (spurious) numerical diffusion strongly depends on the horizontal resolution, the order of advection, and the choice of the scalar advection scheme. A LES with 4 m horizontal resolution serves as a reference. For horizontal resolutions of a few hundred meters, carried out with a model setup as it is used in Numerical Weather Prediction, a strong reduction of the simulated liquid-water path is observed. In order to keep the (spurious) numerical diffusion at coarser resolutions small, at least a fifth-order advection scheme should be used. In the present case, a WENO scalar advection scheme turns out to increase the numerical diffusion along a sharp cloud edge compared to an upwind scheme. Furthermore, the choice of the vertical coordinate has a strong impact on the simulated liquid-water path over orography. With a modified definition of the terrain-following sigma coordinate, it is possible to produce cloud water where the classical sigma coordinate does not allow any cloud formation.
Eine überlebenswichtige Eigenschaft von Mensch und Tier ist es, sich bei Gefahr durch eine Schreckreaktion in Sicherheit zu bringen. Doch woran erkennt ein Organismus, in welcher Situation es „sinnvoll“ wäre, sich zu erschrecken und welche Eigenschaften sensorischer Stimuli tragen zu dem Gefahreneindruck bei? Bei plötzlich eintretenden, lauten auditorischen Reizen kann es zur Auslösung der akustischen Schreckreaktion kommen. Dies führt bei Menschen, aber auch bei kleineren Säugetieren zu einer reflexartigen Kontraktion der Nacken-, Gesichts- und Skelettmuskulatur. Die Erforschung der akustisch evozierten Schreckreaktion (ASR) dient dem besseren Verständnis der neurobiologischen Grundlagen sensorischer Verarbeitung. Modulationen der ASR mithilfe von Präpulsen (Präpulsinhibition) ermöglichen Einblicke in die Funktion der Kochlea, des Hörnervs, der Hirnstammstrukturen und anderer beteiligter Gehirnregionen.
In dieser Arbeit wurden kurzzeitige Änderungen von Frequenz oder Intensität des akustischen Hintergrundes als neuartige Präpulse untersucht. Die Bedeutung verschiedener Reizparameter dieser Präpulse wurde in der vorliegenden Arbeit zum ersten Mal systematisch erforscht. Um zu prüfen, welche Präpulsstimulationen eine Inhibition der ASR auslösen können, wurde eine Reihe von Parametern umfassend getestet. In einem weiteren Schritt wurde analysiert, ob es mithilfe von gezielten Änderungen von Frequenz oder Intensität möglich sein könnte, Unterscheidungsschwellen, oder gar Hörschwellen von Versuchstieren zu bestimmen.
Die Experimente zur Modulation der ASR wurden mit weiblichen Sprague Dawley-Ratten durchgeführt. Dabei wurde eine Vielzahl von Verhaltensparadigmen untersucht. Dazu zählten Präpulse mit unterschiedlichem Frequenzgehalt und variabler Dauer. Zusätzlich wurden neuartige Paradigmen etabliert, um die Fähigkeit zur Frequenz- und Intensitätsdiskriminierung zu untersuchen. Hierbei wurde der Frequenzgehalt oder die Intensität einer kontinuierlichen Hintergrundstimulation verändert, um eine Präpulswirkung zu erzeugen. Um die Möglichkeiten der Bestimmung von Hörschwellen mittels der Präpulsinhibition (PPI) zu ergründen, wurde die Intensität von Präpulsen systematisch verändert. Die so generierten Schwellenwerte wurden durch die Messung früher akustisch evozierter Hirnstammpotenziale verifiziert. Schließlich sollten, unter Zuhilfenahme der Signaldetektionstheorie, aus den erhobenen Daten diverse Schwellen bestimmt werden: Für die Intensitätsänderungen der Präpulse in Stille wurden Hörschwellen bestimmt, während bei Änderungen der Frequenz und Intensität Unterscheidungsschwellen bestimmt werden sollten.
Mit steigender Größe eines Frequenzsprungs in einer kontinuierlichen Hintergrundstimulation war eine stärkere Inhibition der ASR feststellbar; ein Effekt, der stark von der Hintergrundfrequenz abhängig war. Bei einer Stimulation mit 8 kHz konnten signifikant höhere Inhibitionswerte erzielt werden als mit 16 kHz. Bei der Untersuchung des Zeitablaufs der Stimulation ergab sich, dass eine abgesetzte Stimulation mit einer Abweichung von 80 ms Dauer bis 50 ms vor dem Schreckreiz für die höchsten Inhibitionen sorgte.
Die durch eine Intensitätsänderung einer kontinuierlichen Hintergrundstimulation ausgelöste PPI hing primär von der Größe und Richtung des Intensitätssprungs ab. Mit zunehmender Sprunggröße stiegen die Inhibitionswerte an. Eine Erhöhung der Hintergrundintensität um 10 dB hatte einen signifikanten Einfluss auf die Inhibitionswerte. Auch hier zeigte sich eine höhere Sensitivität in Form von höheren Inhibitionen für Stimuli mit einer Hintergrundfrequenz von 8 kHz als für alle anderen getesteten Hintergrundfrequenzen.
Die Bestimmung von Hörschwellen mittels intensitätsabhängiger PPI wies im Vergleich mit den elektrophysiologisch bestimmten Hörschwellen ein heterogenes Bild mit starken individuellen Schwankungen auf: Bei etwa der Hälfte der Tiere waren die Hörschwellen beider Messungen sehr vergleichbar, bei den übrigen Tieren konnten mittels PPI für eine oder mehrere Frequenzen keine aussagekräftigen Hörschwellen erzielt werden. Die elektrophysiologisch bestimmten Hörschwellen waren am sensitivsten, während PPI-Stimulationen signifikant höher waren. Außerdem bewirkten PPI-Stimulationen mit Reintönen signifikant sensitivere Hörschwellen im Vergleich zu einem Schmalbandrauschen.
Für die Bestimmung der Unterscheidungsschwellen von Frequenzänderungen konnte beobachtet werden, dass die Tiere auf Frequenzsprünge hin zu niedrigeren Frequenzen signifikant sensibler reagierten, als hin zu Aufwärtssprüngen (-1.2 bzw. +4.5%). Bei der Intensitätsunterscheidung hingegen konnte beobachtet werden, dass die Tiere signifikant sensitiver auf Intensitätserhöhungen als auf Erniedrigungen reagierten (-5.9 bzw. +2.7 dB).
Zusammenfassend konnte in der vorliegenden Arbeit festgestellt werden, dass die PPI zur Bestimmung von absoluten Hörschwellen starken Schwankungen unterlag, sodass diese Methode nur eingeschränkt als Alternative zu operanter Konditionierung oder elektrophysiologischen Ableitungen in Frage kommt. Des Weiteren erzeugten bereits kleine Änderungen des Frequenzgehalts oder der Intensität einer Hintergrundstimulation eine robuste PPI. Somit können reflexbasierte Messungen mit überschwelligen Stimuli genutzt werden, um Unterscheidungsschwellen in Versuchstieren zu bestimmen. Diese Herangehensweise stellt also eine vielversprechende Methode dar, um Hörstörungen zu untersuchen, die nach einem Schalltrauma auftreten können. In einem nächsten Schritt könnte sie zur weiteren Charakterisierung von verstecktem Hörverlust beitragen.
Seed dispersal is a key ecosystem function for plant regeneration, as it involves the movement of seeds away from the parental plants to particular habitats where they can germinate and transition to seedlings and ultimately adult plants. Seed dispersal is shaped by a diversity of abiotic and biotic factors, particularly by associations between plants and climate and between plants and other species. Due to the ongoing loss of biodiversity and changing global conditions, such interactions are prone to change and pose a severe threat to plant regeneration. One way to address this challenge is to study associations between plant traits and abiotic and biotic factors to understand the potential impacts of global change on plant regeneration. Plant communities have long been analyzed through the lens of vegetative traits, mainly ignoring how other traits interact and respond to the environment. For instance, while associations between vegetative traits (e.g., specific leaf area, leaf nitrogen content) and climate are well studied, there are few case studies of reproductive traits in relation to trait-environment associations in the context of global change.
Thus, the overarching aim of this dissertation is to explore how trait-environment associations, with a special focus on reproductive traits, can improve our understanding of the effect that global change may have on seed dispersal, and ultimately on plant regeneration. To this end, my research focuses on studying associations between plant traits and abiotic and biotic factors along an elevational gradient in both forests and deforested areas of tropical mountains. This dissertation addresses three principal research objectives.
First, I investigate the extent to which reproductive (seed and fruit traits) and vegetative traits (leaf traits) are related to abiotic and biotic factors for communities of fleshy-fruited plants in the Ecuadorian Andes. I used multivariate analyses to test associations between four (a)biotic factors and seven reproductive traits and five vegetative traits measured on 18 and 33 fleshy fruited plant species respectively. My analyses demonstrate that climate and soil conditions are strongly associated with the distribution of both reproductive and vegetative traits in tropical tree communities. The production of “costly” vs. “cheap” seeds, fruits and leaves, i.e., the production of few rewarding fruits and acquisitive leaves versus the production of many less-rewarding fruits and conservative leaves, is primarily limited by temperature, whereas the size of plant organs is more related to variation in precipitation and soil conditions. My findings suggest that associations between reproductive and vegetative traits and the abiotic environment follow similar principles in tropical tree communities.
Second, I assess how climate and microhabitat conditions affect the prevalence of endozoochorous plant species in the seed rain of tropical montane forests in southern Ecuador. I analyzed seed rain data for an entire year from 162 traps located across an elevational gradient spanning of 2000 m. I documented the microhabitat conditions (leaf area index and soil moisture next to each seed trap) at small spatial scale as well as the climatic conditions (mean annual temperature and rainfall in each plot) at large spatial scale. After a one-year of sampling, I counted 331,838 seeds of 323 species/morphospecies. My analyses demonstrate that the prevalence of endozoochorous plant species in the seed rain increases with temperature across elevations and with leaf area index within elevations. These results show that the prevalence of endozoochory is shaped by the interplay of both abiotic and biotic factors at large and small spatial scales.
Third, I examine the potential of seed rain to restore deforested tropical areas along an elevational gradient in southern Ecuador. For this chapter, I collected seed rain using 324 seed traps installed in 18 1-ha plots in forests (nine forest plots) and in pastures (nine deforested plots) along an elevational gradient of 2000 m. After a sampling period of three months, I collected a total of 123,039 seeds of 255 species/morphospecies from both forests and pastures along the elevational gradient. I did not find a consistent decrease in the amount and richness of seed rain between forests and pastures, but I detected a systematic change in the type of dispersed seeds, as heavier seeds and a higher proportion of endozoochorous species were found in forests compared to pastures at all elevations. This finding suggests that deforestation acts as a strong filter selecting seed traits that are vital for plant regeneration.
Understanding the role that trait-environment associations play in how plant communities regenerate today could serve as a basis for predicting changes in regeneration processes of plant communities under changing global conditions in the near future. Here, I show how informative the measurement of reproductive traits and trait environment associations are in facilitating the conservation of forest habitats and the restoration of deforested areas in the context of global change.
Der Einfluss von Trauma-aktiviertem platelet-rich fibrin auf mesenchymale Stammzellen in vitro
(2023)
Ziel dieser Arbeit war es, die Wechselwirkung zwischen MSC und PRF von Traumapatienten herauszuarbeiten und zu überprüfen, ob ein therapeutischer Einsatz der Kombination von MSC und Trauma-aktiviertem PRF in Frakturen sinnvoll erscheint.
Hierfür wurden MSC mit PRF über einen Zeitraum von 24 oder 120 Stunden co-inkubiert und die metabolische Aktivität, definierte Faktoren im Überstand (IL-6, CXCL10, VEGF und IDO-2) und die Genexpression ausgewählter Faktoren (MAPK8, MAPK14, IL-6, CXCL10,IDO-1, TNFAIP6, VEGFA, RUNX2 und COL1A) in bis zu drei Messzeitpunkten überprüft. Die Versuche erfolgten vergleichend mit Traumapatienten und gesunden Probanden.
Es konnte gezeigt werden, dass Trauma-aktiviertes PRF verglichen mit PRF von gesunden Probanden die metabolische Aktivität von MSC nach 120 Stunden erhöhen kann. Zudem stellten sich erhöhte Werte des inflammatorischen Faktors IL-6 im Überstand bei Traumapatienten nach 24 und 72 Stunden dar, welche bis zum dritten Messzeitpunkt nach 120 Stunden wieder abfielen. Ein ähnlicher Verlauf zeigte sich bei den Messwerten von VEGFA, einem Faktor, welcher eine große Rolle bei der Angiogenese spielt.
Über alle Messzeitpunkte hinweg konnten niedrigere Werte in der Genexpression von COL1A und RUNX2 im Vergleich zu den Kontrollmessungen erfasst werden.
Die Ergebnisse zeigen, dass im Vergleich zu PRF gesunder Probanden Trauma-aktiviertes PRF die Möglichkeit besitzt, die Proliferation von MSC zu stimulieren. Außerdem wurde beobachtet, dass Trauma-aktiviertes PRF ein inflammatorisches und angiogenetisches Potenzial nach 72 Stunden besitzt, welches nach 120 Stunden allerdings wieder abfällt. Möglicherweise kann durch den Einfluss von MSC der Inflammation entgegengewirkt werden. Ein signifikantes osteogenes Potenzial des Trauma-aktivierten PRFs konnte zu keinem Messzeitpunkt nachgewiesen werden.
Inwiefern der Einsatz von MSC in Kombination mit Trauma-aktiviertem PRF die Frakturheilung verbessern kann, konnte in der vorliegenden Studie nicht eindeutig geklärt werden. Es kann allerdings davon ausgegangen werden, dass die Implantation von Trauma-aktiviertem PRF und MSC in den Defekt erst nach Verstreichen einer bestimmten Zeitperiode nach dem Trauma durchgeführt werden sollte. Die Gründe für diese Annahme sind das erhöhte proliferative und verringerte inflammatorische Potenzial im Verlauf. Eine Ursache für das Fehlen der osteogenen Differenzierung der MSC kann der kurze Messzeitraum sein.
Weitere Studien sollten folgen, um das Potenzial der Kombination von MSC und Trauma-aktiviertem PRF als therapeutisches Verfahren zu überprüfen.