Doctoral Thesis
Refine
Year of publication
- 2009 (391)
- 2010 (378)
- 2008 (315)
- 2007 (313)
- 2006 (295)
- 2004 (281)
- 2005 (249)
- 2023 (249)
- 2021 (248)
- 2022 (238)
- 2020 (235)
- 2011 (219)
- 2019 (211)
- 2018 (204)
- 2003 (202)
- 2002 (190)
- 2015 (188)
- 2017 (182)
- 2016 (178)
- 2014 (168)
- 2012 (164)
- 2013 (152)
- 2001 (141)
- 2000 (69)
- 2024 (50)
- 1998 (37)
- 1999 (32)
- 1997 (18)
- 1923 (9)
- 1996 (7)
- 1924 (6)
- 1925 (6)
- 1995 (6)
- 1921 (5)
- 1918 (4)
- 1926 (4)
- 1994 (4)
- 1933 (3)
- 1934 (3)
- 1952 (3)
- 1956 (3)
- 1966 (3)
- 1979 (3)
- 1990 (3)
- 1913 (2)
- 1917 (2)
- 1929 (2)
- 1930 (2)
- 1931 (2)
- 1935 (2)
- 1986 (2)
- 1991 (2)
- 1992 (2)
- 1993 (2)
- 1678 (1)
- 1735 (1)
- 1830 (1)
- 1850 (1)
- 1858 (1)
- 1865 (1)
- 1904 (1)
- 1908 (1)
- 1912 (1)
- 1914 (1)
- 1915 (1)
- 1919 (1)
- 1922 (1)
- 1927 (1)
- 1928 (1)
- 1937 (1)
- 1938 (1)
- 1941 (1)
- 1942 (1)
- 1948 (1)
- 1949 (1)
- 1950 (1)
- 1951 (1)
- 1953 (1)
- 1954 (1)
- 1955 (1)
- 1958 (1)
- 1961 (1)
- 1962 (1)
- 1963 (1)
- 1965 (1)
- 1968 (1)
- 1970 (1)
- 1971 (1)
- 1974 (1)
- 1977 (1)
- 1978 (1)
- 1989 (1)
Document Type
- Doctoral Thesis (5739) (remove)
Language
- German (3642)
- English (2068)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5739)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1531)
- Biowissenschaften (835)
- Biochemie und Chemie (729)
- Physik (597)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (311)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (111)
- Psychologie (97)
Blockchains in public administration : a RADIUS on blockchain framework for public administration
(2023)
The emergence of blockchain technology has generated a great deal of attention, as reflected in numerous scientific and journalistic articles. However, the implementation of blockchain for public administrations in Germany has encountered a setback owing to unsuccessful initiatives. Initial enthusiasm was followed by disillusionment. Nevertheless, technology continues to evolve. This paper examines whether the use of a blockchain can still optimize the processes of public administrations. Not only the failed projects are analysed, but also more current applications of the technology and their potential relevance for the administration, especially in the state of Hesse.
To answer if blockchains are promising to administrations, a Design Science Research (DSR) research approach is chosen. The DSR method is a research-based approach that aims to create new and innovative solutions to real-world problems through the development and evaluation of artefacts such as models, methods, or prototypes. For this work, the implementation of a framework to realize an Authentication, Authorization, and Accounting (AAA) system on the blockchain was identified as profitable. The framework aims to implement the aforementioned AAA tasks using a blockchain. The Remote Authentication Dial-In User Service (RADIUS) protocol has been identified as a potential protocol of the AAA system. The goal is to create a way to implement the system either entirely on a blockchain or as a hybrid system. Various blockchain technologies will be considered. Suitable for development, the framework AAA-me is named.
The development of AAA-me has shown that the desired framework for implementing RADIUS on the blockchain is possible in various degrees of implementation. Previous work mostly relied on full development. Additionally, it has been shown that AAA-me can be used to perform hybrid integration at different implementation levels. This makes AAA-me stand out from the few hybrid previous approaches. Furthermore, AAA-me was investigated in different laboratory environments. This was to determine the expected resilience against Single Point of Failure (SPOF). The results of the lab investigation indicated that a RADIUS system on top of a blockchain can provide benefits in terms of security and performance. In the lab environment, times were measured within which a series of authorization requests were processed. In addition, it was illustrated how a RADIUS system implemented using blockchain can protect itself against Man-in-the-Middle (MITM) attacks.
Finally, in collaboration with the Hessian Central Office for Data Processing (German: Hessische Zentrale für Datenverarbeitung) (HZD), another test lab demonstrated how a RADIUS system on the blockchain can integrate with the existing IT systems of the German state of Hesse. Based on these findings, this work reevaluated the applicability of blockchain technology for public administration processes.
The work has thus shown that the use of a blockchain can still be purposeful. However, it has also been shown that an implementation can bring many problems with it. The small number of blockchain developers and engineers also poses the risk of finding people to develop and maintain a system. In addition, one faces the problem of determining an architecture now that will be applied to many projects in the future. However, each project can, in turn, have an impact on the choice of architecture. Once one has solved this problem and a blockchain infrastructure is available, it can be established quickly and be more SPOF resistant, for example, for Public Key Infrastructure (PKI) systems.
AAA-me was only applied in lab and test environments. As a result, no real data ran over its own infrastructure. This allowed the necessary flexibility for development. However, system-related properties could appear in real situations that are not detectable here in this way. Furthermore, the initial stage of AAA-me’s development is still in its infancy. Many manual adjustments need to be made in order for this to integrate with an existing RADIUS system. Also, no system security effort in and of itself has been carried out in the lab environments. Thus, vulnerabilities can quickly open up on web servers due to misconfigurations and missing updates. For the above reasons, productive use should be discouraged unless major developments are carried out.
Discrepancies between knockdown and knockout animal model phenotypes have long stood as a perplexing phenomenon. Several mechanisms explaining such observations have been proposed, namely the toxicity or the off-target effects of the knockdown reagents, as well as, in certain cases, genetic robustness – an organism's ability to maintain its phenotype despite genetic perturbations. In addition to these explanations, transcriptional adaptation (TA), a phenomenon defined as an event whereby a mutation in one gene leads to transcriptional upregulation or downregulation of another, adapting, gene or genes expression, has been recently proposed as an alternative explanation for the conflicting knockdown and knockout phenotype paradox.
Since its discovery in 2015, TA's precise mechanism remains a subject of ongoing research. Majority of evidence suggests that mutant mRNA degradation plays a central in TA. Epigenetic remodeling is also thought to play a role, as evidenced by an increase in active histone marks at the transcription start sites of the adapting genes. Whether mRNA degradation is indeed the key player in TA remains debated. Furthermore, it is still unknown how exactly TA develops, what adapting genes it targets, and whether genomic mutations that render mutant mRNA sensitive to degradation are required for TA to occur.
Throughout the experiments described in this Dissertation, I have designed an inducible TA system where TA can be triggered on demand and its effects on the cell’s transcriptome followed through time. I have demonstrated that degradation-prone transgenes, once induced and expressed, can be efficiently degraded, resulting in the protein loss-independent upregulation of adapting genes via TA. Adapting genes with higher degree of sequence similarity become upregulated faster than genes with lower degree of sequence similarity. Further functionality of this approach to study TA is limited by the leakiness of the inducible gene expression system; however, constitutively expressed degradation-prone transgenes were used to demonstrate TA in human cells.
In addition, I have developed an approach to target wild-type cytoplasmic mRNAs without altering the cell’s genome and reported a TA-like phenomenon, which manifested as adapting gene upregulation not relying on mutations in other genes. Cytoplasmic mRNA cleavage with CRISPR-Cas13d triggered a TA-like response in three different gene models: Actg1 knockdown, Ctnna1 knockdown, and Nckap1 knockdown. After comparing two different modes of triggering TA, CRISPR-Cas9 knockout versus CRISPR-Cas13d knockdown, I reported little overlap between the dysregulated genes and suggested that diverse mRNA degradation modes led to distinct TA responses. In addition, the transcriptional increase of Actg2 caused by CRISPR-Cas13d-mediated Actg1 mRNA cleavage did not require chromatin accessibility changes.
Experiments and genetic tools described in this dissertation investigated how TA develops from its earliest onset, how it affects the global transcriptome of the cell, as well as provided compelling evidence for an mRNA degradation-central TA mechanism. I have created tools to study both direct and indirect TA gene targets and unveiled important insights into the temporal dynamics of TA. Genes with higher sequence similarity were found to be upregulated more rapidly than those with lower similarity. Furthermore, it was revealed that the epigenetic properties of TA responses vary depending on the triggering mechanism. Cas13d-mediated degradation of wild-type mRNAs led to immediate transcriptional enhancement independent of epigenetic changes, which stood in contrast to previously measured alterations in chromatin accessibility in CRISPR-Cas9 mutants. This research has thus significantly advanced our knowledge of TA and provided valuable tools and findings that contribute to the broader understanding of gene expression regulation in response to mRNA degradation.
Type 1 diabetes (T1D) is precipitated by the autoimmune destruction of the insulin-producing beta-cells in the pancreatic islets of Langerhans. Chemokines have been identified as major conductors of the islet infiltration by autoaggressive leukocytes, including antigen-presenting cells and islet autoantigen-specific T cells. We have previously generated a roadmap of the gene expression in the islet microenvironment during T1D in a mouse model and found that most of the chemokine axes are chronically upregulated during T1D. We focused our attention on CXCL10/CXCR3, CCL5/CCR5, CXCL16/CCR6, CX3CL1/CX3CR1, and XCL1/XCR1. First, we found that the absence of CCR6 and of CX3CR1 diminished T1D incidence in a mouse model for T1D. Further, the XCL1/XCR1 chemokine axis is of particular interest, since XCR1 is exclusively expressed on convention dendritic cells type 1 (cDC1) that excel by their high capacity for T cell activation. Here we demonstrate that cDC1 expressing XCR1 are present in and around the islets of patients with T1D and of islet-autoantibody positive individuals. Further, in an inducible mouse model for T1D, we show that XCL1 plays an important role in the attraction of highly potent dendritic cells expressing XCR1 to the islets. XCL1-deficient mice display a diminished infiltration of XCR1+ cDC1 and subsequently also a reduced magnitude and activity of islet autoantigen-specific T cells. XCR1-deficient mice display a reduced magnitude and activity of islet autoantigen-specific T cells. A 3D-visualization of the entire pancreas reveals that both XCL1-deficient mice and XCR1-deficient mice indeed maintain most of their functional islets after induction of the disease. Thus, the absence of XCL1 results in a profound decrease in T1D incidence. The XCR1-deficiency also reduces T1D incidence, even if in a less drastic way compared to XCL1-deficiency. An interference with the XCL1/XCR1 chemokine axis might constitute a novel target for the therapy for T1D.
Refraktives und visuelles Ergebnis nach Neuausrichtung von rotierten torischen Intraokularlinsen
(2023)
Hintergrund und Ziel der Studie
Das Ziel der Studie ist die Beurteilung des refraktiven und visuellen Ergebnisses von Patienten mit fehlausgerichteten torischen IOLs nach operativer Neuausrichtung, mit und ohne Rückberechnung der torischen Achse nach Implantation der IOL.
Methoden
Dies ist eine retrospektive Analyse von 39 Patienten, die sich von August 2013 bis Dezember 2019 an der Klinik für Augenheilkunde der Goethe-Universität Frankfurt am Main einer zweiten Operation zur Neuausrichtung einer fehlausgerichteten torischen IOL unterzogen haben. Die zweite Operaton zur Korrektur der Achsenlage wurde auf zwei Weisen durchgeführt: In der ersten Gruppe wurde auf die primär berechnete Achse rotiert und in der zweiten Gruppe wurde die Rotation auf eine neu berechnete Achse mit dem Rückrechner von astigmatisfix.com vorgenommen.
Ergebnisse
In dieser retrospektiven Studie wurden 39 Augen von 39 Patienten eingeschlossen. Die Ergebnisse nach der ersten Operation (die Linsenoperation) zeigte eine Besserung der (BCVA) von 0,28 ± 0,22 logMAR (20/40) auf 0,15 ± 0,14 logMAR (20/32). Nach der Linsenoperation zeigten die torischen IOLs durchschnittlich eine postoperative Fehlstellung von 25,69° ± 26,06°. Verglichen vor und nach der Rotation der torischen IOL blieb der BCVA unverändert bei 0,14 ± 0,14 logMAR (20/32), während sich der UDVA signifikant von 0,39 ± 0,29 logMAR (20/50) auf 0,27 ± 0,18 logMAR (20/40) verbesserte. Das refraktive Ergebnis zeigte eine Reduktion sowohl in der Restsphäre sowie in dem Zylinder. Die Ergebnisse der Gruppenanalyse demonstrierte für die erste Gruppe (Neuausrichtung auf die präoperativ berechnete Achse) eine postoperative UDVA 0,24 ± 0,16 logMAR mit einem Zylinder von 0,90 ± 0,90 D. In der zweiten Gruppe (Ausrichtung auf eine zurückberechnete Achse) betrug die UDVA 0,32 ± 0,20 logMAR mit einem Zylinder von 0,76 ± 0,72 D. Die IOLs mit hoher Zylinderstärke (≥ 2 D) zeigten bei der Rückberechnung eine stärkere Abnahme des Restzylinders als IOL mit niedriger Zylinderstärke (< 2 D) (27 % vs. 9 %). Der mittlere sphärische Äquivalent-Vorhersagefehler der Rückberechnung betrug 0,54 ± 0,55 D.
Schlussfolgerung
Die Neuausrichtung von fehlausgerichteten torischen IOLs verbessert die Sehschärfe und reduziert verbleibende Brechungsfehler. Insbesondere bei IOL mit hoher Zylinderstärke kann ein besseres refraktives Ergebnis erzielt werden, wenn vor der Neuausrichtung eine Rückberechnung durchgeführt wird.
The simultaneous inhibition of HDACs and BET proteins has shown promising anti-proliferative effects against different cancer types, including the difficult to treat pancreatic cancer. In this work, the strategy of concurrently targeting HDACs and BET proteins was pursued by developing different types of dual inhibitors.
By developing a novel scaffold that selectively inhibits HDAC1/2 together with BET proteins in cells, an effective tool for the investigation of pancreatic cancer, and other diseases which are sensitive to epigenetic processes, was created. The compound’s small size further gives the opportunity to further develop the inhibitor towards optimized pharmacokinetic properties, potentially resulting in a drug for cancer treatment.
A second novel approach that was pursued, was the development of a small-molecule degrader, targeting HDACs and BET proteins. Through synthesizing a variety of different molecules, a compound that was capable of lowering BRD4 levels and, at the same time, increasing histone acetylation was developed. While additional mechanistic investigations are needed to verify the degradation, the potent antiproliferative effects in pancreatic cancer cells encourage further studies following this alternative new strategy.
Molekulare Werkzeuge können in der Wissenschaft unter anderem dazu verwendet werden, biochemische Prozesse gezielt zu untersuchen, um sie somit besser zu verstehen. Dabei handelt es sich zum Beispiel, um kleine chemische Moleküle, die gezielt für ihr Anwendungsgebiet konzipiert worden sind. Mit Ihnen lassen sich z.B. Interaktionen zwischen (Makro-)Molekülen regulieren, chemische Gleichgewichte lokal verändern oder auch Botenstoffe zielgerichtet freisetzen. Die Effekte dieser temporären Einwirkung auf verschiedenste biologische Systeme können hilfreiche Erkenntnisse struktureller, funktioneller oder systematischer Art für die entsprechenden Forschungsgebiete liefern.
Um die interdisziplinären Problemstellungen zielgerichtet mit den entsprechend zugeschnittenen Werkzeugen zu adressieren, ist es dabei jedoch absolut notwendig, dass ein umfassendes und über die Grenzen der jeweiligen Fachgebiete hinaus gehendes Verständnis der jeweiligen Fragestellungen entwickelt wird.
Viele der bisher bekannten Werkzeuge benötigen für ihren Einsatz bis heute noch relativ harsche Reaktionsbedingungen, haben ein eingeschränktes Anwendungsfeld oder lassen sich nicht ausreichend Zeit- & Ortsaufgelöst „aktivieren“. Die Möglichkeit Licht als externes Trigger-Signal zu verwenden, um die entsprechenden molekularen Werkzeuge zu aktivieren (oder auch zu deaktivieren), überwindet genau diese Defizite und bringt neben der hohen zeitlichen und räumlichen Auflösung noch viele weitere Vorteile mit sich. Im Rahmen meiner Doktorarbeit ist es mir gelungen gemeinsam mit meinen Kooperationspartnern neue lichtaktivierbare molekulare Werkzeuge von Grund auf zu designen, zu synthetisieren, sie auf ihre photochemischen Eigenschaften zu untersuchen und sie anzuwenden. Durch die interdisziplinäre Zusammenarbeit mit Doktoranden aus der Organischen, Theoretischen und Physikalischen Chemie, konnte ein umfassendes Bild dieser neuen Substanzklassen aufgezeigt werden. Die verschiedenen Arten lichtaktivierbarer Werkzeuge sollen im Verlauf dieser Arbeit genauer herausgearbeitet werden. Generell kann man in drei grundlegenden Klassen von lichtaktivierbaren Werkzeugen unterscheiden: 1. irreversibel photolabile Schutzgruppen, 2. photoaktivierbare Label und 3. reversibel lichtschaltbare Photoschalter.
Auf dem Gebiet der photolabilen Schutzgruppen, auch photoaktivierbare Schutzgruppen oder Photocages genannt, ist es uns gelungen eine neue Spezies von Molekülen zu identifizieren, die dazu in der Lage sind, nach photochemischer Anregung eine spezifische Bindung innerhalb ihres molekularen Gerüsts zu spalten. Möglich gemacht wurde dies, indem wir den sog. „uncaging Prozess ganz neu gedacht“ haben und mit der Unterstützung von Theorie und Spektroskopie unsere Ergebnisse in einer Struktur-Aktivitäts-Beziehungs-Studie (SAR) festhalten konnten. Aus einer Substanzbibliothek von diversen theoretisch berechneten Kandidaten, wurden die vielversprechendsten Verbindungen anschließend synthetisiert und photochemisch charakterisiert. Nach initialen Untersuchungen und den daraus hervorgehenden Erkenntnissen, wurden weitere molekulare Struktur auf die Optimierungen der photochemischen Eigenschaften hin theoretisch berechnet und anschließend im Labor realisiert. Daraus resultierend entwickelten wir einen Photocage, der mit einer hohen Quantenausbeute mit Licht von über 450 nm photolysierbar ist und ebenfalls dazu in der Lage ist Neurotransmitter wie z.B. Glutamat zielgerichtet und lichtaktiviert freizusetzen. Eine weitere Struktur-Aktivitäts-Beziehungs-Studie wurde im Rahmen dieser Arbeit mit dem Isatin-Gerüst als potentiell neue photolabile Schutzgruppe durchgeführt.
Ebenfalls konnten in einer dritten Studie auf dem Gebiet der photolabilen Schutzgruppen Untersuchungen am Coumarin-Grundgerüst zeigen, dass eine systematische Einschränkung der Relaxationspfade im Molekül eine Verbesserung der photochemischen Eigenschaften mit sich bringen kann.
Photoaktivierbare Label werden in den verschiedensten Bereichen der Wissenschaft angewendet. Meist erlauben jedoch die chemischen Moleküle nur eine begrenzte „Beobachtungszeit“ der biochemischen Prozesse aufgrund der effizienten und damit schnellen Relaxationspfade zurück in den Grundzustand. Zu Beginn der durchgeführten Untersuchungen, bestand unsere Idee darin, die selektive Prä-IR-Anregung mit Hilfe eines UV/vis-Pulses (entsprechend der VIPER-Spektrokopie) in ein langlebiges Triplett-Signal eines geeigneten Chromophors zu überführen, welches anschließend für die Beobachtung vergleichsweise lang-lebiger biochemischer Prozesse verwendet werden könnte. Aus dieser Idee heraus entwickelten wir einen Chromophor, der neben einer Absorption im sichtbaren Bereich des elektromagnetischen Spektrums, zusätzlich eine IR-adressierbare funktionelle Gruppe, sowie die Eigenschaft, ein effizientes Inter-System-Crossing (ISC) nach photochemischer Anregung durchzuführen, besaß. Zu unserem Erstaunen zeigte dieses Derivat jedoch nach erfolgreicher Synthese nicht das erwartete Verhalten. Ein weiteres Beispiel für die hochgradige Komplexität der Photochemie.
Mit Hilfe von theoretischen und spektroskopischen Methoden konnten dennoch viele hilfreiche Erkenntnisse aus dieser Studie für zukünftige Untersuchungen aufgedeckt werden.
Ebenso war es während meiner Promotion eines der Ziele, den Schaltprozess des sog. Fulgid-Photoschalters genauer zu untersuchen und somit besser zu verstehen. Hierbei handelt es sich um ein ausgesprochen beständiges, photochemisch reversibel schaltbares Molekül, auch wenn dies vielleicht auf den ersten Blick ein Widerspruch in sich zu sein scheint. Es gelang uns diesen Photoschalter, genauer gesagt seine Photo-Isomere, auf dem Gebiet der chemischen Aktinometrie zu etablieren.
Dafür waren zahlreiche Messungen diverser Reaktivitäten (photochemische Reaktions-Quantenausbeuten) in verschiedenste Wellenlängenbereiche vom Nah-UV-Bereich bis hin zur 700 nm Grenze erforderlich. Außerdem wurden alle Werte mit der Referenzmessung einer Photodiode bzw. je nach Wellenlängenbereich auch mit der klassischen Ferri-Oxalat-Aktinometrie verglichen. Im Anschluss daran fokussierte ich mich weiter auf die einzelnen Photo-Isomere und ihre einzigartige chemische Struktur. Mit Hilfe der chiralen HPLC gelang es uns die einzelnen Photo-Isomere voneinander zu isolieren und diese mit verschiedensten photochemischen und theoretischen Methoden „genauer unter die Lupe“ zu nehmen. Die aus dieser Studie gewonnenen Erkenntnisse bereiten den Weg für diverse, zukünftige spektroskopische Anwendungen dieses Photoschalters.
Aim: The cytochrome P450 reductase (POR) along with the cytochrome P450 enzymes (CYP) are responsible for the metabolism of a multitude of metabolites important for the maintenance of tissue function. Defects in this system have been associated with cardiovascular diseases. These enzymes are known to produce vasoactive lipids that modulate vascular tone. The aim of this study was to identify the consequence of a loss in endothelial POR for vascular function.
Methods and Results: To identify the endothelial contribution of the POR/CYP450 system to vascular function, we generated an endothelial-specific, tamoxifen-inducible POR knockout mouse (ecPOR-/-). Under basal condition ecPOR-/- already exhibited endothelial dysfunction in aorta and mesenteric vessels (acetylcholine-dependent relaxation, LogEC50 -7.6M for CTR vs. -7.2M for ecPOR-/- in aorta) and lower nitric oxide levels in the plasma (CTR: 236.8 ±77.4; ecPOR-/- 182.8 ±34.1 nmol/L). This dysfunction was coupled to attenuated eNOS function detected by the heavy arginine assay and decreased eNOS phosphorylation on S1177. Furthermore, insulin-induced phosphorylation of the eNOS activator, AKT, was also attenuated in the aorta from ecPOR-/- mice as compared to control mice. CYP450-dependent EET production was lower in plasma, lung and aorta of ecPOR-/- mice and this was accompanied with increased levels of vasoconstriction prostanoids (lipidomics of aorta, plasma and lung freshly isolated from CTR and ecPOR-/- mice). MACE-RNAseq from these aortas also showed a significant increase in genes annotated to eicosanoid production. In an in vivo angiotensin II model, acute deletion of POR increased the blood pressure as measured by telemetry and tail cuff (137.4 ± 15.9 mmHg in WT; 152.1 ± 7.154 mmHg in ecPOR-/-). In a rescue experiment using the NSAID naproxen, the increase in blood pressure induced by deletion of endothelial POR was abolished.
Conclusion: Collectively, in endothelial cells POR regulates eNOS activity and orchestrates the metabolic fate of arachidonic acid towards the vessel dilating EETs and away from deleterious prostanoids. In the absence of POR this endothelial regulation is compromised leading to vascular dysfunction.
Nukleinsäuren und Proteine bilden zusammen mit den Kohlenhydraten und Lipiden die vier großen Gruppen der Biomoleküle. Dabei setzen sich Nukleinsäuren aus einer variierenden Abfolge von Nukleotiden zusammen. Gleiches trifft auf die Proteine zu, wobei deren Bausteine als Aminosäuren bezeichnet werden. Die Reihenfolge der Bausteine bestimmt zusammen mit der Interaktion, die die einzelnen Bestandteile untereinander eingehen, deren Funktion. Um deren Wirkungsweise verstehen und nachverfolgen zu können, wurden unterschiedliche Methoden entwickelt, zu welchen auch die EPR-Spektroskopie gehört.
Durch den Einbau modifizierter Nukleotide oder Aminosäuren lassen sich Spinlabel in die sonst EPR-inaktiven Nukleinsäuren und Proteine einführen. Diese Marker lassen sich grundsätzlich in drei Klassen unterteilen (Metallionen, Nitroxidradikale und TAMs), weisen aber immer mindestens ein ungepaartes Elektronenpaar auf. Die Festphasensynthese ist eine Standardprozedur zur Herstellung von markierten Nukleinsäuren und Proteinen. Allerdings führen die Bedingungen dieser Methode zumindest teilweise zur Zersetzung der Nitroxidradikale, die dieser Arbeit zugrunde liegen, wenn sie direkt während der Synthese eingebaut werden. Der direkte Einbau ist aber in vielen Fällen essenziell, um bestimmte Eigenschaften zu erzielen.
Um den Abbau des Nitroxidradikals während der Festphasensynthese zu verhindern, kann dieses vorübergehend mit einer Schutzgruppe versehen werden, welche sich anschließend wieder abspalten lässt.
Der Schwerpunkt dieser Arbeit liegt hierbei auf der Darstellung neuer photolabil geschützter Spinlabel zur Synthese markierter Proteine und Nukleinsäuren.
Basierend auf den Nukleotiden Uridin und Cytidin konnten zwei für die RNA-Synthese vorgesehene Phosphoramidite synthetisiert werden, welche jeweils an der 5-Position des Pyrimidinrings mit einem photolabil geschützten Spinlabel auf Basis von TPA versehen waren. Durch Einbau des Uridinderivats in das Neomycin-Aptamer konnte zudem der Einfluss der Spinlabel auf die lokale Struktur mit Hilfe von in-line probing gezeigt werden.
Der gleiche TPA-Label konnte ebenfalls mit einem Lysin gekuppelt werden, welches später über ein orthogonales tRNA/Aminoacyl-tRNA Synthetase Paares in eine Polypeptid eingebaut werden sollte. In Kooperation mit dem AK Grininger ist auch ein nicht geschützter Spinlabel zur kupferfreien Markierung der Fettsäuresynthase entstanden. Abschließend war noch die Synthese eines auf Phenylalanin basierenden photolabil geschützten Spinlabel in Arbeit, welcher jedoch nicht beendet werden konnte. Dieser sollte mittels Festphasensynthese einbaubar sein, weswegen er am N-Terminus mit Fmoc geschützt ist.
This thesis develops a naturalist theory of phenomenal consciousness. In a first step, it is argued on phenomenological grounds that consciousness is a representational state and that explaining consciousness requires a study of the brain’s representational capacities. In a second step, Bayesian cognitive science and predictive processing are introduced as the most promising attempts to understand mental representation to date. Finally, in a third step, the thesis argues that the so-called “hard problem of consciousness” can be resolved if one adopts a form of metaphysical anti-realism that can be motivated in terms of core principles of Bayesian cognitive science.
Die vorliegende Doktorarbeit beschäftigt sich mit der Untersuchung von molekularen Systemen, die aus mehreren Chromophoren bestehen und über einen Zweiphotonen-Prozess aktiviert werden können.
Die Zweiphotonen-Absorption (2PA) beschreibt die nahezu simultane Absorption zweier Photonen, deren Summe die Energie ergibt, die für den entsprechenden elektronischen Übergang nötig ist. Da für die Anregung somit zwei niederenergetische Photonen benötigt werden, kann für die 2PA Nahinfrarot-Licht (NIR-Licht) verwendet werden, welches eine geringe Phototoxizität aufweist und eine tiefe Gewebedurchdringung ermöglicht. Weiterhin wird durch die intrinsische dreidimensionale Auflösung der 2PA eine hohe Ortsauflösung der Photoaktivierung erzielt.
Photolabile Schutzgruppen (PPGs) bzw. Photocages sind chemische Verbindungen, die der vorübergehenden Maskierung der biologischen Funktion eines (Makro-)Moleküls dienen. Sie können durch Licht geeigneter Wellenlängen abgespalten werden (uncaging), wodurch die Aktivität des geschützten Substrats wiederhergestellt wird. Leider weisen viele der etablierten PPGs schlechte Zweiphotonen-Eigenschaften auf. Um die 2P-Aktivität einer PPG zu erhöhen, kann sie kovalent mit einem guten Zweiphotonen-Absorber verknüpft werden, der bei Bestrahlung das Licht über einen Zweiphotonen-Prozess absorbiert und anschließend mittels Energietransfer auf die photolabile Schutzgruppe überträgt. Dies führt schließlich zur Uncaging-Reaktion.
Im Zuge von Projekt I dieser Dissertation wurde eine solche molekulare Dyade für verbessertes Zweiphotonen-Uncaging bestehend aus einem Rhodamin-Fluorophor als Zweiphotonen-Absorber und einem Rotlicht-absorbierenden BODIPY als photolabile Schutzgruppe hergestellt und charakterisiert. Die Zweiphotonen-Aktivität des Fluorophors wurde mittels TPEF-Messungen (two-photon excited fluorescence) untersucht. Anschließend wurde das Rhodamin an einen 3,5-Distyryl-substituierten BODIPY-Photocage gekuppelt. Der Energietransfer innerhalb dieser Dyade wurde mithilfe von transienter Ultrakurzzeit-Spektroskopie und quantenmechanischen Berechnungen untersucht. Die Freisetzung der Abgangsgruppe para-Nitroanilin (PNA) bei Belichtung der Dyade konnte sowohl nach Einphotonen-Anregung des Rhodamins als auch des BODIPYs mithilfe von UV/vis-Absorptionsmessungen qualitativ nachgewiesen werden.
Da die Uncaging-Reaktion allerdings nicht besonders effektiv war, wurde für die Weiterführung des Projekts ein neuer BODIPY Photocage, der eine verbesserte Photolyse-Effizienz und eine höhere Photostabilität aufwies, verwendet und erneut an einen Rhodamin-Fluorophor geknüpft. Anhand dieser optimierten Dyade konnte die Einphotonen-Photolyse quantifiziert, d.h. eine Uncaging-Quantenausbeute für die Freisetzung von PNA bestimmt werden. Weiterhin wurde beobachtet, dass die Photolyse der Dyade mit einer deutlichen Änderung ihrer Fluoreszenzeigenschaften einherging. Dies ermöglichte einen Nachweis des Zweiphotonen-Uncagings mithilfe eines Fluoreszenzmikroskops. Die Dyaden-Moleküle wurden zur Immobilisierung in Liposomen eingeschlossen und unter dem konfokalen Fluoreszenzmikroskop belichtet. Sowohl nach Einphotonen- als auch nach Zweiphotonen-Anregung der Rhodamin-Einheit konnte die gewünschte Fluoreszenzänderung beobachtet und somit das Uncaging bestätigt werden.
In Projekt II der Dissertation wurde ein photoaktivierbarer Fluorophor (PAF) hergestellt. PAFs liegen in ihrer geschützten Form dunkel vor. Durch die Aktivierung mit Licht können sie Fluoreszenzsignale emittieren. Sie liefern somit ein direktes Feedback über die Lichtverteilung und –intensität innerhalb einer Probe und werden somit unter anderem für die Charakterisierung und Optimierung von Belichtungsapparaturen verwendet. Besonders wünschenswert ist hierbei eine Fluoreszenzaktivierung mit sichtbarem Licht bzw. mit NIR-Licht über einen Zweiphotonen-Prozess.
Im Zuge der Arbeit wurde ein Rhodamin-Derivat synthetisiert, das durch die Anbringung eines DEACM450-Photocages in seine nichtemittierende Form gezwungen wurde. Bei Bestrahlung mit 455 nm konnte die Abspaltung der Cumarin-Schutzgruppe und der damit verbundene Anstieg der Rhodamin-Fluoreszenz beobachtet und eine Uncaging-Quantenausbeute bestimmt werden. Für die Untersuchung der Zweiphotonen-Photolyse wurde der geschützte Fluorophor in einem Hydrogel immobilisiert und unter dem konfokalen Fluoreszenzmikroskop betrachtet werden. Anschließend wurden Fluoreszenzbilder vor und nach Photoanregung von bestimmten Regionen des Hydrogels aufgenommen. Durch das Uncaging der Probe konnten helle, definierte Muster geschrieben und ausgelesen werden. Die Photoaktivierung führte dabei sowohl über die Einphotonen-Anregung mit blauem Licht (488 nm) als auch über die Zweiphotonen-Anregung mit NIR-Licht (920 nm) zur Generierung von stabilen, gleichmäßigen Fluoreszenzmustern mit hohem Kontrast.
In this thesis, the flow coefficients vn of the orders n = 1 − 6 are studied for protons and light nuclei in Au+Au collisions at Ebeam = 1.23 AGeV, equivalent to a center-of-mass energy in the nucleon-nucleon system of √sNN = 2.4 GeV. The detailed multi-differential measurement is performed with the HADES experiment at SIS18/GSI. HADES, with its large acceptance, covering almost full azimuth angle, combined with its high mass-resolution and good particle-identification capability, is well equipped to study the azimuthal flow pattern not only for protons, deuterons, and tritons but also for charged pions, kaons, the φ-mesons, electrons/positrons, as well as light nuclei like helions and alphas. The high statistics of more than seven billion Au-Au collisions recorded in April/May 2012 with HADES enables for the first time the measurement of higher order flow coefficients up to the 6th harmonic. Since the Fourier coefficient of 7th and 8th order are beyond the statistical significance only an upper bound is given. The Au+Au collision system is the largest reaction system with the highest particle multiplicities, which was measured so far with HADES. A dedicated correction method for the flow measurement had to be developed to cope with the reconstruction in-efficiencies due to occupancies of the detector system. The systematical bias of the flow measurement is studied and several sources of uncertainties identified, which mainly arise from the quality selection criteria applied to the analyzed tracks, the correction procedure for reconstruction inefficiencies, the procedures for particle identification (PID) and the effects of an azimuthally non-uniform detector acceptance. The systematic point-to-point uncertainties are determined separately for each particle type (proton, deuteron and triton), the order of the flow harmonics vn, and the centrality class. Further, the validity of the results is inspected in the range of their evaluated systematic uncertainties with several consistency checks. In order to enable meaningful comparisons between experimental observations and predictions of theoretical models, the classification of events should be well defined and in sufficiently narrow intervals of impact parameter. Part of this work included the implementation of the procedure to determine the centrality and orientation of the reaction.
In the conclusion the experimental results are discussed, including various scaling properties of the flow harmonics. It is found that the ratio v4/v2 for protons and light nuclei (deuterons and tritons) at midrapidity for all centrality classes approaches values close to 0.5 at high transverse momenta, which was suggested to be indicative for an ideal hydrodynamic behaviour. A remarkable scaling is observed in the pt dependence of v2 (v4) at mid-rapidity of the three hydrogen isotopes, when dividing by their nuclear mass number A (A^2) and pt by A. This is consistent with naive expectations from nucleon coalescence, butraises the question whether this mass ordering can also be explained by a hydrodynamical-inspired approach, like the blast-wave model. The relation of v2 and v4 to the shape of the initial eccentricity of the collision system is studied. It is found that v2 is independent of centrality for all three particle species after dividing it by the averaged second order participant eccentricity v2/⟨ε2⟩. A similar scaling is shown for v4 after division by ⟨ε2⟩^2.
Einfache elektrochemische Methode zur Bestimmung von Chlorit in wässrigen und nicht-wässrigen Systemen Stoffe bzw. Verbindungen, welche nachweislich krebserregend oder fruchtbarkeitsschädigend sind, werden seit Jahren, insbesondere durch die WHO, streng reguliert. Zu diesen Stoffen zählt u. a. Chlorit, welches als Abbauprodukt in Desinfektionsmitteln, Poolwassern und im Rahmen von organischen Oxidationsprozessen vorkommt. Im Rahmen des Projektes sollte eine elektrochemische Methode zu Detektion von Chlorit in wässrigen und organischen Proben entwickelt werden, wobei auf eine Glaskohlenstoffelektrode in Kombination mit Li [NTf]2 im Wässrigen und [Bmpyrr][NTf]2/MeOH im Organischen als Elektrolyten zurückgegriffen wurden.
Bei der Methodenentwicklung wurde auf Differentielle-Puls-Voltammetrie zurückgegriffen, da diese im Vergleich zum Cyclovoltammetrie deutlich empfindlicher ist. Die Methodenvalidierung nach ICH-Guidelines konnte erfolgreich durchgeführt werden Dabei konnte im Wässrigen eine Nachweisgrenze von 0.07 mg L-1 (Organisch: 0.20 mg L-1) erhalten werden. Beide lagen deutlich unter den WHO-Grenzwerten von 0.7 mg L-1. Die Selektivität/Interferenz wurde gegenüber den übrigen Chlor-Spezies getestet; für alle Spezies, außer Hypochlorit, konnten für die Wiederfindungsrate von Chlorit Werte nahe 100% erhalten werden. Die entwickelte Methode konnte erfolgreich auf wässrige (Poolproben, Desinfektionsmittel) und organische Proben (aus Pinnick-Synthesen) angewendet werden. Insbesondere durch die Anwendung im Bereich der Pinnick-Oxidation war der Sensor für mögliche In-Line-Analytik geeignet. Bei den organischen Proben konnte zudem die ionische Flüssigkeit zu 92% zurückgewonnen werden, was den Elektrolyten in Hinblick auf Nachhaltigkeit und Wirtschaftlichkeit noch attraktiver macht.
Entwicklung ionenchromatographischer Methoden zur Detektion von Chloroxo-Spezies
Der Bedarf an schnellen, kostengünstigen Analysemethoden, welche den Vorgaben der einzelnen Behörden weltweit entsprechen, ist in den letzten Jahren enorm gestiegen. Im Rahmen des Projektes sollte eine ionenchromatographische Methode (IC) entwickelt werden, welche neben den Chloroxo-Spezies (Chlorid, Hypochlorit, Chlorit, Chlorat und Perchlorat) auch die bekannten Standardionen (Fluorid, Bromid, Nitrat, Phosphat, Sulfat, Iodid) nachweisbar macht. Zunächst gelang es, die Methodenparameter zu optimieren und so die Chloro-Spezies, außer Hypochlorit, von den übrigen Standardanionen innerhalb von 50 Minuten vollständig zu trennen. Die Methode konnte in der weiteren Entwicklung sogar noch um die Detergenzien-Anionen Acetat, Formiat, Oxalat und Tartrat erweitert werden. (ASupp 7, 45 °C, 0.8 mL min-1, 6 mmol L-1 Na2CO3 / 1 mmol L-1 NaHCO3 + 10% Acetonitril). Auch alle notwendigen Validierungsparameter konnten erfolgreich bestimmt werden. Zuletzt war es möglich, erfolgreich unterschiedliche Realproben zu vermessen.
Da ein Nachweis von Hypochlorit mittels IC nicht möglich war, wurden weitere Anstrengung unternommen, dieses Anion mittels IC-PCR (Nachsäulenderivatisierung) nachzuweisen. Als Detektionsprinzip wurde dabei auf eine Bromat-Nachweis-Methode mittels UV/VIS zurückgegriffen, welche im Rahmen des Projektes angepasst wurde. Da davon ausgegangen werden muss, dass das Hypochlorit mit reaktiven Stellen innerhalb des Säulenmaterials reagiert und somit nicht mehr detektiert werden kann, wurden Passivierungsexperimente an der Vorsäule und Säule für 24 h mit einer Hypochlorit-NaOH-Mischung durchgeführt. Nach 60 Stunden Passivierung konnten erstmals reproduzierbare Ergebnisse bei dem Nachweis von OCl- erhalten werden. Zuletzt konnten erfolgreich fünf unterschiedliche Realproben vermessen und der Hypochlorit-Gehalt mit bisher angewandten Methoden verglichen werden, wobei die erhaltenen Werte in der gleichen Größenordnung lagen.
Entwicklung eines Sensors unter Verwendung der Viologen-Grundstruktur auf metallischen Oberflächen
Früher fanden Viologene und deren Derivate Anwendung im Bereich der Schädlingsbekämpfung und wurden hauptsächlich als Kontaktherbizid verwendet. Mittlerweile hat sich das Anwendungsspektrum der Viologene deutlich verändert, u.a. werden die in organischen Redox-Fluss-Batterien als Elektrolyte eingesetzt. Im Rahmen diesen Projekts wurden mehrere bekannte Viologen-Grundkörper (u. A. Methylviologen (MV)) vollständig elektrochemisch charakterisiert Im Anschluss wurde MV mit unterschiedlichen Ankergruppen (Thiol-, Sulfonat, -Phosphonat-, Carboxylanker) modifiziert und auf metallische Oberfläche (u. A. Gold und Kupfer) abgeschieden mit dem Ziel ein neues Sensor-Motiv für die Analytik zu entwickeln. Der Thiolanker konnte erfolgreich auf Gold, der Carboxylanker erfolgreich auf Kupfer abgeschieden werden. Die anschließenden elektrochemischen Untersuchungen der abgeschiedenen Monolagen ergaben jedoch eine geringe Stabilität der Anker in wässriger und organischer Umgebung, sodass in Zukunft weitere Anstrengungen unternommen werden müssen, die Stabilität des Viologensystems auf der Oberfläche zu verbessern.
Seit Jahrzehnten finden Kunststoffe aufgrund ihrer vorteilhaften Materialeigenschaften wie z. B. Formbarkeit und im Vergleich zu Glas oder Metall geringe Kosten und leichtes Gewicht, vermehrt Anwendung in allen Bereichen des täglichen Lebens. Einhergehend gelangen Kunststoffe zunehmend in die Umwelt, und reichern sich dort an. Besondere Aufmerksamkeit erfahren Partikel im Größenbereich von 1-1000 µm, sogenanntes Mikroplastik (MP), welches entweder direkt eingetragen wird oder in der Umwelt durch Fragmentierung größerer Plastikteile entsteht. Lange Zeit fokussierte sich die MP Forschung vorrangig auf aquatische Ökosysteme, obwohl Schätzungen davon ausgehen, dass die Kunststoffeinträge in terrestrischen Ökosystemen um ein Vielfaches höher sind. Besonders relevante Eintragspfade sind neben der unsachgemäßen Entsorgung von Abfällen, die landwirtschaftliche Klärschlamm- und Kompostdüngung und der zunehmende Einsatz von Mulchfolien, sowie der im Straßenverkehr generierte Reifenabrieb.
Für eine Abschätzung und Bewertung der MP-Belastung in Böden sind analytische Messungen von MP in Umweltproben essenziell, derzeit jedoch kaum existent, da MP im Boden partikulär und heterogen verteilt vorliegt und deshalb nur schwierig zu detektieren ist. Die für viele Analyseverfahren notwendige Isolation der Kunststoffpartikel, sowie die für repräsentative Messungen erforderliche Aufbereitung großer Probenvolumina stellen besondere analytische Herausforderungen mit großem Kosten- und Zeitaufwand dar. Chromatografische Verfahren finden wenig Anwendung, bieten aber vorteilhafte Voraussetzungen als Screeningverfahren für die Untersuchung von Böden, da sie nicht zwangsweise eine Partikelisolation verlangen, und zudem als Ergebnis einen Massegehalt liefern.
Diese Dissertation zeigt drei Anwendungen Chromatografie basierter Analyseverfahren zur Charakterisierung von MP im Boden. Erstmalig wurde die Thermo-Extraktion-Desorption-Gaschromatografie-Massenspektrometrie (TED-GC/MS) für die Analytik von Reifenabrieb in realen Umweltproben angewandt bei minimaler Probenaufbereitung. Dafür wurde ein Straßenrandboden umfangreich beprobt und analysiert, und es konnte neben der Eignung der analytischen Methode auch eine repräsentative Probenahmestrategie und räumliche Verteilungsmuster von Reifenabrieb im Boden demonstriert werden.
Der zweite Forschungsschwerpunkt lag auf der Methodenentwicklung und validierung eines neuartigen chemischen Extraktionsverfahrens für die Bestimmung von Polyestern in Bodenproben. Das Verfahren basiert auf der hydrolytischen Spaltung von Polyestern in ihre Monomere, deren flüssigchromatografische Abtrennung von Matrixbestandteilen und der Detektion mittels UV-Absorption. Das Verfahren verlangt neben der Extraktion keine weiteren Probenaufbereitungsschritte, ist für unterschiedliche Umweltmatrizes geeignet und ist damit z. B. prädestiniert für den Nachweis von Polyesterfasern auf gedüngten landwirtschaftlichen Flächen.
MP ist nicht nur aufgrund seiner Persistenz problematisch, sondern auch, weil es hydrophobe organische Schadstoffe aus dem Umweltmedium anreichern und transportieren kann. Maßgeblich für das Sorptionsverhalten sind die Materialeigenschaften des zugrunde liegenden Kunststoffes, welche Änderungen durch Alterungsprozessen unterliegen. Der Zusammenhang zwischen Materialalterung und Sorptionsverhalten wurde in früheren Studien kontrovers diskutiert und ist der dritte Teil dieser Arbeit. In einem Sorptionsexperiment konnte mittels Headspace-Gaschromatografie mit Flammenionisations-Detektion die Aufnahme von Aromaten an den Kunststoffen Polypropylen und Polystyrol quantifiziert werden. Die Kunststoffe wurden materialwissenschaftlich charakterisiert, teilweise künstlich gealtert und die daraus resultierende Änderungen der Materialeigenschaften sowie einhergehenden Änderungen des Sorptionsverhaltens erfasst. Dadurch war es möglich den Einfluss einzelner Materialeigenschaften auf das Sorptionsverhalten zu bewerten, Rückschlüsse auf zugrunde liegende Sorptionsmechanismen zu treffen und zu zeigen, dass in vorliegendem Experiment die Polymeralterung bei MP nicht zu einer erhöhten Schadstoffsorption führte.
This thesis contains three theoretical works about certain aspects of the interplay of electronic correlations and topology in the Hubbard model.
In the first part of this thesis, the applicability of elementary band representations (EBRs) to diagnose interacting topological phases, that are protected by spatial symmetries and time-reversal-symmetry, in terms of their single-particle Matsubara Green’s functions is investigated. EBRs for the Matsubara Green’s function in the zero-temperature limit can be defined via the topological Hamiltonian. It is found that the Green’s function EBR classification can only change by (i) a gap closing in the spectral function at zero frequency, (ii) the Green’s function becoming singular i.e. having a zero eigenvalue at zero frequency or (iii) the Green’s function breaking a protecting symmetry. As an example, the use of the EBRs for Matsubara Green’s functions is demonstrated on the Su-Schriefer-Heeger model with exact diagonalization.
In the second part the Two-Particle Self-Consistent approach (TPSC) is extended to include spin-orbit coupling (SOC). Time-reversal symmetry, that is preserved in the presence of SOC, is used to derive new TPSC self-consistency equations including SOC. SOC breaks spin rotation symmetry which leads to a coupling of spin and charge channel. The local and constant TPSC vertex then consists of three spin vertices and one charge vertex. As a test case to study the interplay of Hubbard interaction and SOC, the Kane-Mele-Hubbard model is studied. The antiferromagnetic spin fluctuations are the leading instability which confirms that the Kane-Mele-Hubbard model is an XY antiferromagnet at zero temperature. Mixed spin-charge fluctuations are found to be small. Moreover, it is found that the transversal spin vertices are more strongly renormalized than the longitudinal spin vertex, SOC leads to a decrease of antiferromagnetic spin fluctuations and the self-energy shows dispersion and sharp features in momentum space close to the phase transition.
In the third part TPSC with SOC is used to calculate the spin Hall conductivity in the Kane-Mele-Hubbard model at finite temperature. The spin Hall conductivity is calculated once using the conductivity bubble and once including vertex corrections. Vertex corrections for the spin Hall conductivity within TPSC corresponds to the analogues of the Maki-Thompson contributions which physically correspond to the excitation and reabsorption of a spin, a charge or a mixed spin-charge excitation by an electron. At all temperatures, the vertex corrections show a large contribution in the vicinity of the phase transition to the XY antiferromagnet where antiferromagnetic spin fluctuations are large. It is found that vertex corrections are crucial to recover the quantized value of −2e^2/h in the zero-temperature limit. Further, at non-zero temperature, increasing the Hubbard interaction leads to a decrease of the spin Hall conductivity. The results indicate that scattering of electrons off antiferromagnetic spin fluctuations renormalize the band gap. Decreasing the gap can be interpreted as an effective increase of temperature leading to a decrease of the spin Hall conductivity.
Trait-dependent effects of biotic and abiotic filters on plant regeneration in Southern Ecuador
(2024)
Tropical forests have always fascinated scientists due to their unique biodiversity. However, our understanding of ecological processes shaping the complexity of tropical rainforests is still relatively poor. Plant regeneration is one of the processes that remain understudied in the tropics although this is a key process defining the structure, diversity and assembly of tropical plant communities. In my dissertation, I combine experimental, observational and trait-based approaches to identify processes shaping the assembly of seedling communities and compare associations between environmental conditions and plant traits across plant life stages. By working along a steep environmental gradient in the tropical mountains of Southern Ecuador, I was able to investigate how processes of plant regeneration vary in response to biotic and abiotic factors in tropical montane forests.
My dissertation comprises three complementary chapters, each addressing an individual research question. First, I studied how trait composition in plant communities varies in relation to the broad- and local-scale environmental conditions and across the plant life cycle. I measured key traits reflecting different ecological strategies of plants that correspond to three stages of the plant life cycle (i.e., adult trees, seed rain and recruiting seedlings). I worked on 81 subplots along an elevational gradient covering a large climatic gradient at three different elevations (1000, 2000 and 3000 m a.s.l.). In addition, I measured soil and light conditions at the local spatial scale within each subplot. My findings show that the trait composition of leaves, seeds and seedlings changed similarly across the elevational gradient, but that the different life stages responded differently to the local gradients in soil nutrients and light availability. Consequently, my findings highlight that trait-environment associations in plant communities differ between large and small spatial scales and across plant life stages.
Second, I investigated how seed size affects seedling recruitment in natural forests and in pastures in relation to abiotic and biotic factors. I set up a seed sowing experiment in both habitat types and sowed over 8,000 seeds belonging to seven tree species differing in seed size. I found that large-seeded species had higher proportions of recruitment in the forests compared to small-seeded species. However, small-seeded species tended to recruit better in pastures compared to large-seeded species. I showed that high surface temperature was the main driver of differences in seedling recruitment between habitats, because it limited seedling recruitment of large-seeded species. The results from this experiment show that pasture restoration requires seed addition of large-seeded species and active protection of recruiting seedlings in order to mitigate harmful conditions associated with high temperatures in deforested areas.
Third, I examined the associations between seedling beta-diversity and different abiotic and biotic factors between and within elevations. I applied beta-diversity partitioning to obtain two components of beta-diversity: species turnover and species richness differences. I associated these components of beta-diversity with biotic pressures by herbivores and fungal pathogens and environmental heterogeneity in light and soil conditions. I found that species turnover in seedling communities was positively associated with the dissimilarity in biotic pressures within elevations and with environmental heterogeneity between elevations. Further, I found that species richness differences increased primarily with increasing environmental heterogeneity within elevations. My findings show that the associations between beta-diversity of seedling communities and abiotic and biotic factors are scale-dependent, most likely due to differences in species sorting in response to biotic pressures and species coexistence in response to environmental heterogeneity.
My dissertation reveals that studying processes of community assembly at different plant life stages and spatial scales can yield new insights into patterns and processes of plant regeneration in tropical forests. I investigated how community assembly processes are governed by abiotic and biotic filtering across and within elevations. I also experimentally explored how the process of seedling recruitment depends on seed size-dependent interactions, and verified how these effects are associated with abiotic and biotic filtering. Identifying such processes is crucial to inform predictive models of environmental change on plant regeneration and successful forest restoration. Further exploration of plant functional traits and their associations with local-scale environmental conditions could effectively support local conservation efforts needed to enhance forest cover in the future and halt the accelerating loss of biodiversity.
Die kathetergestützte Thrombektomie ist, spätestens seitdem 2015 verschiedene Studien ihre Überlegenheit zur alleinigen medikamentösen Behandlung gezeigt haben, die bevorzugte Therapie bei Patienten mit akutem ischämi-schem Schlaganfall und embolischen Verschluss einer großen intrakraniellen Arterie. Obwohl die mechanische Thrombektomie mittlerweile zur Standardthe-rapie zählt, ist der Zusammenhang zwischen Lokalisation des Infarktareals und klinischem Behandlungsergebnis nach Thrombektomie bisher nicht gut untersucht. Die dieser Studie zugrunde liegende Hypothese war, dass Infarktdemar-kationen in der zentralen Corona radiata, Capsula interna und/oder den Ba-salganglien aufgrund einer potenziellen Schädigung der Fasern des Tractus corticospinalis mit einem schlechten Behandlungsergebnis (mRS 3 bis 6) nach mechanischer Thrombektomie assoziiert sind. Ziel dieser Studie war es somit, den Behandlungserfolg nach Thrombektomie bei Patienten mit entsprechender Infarktlokalisation zu untersuchen.
Hierfür wurden die Daten von 70 erwachsenen Patienten analysiert, die im Zeitraum von April 2016 bis Januar 2020 im Institut für Neuroradiologie des Universitätsklinikums Frankfurt aufgrund eines ischämischen Infarktes mit entsprechender Infarktdemarkation eine mechanische Thrombektomie erhalten haben. Alle erhobenen Daten stammen aus der elektronischen Krankenakte, dem Radiologie-Informations-System oder einem prospektiven Register zur internen Qualitätssicherung. Es erfolgte außerdem eine Unterteilung der Studi-enkohorte anhand des zusätzlichen kortikalen Infarktausmaßes bzw. der kortikalen Infarktlokalisation, um den Einfluss kortikaler Infarkte auf das Behandlungsergebnis beurteilen zu können. Die wichtigsten Endpunkte der Studie waren das klinische Behandlungsergebnis gemessen anhand der mRS nach 90 Tagen sowie die Ergebnisse der Subgruppenanalyse.
51,4 % der Studienpopulation erzielten nach 90 Tagen ein gutes klinische Be-handlungsergebnis (mRS 0 bis 2), 32,9 % der Patienten erreichten sogar ein exzellentes Ergebnis (mRS 0 bis 1). Insgesamt verstarben innerhalb von 90 Tagen nach dem Schlaganfallereignis 15,7 % aller Patienten und 32,9 % konn-ten nur ein schlechtes Behandlungsergebnis (mRS 3 bis 5) erzielen. Die Ergebnisse zeigen, dass die in der routinemäßig angefertigten Bildgebung nachgewiesenen Infarktdemarkationen im Verlauf der langen Bahnen nicht zwingend ein schlechtes Behandlungsergebnis bedingen. Bei Patienten mit ausge-dehnter Beteiligung des Kortex und Infarkten in definierten eloquenten Arealen waren die klinischen Behandlungsergebnisse allerdings schlechter als in der Vergleichsgruppe mit isolierten Läsionen der langen Bahnen.
Um künftig ein besseres Verständnis darüber zu erlangen, welche Patienten mit bestimmter Infarktlokalisation von einer mechanischen Thrombektomie langfristig profitieren können, sind weitere prospektive Studien mit exakt definierten Vergleichsgruppen und höherwertiger MRT-basierter Bildgebung erforderlich.
In den letzten Jahren haben sich die Therapiemöglichkeiten des Mammakarzinoms deutlich verbessert. Durch die Analyse von genetischen Veränderungen in den Tumorzellen oder in der Keimbahn ist eine zielgerichtete Tumortherapie bei einigen Subgruppen möglich; z.B. mit PARP- und PIK3CA-Inhibitoren.
In einer retrospektiven Analyse wurde in dieser Arbeit untersucht, wie genetische Mutationsanalysen in einer onkologischen Schwerpunktpraxis eingesetzt werden. Es sollte untersucht werden, wie häufig PatientInnen in einer onkologischen Praxis mit metastasiertem Mammakarzinom eine Mutationsanalyse brustkrebsassoziierter Gene erhalten haben, und welche Konsequenzen daraus gezogen wurden. Dabei wurde der Zeitraum von 2019 – 2022 betrachtet. Mithilfe der Software Albis wurden Daten von 49 PatientInnen identifiziert. 40 PatientInnen haben eine Keimbahndiagnostik der Gene BRCA1/2 erhalten. Von den PatientInnen, die die BRCA1/2-Analyse bekommen haben, konnten in 20% der PatientInnen eine Mutation in BRCA1 oder 2 detektiert werden. Bei den meisten dieser PatientInnen wurde der PARP Inhibitor Olaparib therapeutisch eingesetzt. 10 PatientInnen erhielten eine PIK3CA-Analyse, 9 von ihnen mittels PCR und eine mittels NGS. In dieser Gruppe wurde bei einer Patientin eine Mutation im PIK3CA-Gen ermittelt. 15 PatientInnen haben eine Multigenpanel-Diagnostik erhalten. Dabei ist eine Reihe weiterer genetischer Veränderungen nachgewiesen worden. Für einige dieser Veränderungen stehen therapeutische Möglichkeiten zur Verfügung, die zwar nicht für das Mammakarzinom, aber für andere Tumorentitäten bereits zugelassen sind.
Das Promotionsvorhaben ist im Bereich der arbeitssoziologischen Forschung angesiedelt. Vor dem Hintergrund der Individualisierung im arbeitssoziologischen Feld, sowie der gestiegenen Bedeutung von Home Office aufgrund der Corona-Pandemie, widmet sich das Vorhaben dem Problemfeld der wahrgenommenen Ambivalenz von Home Office, sowie dem Zusammenhang zwischen Home Office und Individualisierung, und dessen Bedeutung und Auswirkungen für und auf das Individuum.
Als methodisches Verfahren dient hier zur Theoriegenerierung die Grounded Theory. Gegenstand der Analyse ist die mediale Darstellung. Als mediale Daten werden Zeitungsartikel mit der thematischen Fokussierung auf Home Office betrachtet. Die hier gewählte Darstellung des Vorgehens, ermöglicht es, das Vorgehen mit der Grounded Theory kleinteilig und kleinschrittig nachzuvollziehen und verstehen zu können.
Ziel der Studie ist es, Home Office in Bezug zur Individualisierung zu setzen und die grundsätzlichen Zusammenhänge innerhalb der Wahrnehmungen von Home Office und Individualisierung herauszuarbeiten, sowie im medialen Kontext allgemeine Darstellungen und Wahrnehmungen von Home Office zu erkennen und zu verdeutlichen.
Letztlich zeigt sich, dass die Gemeinsamkeit in der medialen Darstellung von Home Office darin liegt, dass eine Aushandlung über die Notwendigkeit von Handlungsvermögen erfolgt. Diese Aushandlung spiegelt sich in den Aspekten der Darstellung von Handlungsmöglichkeiten und Handlungsgrenzen wieder, sowie in der Darstellung der Notwendigkeit von Gestaltungsspielraum und/oder der Notwendigkeit von Grenzen für das Individuum.
Die im Laufe der Auswertung entwickelten Darstellungsformen ermöglichen hierbei, die differenzierten Standpunkte im Hinblick auf die Arbeitsweise Home Office erfassen zu können. Es wurden Formen gebildet, um die verschiedenen Blickwinkel voneinander abgrenzen zu können. Bei Betrachtung dieser Formen wird jedoch ersichtlich, dass sich die exakte punktuelle Verortung des Subjektes zwischen Fremdbestimmung und Selbstbestimmung im Hinblick auf die Zielsetzung des maximalen persönlichen und/oder wirtschaftlichen Erfolges aus medialer Perspektive als schwierig erweist.
Die in der Auswertung entwickelten Darstellungsformen verdeutlichen außerdem die Gleichbedeutung von Arbeitssphäre und Lebenssphäre für das Individuum in der medialen Darstellung. Gleichzeitig zeigen sie den Wunsch nach Freiheit, den Wunsch nach Grenzen, sowie den Wunsch nach Selbstverwirklichung, Gestaltung und Entlastung von Erwartungen auf.
Das periinterventionelle Management von antikoagulierten Patienten stellt eine große Herausforderung im klinischen Alltag dar. Die genaue Abwägung von Blutungs- und Thromboembolierisiko ist essentieller Bestandteil der Frage, ob und wann die blutgerinnungshemmende Medikation pausiert werden soll. Ist das Zeitintervall zur geplanten Intervention zu kurz gewählt und daher die antikoagulierende Wirkung der Arzneimittel noch ausgeprägt, kann es leichter zu intra- und postoperativen Blutungen kommen. Umgekehrt kann es bei einer zu langen Unterbrechung der Antikoagulation zur Entwicklung von Thromboembolien kommen. Um diese Risiken zu minimieren und die Patientensicherheit zu verbessern ist ein leitliniengerechtes Handeln von großer Bedeutung. Durch den Einfluss des demographischen Wandels und die steigende Inzidenz der Erkrankungen, die eine Antikoagulation notwendig machen, erhöht sich ebenso die Anzahl der antikoagulierten Patienten, die sich einer elektiven Operation unterziehen müssen, wodurch das Thema schon seit Jahren an Bedeutung gewinnt. Trotz diverser Leitlinien, die in den letzten Jahren publiziert wurden, findet man im klinischen Alltag oftmals nicht auf Anhieb die passende Empfehlung, da diese von dem Einfluss etlicher Risikofaktoren, wie Alter, Geschlecht, Nierenfunktion u.a. bestimmt werden sollte. Der Einsatz eines Clinic Decision Support Systems (CDSS) kann ein leitliniengerechtes Handeln möglicherweise verbessern, indem patientenspezifische Risikokonstellationen anhand europäischer Leitlinien geprüft werden und dem Nutzer eine optimale Vorgehensweise unterbreitet wird.
Zielsetzung: In dieser Arbeit, soll die Eignung eines klinischen Entscheidungs-Unterstützungssystems (CDSS) anhand eines Multiple Choice (MC) Tests mit 11 kliniknahen Fallbeispielen, bezüglich evidenzbasierten perioperativen Managements von antikoagulierten Patienten untersucht werden.
Methoden: Im Rahmen einer klinischen prospektiven randomisierten multizentrischen Simulationsstudie beantworteten Ärztinnen und Ärzte einen Multiple Choice Test bestehend aus 11 Fallbeispielen zum Thema periinterventionelles Management von antikoagulierten Patienten. Dabei sollte zu - 5 - jedem Beispiel zwei möglichst leitliniengerechte Empfehlung ausgewählt werden.
Die Ärztinnen und Ärzte wurden vorab in zwei Gruppen randomisiert. Der PERI-KOAG Gruppe wurde das CDSS zur Beantwortung der Fragen zur Verfügung gestellt. Die Kontroll-Gruppe hatte hingegen keinen Zugriff auf die Applikation und sollte den Test mit frei zugänglichen Hilfsmitteln, zum Beispiel Leitlinien oder anderen allgemein verfügbaren Apps beantworten. Die beiden Gruppen wurden anschließend in Bezug auf die Gesamtergebnisse, die Bearbeitungszeit und Berufserfahrung verglichen.
Ergebnisse: Insgesamt wurden 168 Teilnehmer in die beiden Gruppen randomisiert, wovon 76 Teilnehmer, 42 Teilnehmer der PERI-KOAG Gruppe und 34 Teilnehmer der Kontroll-Gruppe den MC-Test vollständig beendeten und in die weitere Auswertung eingeschlossen wurden. Der MC-Test konnte mit maximal 22 Punkten (=100%) abgeschlossen werden. Die PERI-KOAG Gruppe erreichte dabei im Durchschnitt signifikant bessere Ergebnisse als die Kontroll-Gruppe (82 ±15% vs. 70 ±10%; 18 ±3 vs. 15 ±2 Punkte; P =0,0003). Unter Berücksichtigung der Bearbeitungszeit erzielten Teilnehmer mit längerer Bearbeitung durchschnittlich höhere Ergebnisse, als Kollegen welche den Test schneller abschlossen. Dieser Effekt zeigte sich in beiden Gruppen. Ein signifikanter Unterschied konnte hierbei nur in der PERI-KOAG Gruppe gezeigt werden (PERI-KOAG Gruppe ≥33 min. 89 ±10% (20 ±2 Punkte) vs. <33 min. 73 ±15% (16 ±3 Punkte), P =0,0005). Innerhalb der PERI-KOAG Gruppe zeigten sich tendenziell höhere Ergebnisse innerhalb der erfahreneren Gruppe (>5 Jahre Berufserfahrung), aber keinen signifikanten Unterschied zu weniger (≤5 Jahre Berufserfahrung) erfahrenen Kollegen (87 ±10% (19 ±2 Punkte) vs. 78 ±17% (17 ±4 Punkte), P =0,08). Dagegen konnte in der Kontroll-Gruppe kein Unterschied zwischen den Testresultaten von mehr und weniger erfahrenen Teilnehmern gezeigt werden (>5 Jahre: 71 ±8% (16 ±2 Punkte) vs. ≤5 Jahre: 70 ±13% (15 ±3 Punkte) P =0,66).
Diskussion: Diese Arbeit zeigt, dass im Rahmen eines MC-Tests mit Hilfe des CDSS ein leitliniengerechtes perioperatives Management von antikoagulierten Patienten signifikant verbessert werden kann. Eine fachgerechte Anwendung des Tools ist essentiell, um schwerwiegende Folgen, wie Blutungen oder Thromboembolien zu vermeiden. Eine längere Bearbeitungszeit und mutmaßlich intensivere Nutzung des CDSS, geht mit besseren Ergebnissen einher als eine schnelle Testbearbeitung. Ein insgesamt verbessertes leitliniengerechtes Management zeigt, unabhängig von der Berufserfahrung der Teilnehmer, das große Potential des CDSS.
In Deutschland existieren nur wenige Ergebnisse aus der klinischen Forschung, die im Kontext der allgemeinmedizinischen Versorgung gewonnen wurden. Dies ist u.a. damit zu begründen, dass Forschung in der Allgemeinmedizin in den Praxisalltag eingebunden sein muss, worauf die gegenwärtige Versorgungsstruktur nicht ausgelegt ist. Damit für Hausärztinnen und Hausärzte Forschung im Praxisalltag möglich ist, müssen also Strukturen geschaffen werden, die Forschung ermöglichen. Eine solche Struktur bieten Forschungspraxennetze (FPN) wie beispielsweise das Forschungspraxennetz „ForN“. ForN wurde vom Institut für Allgemeinmedizin der Goethe-Universität Frankfurt am Main im Jahr 2011 initiiert. In ForN tätige Forschungspraxen können sich mit einer Gültigkeit von fünf Jahren als „akademische Forschungspraxis“ akkreditieren lassen, wenn sie bestimmte Anforderungen erfüllen. Dazu gehört die Teilnahme an für Forschungsprojekte qualifizierenden Fortbildungen oder an Netz-begleitenden Treffen für Ärztinnen, Ärzte und Medizinische Fachangestellte (MFA) sowie die regelmäßige Teilnahme an Forschungsprojekten. Eine Verlängerung der Akkreditierung nach fünf Jahren ist möglich. Bisherige Publikationen über Forschung zu FPN bieten insbesondere Einblicke in Faktoren, welche den Beitritt in ein FPN fördern oder eher behindern. Forschung, die Faktoren der längerfristigen Mitwirkung der Praxen an FPN (wie Austrittsgründe, aber auch Motivation, eine Re-Akkreditierung anzustreben) untersucht, ist im Gegensatz dazu rar.
Diese Dissertation untersucht diese Faktoren anhand der folgenden Fragen: warum traten Forschungspraxen im Laufe der Zeit aus dem FPN ForN aus (ehemalige Mitglieder) und warum strebten andere eine Re-Akkreditierung an (aktive Mitglieder)? Weitere Unterfragen dieser Arbeit sind: welche Faktoren motivierten oder erschwerten hausärztlichen Teams eine Mitwirkung als Forschungspraxis? Wie wurde die bisherige Zusammenarbeit gesehen und als wie gut machbar wurden die Anforderungen zur Erlangung der Bezeichnung „akademische Forschungspraxis“ eingeschätzt?
Es wurde ein Fragebogen für ehemalige ärztliche ForN-Mitglieder entworfen und eingesetzt. Des Weiteren wurden Daten aus Fragebogenerhebungen von aktiven ForN-Mitgliedern (Hausärztinnen, Hausärzte, MFA) aufbereitetet. Die Daten wurden mithilfe der Datenanalysesoftware SPSS deskriptiv unter Angabe der Häufigkeiten, Mittelwerte, Standardabweichungen und Spannweiten ausgewertet.
Es konnten 14 Fragebögen von ehemaligen ärztlichen ForN-Mitgliedern aus 13 Praxen analysiert werden. Von den aktiven ForN-Mitgliedern wurden Fragebögen von 48 Ärztinnen und Ärzten sowie 57 MFA aus 41 Praxen ausgewertet. Als Gründe für den Austritt wurde von ehemaligen Mitgliedern insbesondere Zeitmangel und eine hohe Arbeitsbelastung angegeben. Weitere erschwerende Umstände waren ein Mangel an MFA, eine große Entfernung zum Standort des Instituts für Allgemeinmedizin und persönliche Gründe. Bis auf letztere Angabe waren dies auch die größten Hürden während der Teilnahme, die von aktiven Mitgliedern beschrieben wurden. Einen Beitrag für die Allgemeinmedizin zu leisten, persönliche Kompetenzen und Kompetenzen des Praxisteams zu erweitern sowie Abwechslung im Praxisalltag zu erleben, waren die wichtigsten motivierenden Faktoren einer Teilnahme im Forschungspraxennetz ForN, sowohl für aktive als auch für ehemalige Mitglieder. Die Anforderungen des FPN ForN an die Akkreditierung als Forschungspraxis wurden aus Perspektive der aktiven Mitglieder überwiegend als machbar empfunden. Nur die Umsetzung zusätzlicher, nicht verpflichtender Aktivitäten wurde als schwieriger erfüllbar bewertet. Bezüglich der Zusammenarbeit mit dem Institut für Allgemeinmedizin gaben ehemalige ärztliche ForN-Mitglieder an, eine gute Vorbereitung auf Forschungsaufgaben erfahren zu haben, dem ForN-Team des Instituts für Allgemeinmedizin vertrauen zu können und dass die Kommunikation allgemein gut war.
Gründe für den Austritt aus dem FPN und Hindernisse während der Teilnahme in ForN waren überwiegend externe Faktoren wie Zeitmangel, eine hohe Arbeitsbelastung oder ein Mangel an MFA. Auf diese Faktoren hat das Institut für Allgemeinmedizin keinen direkten Einfluss, es kann lediglich die administrativen Aufgaben innerhalb eines Forschungsprojektes für das Team einer Forschungspraxis so vorstrukturieren, dass sie möglichst gut im Praxisalltag bewältigt werden können. Ein Vergleich mit Publikationen, die sich mit förderlichen und hinderlichen Faktoren eines Beitritts in ein FPN auseinandersetzen, zeigt, dass ähnliche Gründe auch die längerfristige Mitwirkung beeinflussen.