Refine
Year of publication
- 2009 (391)
- 2010 (378)
- 2008 (315)
- 2007 (313)
- 2006 (295)
- 2004 (280)
- 2021 (248)
- 2005 (243)
- 2022 (237)
- 2020 (235)
- 2011 (219)
- 2023 (212)
- 2019 (211)
- 2018 (204)
- 2003 (202)
- 2002 (190)
- 2015 (188)
- 2017 (181)
- 2016 (178)
- 2014 (168)
- 2012 (164)
- 2013 (152)
- 2001 (141)
- 2000 (69)
- 1998 (37)
- 1999 (32)
- 2024 (19)
- 1997 (18)
- 1923 (9)
- 1996 (7)
- 1924 (6)
- 1925 (6)
- 1995 (6)
- 1921 (5)
- 1918 (4)
- 1926 (4)
- 1994 (4)
- 1933 (3)
- 1934 (3)
- 1952 (3)
- 1956 (3)
- 1966 (3)
- 1979 (3)
- 1990 (3)
- 1913 (2)
- 1917 (2)
- 1929 (2)
- 1930 (2)
- 1931 (2)
- 1935 (2)
- 1986 (2)
- 1991 (2)
- 1992 (2)
- 1993 (2)
- 1678 (1)
- 1735 (1)
- 1830 (1)
- 1850 (1)
- 1858 (1)
- 1865 (1)
- 1904 (1)
- 1908 (1)
- 1912 (1)
- 1914 (1)
- 1915 (1)
- 1919 (1)
- 1922 (1)
- 1927 (1)
- 1928 (1)
- 1937 (1)
- 1938 (1)
- 1941 (1)
- 1942 (1)
- 1948 (1)
- 1949 (1)
- 1950 (1)
- 1951 (1)
- 1953 (1)
- 1954 (1)
- 1955 (1)
- 1958 (1)
- 1961 (1)
- 1962 (1)
- 1963 (1)
- 1965 (1)
- 1968 (1)
- 1970 (1)
- 1971 (1)
- 1974 (1)
- 1977 (1)
- 1978 (1)
- 1989 (1)
Document Type
- Doctoral Thesis (5662) (remove)
Language
- German (3599)
- English (2034)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5662) (remove)
Is part of the Bibliography
- no (5662)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Genexpression (9)
- Immunologie (9)
Institute
- Medizin (1490)
- Biowissenschaften (829)
- Biochemie und Chemie (726)
- Physik (588)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (301)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
This thesis contains three theoretical works about certain aspects of the interplay of electronic correlations and topology in the Hubbard model.
In the first part of this thesis, the applicability of elementary band representations (EBRs) to diagnose interacting topological phases, that are protected by spatial symmetries and time-reversal-symmetry, in terms of their single-particle Matsubara Green’s functions is investigated. EBRs for the Matsubara Green’s function in the zero-temperature limit can be defined via the topological Hamiltonian. It is found that the Green’s function EBR classification can only change by (i) a gap closing in the spectral function at zero frequency, (ii) the Green’s function becoming singular i.e. having a zero eigenvalue at zero frequency or (iii) the Green’s function breaking a protecting symmetry. As an example, the use of the EBRs for Matsubara Green’s functions is demonstrated on the Su-Schriefer-Heeger model with exact diagonalization.
In the second part the Two-Particle Self-Consistent approach (TPSC) is extended to include spin-orbit coupling (SOC). Time-reversal symmetry, that is preserved in the presence of SOC, is used to derive new TPSC self-consistency equations including SOC. SOC breaks spin rotation symmetry which leads to a coupling of spin and charge channel. The local and constant TPSC vertex then consists of three spin vertices and one charge vertex. As a test case to study the interplay of Hubbard interaction and SOC, the Kane-Mele-Hubbard model is studied. The antiferromagnetic spin fluctuations are the leading instability which confirms that the Kane-Mele-Hubbard model is an XY antiferromagnet at zero temperature. Mixed spin-charge fluctuations are found to be small. Moreover, it is found that the transversal spin vertices are more strongly renormalized than the longitudinal spin vertex, SOC leads to a decrease of antiferromagnetic spin fluctuations and the self-energy shows dispersion and sharp features in momentum space close to the phase transition.
In the third part TPSC with SOC is used to calculate the spin Hall conductivity in the Kane-Mele-Hubbard model at finite temperature. The spin Hall conductivity is calculated once using the conductivity bubble and once including vertex corrections. Vertex corrections for the spin Hall conductivity within TPSC corresponds to the analogues of the Maki-Thompson contributions which physically correspond to the excitation and reabsorption of a spin, a charge or a mixed spin-charge excitation by an electron. At all temperatures, the vertex corrections show a large contribution in the vicinity of the phase transition to the XY antiferromagnet where antiferromagnetic spin fluctuations are large. It is found that vertex corrections are crucial to recover the quantized value of −2e^2/h in the zero-temperature limit. Further, at non-zero temperature, increasing the Hubbard interaction leads to a decrease of the spin Hall conductivity. The results indicate that scattering of electrons off antiferromagnetic spin fluctuations renormalize the band gap. Decreasing the gap can be interpreted as an effective increase of temperature leading to a decrease of the spin Hall conductivity.
Trait-dependent effects of biotic and abiotic filters on plant regeneration in Southern Ecuador
(2024)
Tropical forests have always fascinated scientists due to their unique biodiversity. However, our understanding of ecological processes shaping the complexity of tropical rainforests is still relatively poor. Plant regeneration is one of the processes that remain understudied in the tropics although this is a key process defining the structure, diversity and assembly of tropical plant communities. In my dissertation, I combine experimental, observational and trait-based approaches to identify processes shaping the assembly of seedling communities and compare associations between environmental conditions and plant traits across plant life stages. By working along a steep environmental gradient in the tropical mountains of Southern Ecuador, I was able to investigate how processes of plant regeneration vary in response to biotic and abiotic factors in tropical montane forests.
My dissertation comprises three complementary chapters, each addressing an individual research question. First, I studied how trait composition in plant communities varies in relation to the broad- and local-scale environmental conditions and across the plant life cycle. I measured key traits reflecting different ecological strategies of plants that correspond to three stages of the plant life cycle (i.e., adult trees, seed rain and recruiting seedlings). I worked on 81 subplots along an elevational gradient covering a large climatic gradient at three different elevations (1000, 2000 and 3000 m a.s.l.). In addition, I measured soil and light conditions at the local spatial scale within each subplot. My findings show that the trait composition of leaves, seeds and seedlings changed similarly across the elevational gradient, but that the different life stages responded differently to the local gradients in soil nutrients and light availability. Consequently, my findings highlight that trait-environment associations in plant communities differ between large and small spatial scales and across plant life stages.
Second, I investigated how seed size affects seedling recruitment in natural forests and in pastures in relation to abiotic and biotic factors. I set up a seed sowing experiment in both habitat types and sowed over 8,000 seeds belonging to seven tree species differing in seed size. I found that large-seeded species had higher proportions of recruitment in the forests compared to small-seeded species. However, small-seeded species tended to recruit better in pastures compared to large-seeded species. I showed that high surface temperature was the main driver of differences in seedling recruitment between habitats, because it limited seedling recruitment of large-seeded species. The results from this experiment show that pasture restoration requires seed addition of large-seeded species and active protection of recruiting seedlings in order to mitigate harmful conditions associated with high temperatures in deforested areas.
Third, I examined the associations between seedling beta-diversity and different abiotic and biotic factors between and within elevations. I applied beta-diversity partitioning to obtain two components of beta-diversity: species turnover and species richness differences. I associated these components of beta-diversity with biotic pressures by herbivores and fungal pathogens and environmental heterogeneity in light and soil conditions. I found that species turnover in seedling communities was positively associated with the dissimilarity in biotic pressures within elevations and with environmental heterogeneity between elevations. Further, I found that species richness differences increased primarily with increasing environmental heterogeneity within elevations. My findings show that the associations between beta-diversity of seedling communities and abiotic and biotic factors are scale-dependent, most likely due to differences in species sorting in response to biotic pressures and species coexistence in response to environmental heterogeneity.
My dissertation reveals that studying processes of community assembly at different plant life stages and spatial scales can yield new insights into patterns and processes of plant regeneration in tropical forests. I investigated how community assembly processes are governed by abiotic and biotic filtering across and within elevations. I also experimentally explored how the process of seedling recruitment depends on seed size-dependent interactions, and verified how these effects are associated with abiotic and biotic filtering. Identifying such processes is crucial to inform predictive models of environmental change on plant regeneration and successful forest restoration. Further exploration of plant functional traits and their associations with local-scale environmental conditions could effectively support local conservation efforts needed to enhance forest cover in the future and halt the accelerating loss of biodiversity.
Im Rahmen dieser publikationsbasierten Dissertation wurden drei wissenschaftliche Arbeiten veröffentlicht. Als Erstautorenschaft wurde 2022 die Arbeit “Effectiveness of High-intensity Focused Ultrasound (HIFU) Therapy of Solid and Complex Benign Thyroid Nodules - A Long-term Follow up Two-center Study.” im Journal “Experimental and Clinical Endocrinology & Diabetes” veröffentlicht. Im Folgenden wird der Inhalt dieser Arbeit dargelegt. Ein kurzer Überblick über die Ergebnisse der anderen beiden mitpublizierten Arbeiten findet sich im Kapitel „Weitere Ergebnisse der Arbeitsgruppe“.
Durch die hohe Prävalenz benigner Schilddrüsenknoten sind deren Behandlungsalternativen von großem wissenschaftlichem Interesse. Dabei bildet die nebenwirkungsarme, minimalinvasive Thermoablation mittels high-intensity focused ultrasound (HIFU) eine attraktive Alternative zu herkömmlichen Verfahren wie der Schilddrüsenchirurgie oder der Radioiodtherapie. Bei der HIFU-Echotherapie werden die Schilddrüsenknoten auf 80 - 90 Grad Celsius erhitzt, sodass eine irreversible Koagulationsnekrose entsteht. Um den Therapieprozess und die Indikationsstellung von HIFU bei benignen Schilddrüsenknoten zu optimieren, ist es notwendig, genaue Studien durchzuführen.
Ziel der vorliegenden bizentrischen Langzeitstudie war, die Effektivität von HIFU-Echotherapien bei benignen Schilddrüsenknoten zu evaluieren und erstmalig den Einfluss der Knotenmorphologie auf den Therapieerfolg zu untersuchen. Vor der Therapie und in regelmäßigen Intervallen nach der Therapie wurden die Größe und die Morphologie der Schilddrüsenknoten mittels Ultraschall dokumentiert. In der retrospektiven Studie wurden Daten von 58 Patienten ausgewertet. Dabei wurde die Gesamtpopulation in eine Gruppe mit soliden und in eine Gruppe mit komplexen Knoten eingeteilt. Die durchschnittliche prozentuale Volumenreduktion in jeder Gruppe wurde mit dem Wilcoxon-Signed-Rank Test statistisch analysiert.
Die Gesamtpopulation zeigte eine Volumenreduktion der zuvor abladierten Knoten von 38.86 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p < 0.0001, n = 25), 42.7 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p < 0.0001, n = 18), 62.21 % nach 9 Monaten (Spannweite: 12.88 % - 93.2 %, p = 0.0078, n = 8) und 61.42 % nach 12 Monaten (Spannweite: 39.39 % - 93.2 %, p > 0.05, n = 4). Die soliden Knoten hatten eine Volumenreduktion von 49.98 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p = 0.0001, n = 15), 46.40 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p = 0.001, n = 11), 65.77 % nach 9 Monaten (Spannweite: 39.39 % - 93.2 %, p = 0.0156, n = 7) und 63.88 % nach 12 Monaten (Spannweite: 39.39 % - 93.2%, p > 0.05, n = 2). Komplexe Knoten hatten eine Volumenreduktion von 35.2 % nach 3 Monaten (Spannweite: 5.85 % - 68.63 %, p = 0.002, n = 10), 36.89 % nach 6 Monaten (Spannweite: 12.23 % - 68.63 %, p = 0.0156, n = 7) und 63.64 % nach 12 Monaten (Spannweite: 52,38 % - 73.91 %, p > 0.05, n = 2).
In der vorliegenden bizentrischen Langzeitstudie wurde deutlich, dass HIFU-Echotherapie eine effektive Behandlungsoption benigner Schilddrüsenknoten ist. Erstmalig gezeigt wurde der Trend, dass solide Knoten besser auf HIFU-Echotherapie ansprechen als komplexe Knoten.
Anhand der gewonnenen Ergebnisse und der neuen Erkenntnisse zum Einfluss der Knotenmorphologie auf die HIFU-Echotherapie benigner Schilddrüsenknoten kann HIFU als Therapieoption besser bewertet werden. Eine differenziertere Indikationsstellung in Bezug auf solide und komplexe Knoten wird ermöglicht und die HIFU-Echotherapie kann gegen andere thermoablative Verfahren abgewogen werden.
This thesis develops a naturalist theory of phenomenal consciousness. In a first step, it is argued on phenomenological grounds that consciousness is a representational state and that explaining consciousness requires a study of the brain’s representational capacities. In a second step, Bayesian cognitive science and predictive processing are introduced as the most promising attempts to understand mental representation to date. Finally, in a third step, the thesis argues that the so-called “hard problem of consciousness” can be resolved if one adopts a form of metaphysical anti-realism that can be motivated in terms of core principles of Bayesian cognitive science.
Therapierefraktärer Schmerz ist ein weit verbreitetes, äußerst belastendes Leitsymptom rheumatischer Erkrankungen. Viele Betroffene weichen daher bei Versagen der Standardmedikation selbstständig auf Cannabis oder die strukturell verwandte Substanz Palmitoylethanolamid (PEA) als Add-On- oder Alternativtherapie aus, obwohl dies in Deutschland bisher nur eingeschränkt zulässig ist. Die deutsche Gesetzgebung ist diesbezüglich nicht eindeutig, weshalb Ärzt:innen in ihrer Entscheidung, Cannabis zu verschreiben, auf Leitlinien, Fallberichte und Expert:innenmeinungen zurückgreifen müssen. Dies führt zu schwierigen Einzelfallentscheidungen, da sich die derzeitige Datenlage zu Cannabis-based Medicine (CBM) bzw. PEA und Rheuma als mangelhaft darstellt und die Leitlinien dementsprechend keine klaren Empfehlungen enthalten. Ziel der vorliegenden Arbeit ist es, die vorhandene Evidenz zusammenzufassen, zu ordnen und anhand der Hill-Kriterien den möglichen kausalen Zusammenhang zwischen der Einnahme von CBM bzw. PEA und der analgetischen Wirkung bei Rheumaschmerzen zu prüfen.
A powerful technique to distinguish the enantiomers of a chiral molecule is the Coulomb Explosion Imaging (CEI). This technique allows us to determine the handedness of a single molecule. In CEI, the molecule becomes charged by losing many electrons in a very short period of time by interacting with the light. The repulsion forces between the positive charged particles of the molecule leads the molecule to break into parts-fragments. By measuring the three vector momentum of (at least) four fragments, the handedness observable can be determined. In this thesis, CEI is induced by absorption of a single high energy photon, which creates an inner-shell hole (K shell) of the molecule. The subsequent cascade of Auger decays lead to fragmentation. We decided to work with the formic acid molecule in this thesis. Two different experiments were conducted. The first experiment focused on exciting electrons to different energy states, while the second experiment focused on extracting directly a photoelectron to the continuum and measure the angular distribution of the photoelectron in the molecular frame. The primary goal was to search for chiral signal in a pure achiral planar molecule under the previous electron processes. The results of these findings were further implemented to two more molecules.
"Mir ist so digk vor gesait" : Studien zur erzählerischen Gestaltung des "Meleranz" von dem Pleier
(2024)
In der germanistischen Mediävistik richtet sich das Forschungsinteresse vornehmlich auf die höfische Literatur und dabei insbesondere auf die frühen und späten Artusromane. Vor allem die Werke von Hartmann von Aue und Wolfram von Eschenbach sind zentrale Forschungsobjekte, während Texte wie Pleiers ‚Meleranz‘ bisher nur begrenzt Beachtung fanden.
Die Forschungslücke, die die vorliegende Arbeit adressiert, liegt in der detaillierten Analyse der spezifischen Erzähltechniken des pleierschen Textes, die sich sowohl durch die Verwendung traditioneller arthurischer Motive als auch durch innovative narrative Ansätze auszeichnen. Ausgehend von dem Befund eines stark zurückgenommenen Erzählers wird untersucht, welche narrativen Strategien und Verfahren der Pleier im ‚Meleranz‘ anwendet, um trotz dieser Abkehr von der implizierten poetischen Regelhaftigkeit einer dominanten Erzählerfigur das Erzählen vom Ritter ‚Meleranz‘ gelingen und zugleich an einigen Stellen ausgesprochen konventionell wirken zu lassen.
Um aufzudecken, wie der Text ohne die Stimme eines deutlich hervortretenden Erzählers vermittelt wird, nutze ich im Verlauf der Arbeit eine Typologie der Stoffvermittlung durch (arthurische) Erzähler. In den Einzelstudien zum ‚Meleranz‘ werden seine Motive, Erzählmuster und Figurenkonstellationen in einem close reading erarbeitet und mit der Typologie abgeglichen, um bestimmen zu können, welche Vermittlungsformen im pleierschen Text genutzt werden. Mit Hilfe dieses Vergleichs kann das Erzählverfahren im ‚Meleranz‘ extrapoliert und gleichzeitig offengelegt werden. Mittels dieses Vorgehens wird verdeutlicht werden, dass es sich beim ‚Meleranz‘ um einen Text handelt, der arthurische Konventionen lediglich anders inszeniert, um die vermittelnde Funktion der Stimme des Erzählers zu substituieren oder ihr Fehler auszugleichen.
While high-quality climate reconstructions of some past warm periods in the Cenozoic era now exist, the geological processes responsible for driving the observed longterm changes in atmospheric CO2 are not sufficiently well understood. The long-term change in atmospheric CO2 across the Cenozoic has been proposed to be driven by processes such as terrestrial weathering, organic carbon production and burial, reverse weathering, and volcanic degassing. One way of constraining the relative importance of the various driving forces proposed so far is to better understand the degree to which ocean chemistry has changed because the chemistry of seawater responds to geologic processes that drive atmospheric CO2. In addition, knowledge of the concentration of the major elements in seawater is crucial for accurately applying proxies such as those based on the boron isotopic composition and Mg/Ca of marine carbonates (a proxy for palaeo pH/CO2 and palaeotemperature, respectively). Previously reported records of seawater composition are primarily derived from fluid inclusions in marine evaporites; however, the results are sparse due to the limited availability of such deposits. In this thesis, changes in the Eocene seawater chemistry were reconstructed using trace element (elements/Ca) and isotopic (δ26Mg) proxies in a Larger Benthic Foraminifera (LBFs), i.e., Nummulites sp., to constrain the driving processes of long-term changes in seawater chemistry.
To achieve the objective of this thesis, first, a measurement protocol was established using LA-ICPMS to measure the K/Ca ratio simultaneously with other element/calcium ratios, which is challenging due to the interference of ArH+ on K+. Utilising this newly established measurement protocol, laboratory-cultured Operculina ammonoides grown at different seawater calcium concentrations ([Ca2+]), repeated at different temperatures, as well as modern O. ammonoides collected from different regions exhibiting a range of seawater parameters, were investigated. A significant correlation was observed between K/Casw and K/CaLBF, allowing K/CaLBF to potentially be used as a proxy for seawater major ion reconstructions. In addition, modern O. ammonoides demonstrated no significant influence of most seawater parameters (temperature, salinity, pH, or [CO32-]) on K/CaLBF. Modern O.
ammonoides were also assessed for their Mg isotopic composition (δ26Mg), revealing no significant effect of temperature or salinity on δ26MgLBF. Furthermore, the Mg isotopic fractionation in O. ammonoides was found to be close to that of inorganic calcite, indicating minimal vital effects in these large benthic foraminifera.
Operculina ammonoides is the nearest living relative of the abundant Eocene genus Nummulites, enabling the reconstruction of seawater chemistry using the calibration based on O. ammonoides. The trace elemental/calcium proxies, including Na/Ca, K/Ca, and Mg/Ca, as well as the δ26Mg proxy, were investigated in Eocene Nummulites. The result showed that during the Eocene, [Ca2+]sw was 1.6-2 times higher, while [K+]sw was ~2 times lower than the modern seawater composition. Furthermore, [Mg2+]sw decreased from the early Eocene (54.3− +9 7..69 mmol kg-1 at ~55 Ma) to Late Eocene (37.8− +4 4..3 4 mmol kg-1 at ~31 Ma), followed by
an increase toward modern seawater [Mg]. In contrast, the variability in δ26Mgsw values remained within a narrow range of ~0.3 ‰ throughout the Cenozoic. The reconstructed [Ca2+]sw agrees with the suggestion that Cenozoic seawater chemistry changes can be explained via a change in the seafloor spreading rate. When combined with existing records, the observed minimal change in δ26Mgsw with an increase in [Mg2+]sw suggests an additional possible role of a decrease in the formation of authigenic clay minerals coincident with the Cenozoic decline in deep ocean temperature, which is also supported by the increase in the [K+]sw reconstructed here for the first time. This finding highlights that the reduction in seafloor-spreading rate and decline in reverse weathering during the Cenozoic era has played a significant role in the evolution of seawater chemistry, emphasizing the importance of these processes in driving long-term changes in the carbon cycle.
Die vorliegende Dissertation bietet eine eingehende Analyse der Entstehung und Evolution der rechtlichen Rahmenbedingungen der Arbeitnehmerüberlassung in der Volksrepublik China. Ursprünglich in den 1980er Jahren als Instrument zur Reduzierung der Arbeitslosigkeit eingeführt, hat sich die Funktion der Arbeitnehmerüberlassung im Laufe der Zeit gewandelt. Diese Entwicklung wird in der Arbeit sorgfältig nachgezeichnet.
Die Studie skizziert die legislative Entwicklung von der anfänglichen Konzeption bis zur formellen Legalisierung im Jahr 2007 und untersucht die geltenden gesetzlichen Bestimmungen zur Arbeitnehmerüberlassung. Dabei werden die spezifischen Aspekte der chinesischen Gesetzgebung herausgestellt, bei der die Arbeitnehmerüberlassung vornehmlich als komplementäre Beschäftigungsform angesehen wird. Die Arbeit beleuchtet die Rechte und Pflichten aller Akteure. Obwohl nicht umfassend rechtsvergleichend angelegt, wird doch immer wieder ein Blick auf die Rechtslage in Deutschland geworfen, sodass die unterschiedlichen regulatorischen Ansätze deutlich hervortreten. Zugleich werden die besonderen Herausforderungen behandelt, denen diese Beschäftigungsform im chinesischen Kontext begegnet.
Thomas Bowrey, who was an employee of the British colonial government, visited the Malay-speaking region at the end of the 17th century and published a dictionary of Malay (1701) which consists of 12,683 headwords. It is one of the oldest and largest collections of data on this language, which was the first language of the people he came into contact with while travelling through the Malay Peninsula, spending most of his time in harbours along its west coast. Malay, which was spoken in the various trading centres of this area (e.g. Penang, Malacca), had long previously begun to develop into a form of lingua franca during Bowrey’s stay there due to the fact that traders, especially those from Arabic countries (beginning in the 12th century), China (from the 15th century onwards), Portugal (since 1511), the Netherlands (since 1641), and less so from England, came into contact with Malays speaking their local dialects in the various trading posts in Malaya and probably began to become acquainted with the trade-language variant. Thus, Bowrey must have observed and recorded elements of both.
The data he collected is not limited to Malay variants spoken in coastal areas, but includes material from dialects which he encountered during his travels throughout the Malay Peninsula, though without, however, describing the locations in which he took notes on the lexicon and clauses. Not all of his material was written into manuscript form during his stay in Southeast Asia. A large part of his notes taken in situ were prepared for publication during his long journey home. His notes, which were used to print his dictionary, are in part kept in British libraries. Most of the material accessible to the public was studied during the preparation of this thesis.
Earlier works on this dictionary are quite limited in scope. They deal with very specific aspects such as the meanings of headwords found between the letters A and C (Rahim Aman, 1997 & 1998), and the work of Nor Azizah, who deals with the lexical change found in Bowrey’s dictionary between D and F, and syntactic and sociolinguistic aspects (Mashudi Kader, 2009), and collective nouns by Tarmizi Hasrah (2010). This study will discuss Bowrey’s dictionary as a whole in order to describe its contribution to our knowledge of linguistic and non-linguistic facts in 17th century Malaya. Besides analysing Malay synchronically, this thesis also deals with historical-comparative questions and asks whether Bowrey contributes to our knowledge of the changes to the Malay language between the 17th and 21st centuries.
In order to answer the research questions, this study not only relies on the dictionary in its entirety, but also on the notes found in British libraries as well as other material on early Malay, such as the Pigafetta list (1523), Houtman (1598–1603), and the Wilkinson dictionary (1901) as a complement to Bowrey’s dictionary; at the same time, the Malay Concordance Project (online), the SEAlang Project (online), Kamus Besar Bahasa Indonesia (online), and Kamus Dewan Edisi Keempat (2007) will represent modern Malay. It should be borne in mind that in contrast to the Thomas Bowrey dictionary (TBD), Kamus Dewan Edisi Keempat (KDE4) does not hold information on colloquial forms of Malay, many of which reflect features of lingua franca Malay. This study is divided into two different branches, namely the consideration of synchronic aspects and historical comparative aspects.
Finally, this study concludes that the Malay language in Thomas Bowrey’s dictionary is heavily influenced by both external and internal factors prevalent to the 17th century. The Malay language recorded in the Thomas Bowrey dictionary is very similar to modern Malay. The similarities between the Malay language of the 17th century and the Malay language of today are considerable, even though there are, of course, still some notable variances.
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Diese Arbeit hatte das Ziel, die Größe einer DVT-Aufnahme (FOV) mit der Größe der durch die Indikationsstellung definierten Region (ROI) zu vergleichen. Durch eine speziell dafür entwickelte Software sollten Messungen in den Datensätzen ermöglicht werden. Die dazu verwendeten 332 Datensätze wurden zufallsverteilt aus den mit einem Orthophos SL-3D DVT-Gerät der Firma Dentsply Sirona in der Poliklinik für zahnärztliche Chirurgie und Implantologie des ZZMK (Carolinum) in Frankfurt angefertigten Röntgenaufnahmen selektiert.
Es wurde die Auswertungssoftware ExRoi entwickelt, mit der die Werte des axialen Durchmessers, die Höhe (vertikale Dimension) sowie die Distanz der Mittelpunkte von FOV und ROI direkt in den Datensätzen bestimmt werden konnten. Zusätzlich wurde festgehalten, welche rechtfertigenden Indikationen gestellt und welche Auflösungsmodi verwendet wurden.
Die Stichprobe bestand aus Aufnahmen mit einem axialen Durchmesser von 8 cm [VOL 1] (n= 76, entsprechend 46,39%), 5 cm Durchmesser [VOL 2] (n = 102, entsprechend 30,72%) und 11 cm Durchmesser [VOL 3] (n= 154, entsprechend 22,89%). 95,18% der Aufnahmen wurden im HD-Modus mit laut Herstellerangaben vier Mal so vielen Aufnahmen im Vergleich zum SD-Modus angefertigt. Hauptindikationen waren Implantat Planung (45,1%) und Planungen komplizierter Zahn-Extraktionen (25,5%).
Die Messungen zum Vergleich des axialen Durchmessers zeigten, dass bei Verwendung des VOL 2 die ROI im Mittel den größten Anteil der FOV nutzt (78,52 %), den kleinsten Anteil nutzt durchschnittlich VOL 1 (56,04 %). Dazwischen liegt VOL 3 (69,12 %). In der Vertikalen nutzt die ROI von VOL 3 mittelwertig den größten Anteil der FOV (81,87 %), den kleinsten Mittelwert hat VOL 1 (58,76 %). VOL 2 liegt zwischen diesen Werten (64,47 %).
In allen Fällen war das FOV größer als die ROI und die ROI lag im Bereich des gewählten FOV.
Die Mittelpunkte von FOV und ROI lagen im Mittel in der axialen Ebene in Abhängigkeit vom gewählten Volumen um rund 9-13 mm auseinander, in der coronalen und sagittalen Ebene um rund 5-6mm.
Aus diesen Ergebnissen kann für das verwendete Gerät eine gute Trefferquote für die ROI abgeleitet werden. Höhe und Durchmesser des FOV hätten in den meisten Fällen kleiner gewählt werden können, liegen aber angesichts der vorhandenen Auswahl-Optionen des Röntgengeräts zur Dimensionierung der Volumina in einem akzeptablen Bereich.
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.
The strong force is one of the four fundamental interactions, and the theory of it is called Quantum Chromodynamics (QCD). A many-body system of strongly interacting particles (QCD matter) can exist in different phases depending on temperature (T) and baryonic chemical potential (µB). The phases and transitions between them can be visualized as µB−T phase diagram. Extraction of the properties of the QCD matter, such as compressibility, viscosity and various susceptibilities, and its Equation of State (EoS) is an important aspect of the QCD matter study. In the region of near-zero baryonic chemical potential and low temperatures the QCD matter degrees of freedom are hadrons, in which quarks and gluons are confined, while at higher temperatures partonic (quarks and gluons) degrees of freedom dominate. This partonic (deconfined) state is called quark-gluon plasma (QGP) and is intensively studied at CERN and BNL. According to lattice QCD calculations at µB=0 the transition to QGP is smooth (cross-over) and takes place at T≈156 MeV. The region of the QCD phase diagram, where matter is compressed to densities of a few times normal nuclear density (µB of several hundreds MeV), is not accessible for the current lattice QCD calculations, and is a subject of intensive research. Some phenomenological models predict a first order phase transition between hadronic and partonic phases in the region of T≲100 MeV and µB≳500 MeV. Search for signs of a possible phase transition and a critical point or clarifying whether the smooth cross-over is continuing in this region are the main goals of the near future explorations of the QCD phase diagram.
In the laboratory a scan of the QCD phase diagram can be performed via heavy-ion collisions. The region of the QCD phase diagram at T≳150 MeV and µB≈0 is accessible in collisions at LHC energies (√sNN of several TeV), while the region of T≲100 MeV and µB≳500 MeV can be studied with collisions at √sNN of a few GeV. The QCD matter created in the overlap region of colliding nuclei (fireball) is rapidly expanding during the collision evolution. In the fireball there are strong temperature and pressure gradients, extreme electromagnetic fields and an exchange of angular momentum and spin between the system constituents. These effects result in various collective phenomena. Pressure gradients and the scattering of particles, together with the initial spatial anisotropy of the density distribution in the fireball, form an anisotropic flow - a momentum (azimuthal) anisotropy in the emission of produced particles. The correlation of particle spin with the angular momentum of colliding nuclei leads to a global polarization of particles. A strong initial magnetic field in the fireball results in a charge dependence and particle-antiparticle difference of flow and polarization.
Anisotropic flow is quantified by the coefficients vₙ from a Fourier decomposition of the azimuthal angle distribution of emitted particles relative to the reaction plane spanned by beam axis and impact parameter direction. The first harmonic coefficient v₁ quantifies the directed flow - preferential particle emission either along or opposite to the impact parameter direction. The v₁ is driven by pressure gradients in the fireball and thus probes the compressibility of the QCD matter. The change of the sign of v₁ at √sNN of several GeV is attributed to a softening of the EoS during the expansion, and thus can be an evidence of the first order phase transition. The global polarization coefficient PH is an average value of the hyperon’s spin projection on the direction of the angular momentum of the colliding system. It probes the dynamics of the QCD matter, such as vorticity, and can shed light on the mechanism of orbital momentum transfer into the spin of produced particles.
In collisions at √sNN of several GeV, which probe the region of the QCD phase diagram at T≲100 MeV and µB≳500 MeV, hadron production is dominated by u and d quarks. Hadrons with strange quarks are produced near the threshold, what makes their yields and dynamics sensitive to the density of the fireball. Thus measurement of flow and polarization, in particular of (multi-)strange particles, provides experimental constraints on the EoS, that allows to extract transport coefficients of the QCD matter from comparison of data with theoretical model calculations of heavy-ion collisions.
For continuation of the annotation see the PDF of thesis
Der Hirntumor Glioblastom (GBM) ist aufgrund seines infiltrativen Wachstums, der hohen intra- und intertumoralen Heterogenität, der hohen Therapieresistenz als auch aufgrund der sogenannten gliomartigen Stammzellen sehr schwer zu behandeln und führt fast immer zu Rezidiven. Da es in den letzten Jahrzehnten kaum Fortschritte in der Behandlung des GBMs gab, bis auf die Therapie mit Tumortherapiefeldern, wird weiterhin nach alternativen Zelltodtherapien geforscht, wie zum Beispiel dem Autophagie-abhängigen Zelltod. Der Autophagie-abhängige Zelltod ist durch einen erhöhten autophagischen Flux gekennzeichnet und obwohl die Autophagie, als auch selektive Formen wie die Lysophagie und Mitophagie, normalerweise als überlebensfördernde Mechanismen gelten, konnten viele Studien eine duale Rolle in der Tumorentstehung, -progression und -behandlung aufzeigen, die vor allem vom Tumortyp und stadium abhängt. Um die zugrunde liegenden Mechanismen des durch Medikamente induzierten Autophagie-abhängigen Zelltods im GBM weiter zu entschlüsseln, habe ich in meiner Dissertation verschiedene Substanzen untersucht, die einen Autophagie-abhängigen Zelltod induzieren.
In einer zuvor in unserem Labor durchgeführten Studie konnte gezeigt werden, dass das Antipsychotikum Pimozid (PIMO) und der Opioidrezeptor-Antagonist Loperamid (LOP) einen Autophagie-abhängigen Zelltod in GBM Zellen induzieren können. Darauf aufbauend habe ich die Fähigkeit zur Induktion des Autophagie-abhängigen Zelltods in weiteren Zellmodellen validiert. Dies bestätigte einen erhöhten autophagischen Flux nach PIMO und LOP Behandlung, während der Zelltod als auch der autophagische Flux in Autophagie-defizienten Zellen reduziert war. In weiteren Versuchen konnte ich die Involvierung der LC3-assoziierten Phagozytose (LAP), ein Signalweg der auf die Funktion einiger autophagischer Proteine angewiesen ist, ausschließen. Weiterhin konnte ich eine massive Störung des Cholesterin- und Lipidstoffwechsels beobachten. Unter anderem akkumulierte Cholesterin in den Lysosomen gefolgt von massiven Schäden des lysosomalen Kompartiments und der Permeabiliserung der lysosomalen Membran. Dies trug einerseits zur Aktivierung überlebensfördernder Lysophagie als auch der Zell-schädigenden „Bulk“-Autophagie bei. Letztendlich konnte aber die erhöhte Lysophagie die Zellen nicht vor dem Zelltod retten und die Zellen starben einen Autophagie-abhängigen lysosomalen Zelltod. Da die Eignung von LOP als Therapie für das GBM aufgrund der fehlenden Blut-Hirn-Schranken Permeabilität und von dem Antipsychotikum PIMO aufgrund teils schwerer Nebenwirkungen eingeschränkt ist, habe ich mich im weiteren Verlauf meiner Dissertation mit einer Substanz mit einem anderen Wirkmechanismus beschäftigt.
Der Eisenchelator und oxidative Phosphorylierungs (OXPHOS) Inhibitor VLX600 wurde zuvor berichtet mitochondriale Dysfunktion und Zelltod in Kolonkarzinomzellen zu induzieren. Allerdings hat meines Wissens nach bisher noch keine Studie die therapeutische Eignung von VLX600 für das GBM untersucht. Hier zeige ich eine neuartige Autophagie-abhängige Zelltod-induzierende Fähigkeit von VLX600 für GBM Zellen, da der Zelltod signifikant in Autophagie-defizienten Zellen aber nicht durch Caspase-Inhibitoren gehemmt wurde und der autophagische Flux erhöht war. Darüber hinaus konnte ich die Hemmung der OXPHOS und die Induktion von mitochondrialem Stress in GBM Zellen bestätigen und weiterhin aufzeigen, dass VLX600 nicht nur die mitochondriale Homöostase stört, sondern auch zu einer BNIP3-BNIP3L-abhängigen Mitophagie führt, die wahrscheinlich durch HIF1A reguliert wird aber keinen erkennbaren Nettoeffekt auf den von VLX600 induzierten Zelltod hat. Demnach induziert VLX600 letale „Bulk“-Autophagie in den hier verwendeten Zellmodellen. Darüber hinaus konnte ich zeigen, dass die Eisenchelatierung durch VLX600 eine große Rolle für den von VLX600-induzierten Zelltod spielt aber auch für die Mitophagie Induktion, Histon Lysin Methylierung und den ribosomalen Stress. Letztendlich ist es wahrscheinlich ein Zusammenspiel all dieser Faktoren, die zur Zelltodinduktion durch VLX600 führen und interessanterweise werden Eisenchelatoren bereits in präklinischen und klinischen Studien für Krebstherapien untersucht. Dabei könnten gewisse metabolische Eigenschaften verschiedener Tumorzellen die Sensitivität von Wirkstoffen, die auf den Metabolismus wirken wie VLX600, beeinflussen was in zukünftigen Studien beachtet werden sollte um den bestmöglichsten Therapieerfolg zu erzielen. Zusammenfassend unterstützt meine Dissertation die duale Rolle der Autophagie, die stark vom jeweiligen Kontext abhängt und befürwortet die weitere Forschung von Substanzen, die einen Autophagie-abhängigen Zelltod induzieren, für das GBM.
Das Heidelberger Ionenstrahl-Therapiezentrum (HIT) stellt Protonen-, Helium- und Kohlenstoff-Ionenstrahlen unterschiedlicher Energie und Intensität für die Krebsbehandlung und Sauerstoff-Ionenstrahlen für Experimente zur Verfügung. Der hierfür verwendete Beschleuniger ist darüber hinaus in der Lage auch Ionenstrahlintensitäten unterhalb der für Therapien verwendeten bereitzustellen. Allerdings ist das derzeit installierte Strahldiagnosesystems nicht in der Lage, das Strahlprofil bei solchen geringen Intensitäten (< 10^5 Ionen/s) zu messen. Dabei existieren mögliche medizinische Anwendung für diese niederintensiven Ionen-strahlen, wie beispielsweise eine neuartige und potentiell klinisch vorteilhafte Bildgebung: die Ionenradiographie. Eine essentielle Voraussetzung für diese und andere Anwendungen ist ein System zur Überwachung von Ionenstrahlen niedriger Intensität. Ein solches System wurde im Rahmen dieser Arbeit konzipiert, realisiert, getestet und optimiert.
Das Funktionsprinzip basiert auf szintillierenden Fasern, insbesondere solchen mit erhöhter Strahlungshärte für die Möglichkeit einer dauerhaften Platzierung im Therapiestrahl. Ein diese Fasern durchlaufendes Ion regt den darin enthaltenen Szintillator durch Stoßprozesse kurzzeitig an. Die dabei deponierte Energie wird anschließend in Form von Photonen wieder emittiert. Silizium-Photomultiplier sind an den Enden der Fasern montiert und wandeln die Photonensignale in verstärkte elektrische Impulse um. Diese Impulse werden von einer neuartigen und dedizierten Ausleseelektronik aufgezeichnet und verarbeitet. Ein Prototypaufbau, bestehend aus den genannten Teilen, wurde im Strahl getestet und kann das transversale Strahlprofil erfolgreich im Intensitätsbereich von 10^7 Ionen/s bis hinunter zu 10^2 Ionen/s aufzeichnen. Darüber hinaus konnte, durch die erfolgreiche Ankunftszeitmessung von einzelnen Ionen bis zu Intensitäten von 5*10^4 Ionen/s, ein Machbarkeitsnachweis für die Messung der Spur von einzelnen Teilchen erbracht werden.
Die Verwendung von Photoschaltern zur gezielten Kontrolle von Systemen birgt ein hohes Potential hinsichtlich biologischer Fragestellungen, bis hin zu optoelektronischen Anwendungen. Infolge einer Photoanregung kommt es zu Geometrieänderungen, die einen erheblichen Einfluss auf ihr photophysikalisches Verhalten haben. Die Änderungen der photochemischen, wie photophysikalischen Eigenschaften, beruht entweder auf der Isomerisierung von Doppelbindungen oder auf perizyklischen Reaktionen. Durch sorgfältige Modifikationen, wie beispielsweise die Änderung der Konjugation durch unterschiedlich große π-Elektronensysteme, der Molekülgeometrie oder der Veränderung des Dipolmoments, lassen sich intrinsische Funktionen variieren.
Die Kombination dieser Eigenschaften stellt eine komplexe Herausforderung dar, da diese Änderungen einen direkten Einfluss auf wichtige Charakteristika wie die Adressierbarkeit, die Effizienz und die Stabilität der Moleküle haben. Darüber hinaus spielt die thermische Stabilität eine erhebliche Rolle im Hinblick auf die Speicherung von Energie oder Informationen für Anwendungsbereiche in der Energiegewinnung und Datenverarbeitung.
Für die Anwendung solcher photochromen Moleküle ist hinsichtlich der oben genannten Eigenschaften auch das Wissen über den photoinduzierten Reaktionsmechanismus unabdingbar.
Im Rahmen dieser Arbeit wurde der Einfluss auf die Isomerisierungsdynamik organischer Photoschalter durch unterschiedliche Modifikationen mittels stationärer und zeitaufgelöster Spektroskopie untersucht. Im Bereich der Merocyanine konnte ein Derivat vorgestellt werden, das ausschließlich zwischen zwei MC-Formen (trans/cis) isomerisiert. Die interne Methylierung am Phenolatsauerstoff der Chromeneinheit verhindert die Ringschlussreaktion zum SP und somit seinen zwitterionischen Charakter. Die stabilen Grundzustandsisomere TTT und CCT weisen durch den Methylsubstituenten eine hypsochrome Verschiebung ihrer Absorptionsmaxima auf, während TTT das thermodynamisch stabilste Isomer darstellt. Das MeMC wies eine erstaunlich hohe Effizienz seiner Schaltamplituden, insbesondere der TTT → CCT Photoisomerisierung auf, sowie eine überaus hohe Quantenausbeute.
Das MeMC wies zudem eine signifikante Lösungsmittelabhängigkeit auf, die sich insbesondere in der Photostabilität bemerkbar macht. Während das MeMC in MeCN und EtOH photodegradiert, konnte in EtOH/H2O eine konstante Reliabilität festgestellt werden. Diese Zuverlässigkeit impliziert nicht nur eine Stabilisierung durch das Wasser, sondern auch eine Resistenz gegenüber Hydrolysereaktionen. Darüber hinaus konnten kinetische Studien eine hohe thermische Rückkonversion von CCT zu TTT bei Raumtemperatur nachweisen, womit auf schädliche UV-Bestrahlung verzichtet werden könnte.
Die Untersuchung der Kurzzeitdynamiken beider Grundzustandsisomere gab Aufschluss über die Beteiligung anderer möglicher MC-Intermediate und den Einfluss der Methylgruppe auf das System. Mittels quantenchemischer Berechnungen konnte eine erste Initiierung um die zentrale Doppelbindung beider Isomere bestimmt werden, die jeweils zu einem heißen Grundzustandsintermediat führt, bis nach einer zweiten Isomerisierung der endgültige Grundzustand der Photoprodukte populiert wird. Dies bedeutet, dass die trans/cis-Isomerisierung über TTT-TCT-CCT und die Rückkonversion über CCT-CTT-TTT erfolgt.
Im Bereich der Hydrazon-Photoschalter konnten unterschiedlich substituierte Derivate mittels statischer und zeitaufgelösten UV/Vis-Studien untersucht werden. Da ESIPT Prozesse eine wichtige Funktion bei der Kontrolle von biologischen Systemen spielen, wurden verschiedene Hydrazonderivate hinsichtlich ihrer Reaktionsmechanismen untersucht. Als Rotoreinheit diente zum einen eine Benzothiazolkomponente, die die interne H-Bindung des angeregten Z-Hydrazons schwächen sollte und zum anderen wurde ein Chinolinsubstituent eingesetzt, der als Elektronenakzeptor diente und den H-Transfer begünstigt. Der Einsatz der Benzothiazolkomponente bewirkte die gewünschte Vergrößerung der bathochromen Verschiebung des E-Isomers, sowie eine deutliche Erhöhung der thermischen Stabilität des metastabilen
Zustands. Dies bestätigten die zeitaufgelösten Studien der Z zu E Isomerisierung, bei denen die Isomere im Vergleich zum Chinolinhydrazonderivat, in beiden ausgewählten Lösungsmitteln metastabile Z-Intermediate zeigten und eine Lebenszeit bis in den µs-Zeitbereich aufwiesen. Die Rückreaktion beider Derivate (HCN) und (HBN) hingegen zeigte eine barrierelose Umwandlung in die beteiligten Photoprodukte. Trotz der Verwendung des Chinolinsubstituenten zusammen mit Naphthalin als Rotoreinheit (HCN), konnte kein ESIPT Prozess beobachtet werden. HCB mit einer Kombination aus einem Chinolinrotor und eines Benzothiazolsubstituenten, wies eine Hydrazon-Azobenzol-Tautomerie auf, die ein prototropes Gleichgewicht zwischen dem E-Hydrazon und der E-Azobenzolform (E-AB) ausbildete. Die Reaktionsdynamiken des Z-Hydrazons zum E-AB wiesen eine ultraschnelle Bildung des Photoproduktes auf, während die Rückreaktion über einen ESIPT im sub-ps-Bereich erfolgte. Dieser H-Transfer hat die Bildung des angeregten E-Hydrazons zur Folge. Interessanterweise wurde kein Rückprotonentransfer nachgewiesen, sondern die mögliche Formation eines Z-AB gefunden. Damit unterscheidet sich dieser Reaktionsmechanismus erheblich von den typischen ESIPT Prozessen, die normalerweise zu ihrem Ausgangsmolekül zurückrelaxieren. Des Weiteren konnte ein Pyridinoxid und Benzoylpyridin-substituiertes Hydrazon charakterisiert werden, bei denen die stationären Studien kein Schaltverhalten, sondern Photodegradation aufwiesen. Die zeitaufgelösten Daten ergaben ebenfalls keine Photoproduktbildung, was die These der Photozersetzung unterstützt. Die Verwendung von zusätzlich substituierten Rotoreinheiten, wie beispielsweise Pyridinoxid und Benzoylpyridin, die aufgrund fehlender Protonenakzeptormöglichkeit keine interne H-Bindung ausbilden, erlaubt keine Bildung des Z-Hydrazon Isomers.
This thesis presents the experimental and numerical analysis of seismic waves that are produced by wind farms. With the aim to develop renewable energies rapidly, the number of wind turbines has been increased in recent years. Ground motions induced by their operation can be observed by seismometers several kilometers away. Hence, the seismic noise level can be significantly increased at the seismic station. Therefore, this study combines long-term experiments and numerical simulations to improve the understanding of the seismic wavefields emitted by complete wind farms and to advance the prediction of signal amplitudes.
Firstly, wind-turbine induced signals that are measured at a small wind farm close to Würzburg (Germany) are correlated with the operational data of the turbines. The frequency-dependent decay of signal amplitudes with distance from the wind farm is modeled using an analytical method including the complex effects of interferences of the wavefields produced by the multiple wind turbines. Specific interference patterns significantly affect the wave propagation and therefore the signal amplitude in the far field of a wind farm. Since measurements inside the wind turbines show that the assumption of in-phase vibrating wind turbines is inappropriate, an approach to calculate representative seismic radiation patterns from multiple wind turbines, which allows the prediction of amplitudes in the far field of a complete wind farm, is proposed.
In a second study, signals with a frequency of 1.15 Hz, produced by the Weilrod wind farm (north of Frankfurt, Germany) are observed at the seismological observatory TNS (Taunus), which is located at a distance of 11 km from the wind farm. The propagation of the wavefield emitted by the wind farm is numerically modeled in 3D, using the spectral element method. It is shown that topographic effects can cause local signal amplitude reductions, but also signal amplification along the travel path of the seismic wave. The comparison of simulations with and without topography reveals that the reduction and amplification are spatially linked to the shape of the topography, which could be an explanation for the relatively high signal amplitude observed at TNS.
Finally, the reduction of the impact of wind turbines on seismic measurements using borehole installations is studied using 2D numerical models. Possible effects of the seismic velocity, attenuation, and layering of the subsurface are demonstrated. Results show that a borehole can be very effective in reducing the observed high-frequency signals emitted by wind turbines. However, a borehole might not be beneficial if signals with frequencies of about 1 Hz (or lower) are of interest, due significant wavelength-dependent effects. The estimations of depth-dependent amplitudes with a layered subsurface are validated with existing data from wind-turbine-induced signals measured at the top and bottom of two boreholes.
The experimental analysis of measurements conducted at wind farms and the advances of modeling such signals improve the understanding of the propagation of wind-farm induced seismic wave fields. Furthermore, the methods developed in this work have a high potential of universal application to the prediction of signal amplitudes at seismometers close to wind farms with arbitrary layout and geographic location.
Das Glioblastom ist eine tödliche maligne Erkrankung des zentralen Nervensystems. Etablierte Therapiekonzepte resultieren in einer Fünfjahresüberlebensrate von fünf Prozent. Die derart infauste Prognose wird unter anderem bedingt durch die Heterogenität des Tumors. Insbesondere einer Population stammzellartiger Zellen wird die Verantwortung für Resistenz und Rekurrenz des Glioblastoms zugesprochen. Die genuine Plastizität des Glioblastoms mit entsprechender Fähigkeit zur Änderungen tumorweiter Expressionsprofile und Ausbildung einzigartiger funktioneller Fähigkeiten kann ohne gezielte Beeinträchtigung von stammzellartigen Zellen womöglich nicht ausreichend überwunden werden. Als Urheber kritischer Eigenschaften erscheint die erfolgreiche Elimination dieser Population innerhalb des Glioblastoms notwendig um nachhaltige Therapieerfolge zu erzielen. Mögliche Strategien der Elimination stammzellartiger Zellen setzen an Differenzierung und Ausbeutung stammzelltypischer Signalwege zur Modulation dieser Zellen an. Hierdurch sollen zentrale Fähigkeiten der Population stammzellartiger Zellen, wie Selbsterneuerung, Resistenz gegenüber Strahlen- und Chemotherapie und erneute Formation heterogener Tumore, überwunden werden.
Zentrale zelluläre Prozesse, welche zum Erhalt des stammzellartigen Zustandes dieser Zellen beitragen, sind unter anderem der Hedgehog- und Notch-Signalweg. Einer Beeinträchtigung dieser Signalwege wohnt womöglich die Fähigkeit der effektiven Modulation zentraler Eigenschaften stammzellartiger Zellen inne. Neben diesen Signalwegen gibt es eine Reihe weiterer Prozesse, welchen eine Urheberschaft an der Resistenz der Zellen zugesprochen wird. Hierzu zählt beispielweise der Prozess der Autophagie. Die Autophagie ist ein hochkonservierter zellulärer Mechanismus zur Selbsterneuerung durch Selbstdegradation fehlerhafter zellulärer Komponenten. Gleichzeitig kann die Autophagie durch eine Überaktivität zu einem spezifischen, autophagischen Zelltod beitragen. Die Modulation dieses Dualismus kann in einer Vielzahl von Tumoren, so auch im Glioblastom, das Schicksal einer tumorfördernden Autophagie in eine antitumorale Autophagie ändern.
Im Rahmen dieser Arbeit wurde erstmalig eine Modulation zentraler Eigenschaften stammzellartiger Zellen durch die Beeinflussung ihrer zellulären Prozesse mittels kombinierter Therapie durch Arsentrioxid oder GANT und (-)-Gossypol gezeigt. Arsentrioxid wirkt unspezifisch unter anderem als Inhibitor von Notch- und Hedgehog-Signalweg. Diese Inhibition wurde auch in den untersuchten Zellen nachgewiesen und führte zu einer Reduktion von stammzelltypischen Markerproteinen und Fähigkeiten der Tumorgenese in -vitro und ex -vivo, sowie zur Sensitivierung gegenüber strahleninduzierten Schäden. Gegenüber einer spezifischen Hedgehog-Inhibition durch eine GANT-vermittelte Bindung an Gli-Transkriptionsfaktoren zeigten sich deutliche Vorteile der dualen Inhibition durch Arsentrioxid hinsichtlich der genannten Eigenschaften. Die Kombination der Substanzen mit dem pan-Bcl-Inhibitor (-)-Gossypol führte zu einer synergistischen Steigerung der antitumoralen Effekte. (-)-Gossypol wird in Gliomzellen insbesondere mit der Modulation der autophagischen Maschinerie und Auslösung eines autophagischen Zelltodes in Verbindung gebracht. Die Ergebnisse weisen parallele Signalweginteraktionen mit effektiver Modulation des DNA-Damage-Response-Systems durch die Reduktion des Proteins CHEK als kausalen Mechanismus des Synergismus der Substanzen aus.
Die beobachteten Änderungen der typischen Eigenschaften stammzellartiger Zellen durch die Therapie mit Arsentrioxid und (-)-Gossypol implizieren lohnende Folgeuntersuchungen zur weiteren Evaluation dieser Effekte in -vivo, um zukünftig translationale Ableitungen zu erlauben. Die Heterogenität des Glioblastoms und seine genuine Plastizität lassen sich womöglich erfolgreich durch multiple Eingriffe in unterschiedliche zelluläre Prozesse, hierunter Notch- und Hedgehog-Signaling, modulieren. Hierdurch könnten zentrale Eigenschaften des Glioblastoms eventuell effektiv verändert und Resistenz sowie Rekurrenz überwunden werden.
The single-source shortest-path problem is a fundamental problem in computer science. We consider a generalization of the shortest-path problem, the $k$-shortest path problem. Let $G$ be a directed edge-weighted graph with $n$ nodes and $m$ edges and $s,t$ be two fixed nodes. The goal is to compute $k$ paths $P_1,\dots,P_k$ between two fixed nodes $s$ and $t$ in non-decreasing order of their length such that all other paths between $s$ and $t$ are at least as long as the $k$\nth path $P_k$. We focus on the version of the $k$-shortest path problem where the paths are not allowed to visit nodes multiple times, sometime referred to as $k$-shortest simple path problem.
The probably best known $k$-shortest path algorithm is Yen's algorithm. It has a worst-case time complexity of O(kn\cdot scp(n,m)), where scp(n,m) is the complexity of the single-source shortest-path algorithm used as a subroutine. In case of Dijkstra's algorithm scp(n,m) is O(m + n\log n). One of the more recent improvements of Yen's algorithm is by Feng.
Even though Feng's algorithm is much faster in practice, it has the same worst-case complexity as Yen's algorithm.
The main results presented in this thesis are upper bounds on the average-case of Yen's and Feng's algorithm, as well as practical improvements and a parallel implementation of Yen's and Feng's algorithms including these improvements. The implementation is publicly available under GPLv3 open source license.
We show in our analysis that Yen's algorithm has an average-case complexity of O(k \log(n)\cdot scp(n,m)) on G(n,p) graphs with at least logarithmic average-degree and random edge weights following a distribution with certain properties.
On G(n,p) graphs with constant to logarithmic average-degree and uniform random edge-weights over $[0;1]$, we show an average-case complexity of O(k\cdot\frac{\log^2 n}{np}\cdot scp(n,m)). Feng's algorithm has an even better average-case complexity of O(k\cdot scp(n,m)) on unweighted G(n,p) graphs with logarithmic average-degree and for constant values of $k$. We further provide evidence that the same holds true for G(n,p) graphs with uniform random edge-weights over $[0;1]$.
On the practical side, we suggest new heuristics to prune even more single-source shortest-path computations than Feng's algorithm and evaluate all presented algorithms on G(n,p) and Grid graphs with up to 256 million nodes. We demonstrate speedups by a factor of up to 40 compared to Feng's algorithm.
Finally we discuss two ways to parallelize the suggested algorithms and evaluate them on grid graphs showing speedups by a factor of 2 using 4 threads and by a factor of up to 8 using 16 threads, respectively.
Einleitung: Das Pseudoaneurysma (PSA) stellt eine der häufigsten Komplikationen nach arteriellen Punktionen dar. Dabei unterscheiden sich die Komplikationsraten kathetergestützter Verfahren bei diagnostischen Eingriffen deutlich von jenen bei therapeutischen Eingriffen. Zur Behandlung des Pseudoaneurysmas steht eine große Bandbreite an Therapieoptionen zur Verfügung, unter anderem die ultraschallgestützte Thrombininjektion (TI) sowie die Therapie mittels konventionellem Druckverband (DV). Jedoch werden venöse Thrombosen nach der Behandlung des Pseudoaneurysmas beschrieben. Der Einfluss von Antikoagulantien (AK) und Thrombozytenaggregationshemmern (TAH) sowohl auf die Erfolgsraten der Pseudoaneurysmatherapie als auch die anschließende Entstehung venöser Thrombosen wurde bisher noch nicht analysiert.
Fragestellung: Die Effektivität des Druckverbands und der Thrombininjektion bei Patienten mit Pseudoaneurysma und damit assoziierten venösen Thrombosen wurde geprüft. Außerdem wurden die Auswirkungen von Antikoagulantien und Thrombozytenaggregationshemmern auf die Erfolgsraten der Pseudoaneurysmatherapie und die damit assoziierten venösen Thrombosen untersucht.
Methoden: Es wurden von Januar 2010 bis Dezember 2018 insgesamt 468 Patienten mit Pseudoaneurysma untersucht, wovon 238 Patienten in die retrospektive Studie eingeschlossen wurden. Die Behandlung des Pseudoaneurysmas erfolgte mittels Thrombininjektion oder Druckverband. Nach Ablauf von 24 Stunden wurde der Therapieerfolg sonographisch kontrolliert, wobei auch auf das Neuauftreten venöser Beinvenenthrombosen geachtet wurde. Bei allen Patienten wurde die Medikation mit Antikoagulantien und Thrombozytenaggregationshemmern zum Zeitpunkt der Pseudoaneurysmatherapie erhoben.
Ergebnisse: Die Thrombininjektion war dem Druckverband sowohl hinsichtlich des größeren Therapieerfolgs (TI 86% vs. DV 52%, p<0,001) als auch der geringeren Thromboseinzidenz (TI 7,7% vs. DV 21,3%, p=0,039) signifikant überlegen.
Insgesamt erlitten 40 der 238 Patienten eine neu aufgetretene venöse Thrombose der unteren Extremität. Auch bei Betrachtung des Einflusses von Antikoagulantien und Thrombozytenaggregationshemmern erwies sich die 5 Thrombininjektion als dem Druckverband signifikant überlegen. Jedoch wurde bei der Thrombininjektion eine um 18% niedrigere Erfolgsrate unter Antikoagulation festgestellt (TIoAK 97% vs. TImAK 79%, p=0,22), wohingegen bei Druckverbandanlage unter Antikoagulation die Erfolgsrate nur um 6% geringer war (DVoAK 57% vs. DVmAK 51%, p=0,38). In Bezug auf die Thromboseraten nach Thrombininjektion bzw. Druckverband unter Antikoagulation oder Thrombozytenaggregationshemmern konnten keine signifikanten Unterschiede beobachtet werden.
Fazit: Es konnte nachgewiesen werden, dass die Thrombininjektion eine sichere Methode zur Behandlung des Pseudoaneurysmas darstellt und nach Ansicht der Autoren, bei vorhandener Expertise, primär angewandt werden sollte.
Denn die Thrombininjektion ist dem Druckverband in Bezug auf Erfolgs- und Thromboseraten signifikant überlegen. Antikoagulantien beeinträchtigen den Erfolg der Thrombininjektion stärker als den des Druckverbands, weshalb bei Notwendigkeit einer Pseudoaneurysmatherapie die Pausierung der Antikoagulantien im Rahmen einer patientenspezifischen Risiko-Nutzen-Abwägung in Betracht gezogen werden sollte.
Hintergrund: Die kardiale Magnetresonanztomographie (CMR) gilt als Referenzstandard für die Beurteilung der linksventrikulären Funktion und des Volumens des linken Ventrikels (LV). Neuartige Echtzeittechniken versprechen eine schnelle Bildgebung bei freier Atmung mit ähnlicher Qualität. Ziel dieser Studie war es, die Genauigkeit der standardmäßigen Steady-State-Free-Precession (SSFP)-Cine-Bildgebung bei angehaltenem Atem mit der gleichen Sequenz unter Verwendung von drei Signalmittelungen, während freier Atmung sowie mit einer Compressed-Sensing (Cs)- Echtzeittechnik während der freien Atmung zur Beurteilung von LV-Volumen und Masse zu vergleichen.
Methoden: 24 Probanden wurden mit einer Standard-SSFP-Technik bei angehaltenem Atem (BH), mit derselben Technik bei freier Atmung unter Verwendung von drei durchschnittlichen Herzzyklen (SA-FB) sowie mit einem CS-Echtzeitprotokoll bei freier Atmung (CS-FB) untersucht. Verglichen wurden die Erfassungsdauer, die Genauigkeit sowie die Inter- und Intraobserver-Variabilität von LV-Funktion, Volumen und Masse.
Ergebnisse: Die Echtzeit-Bildgebung war erheblich schneller als die freie Atmung mit drei Signalmittelwerten (p<0.001). Die Korrelation zwischen dem Referenzstandard (BH) und den beiden anderen Techniken war ausgezeichnet mit einem r2 für SA-FB vs. BH zwischen 0.74 - 0.89 und einem r2 für CS-FB vs. BH zwischen 0.81 und 0.94. SA-FB ergab mittlere Fehler zwischen 5.9% und 15% für verschiedene LV-Parameter, während CS-FB zu mittleren Fehlern von 6.5%bis 13% führte. Die Inter- und Intraobserver-Variabilität war bei der Echtzeit-Bildgebung ausgezeichnet und bei der SSFP-Bildgebung (SA-FB und BH) gut.
Schlussfolgerung: Sowohl ein Standardprotokoll mit 3 Signalmittelungen, während der freien Atmung als auch die Compressed Sensing liefern genaue und reproduzierbare Messungen des LV, während die Echtzeit-Bildgebung wesentlich schneller ist.
Ziel dieser Arbeit ist die Identifikation des Einflusses klassischer Labormaterialien und alternativer Experimentiermaterialien auf fachdidaktische Anforderungen an ein gelungenes Experiment im Chemieunterricht. Dabei umfassen alternative Experimentiermaterialien sowohl Materialien aus der alltäglichen Lebenswelt von Schülerinnen und Schülern als auch Materialien aus dem Bereich der Medizintechnik, die anstelle von Materialien des gängigen Laborbetriebs im Chemieunterricht eingesetzt werden. Um den Einfluss des Experimentiermaterials auf entsprechende Anforderungen untersuchen zu können, wurden im Rahmen eines Mixed-Method-Designs zwei aufeinander aufbauende Studien durchgeführt. Bei Studie I handelt es sich um eine qualitative Interviewstudie unter N = 13 Chemielehrkräften, mit denen vor dem theoretischen Hintergrund fachdidaktischer Anforderungen an ein gelungenes Schulexperiment problemorientierte, leit-fadengestützte Interviews zu Vor- und Nachteilen beim Einsatz alternativer Experimentiermaterialien und klassischer Labormaterialien im Chemieunterricht geführt wurden. Anhand des gewonnenen Interviewmaterials wurden anschließend zunächst Eigenschaften identifiziert, in denen sich beide Materialpools voneinander unterscheiden, um davon ausgehend ein Kategoriensystem aufstellen zu können, das in Form einer Matrix den Einfluss dieser Materialeigenschaften auf organisatorische, experimentelle und affektive Anforderungen an ein Schulexperiment im Chemieunterricht darstellt. Dabei konnte in Bezug auf organisatorische Anforderungen insbesondere ein Einfluss des Experimentiermaterials auf zeitliche und finanzielle Rahmenbedingungen sowie auf Anforderungen zur Sicherheit beim Experimentieren im Chemieunterricht festgestellt werden. Ergebnisse zum Einfluss des Experimentiermaterials auf affektive und experimentelle Anforderungen an ein Schulexperiment wurden wiederum genutzt, um anschließend Hypothesen zum Einfluss des Experimentiermaterials auf entsprechende Anforderungen an gelungene Experimente im Chemieunterricht zu generieren, dabei an gelungene Schülerexperimente im Speziellen. Diese Hypothesen wurden in einer zweiten Studie quantitativ getestet. Innerhalb eines experimentellen Untersuchungsdesigns führten dazu insgesamt N = 293 Schülerinnen und Schüler eines von insgesamt fünf betrachteten Schülerexperimenten mit jeweils klassischem Labormaterial oder in einer jeweiligen Variante aus alternativem Experimentiermaterial durch. Im Anschluss beurteilten N = 237 Schülerinnen und Schüler im Rahmen einer Fragebogenerhebung ihre subjektive Wahrnehmung der Experimentiersituation bezüglich der Variablen Grad der Herausforderung, Beobachtbarkeit, Autonomieerleben, Anspannung/ Druck, Kompetenzerleben und Interesse/ Vergnügen. Mit Ausnahme des Kompetenzerlebens und der Beobachtbarkeit konnte zu allen betrachteten Variablen ein signifikanter Einfluss des Experimentiermaterials festgestellt werden. Um diese Ergebnisse der Hypothesentests näher beschreiben und differenzierter erläutern zu können, beantworteten die 237 Schülerinnen und Schüler zusätzlich offene Fragen zu den von ihnen verwendeten Experimentiermaterialien; mit N = 56 weiteren Schülerinnen und Schülern wurden aus diesem Grund außerdem leitfadengestützte Gruppeninterviews geführt. Um folglich auch aus Schülerperspektive möglichst allgemeingültige Einflüsse beider Materialpools auf fachdidaktische Anforderungen an ein gelungenes Schulexperiment zusammenfassen zu können, werden die Ergebnisse dieser qualitativen Datenerhebung ebenfalls in Form einer entsprechenden Matrix dargestellt und dabei von den konkret durchgeführten Experimenten abstrahiert. Neben dem bereits genannten Einfluss des Experimentiermaterials auf den von Schülerinnen und Schülern wahrgenommenen Grad der Herausforderung, das wahrgenommene Autonomieerleben, die/ den wahrgenommene/n Anspannung/ Druck beim Experimentieren sowie das wahrgenommene Interesse/ Vergnügen an der Experimentiersituation konnte dadurch insbesondere ein Materialeinfluss auf die Durchschaubarkeit eines Versuchsaufbaus und deren einzelner Bestandteile sowie auf die wahrgenommene Authentizität einer Experimentiersituation identifiziert werden. Dadurch zeigt die Gesamtuntersuchung auf theoretischer Ebene die Bedeutsamkeit des konkreten Experimentiermaterials als Qualitätsmerkmal des Chemieunterrichts und gibt Lehrkräften auf unterrichtspraktischer Ebene einen Überblick zu Potentialen und Grenzen alternativer Experimentiermaterialien im Vergleich zu etabliertem klassischem Labormaterial.
Die kongenitale Zytomegalievirus Infektion (cCMV-Infektion) ist die häufigste kongenitale Infektionskrankheit weltweit und ist der häufigste Grund für angeborene nicht-genetische Hörstörungen und eine häufige Ursache neurologische Entwicklungsstörungen. Die Inzidenz der cCMV-Infektion liegt in Deutschland zwischen 0,2 % – 0,5 %. Bei retroviral-exponierten Neugeborenen wird die Inzidenz mit 2,7 % – 11,4 % angegeben. Mit der erhöhten Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen ergibt sich für diese Kinder ebenfalls ein erhöhtes Risiko für Langzeitfolgen. Die genaue Inzidenz der cCMV-Infektion variiert je nach untersuchter Population. Für Deutschland existiert eine retrospektive Studie, welche eine Inzidenz von 2,7 % für cCMV-Infektionen bei retroviral-exponierten Neugeborenen ermittelte. In der vorliegenden Studie wurde diese Inzidenz in einem prospektiven multizentrischem Studiendesign in Deutschland ermittelt.
Zur Ermittlung der Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen und Beurteilung der Umsetzbarkeit eines cCMV-Neugeborenen-Screenings wurde ein selektives cCMV-Neugeborenen-Screening für retroviral-exponierte Neugeborene mittels PCR-Untersuchung auf CMV aus einem Mundschleimhautabstrich innerhalb der ersten 21 Lebenstage an drei Studienstandorten innerhalb Deutschlands, Mannheim, München und Frankfurt am Main, durchgeführt. Bei positivem Ergebnis der PCR auf CMV-DNA erfolgte eine Bestätigungsdiagnostik mittels erweiterter Urin- und Blutuntersuchung auf CMV. Zur Diagnostik von cCMV-assoziierten Symptomen erfolgte eine Sonographie des Abdomens und des Schädels sowie eine ausführliche körperliche Untersuchung, eine augenärztliche Evaluation und erweiterte Testungen der Gehörfunktion. Nachuntersuchungen und Therapien wurden den betroffenen Familien außerhalb der Studie angeboten.
122 / 184 (66,3 %) HIV-exponierte Neugeborene von 111 Müttern wurden im Studienzeitraum zwischen dem 24.11.2017 und dem 31.03.2021 eingeschlossen. Eine cCMV-Infektion wurde bei einem Neugeborenen nachgewiesen, sodass die Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen in dieser Studie 0,8 % beträgt. Eine HIV-Mutter-Kind-Transmission wurde nicht detektiert. Die Seroprävalenz für CMV bei den HIV-positiven Frauen lag in diesem Kollektiv bei 96,1 %.
Das Neugeborene mit nachgewiesener cCMV-Infektion zeigte eine zerebrale Beteiligung mit ependymalen Zysten und einer thalamostriatalen Vaskulopathie und erhielt außerhalb der Studie eine zeitgerechte antivirale Therapie mit Beginn in der Neonatalper-ode. Im Verlauf zeigten sich trotz der antiviralen Therapie Entwicklungsstörungen mit autistischen Verhaltensweisen. Die cCMV-Infektion wäre ohne ein routinemäßiges Screening mit großer Wahrscheinlichkeit nicht nachgewiesen worden.
Die frühzeitige Untersuchung der Probanden auf eine cCMV-Infektion hat sich in dieser Studie als vorteilhaft gezeigt, da bei Nachweis einer cCMV-Infektion zeitnah weiterführende Diagnostik und Therapien angeboten werden konnten. Auch die relativ große Anzahl an rekrutierten retroviral-exponierten Neugeborenen im prospektiven Studiendesign in Zusammenarbeit mit mehreren Studienzentren in Deutschland spricht für die Validität dieser Studie. Als Limitation ist zu nennen, dass ein statistisch signifikantes Ergebnis nicht erzielt werden konnte. Aufgrund der Corona-Pandemie kam es organisationbedingt zu einer relativ hohen Anzahl an nicht eingeschlossenen Patienten. Auch die geplante Rekrutierung einer Vergleichsgruppe in Südafrika konnte aufgrund der Pandemie nicht umgesetzt werden. Falsch negative Befunde wurden im Sinne der Familie nicht mittels Goldstandardmethode überprüft, sodass eine Unterschätzung der Rate an cCMV-Infektionen möglich ist.
Insgesamt konnte diese Studie neben der Ermittlung der cCMV-Inzidenz bei retroviral-exponierten Neugeborenen in Deutschland von 0,8 % aufgezeigt werden, dass selbst symptomatische cCMV-Infektionen ohne ein systematisches cCMV-Neugeborenen-Screening nicht sicher nachgewiesen werden konnte. Zudem konnte gezeigt werden, dass ein systematisches cCMV-Neugeborenen-Screening mittels Mundschleimhautabstrich in Deutschland praktikabel ist und bei den Sorgeberechtigten Akzeptanz findet. Den erhobenen Daten zur Folge könnte ein Screening aller Neugeborener oder zumindest ein risikoadaptiertes Screening auf das Vorliegen einer cCMV-Infektion dazu beitragen, dass mehr Kinder mit asymptomatischer oder unentdeckter symptomatischer cCMV-Infektion diagnostiziert werden und so eine entsprechende Behandlung ermöglicht sowie ggf. Langzeitfolgen möglichst verringert werden.
Weitere Studien zum Effekt der verfügbaren antiviralen Therapie bei cCMV-Infektionen und regelmäßiger Kontrolluntersuchungen nach stattgehabter cCMV-Infektion sind zu empfehlen, um die Auswirkungen dieser Maßnahmen auf den Krankheitsverlauf zu evaluieren.
S100A12 ist ein Entzündungsmarker, der inflammatorische Prozesse präzise anzeigt. Entzündungsprozesse mit erhöhten S100A12 Konzentrationen spielen vor allem bei Autoimmunerkrankungen wie der der rheumatischen Arthritis (RA), autoinflammatorischen Erkrankungen wie der juvenilen idiopathische Arthritis (JIA) oder weiteren Erkrankungen wie dem familiären Mittelmeerfieber (FMF) eine wichtige Rolle. Das S100A12 Protein besitzt drei verschiedene Konformationen: das Dimer, das Tetramer und das Hexamer. In verschiedenen Studien konnte gezeigt werde, dass das Hexamer an proinflammatorische Rezeptoren wie dem Toll-like Rezeptor-4 (TLR-4) und dem „receptor for the advanced glycation end products“ (RAGE) bindet und so die Produktion von weiteren Entzündungsmediatoren stimuliert. Daher besitzt die S100A12 Hexamerkonformation eine entscheidende Rolle in Entzündungsprozessen. Das Ziel bestand somit in der Selektion von Peptiden oder „single chain variable fragment“ (scFv)-Konstrukten, die exklusiv an die hexamere Konformation von S100A12 binden.
Mittels Biopanning von Peptid- und scFv-Phagen Bibliotheken konnten Peptide und scFvs selektiert werden. Die selektierten Peptide und die selektierten scFvs wurden in ELISAs weiter auf ihre Bindungseigenschaften charakterisiert. Durch Umklonierung in einen Fc-Konstrukt Vektor konnten die scFvs als vollständige scFv-Fc-Konstrukte exprimiert werden. Die Bindung der selektierten Peptide bestätigte sich als Biotin-Fusion im anschließenden ELISA. Es zeigte sich eine sehr hohe Bindungsspezifität der Peptide und der produzierten scFv-Fc-Konstrukte an das S100A12 Hexamer.
Mit den selektierten Liganden ist es gelungen einen Test zu entwickeln: an Streptavidin immobilisierte Peptide binden spezifisch das S100A12 Hexamer aus dem Testmedium und mittels selektiertem scFv-Fc-Konstrukten lassen sich die gebundenen S100A12 Proteine detektieren. Ein Detektionsantikörper ermöglichte die Visualisierung der gebundenen scFv-Fc-Konstrukte mittels Farbreaktion. Das S100A12 Hexamer konnte durch den Testaufbau auch im Plasma spezifisch detekiert werden.
Dieser Test könnte es ermöglichen, die exakte Diagnose und vor allem das Überwachung von Patienten mit steigenden Entzündungsmarkern, wie im Rahmen der autoinflammtorischen Erkrankung JIA oder einer Erkrankung wie dem FMF, zu verbessern. Mit einem verbessertem Krankheitsmonitoring könnte ebenfalls die Therapie im frühen Stadium optimiert werden.
Zusätzlich könnte ein mögliches therapeutische Potential der S100A12 Hexamer Liganden getestet werden. Sollten die hexamerspezifischen Liganden die Interaktion von S100A12 mit ihren Rezeptoren wie TLR-4 oder RAGE blockieren, ist eine therapeutische Verwendung in der Behandlung von Autoimmun- und autoinflammatorischen Erkrankungen möglich.
Auf Grund einer hohen Inzidenz und Mortalität, welche in den nächsten Jahren voraussichtlich eine deutliche Zunahme erfahren wird, stellt die Behandlung eines HCC an alle beteiligten Fächer der Medizin, sowie an den Patienten und die Patientin, eine enorme Herausforderung dar. In der klinischen Routine hat sich die TACE, nicht nur bei Patienten im intermediären Stadium der Erkrankung, etabliert, sodass im Laufe der Erkrankung nahezu jeder zweite Patient mindestens eine TACE-Behandlung bekommt.
Der mit Radiomics betitelte, im medizinischen Bereich relativ junge, Forschungszweig beschäftigt sich mit der Idee, dass in den Schnittbildern eine für das menschliche Auge nicht sichtbare Ebene von Informationen vorliegt, welche mit den richtigen Mitteln extrahiert, relevante Daten und Informationen zur Genetik, Phänotypie und Pathophysiologie des Tumors liefern kann.
Hier greift der Ansatz dieser Arbeit an. In dieser Arbeit wird die Hypothese postuliert, dass durch die Auswertung und Integration von Lipiodolablagerungen in der Zielläsion nach der ersten durchgeführten TACE eine zuverlässigere Prognose zum Therapieansprechen und Gesamtüberleben mit Hilfe von Radiomics möglich ist, als dies klinische Scores alleine erlauben.
Dazu wurde in dieser Arbeit ein Patientenstamm von 61 Patienten untersucht. Alle Patienten litten an einem histologisch gesicherten HCC. Bei allen Patienten wurden innerhalb eines Zeitintervalls von 6 Monaten drei TACE durchgeführt mit einer nachfolgenden Verlaufskontrolle mittels kontrastmittelgestützter MRT oder CT.
In einem dezidierten, mehrstufigen Verfahren wurden aus der nativen 24 Stunden postinterventionellen CT-Kontrolle die Lipiodol anreichernden HCC-Herde segmentiert. Aus diesem segmentierten 3-D Bilddatensatz wurde eine Vielzahl von bildgebenden Biomarkern, Features, extrahiert. Die Features wurden im weiteren Prozess selektiert, redundante und nicht reproduzierbare Features wurden für das weitere Vorgehen verworfen.
Aus den vorliegenden Daten der Patienten wurden Informationen selektiert, mit welchen insgesamt 5 klinische Scores berechnet wurden, diese Scores wurden im weiteren Verfahren ebenfalls als Features angesehen.
Mehrere Machine Learning-Algorithmen wurden mit der Zielvariable: Größenregredienz des Tumors nach TACE als Folge eines annehmbaren Therapieansprechens, angelernt.
Das beste Ergebnis lieferte ein ML-Algorithmus mit einem Random Forrest Klassifikator auf der Grundlage des kombinierten, aus Radiomics-Features und klinischem Score-Features bestehendem Featuresets.
Um die initial aufgestellte Hypothese zu überprüfen wurde die Zielvariable von Größenregredienz der TL auf OS verändert. Die Performance des ML-Algorithmus in Bezug auf die neu definierte Zielvariable OS wurde hierbei mit dem C-index bewertet. Im Test-Set liegt ein C-Index von 0,67 vor. Das kombinierte Modell aus klinischem Score und Radiomics zeigt hierbei eine Überlegenheit gegenüber dem klinischen Score allein (C-Index 0,58) und dem Radiomics score (C-Index 0,60). Dies bestätigt die aufgestellte Hypothese. Das kombinierte Modell hat die Fähigkeit, anhand der Lipiodolanreicherung in der 24 Stunden postinterventionell durchgeführten CT, zur Prädiktion eines Gesamtüberlebens von HCC-Patienten nach einer TACE.
Die Patienten mit der kürzesten und längsten Überlebenszeit innerhalb der Studienpopulation dienten als Grundlage für eine Kaplan-Meier-Schätzung und Berechnung eines Risiko-Scores (siehe Abbildung 37). Dabei zeigt sich eine signifikante Differenz zwischen den Risiko-Scores. Eine Kurve dieser Art könnte zukünftig theoretisch als Schätzung zur Überprüfung der Indikation einer TACE- Wiederholung für einzelne Patienten dienen. Für eine entsprechende Generalisierbarkeit sind weiterführende Studien zur Validierung nötig. Unsere Studie liefert hier erste vielversprechende Hinweise, wobei unsere Limitationen nicht zu vernachlässigen sind, wie im Detail diskutiert.
Zusammenfassend zeigt unsere Arbeit, dass ein von uns definierter kombinierter Score, bestehend aus bildgebenden Biomarkern (Radiomics) und einem klinischen Score (m- HAP-II-Score), eine Prognose zum Gesamtüberleben nach der ersten TACE- Behandlung liefern kann. Mit Hilfe dieses kombinierten Scores war es in unserer Studienkohorte möglich abzuschätzen, ob ein Patient von weiteren TACE-Prozeduren profitieren würde. Der Behandlungsalgorithmus könnte auf dieser Basis individuell angepasst werden.
Der kombinierte Score hätte somit nicht nur das Potenzial Nebenwirkungen zu verhindern und Kosten im System einzusparen, sondern ebenfalls den Patienten potentiell individuell effektiveren Therapiealternativen zuzuführen.
The Nodular lymphocyte-predominant Hodgkin lymphoma (NLPHL) as well as the T-cell/histiocyte-rich large B-cell lymphoma (THRLBCL) are rare types of malignant lymphomas. Both NLPHL and THRLBCL are frequently observed in middle-aged men with THRLBCL presenting frequently with an advanced Ann-Arbor stage with B-symptoms and associated with more aggressive courses.3 However, due to the limited number of tumor cells in the tissue of both NLPHL and THRLBCL, limited numbers of studies have been conducted on these lymphomas and current results are mainly based on general molecular genetic studies.
In order to obtain a better understanding for these disease forms as well as possible changes in their nuclear and cytoplasmatic sizes, the following study relied on the comparison of the different NLPHL forms and THRLBCL in terms of nuclear size and nuclear volume. This was carried out using both 2D and 3D analysis. During the 2D analysis of nuclear size and nuclear volume no significant differences could be presented between those groups. However, the 3D analysis of NLPHL and THRLBCL pointed out a slightly enlarged nuclear volume in THRLBCL. Furthermore, the analysis indicated a significantly increased cytoplasmatic size of THRLBCL compared to NLPHL forms. Nevertheless, differences occurred not only between the tumor cells of both disease forms, but also the T cells presented a larger nuclear volume in THRLBCL. B cells, which were considered as the control group, did not demonstrate any significant differences between the different groups. The presented results suggest an increased activity of T cells in THRLBCL, which is most likely to be interpreted as a response against the surrounding tumor cells and probably limits the proliferation of the tumor cells. Based on these results, the importance of 3D analysis is also evident due to the fact that it is clearly superior to 2D analysis. For a better understanding of both disease forms, it is therefore recommended to use the 3D technique in combination with molecular genetic analysis in future research.
Subject of this thesis was the investigation of the actin-interacting and glucocorticoid-sensitive Protein DRR1 (or Fam107a) and its role in promoting stress resilience in the murine hippocampus.
We proposed the hypothesis that DRR1 through its actin-binding properties specifically modulates neuronal actin dynamics and promotes resilience through synaptic plasticity leading to subsequently improvement of cognitive performance and social behavior. The accompanied AMPA-receptor transport could create an efficient way regulating neural function and complex behavior during stress episodes.
By utilizing fluorescent immunohistochemistry, we showed basal expression of DRR1 primarily in the murine cerebellum and hippocampal CA3 and CA1 area. Co-staining with different cell marker proteins showed DRR1 expression in neurons, microglia and especially in astrocytic end-feet, which create contact to the brain vasculature.
To test whether DRR1 and AMPA receptor function correlate to modulate stress-associated consequences, primary hippocampal neuron cultures were transduced with adeno-associated virus (AAV) for overexpression or suppression of the protein. Western Blot analysis showed a positive correlation between the AMPA-receptor subunit GluR2 and DRR1 amounts. Further the application of the proximity ligation assay (PLA) in untreated neural cultures indicated interaction between DRR1 and the AMPA receptor subunit GluR2. To address whether DRR1 even affects AMPAR trafficking we performed the “newly inserted assay” after AAV-treatment of primary hippocampal neuron cultures. Suppression of DRR1 revealed less newly inserted GluR2 subunits as compared to controls. Inconclusive were the results upon DRR1 overexpression, however they point to no changes.
In the second part we correlated behavioral phenotypes originating from in vivo overexpression and suppression of DRR1 in the murine hippocampus with potential alterations in neuronal morphology. Therefore, in vitro analysis was performed utilizing AAV transduced primary hippocampal cultures overexpressing or suppressing DRR1. Synchronously the viral vector included a green fluorescent protein (GFP) being expressed throughout the complete neural cell. GFP staining was used to verify successful transfection and for reconstruction of dendritic arbors and dendritic stretches for spine classification. DRR1 suppression showed reduced total spine numbers especially evoked by reduced numbers of immature spine classes – namely long thin spines and filopodia. Whereas mature mushroom spines and stubby spines were unaffected. By overexpressing DRR1, tendencies inclined against higher total dendritic lengths, branch points and increased dendritic arbors in comparison to controls. In regard of spines, total numbers were unaffected. However, mature mushroom spines were significantly declined in numbers, but compensated by increased numbers of immature long thin spines and filopodia.
Chronic social defeat stress (CSDS) is widely used in mouse models to study the effects of stress and resilience. We exposed C57Bl/6J mice expressing GFP under the Thy1 promoter CSDS and categorized them into resilient (R+/-), susceptible (R-/-) and non-learning (R+/+) mice following a modified social interaction test (MSIT). We found alterations in CA1 spine compositions with resilient animals resembling the untreated phenotype. Stress susceptible and non-learning animals displayed reduced numbers in stubby spines with simultaneous increases in mature mushroom spines. In addition, we could detect a tendency towards more immature spines in susceptible animals and non-learners, mirroring our in vitro results.
Finally, we present a different investigative approach in this thesis. Sequenced acute stress was previously found to compromise cognition including spine loss.
We aimed to investigate the implication of acute stress on DRR1 levels and its occurrence in diverse cell types of the brain. We subjected one group of C57Bl/6J mice to acute stress and injected another group with the artificial glucocorticoid DEX. Six hours post stress, animals were perfused and brains were subsequently immunobiologically analyzed. We found DRR1 protein levels elevated in the hippocampus of stressed and DEX-treated animals compared to controls. Interestingly, DRR1 seemed was especially elevated in endothelial cells. This coincides with our investigations finding DRR1 present in astrocytic end-feet under basal conditions and might claim a participation of DRR1 in the blood-brain-barrier integrity.
Our results show DRR1 as actin-interacting and glucocorticoid-sensitive gene affecting structural plasticity of hippocampal spines. Moreover, DRR1 directly interacts with AMPA glutamate receptors and presumably is involved in AMPA trafficking to the postsynaptic membrane. In addition, this study could demonstrate that DRR1 is expressed by other cell types of the brain. Of special interest is DRR1’s occurrence in astrocytic end-feet and endothelial cells suggesting a role as integrator of cell-cell communication and to this end also acting as modifier of stress-induced consequences at the neurovascular unit.
In vivo data of chronically stressed mice displayed no phenotypic differences in hippocampal pyramidal neurons of resilient animals as compared to unstressed mice. Morphological alterations of spine structures were particularly visible in stress susceptible and non-learning animals. Integrating our findings with existing behavioral data, we can conclude that DRR1 plays a role in stress resilience whereby it needs to be expressed in a tightly managed homeostatic equilibrium.
The functional and molecular role of transglutaminase 2 in hematopoietic stem and progenitor cells
(2023)
Long-term repopulating hematopoietic stem cells (LT-HSCs) that reside in the bone marrow (BM) give rise to all blood cell types including erythrocytes, leukocytes and platelets. LT-HSCs are mainly quiescent during steady state hematopoiesis. LT-HSCs can process self-renewal to expand and maintain stemness, or commit to differentiation into short-term (ST) repopulating HSC and multipotent progenitors (MPPs). MPPs differentiate into oligopotent lineagerestricted progenitors which eventually produce all mature blood cell lineages, and thereby regenerate hematopoietic system.
Previous studies have shown in transcription profiles and quantitative PCR (qPCR) analysis that transglutaminase 2 (Tgm2) is one of the most upregulated genes in quiescent LT-HSCs in comparison to active HSCs, mobilized HSCs, ST-HSCs, MPPs, as well as leukemic stem cells (LSC). However, the reason why Tgm2 is strongly upregulated in dormant mouse LTHSCs and what the role of Tgm2 is in LT-HSCs has not been investigated yet.
Tgm2, encoded by the Tgm2 gene, is a multi-functional protein within the transglutaminase family. It has been found to be widely expressed inside and outside the cells. It consists of four domains and two functionally exclusive forms that are regulated by the Ca2+ and GTP concentration. Besides the most well-known transglutaminase enzymatic activity for transamidation, deamidation and crosslinking, Tgm2 acts also as a GTPase/ATPase, kinase, adhesion/scaffold protein, as well as disulfide isomerase. The role of Tgm2 in hematopoiesis remains elusive. Accordingly, the aim of this dissertation is to investigate the role of Tgm2 in murine hematopoiesis, especially in murine LT-HSCs.
Firstly, the expression of Tgm2 was analyzed in highly purified murine hematopoietic stem and progenitor cell (HSPC) populations. Low input label-free mass spectrometric proteomics and WES protein analysis confirmed the highly specific expression of Tgm2 in LT-HSCs at protein level. Already at the state of MPPs, Tgm2 protein was almost absent with further decline towards oligopotent progenitors. These results indicated Tgm2 as a specific protein marker for LT-HSCs, justifying the future generation of a fluorescent reporter mouse line based on endogenous Tgm2 tagging.
To delineate the functional and molecular role of Tgm2 in LT-HSCs, a conditional Tgm2 knockout mouse model was generated using the Mx1-Cre/loxP system, with the loxP sites flanking the coding exons of the catalytic domain of Tgm2. After PolyIC-mediated induction, a more than 95% knockout efficiency was observed in purified LT-HSCs and the protein expression of Tgm2 was confirmed to be vanished in the purified LT-HSCs from conditional Tgm2-KO mice. Conditional knockout mice are viable and show no aberrant organ functions.
In steady state condition, the distribution of mature blood cell lineages and immunophenotypically-defined HSPC populations within the BM, the mitochondrial potential of HSPCs reflected by the non-invasive cationic dye JC-1, as well as the cell cycle status of HSPCs mirrored by the intracellular Ki67 staining did not show any significant variations upon loss of Tgm2. However, the in vitro continuous observation of prospectivly isolated LT-HSCs by time-lapse microscopy-based cell tracking revealed a delayed entry into cell cycle with a two fold increased apoptosis rate after knocking out Tgm2, indicating Tgm2 expression might be essential for survival of LT-HSCs. Moreover, while the absence of Tgm2 in LT-HSCs did not influence differentiation and lineage choice in vitro, overexpression of Tgm2 in LT-HSCs resulted in an increase of the most immature subpopulation upon cultivation. All these features were not observed in Tgm2-deleted MPPs, suggesting Tgm2 playing a specific function at the level of LT-HSCs. Upon stress hematopoiesis, induced by the administration of 5-fluorouracil (5-FU), there was a trend towards delayed recovery of LT-HSCs lacking Tgm2. Although Tgm2 express specificly in LT-HSCs, two rounds of competitive BM serial transplantation displayed an equal overall engraftment and multi-lineage reconstitution of LT-HSCs from Tgm2-WT and Tgm2-KO mice in peripheral blood (PB), BM and spleens. Interestingly, LT-HSCs from Tgm2-KO mice reconstituted to more myeloid cells and fewer B cells in the first four weeks after primary transplantation, which disappeared at later time points.
Gene expression profiling and simultaneous single cell proteo-genomic profiling indicated that HSPCs and LT-HSCs from Tgm2-KO mice were transcriptionally more active. A heterogeneity of Tgm2 expression within Tgm2-WT LT-HSCs was revealed by single cell data. Commonly up-regulated genes in Tgm2-KO LT-HSCs and MPPs were significantly involved in regulation of transcription from RNA polymerase II promoter in response to stress, positive regulation of cell death as well as negative regulation of mitogen-activated protein kinase (MAPK) signaling pathways. In Tgm2-KO LT-HSCs, 136 up-regulated genes demonstrated an enrichment of genes involved in apoptosis, as well as negative regulation of MAPK signaling pathway.
Taken together, this dissertation shows that Tgm2 protein is highly specifically expressed in LT-HSCs, but not in subsequent progenitor populations. However, Tgm2 is not essential for differentiation and maturation of myeloid lineages, the proliferation and the long-term multilineage reconstitution potential of LT-HSCs after transplantation. Tgm2 might be involved in accurate stress response of LT-HSCs and the transition from LT-HSCs into MPPs, meaning that the absence of Tgm2 results in poor survival, myeloid bias upon transplantation, as well as slower recovery upon chemotherapeutic treatment.
Nanoarzneimittel haben in den letzten Jahren in der Therapie verschiedener Erkrankungen immer mehr an Bedeutung gewonnen. Dadurch hat auch die Anzahl zugelassener Arzneimittel mit an Arzneistoffträgern wie Liposomen gebundenen Wirkstoffen zugenommen. Weil für die Zulassung, neben der Wirksamkeit und Unbedenklichkeit, auch die Qualität der neuen Arzneimittel gewährleistet sein muss, spielen die verschiedenen Eigenschaften der Arzneistoffträger eine wichtige Rolle in der Qualitätskontrolle. Neben der Partikelgröße, der Partikelgrößenverteilung und der Oberflächenladung spielt die (Rest-)Kristallinität des Wirkstoffs und die Wirkstofffreisetzung eine wesentliche Rolle für die erfolgreiche in vivo-Performance von Nanoarzneimitteln. Zur Bestimmung der Wirkstofffreisetzung aus kolloidalen Arzneistoffträgern wie Liposomen, Nanopartikeln oder Mizellen gibt es bis heute keine Standardmethoden. In der Forschung und der pharmazeutischen Industrie werden folglich verschiedene Methoden wie Filtration, Zentrifugation oder Dialyse verwendet, um den freigesetzten Wirkstoff zu bestimmen. Dabei ist die Wahl der Separationsmethode auf die Eigenschaften der Arzneistoffträger abzustimmen.
In der vorliegenden Arbeit wurde eine dialysebasierte Apparatur, der Dispersion Releaser (DR), zur Untersuchung der in vitro Wirkstofffreisetzung aus kolloidalen Trägersystemen eingesetzt. Diese kann direkt mit den Apparaturen I/II der Arzneibücher der Europäischen Union (Ph. Eur.) und der Vereinigten Staaten (USP) gekoppelt werden. Zur Untersuchung der Wirkstofffreisetzung wird die Formulierung in das Donorkompartiment gegeben, sodass der freigesetzte Wirkstoff infolge über die Dialysemembran in das Akzeptorkompartiment permeiert. Dort kann dieser mittels HPLC analysiert werden. Besonders hervorzuheben ist das synchrone Rühren in beiden Kompartimenten des DR, worüber andere dialysebasierte Apparaturen nicht verfügen.
Die Entwicklung und Patentierung eines funktionsfähigen Prototyps des DR erfolgte an der Goethe Universität, Frankfurt am Main und wurde im Rahmen dieser Arbeit gemeinsam mit der Pharma Test Apparatebau AG (Hainburg, Deutschland) zu einer kommerziell erwerbbaren Apparatur (Pharma Test Dispersion Releaser, PTDR) weiterentwickelt. Innerhalb dieser Kollaboration wurde der Prototyp des DR unter Einbezug der Anforderungen der pharmazeutischen Industrie rekonstruiert. Eine erleichterte Anwendung für den Nutzer wurde dabei mitberücksichtigt.
Die finale Apparatur wurde zuletzt einer ausgiebigen Validierung unterzogen, bei der Diclofenac und Hydrocortison als Modellarzneistoffe dienten. Neben Untersuchungen zur Hydrodynamik und dem Einfluss der Umdrehungszahl auf die Membranpermeationsrate kM wurde eine Methode mit Gold-Nanopartikeln zur Bestimmung der Dichtigkeit des Systems entwickelt. Hierbei wurden Messungen mit einer UV/Vis-Methode und mit dynamischer Lichtstreuung durchgeführt, um die Abwesenheit der Goldpartikel im Akzeptorkompartiment nachzuweisen. Der Einfluss von Proteinen im Freisetzungsmedium auf die Membran-permeation wurde ebenfalls untersucht.
Der DR wurde ursprünglich zur Untersuchung von parenteralen Nanoformulierungen entwickelt. Aufgrund der bisher noch nicht erfolgten Untersuchung von halbfesten Zubereitungen im DR, wurde die Apparatur im Rahmen dieser Forschungsarbeit für zwei verschiedene Diclofenac-Gele (Voltaren® Emulgel, Olfen® Gel) unter verschiedenen Bedingungen evaluiert. Dabei konnte unter non-sink-Bedingungen der Einfluss der lipophilen Phase des Voltaren® Emulgels (GlaxoSmithKline Consumer Healthcare GmbH & Co. KG, München, Deutschland) gezeigt werden. Im Vergleich zum fettfreien Olfen® Gel (Mepha Pharma AG, Basel, Schweiz) zeigte Voltaren® Emulgel eine vollständige Freisetzung unter den erschwerten Löslichkeitsbedingungen.
Mit Hydrocortison als Modellsubstanz wurden vier verschiedene Proliposomen zur vaginalen An¬wendung formuliert. Neben der Charakterisierung der Partikelgröße und der Verkapselungs¬effizienz wurden Messungen mit dynamischer Differenzkalorimetrie durch-geführt und Aufnahmen zur morphologischen Charakterisierung mittels Transmissions-elektronen¬mikroskopie der Liposomen erstellt. Die Wirkstofffreisetzung des Hydrocortisons aus dem rekonstituierten liposomalen Gel sowie die Permeabilität über eine Zellmonoschicht wurde vergleichend untersucht. Dabei wurden Zelllinien aus humanem Cervixkarzinom beziehungsweise Endometriumkarzinom eingesetzt. Die Unterschiede der Formulierungen konnten vom DR sensitiver erfasst werden und die Verkapselungseffizienz als relevanter Faktor für die in vivo-Performance festgelegt werden.
Weil die tatsächliche Wirkstofffreisetzung durch die Permeation über die Dialysemembran überlagert werden kann, wurde neben der Standardisierung der Konstruktion die Auswertung mit Hilfe eines neuen mathematischen Modells, das auf dem Fick’schen Diffusionsgesetz basiert, verbessert. Das Normalisieren des Freisetzungsprofils mit Hilfe des mathematischen Modells dient dazu, die tatsächliche Wirkstofffreisetzung zu berechnen und den Vergleich verschiedener Freisetzungen ohne den Einfluss der Membranpermeation zu ermöglichen. Im Zuge der Validierung des DR wurde das mathematische Modell ebenfalls erfolgreich validiert.
In der vorliegenden Forschungsarbeit wurde eine neue Konstruktion des DR für die kommerzielle Anwendung entwickelt und validiert. Nebenbei wurde der Auswerteprozess zur Berechnung der diffusionsbereinigten Wirkstofffreisetzung vereinheitlicht und validiert. Zuletzt wurde das Anwendungsgebiet des DR von parenteralen Nanoformulierungen auf halbfeste Arzneiformen erweitert.
Sphingolipids are not only structural components of cell membranes but can also act as signalling molecules in different pathways. Sphingolipid precursors, Ceramides (Cer), are synthesized de novo by six different synthases (CerS1-6) which generate Cer of different chain lengths. Cer can be further synthesized to glycosphingolipids and sphingomyelin. Cell membrane parts that are enriched in glycosphingolipids are so-called lipid rafts and can function as signalling platforms for different receptors, such like the T cell receptor (TCR). CD4+ T cells play a crucial role in the development of ulcerative colitis, a chronic inflammatory disease of the colon. As CerS3 expression was increased in the white blood cells of human colitis patients, the role of CerS3 in the TCR signalling and colitis was investigated in this dissertation. By lenti-viral transduction of a CerS3-shRNA into a CD4+ Jurkat cell line, it was shown that CerS3 has an impact on activated T cells. A decrease of different sphingolipids after T cell activation via CD2/3/28 activation beads and IL2 treatment was observed that was accompanied by an inhibition of Zap70 phosphorylation, an important protein of the TCR signalling. The impaired TCR signalling led to a diminished NFAT1 translocation into the nucleus which subsequently led to a reduced NFAT1- dependent TNFα release. Downregulation of CerS3 in primary CD4+ T cells, obtained from the blood of healthy volunteers, also showed a reduced release of pro-inflammatory cytokines after activation. This dissertation demonstrates a pivotal role for CerS3 in T cell function and highlights CerS3 as potential new target for T cell driven colitis.
Gravitropism is a fundamental process in plants that allows shoots to grow upward and roots to grow downward. Protein phosphorylation has been postulated to participate in the intricate signaling cascade of gravitropism. In order to elucidate the underlying mechanisms governing the gravitropic signaling and unearth novel protein constituents, an exhaustive investigation employing microgravity-induced phosphoproteomics was undertaken. The significantly phosphorylated proteins unraveled in this study can be effectively divided into two groups through clustering analysis. Furthermore, the elucidation of Gene Ontology (GO) enrichment analysis disclosed the conspicuous overrepresentation of these clustered phosphoproteins in cytoskeletal organization and in hormone-mediated responses intimately intertwined with the intricate phenomenon of gravitropism. Motif enrichment analysis unveiled the overrepresentation of [-pS-P-] and [-R-x-x-pS-] motifs. Notably, the [-pS-P-] motif has been suggested as the substrate for the Casein kinase II (CK II) and Cyclin-dependent kinase (CDK). Kinase-inhibitor assays confirmed the pivotal role played by CK II and CDK in root gravitropism. Mutant gravitropism assays validated the functional significance of identified phosphoproteins, with some mutants exhibiting altered bending kinetics using a custom-developed platform. The study also compared phosphoproteomics data from different platforms, revealing variations in the detected phosphopeptides and highlighting the impact of treatment differences. Furthermore, the involvement of TOR signaling in microgravity-induced phosphorylation changes was uncovered, expanding the understanding of plant gravitropism responses.
To fulfill the large-scale verification of interesting candidates from the phosphoproteomics study, a novel root and hypocotyl gravitropism phenotyping platform was developed. This platform integrated cost-effective hardware, including Raspberry Pi, a high-quality camera, an Arduino board, a rotation stage (obtained from Prof. Dr. Maik Böhmer), and programmable green light (modified by Sven Plath). In addition, through collaboration with a software developer, machine-learning-based software was developed for data analysis. This platform tested the gravitropic response of candidate mutants identified in the phosphoproteomics study. Furthermore, the capabilities of this platform were expanded to investigate tropisms in other species and organs. To find novel proteins that might act as partners of a key protein that is involved in gravitropism signaling, ALTERED RESPONSE TO GRAVITY 1 (ARG1), immunoprecipitation coupled with Mass Spectrometry (IP-MS) was performed and identified ARG1-LIKE1 (ARL1) as a potential interacting protein with ARG1. This interaction was further confirmed through in vivo pull-down assays and bimolecular fluorescence complementation assays. In addition, the interaction between ARG1 and HSP70-1 was also validated.
Overall, this thesis sheds light on the molecular components and signaling events involved in plant gravitropism. It contributes to existing knowledge and opens up new ways to investigate this fascinating area of plant biology.
Electrospinning is an advanced method for the generation of polymer-based fibers. This fabrication technique has gained great interest in the biomedical field in recent years due to its straightforward application and significant versatility of the resulting fiber mats. The process is carried out by dissolving a (biologically or synthetically derived) polymer or a combination of several polymers in a suitable inorganic or organic solvent and transferring these solutions into a syringe with a needle tip as a spinneret. The power source is connected to the syringe tip, allowing for the application of a high voltage to the polymer solution, and a metallic collector, often a rotating drum cylinder on which the yielded polymer fibers are deposited. The usual fiber diameters range between nano- and micrometers. The yielded fiber mats have distinct characteristics, such as a large surface area, mechanical stability, and good encapsulation efficiency. Therefore, the fiber mats can be used as a topical dosage form for a multitude of diseases (e.g., conjunctivitis, keratitis), as they can be easily applied on or into the human body to release the drug for a prolonged period of time. In addition, the fibers exhibit a high degree of resemblance with the human extracellular matrix, which consists predominantly of collagen fibrils. Therefore, the obtained fiber mats can also be employed as innovative substrates for the cultivation of cells. As a result, electrospinning is suitable for a wide range of applications in the biomedical context, specifically for the targeted, topical delivery of bioactives and also as a cell culture substrate for the cultivation of cells in an enhanced in vivo relevant situation.
One objective of this work was the development and characterization of drug-loaded electrospun fibers for application to the inflamed and infected eye to complement the existing therapy of eye drops as well as systemic administration of anti-infectives. In particular, the focus of the project was the development of ocular implants to treat a herpes simplex infection affecting the human cornea. Additionally, electrospun fibers, which immediately dissolve in the tear fluid upon application and prolong the contact time of the bioactives at the eye, were developed as a topical dosage form to treat bacterial conjunctivitis. An additional objective of this work was the development of electrospun fiber mats as an innovative substrate for the cultivation of human induced pluripotent stem cells to mimic the human blood-brain barrier in vitro. The final objective of the present work was establishing an analytical concept for the comprehensive characterization of electrospun fibers to obtain a greater comparability and reproducibility of data and results from different laboratories.
Herpes simplex keratitis is a viral disease of the cornea that can potentially lead to blindness. This disease commonly occurs after corneal transplantation. As the cornea is the most transplanted tissue worldwide, the incidence of this disease varies from 4.9% to 12.6% (high- and low-income countries). The current therapy involves the application of eye drops as many as six times a day, and in severe cases, the systemic use of antiviral agents is necessary but can cause serious side effects (e.g., renal failure). To prevent the occurrence of herpes simplex keratitis after transplantation, a biodegradable electrospun nanofiber mat with a sustained release of acyclovir was established. The rational development of the fibers was facilitated by correlating the surface wettability with the release kinetics of the individual polymers, which allowed for the successful generation of fiber mats releasing the bioactive acyclovir over three weeks. The molecularly dispersed drug is present as an amorphous solid dispersion within the PLGA-based polymer matrix. Evaluating the cell viability in in vitro models proved that neither acyclovir nor the polymers or the generated fiber mats caused any cytotoxicity. The mechanical stability of the fiber mats was evaluated to ensure adequate handling of the fibers during implantation. The findings demonstrated that the fiber mats exhibit direction-independent mechanical properties, and their mechanical load-bearing capacity is greater than that of an excised human cornea. As a result, the fiber mats are suitable for surgical implantation into the anterior chamber of the eye. An in vitro model of human keratinocytes was infected with herpes simplex virus to demonstrate the antiviral efficacy of the electrospun fiber mats. Immunostaining for two specific viral proteins demonstrated the spread of infection in the model. Hereby, it was found that the placebo- and drug-loaded fibers significantly slowed the spread of infection, which was quantified by plaque assay determination. This experiment revealed that the electrospun fibers exert a synergistic antiviral effect by simultaneously releasing acyclovir, which is a virustatic agent that inhibits the replication of the virus in infected cells, and adsorbing released viral particles onto the surface of the polymer fibers. This reduces the overall burden of released viral particles, which is associated with the severity of the infection outbreak. Thus, with the aid of electrospinning, an ocular implant was successfully generated, which is biodegradable over time and significantly reduces the viral particle burden in vitro. Hence, the fibers represent a potential alternative for the prevention of herpes simplex keratitis after corneal transplantation...
Ausgangspunkt der Forschungsarbeit ist der Gebrauch von Gesten in mathematischen Interaktionen von Lernenden. Es wird untersucht, inwiefern Gesten Teil des mathematischen Aushandlungsprozesses sind. Damit ist die Rekonstruktion einer potentiell fachlichen Bedeutung des Gestengebrauchs beim Mathematiklernen das zentrale Forschungsanliegen.
Theoretisch gerahmt wird die Arbeit von Erkenntnissen aus der psychologisch-linguistischen Gestenforschung zur systematischen Beschreibung von Gestik im Zusammenspiel mit der gleichzeitig geäußerten Lautsprache (McNeill, 1992; Kendon, 2004). Es werden ebenso ausgewählte Forschungen zur Gestik beim Mathematiklernen beleuchtet (Arzarello, 2006; Wille, 2020; Kiesow, 2016). Die mathematikdidaktische Interaktionstheorie begründet den sozial-konstruktivistischen Lernbegriff (Krummheuer, 1992). Ausgewählte Aspekte der Semiotik nach C. S. Peirce bieten eine theoretische Fundierung des Zeichenbegriffs und des Kerns mathematischen Agierens, verstanden als diagrammatisches Arbeiten (Peirce, 1931, CP 1.54 u. 1932, CP 2.228).
Von besonderer Bedeutung für die vorliegende Forschungsarbeit ist der linguistische Ansatz der Code-Integration und -Manifestation von redebegleitenden Gesten im Sprachsystem nach Fricke (2007, 2012) in Verbindung mit dem Peirce’schen Diagrammbegriff. Diese Perspektive ermöglicht eine theoretische Fundierung der zunächst empirisch beobachtbaren Multimodalität der Ausdrucksweisen von Lernenden beim gemeinsamen Mathematiktreiben. Der Peirce’sche Diagrammbegriff dient hierbei zur Rekonstruktion einer systemischen Relevanz von Gesten für das Betreiben von Mathematik: Bestimmte Gesten sind semiotisch als mathematische Zeichen beschreibbar und haben potentiell konstituierende Funktion für das diagrammatische Arbeiten der Lernenden. Der übergeordnete Forschungsfokus lautet: Wie nutzen Grundschüler*innen Gestik und Lautsprache, insbesondere in deren Zusammenspiel, um ihre mathematischen Ideen in den interaktiven Aushandlungsprozess einzubringen und über den Verlauf der Interaktion aufzugreifen, möglicherweise weiterzuentwickeln oder auch zu verwerfen? In der Ausdifferenzierung wird die Funktion der verwendeten Gesten und die Rekonstruktion von potentiell gemeinsam gebrauchten Gesten der Interagierenden in den Blick genommen.
Methodisch lässt sich die Forschungsarbeit der qualitativen Sozialforschung (Bohnsack, 2008) bzw. der interpretativen mathematikdidaktischen Unterrichtsforschung zuordnen (Krummheuer & Naujok, 1999). Es werden Beispiele aus mathematischen Interaktionssituationen ausgewertet, in denen sich Paare von Zweitklässler*innen mit einem mathematischen Problem aus der Kombinatorik und der Geometrie beschäftigen. Eine eigens theoriekonform entwickelte Transkriptpartitur dient zur Aufarbeitung der Videodaten. Mit der textbasierten Interaktionsanalyse (Krummheuer, 1992) und der grafisch angelegten Semiotischen Analyse (Schreiber, 2010) in einer Weiterentwicklung der Semiotischen Prozess-Karten (Huth, 2014) werden zwei hierarchisch aufeinander aufbauende Analyseverfahren verwendet.
Zentrale Forschungsergebnisse sind 1) die funktionale und gestalterische Flexibilität des Gestengebrauchs beim diagrammatischen Arbeiten der Lernenden, 2) die Rekonstruktion von Modusschnittstellen der Gesten mit anderen Ausdrucksmodi in Funktion, interaktionaler Bedeutungszuschreibung und Chronologie, und 3) die häufige Verwendung der Gesten als Modus der Wahl der Lernenden in mathematischen Interaktionen. Gesten weisen eine unmittelbare und voraussetzungslose Verfügbarkeit auf, eine funktionale und gestalterische Flexibilität in der mathematischen Auseinandersetzung und die Möglichkeit, Funktionen anderer Modi (vorübergehen) zu übernehmen. Es zeigt sich eine konstitutive und fachliche Bedeutung der Gestik für das mathematisch-diagrammatische Agieren der Lernenden. In der Arbeit wird daraus schließlich das doppelte Kontinuum der Gesten für das Mathematiklernen entwickelt. Es zeigt in der Dimension der Funktion des Gestengebrauchs und der Dimension des Objektbezugs der Gestengestalt die Vielfältigkeit der Gestenfunktionen im gemeinsamen diagrammatischen Arbeiten der Lernenden und gibt Einblick in die verwendeten Gestengestalten.
Die Forschungsarbeit offenbart den Bedarf einer Beachtung von Gesten in der fachdidaktischen Planung und Gestaltung von Mathematikunterricht und in der Erforschung und Diagnostik der mathematischen Entwicklung von Lernenden. Es handelt sich bei Gesten in mathematischen Interaktionen nicht um ein reines Beiwerk der Äußerung, sondern um einen fachlich bedeutsamen Modus in Bezug auf das Mathematiklernen. Der Gebrauch von Gestik ermöglicht die Erzeugung von Diagrammen im Handumdrehen und eröffnet perspektivisch eine Erforschung ihrer Bedeutung für mathematische Lehr-Lern-Prozesse.
Die in dieser Zusammenfassung angegebene Literatur findet sich im Literaturverzeichnis der vorgelegten Forschungsarbeit.
Die Organisation SOS Children's Villages (im Folgenden: SOS) ist eine der größten und ältesten nicht-staatlichen, überkonfessionellen Kinderhilfsorganisationen der Welt. Heute sind mehrere Generationen in Einrichtungen der in 136 Ländern tätigen Organisation aufgewachsen oder haben von ihren Hilfsprogrammen profitiert. Seit der Gründung im Jahr 1949 liegt der Schwerpunkt auf "Kindern und Jugendlichen, die keine elterliche Fürsorge haben oder Gefahr laufen, diese zu verlieren". Trotz der langjährigen weltweiten Präsenz haben sich bisher nur wenige ethnologische Arbeiten mit der Organisation SOS, ihrem Modell und vor allem ihren Teilnehmern beschäftigt.
Die vorliegende Arbeit will diese Lücke schließen. Sie zeigt anhand exemplarischer, biographisch-narrativer Interviews und auf einer multi-sited ethnography basierenden Analysen, wie einzelne Akteure im SOS-Kontext ihrer Vergangenheit begegnen, wie sie Erfahrungen - aus der Zeit unter der Obhut von SOS, aber auch aus der Zeit davor - einordnen und wie diese ihre Gegenwart und auch Zukunft beeinflussen bzw. wie sie heute mit diesen Erinnerungen umgehen. Ziel dieser Arbeit ist es außerdem, am Beispiel von SOS als Entwicklungszusammenarbeit (EZ) im Bereich Kinder, Jugend und Familie zu untersuchen, wie sich EZ-Projekte auf das Leben, die Sichtweisen und Biografien verschiedener Akteure sowie auf bestimmte lokale Zusammenhänge auswirken und wie wiederum Handlungen und individuelle Einstellungen von Akteuren sowie bestimmte lokale Kontexte solche Projekte beeinflussen.
Hierfür habe ich über einen Zeitraum von elf Monaten zwischen Juni 2019 und Mai 2020 an vier Standorten der Organisation in Kenia und Tansania rund 150 Interviews mit verschiedenen Zielgruppen (mit SOS-Mitarbeitern, ehemaligen SOS-Teilnehmern, aktuellen SOS-Teilnehmern sowie Gemeindevertretern) geführt.
Die Studie liefert also Ergebnisse auf mehreren Ebenen. Zusammenfassend lässt sich sagen, dass die Akteure meiner Untersuchung ihrer Vergangenheit und den Erinnerungen daran im Erwachsenenalter durch Aneignungsprozesse begegnen, die es ihnen ermöglichen, diese Erinnerungen und Erfahrungen kohärent in ihre eigene Biografie einzuordnen. Dieser Umgang mit der eigenen Geschichte ermöglicht es den ehemaligen SOS-Teilnehmern, sich die Struktur, die ihrer Kindheit zugrunde lag, nämlich die der internationalen Hilfsorganisation SOS, anzueignen und darüber Handlungen und Verhaltensweisen auch in ihrer Gegenwart und Zukunft zu definieren und zu legitimieren, und SOS als Zentrum ihrer Kindheit auch im Erwachsenenalter auf unterschiedliche Weise in Besitz zu nehmen. Dabei erfüllen sie nicht immer die Erwartungen, die von organisatorischer Seite an ihr Verhalten oder ihre Interpretation von Organisationskonzepten und -prinzipien gestellt werden. Da durch das Organisationsmodell evozierte Probleme wie fehlende Zugehörigkeiten oder Schwierigkeiten beim Übergang in die Selbstständigkeit durch lebensweltliche Diskrepanzen im Vergleich zu lokalen Kontexten über die Lebenswege und Erfahrungen der (ehemaligen) Teilnehmer sichtbar werden, schreibe ich nicht zuletzt den Teilnehmern und ihrem Umgang mit diesen Erfahrungen einen Anteil an den Transformationsprozessen zu, in denen sich die Organisation aktuell befindet.
Das schnelle und unkontrollierte Wachstum von Tumorzellen bedingt beim Glioblastom ein heterogenes Tumormikromilieu, mit lokalem Sauerstoff- und Nährstoffmangel. Lokaler Selektionsdruck bedingt eine Evolution besonders anpassungsfähiger Klone. Die integrierte Stressantwort (integrated stress response, ISR) ist ein zelluläres Programm, das durch zahlreiche Stressoren, wie endoplasmatische Retikulum Stress (ER-Stress), durch die Akkumulation ungefalteter Proteine, Hypoxie, Glukose- oder Aminosäuremangel aktiviert wird. Ein zentraler Schritt zur Aktivierung der ISR ist die Phosphorylierung der alpha Untereinheit des eukaryotischen Translationsinitiationsfaktors 2 (eIF2α) an Serin 51. Die Phosphorylierung von eIF2α führt zur Modulation der Translation mit Induktion des Transkriptionsfaktors ATF4 (Activating Transcription Factor 4), der dann zelluläre Anpassungsvorgänge einleitet.
Unsere Hypothese lautete, dass ATF4-vermittelte molekulare Anpassungsmechanismen menschlicher Glioblastom (GB)-Zellen an die Bedingungen der Tumormikroumgebung (wie z.B. Hypoxie und Nährstoffentzug) maßgeblich zur Therapieresistenz beitragen und auch die Empfindlichkeit gegen TMZ-Chemotherapie beeinflussen. Somit könnte eine Inhibition der integrierten Stressantwort über den zentralen Mediator ATF4 zu einem gesteigerten Ansprechen auf Therapiebedingungen führen.
Um die ISR und ATF4 als mögliche therapeutische Angriffspunkte im Glioblastom zu evaluieren, wurde die ATF4 Induktion in Glioblastomzellen pharmakologisch und genetisch moduliert und im Zusammenhang mit TMZ-Behandlung sowie Glukose- und Sauerstoffentzug untersucht. Unter Glutaminentzug, Hypoxie und TMZ-Behandlung, welche Aspekte der GB-Mikroumgebung widerspiegeln, zeigten sich erhöhte ATF4 Proteinspiegel. ATF4-gensupprimierte GB-Zellen (ATF4sh) exprimierten unter gleicher Behandlung wesentlich weniger ATF4.
Im Einklang mit der Hypothese, dass ATF4 zur Therapieresistenz humaner Glioblastomzellen beiträgt, waren ATF4-gensupprimierte GB-Zellen (ATF4sh) im Vergleich zur Kontrollzelllinie empfindlicher gegen Hypoxie-induzierten Zelltod und zeigten einen erhöhten Sauerstoffverbrauch. Umgekehrt zeigten GB-Zellen nach pharmakologischer ISR Induktion einen verminderten Sauerstoffverbrauch. Auch nach Behandlung mit TMZ war die Überlebensrate in ATF4sh Zellen im Vergleich zur Kontrollgruppe geringer. Zur Hemmung der ISR wurden verschiedenen Inhibitoren der Kinase PERK (Protein kinase R-like endoplasmic reticulum kinase) entwickelt. In unseren Untersuchungen war nach der Behandlung der GB-Zelllinien eine verminderte ATF4 Expression festzustellen. Dabei kam es allerdings gleichzeitig bei der Behandlung mit höheren Inhibitorkonzentrationen zu einer Induktion von ATF4. Für den PERK-Inhibitor GSK 414 wurde in der Literatur auch die Hemmung anderer Kinasen wie KIT und RIPK1 gezeigt. Daher konnte bei den Konzentrationen, die für eine vollständige PERK-Inhibition erforderlich waren, keine selektive Hemmung von PERK mehr gewährleistet werden. Besonders aufgrund ihrer Toxizität auf die Funktion des Pankreas eignen sich diese Inhibitoren nicht für eine in vivo Erprobung. Da aber durch die Inhibition der ISR eine neuroprotektive Wirkung beschrieben ist, besteht die Notwendigkeit, weitere Inhibitoren zur Hemmung der ISR zu entwickeln. ISRIB (Integrated Stress Response Inhibitor) ist ein partieller ISR Inhibitor, der eIF2B angreift, was als Guanidin-Nukleotid-Austauschfaktor im Translationsinitiationsprozess benötigt wird. Für ISRIB wurde bereits in vitro und in vivo eine neuroprotektive, aber keine toxische Wirkung beschrieben.
Zusammenfassend lieferten unsere Untersuchungen Hinweise auf die wichtige Rolle von ATF4 für die Anpassung humaner GB-Zellen an Bedingungen der Tumormikroumgebung und für die Entstehung von TMZ-Resistenzen. Die Hemmung der ISR in GB-Zellen könnte daher ein vielversprechender Therapieansatz sein.
In this work I investigate two different systems - spin systems and charge-density-waves. The same theoretical method is used to investigate both types of system. My investigations are motivated by experimental investigations and the goal is to describe the experimental results theoretically. For this purpose I formulate kinetic equations starting from the microscopical dynamics of the systems.
First of all, a method is formulated to derive the kinetic equations diagrammatically. Within this method an expansion in equal-time connected correlation functions is carried out. The generating functional of connected correlations is employed to derive the method.
The first system to be investigated is a thin stripe of the magnetic insulator yttrium-iron-garnet (YIG). Magnons are pumped parametrically with an external microwave field. The motivation of my theoretical investigations is to explain the experimental observations. In a small parameter range close to the confluence field strength where confluence processes of two parametrically pumped magnons with the same wave vector becomes kinematically possible the efficiency of the pumping is reduced or enhanced depending on the pumping field strength. Because it is expected that that confluence and splitting processes of magnons are essential for the experimental observations I go beyond the kinetic theories that are conventionally applied in the context of parametric excitations in YIG and investigate the influence of cubic vertices on the parametric instability of magnons in YIG.
Furthermore, the influence of phonons is investigated. Usually in the literature these are taken into account as heat bath. Here, I want to explain experiments where an accumulation of magnetoelastic bosons - magnon-phonon-quasi-particles - has been observed. I employ the method of kinetic equations to investigate this phenomenon theoretically. The kinetic theory is able to reproduce the experimental observations and it is shown that the accumulation of magnetoelastic bosons is purely incoherent.
Finally, charge-density waves (CDW) in quasi-one-dimensional materials will be investigated. Charge-density waves emerge from a Peierls-instability and are a prime example for spontaneous symmetry breaking in solids. Again, the motivation for my theoretical investigations are an experiment where the spectrum of amplitude and phase phonon modes has been measured. Starting from the Fröhlich-Hamiltonian I derive kinetic equations and from these kinetic equations the equations of motion for the CDW order parameter can be derived. The frequencies and damping rates of amplitude and phase phonon modes will be derived from the linearized equations of motion. I compare my theory with existing methods. Furthermore, I also investigate the influence of Coulomb interaction.
This thesis investigates exotic phases within effective models for strongly interacting matter.
The focus lies on the chiral inhomogeneous phase (IP) that is characterized by a spontaneous breaking of translational symmetry and the moat regime, which is a precursor phenomenon exhibiting a non-trivial mesonic dispersion relation.
These phenomena are expected to occur at non-zero baryon densities, which is a parameter region that is mostly non-accessible to first-principle investigations of Quantum chromodynamics (QCD).
As an alternative approach, we consider the Gross-Neveu (GN) and Nambu-Jona-Lasinio (NJL) model within the mean-field approximation, which can be regarded as effective models for QCD.
We focus on two aspects of the moat regime and the IP in these models.
First, we investigate the influence of the employed regularization scheme in the (3+1)-dimensional NJL model, which is nonrenormalizable, i.e., the regulator cannot be removed.
We find that the moat regime is a robust feature under change of regularization scheme, while the IP is sensitive to the specific choice of scheme.
This suggests that the moat regime is a universal feature of the phase diagram of the NJL model, while the IP might only be an artifact of the employed regulator.
Second, we study the influence of the number of spatial dimensions on the emergence of the IP.
To this end, we investigate the GN model in noninteger spatial dimensions d.
We find that the IP and the moat regime are present for d < 2, while they are absent for d > 2.
This demonstrates the central role of the dimensionality of spacetime and illustrates the connection of previously obtained results in this model in integer number of spatial dimensions.
Moreover, this suggests that the occurrence of these phenomena in three spatial dimensions is solely caused by the finite regulator.
In summary, this thesis contributes to advancing our understanding of the phase structure of QCD, particularly regarding the existence and characteristics of inhomogeneous phases and the moat regime.
Even though the investigations are performed within effective models, they provide valuable insight into the aspects that are crucial for the formation of an inhomogeneous chiral condensate in fermionic theories.
In this thesis, we present a detailed consideration of both qualitative and quantitative properties of static spherically symmetric solutions of the Einstein equations with self-interacting scalar fields. Our focus is on solutions with naked singularities. We study the qualitative properties of the solutions of the Einstein equations with real static self-interacting $N$ scalar fields, making some assumptions on self-interaction. We provide a rigorous proof that the corresponding solutions will be regular up to $r=0$. Furthermore, we find the rigorous form of asymptotic solutions near the singularity and at spatial infinity. We construct some examples of spherical-like naked singularities at $r=r_s\neq0$ in curvature coordinates.
We analyze the stability of the previously considered solutions against odd-parity gravitational perturbations and also examine the fundamental quasi-normal modes spectra. For the general class of the self-interaction potential, we demonstrate well-posedness of the initial problem and stability for positively defined potentials. As an example, we numerically study the case of the scalar field with power-law self-interaction potential and find the fundamental quasi-normal modes frequencies. We demonstrate that they differ from the standard Schwarzschild black hole case.
We study in detail the motion of particles in the vicinity of previously considered solutions. Mainly, we are interested in considering properties of the distribution of stable circular orbits around the corresponding configurations and images of the accretion disk for a distant observer. For all cases, we find possible types of stable circular orbit distributions and domains of parameters where they are realized.
We also demonstrate that the presence of self-interaction can lead to a new type of circular orbit distributions, which is absent in the linear massless scalar field case. We build Keplerian disk images in the plane of a distant observer and demonstrate the possibility to mimic the shadows of black holes.
By combining two unique facilities at the Gesellschaft fuer Schwerionenforschung (GSI), the Fragment Separator (FRS) and the Experimental Storage Ring (ESR), the first direct measurement of a proton capture reaction of stored radioactive isotopes was accomplished. The combination of well-defined ion energy, an ultra-thin internal gas target, and the ability to adjust the beam energy in the storage ring enables precise, energy-differentiated measurements of the (p,gamma) cross sections. The new setup provides a sensitive method for measuring (p,gamma) reactions relevant for nucleosynthesis processes in supernovae, which are among the most violent explosions in the universe and are not yet well understood. The cross sections of the 118Te(p,gamma) and 124Xe(p,gamma) reactions were measured
at energies of astrophysical interest. The heavy ions were stored with energies of 6 MeV/nucleon and 7 MeV/nucleon and interacted with a hydrogen gas-jet target.
The produced proton-capture products were detected with a double-sided silicon strip detector. The radiative recombination process of the fully stripped ions and electrons from the hydrogen target was used as a luminosity monitor.
Additionally, post-processing nucleosynthesis simulations within the NuGrid [1] research platform have been performed. The impact of the new experimental results on the p-process nucleosynthesis around 124Xe and 118Te in a core-collapse supernova was investigated. The successful measurement of the proton capture cross sections of radioactive isotopes rises the motivation to proceed with experiments in lower energy regions.
[1] M. Pignatari and F. Herwig, “The nugrid research platform: A comprehensive simulation approach for nuclear astrophysics,” Nuclear Physics News, vol. 22, no. 4, pp. 18–23, 2012.
In this thesis, the early time dynamics in a heavy ion collision of Pb-Nuclei at LHC center-of-mass energies of 5 TeV is studied. Right after the collision the system is out-of-equilibrium and essentially gluon dominated, with their density saturating at a specific momentum scale Q_s. Based on a separation of scales for the soft and hard gluonic degrees of freedom, the initial state is given from an effective model, known as the Color Glass Condensate. Within this model, the soft gluons behave classical to leading order, making it possible to study their dynamics in gauge invariant fashion on a three dimensional lattice, solving Hamiltonian field equations of motion, keeping real time. Quark-Antiquark pairs are produced in the gluonic medium, known as the Glasma and manifest themselves as a source of quantum fluctuations.
They enter the dynamics of the gluons as a current, making the system semi-classical. In lattice simulations, the non-equilibrium system is tested for pressure isotropization, which is a necessary ingredient to reach a local thermal equilibrium (LTE), making a hydrodynamical description at a later stage possible. In addition, the occupation of energy modes is studied with its implications on thermalization and classicality.
A central concern in genetics is to identify mechanisms of transcriptional regulation. The aim is to unravel the mapping between the DNA sequence and gene expression. However, it turned out that this is extremely complex. Gene regulation is highly cell type-specific and even moderate changes in gene ex- pression can have functional consequences.
Important contributors to gene regulation are transcription factors (TFs), that are able to directly interact with the DNA. Often, a first step in understanding the effect of a TF on the gene’s regulation is to identify the genomic regions a TF binds to. Therefore, one needs to be aware of the TF’s binding preferences, which are commonly summarized in TF binding motifs. Although for many TFs the binding motif is experimentally validated, there is still a large number of TFs where no binding motif is known. There exist many tools that link TF binding motifs to TFs. We developed the method Massif that improves the performance of such tools by incorporating a domain score that uses the DNA binding domain of the studied TF as additional information.
TF binding sites are often enriched in regulatory elements (REMs) such as promoters or enhancers, where the latter can be located megabases away from its target gene. However, to understand the regulation of a gene it is crucial to know where the REMs of a gene are located. We introduced the EpiRegio webserver that holds REMs associated to target genes predicted across many cell types and tissues using STITCHIT, a previously established method. Our publicly available webserver enables to query for REMs associated to genes (gene query) and REMs overlapping genomic regions (region query). We illus- trated the usefulness of EpiRegio by pointing to a TF that occurs enriched in the REMs of differential expressed genes in circPLOD2 depleted pericytes. Further, we highlighted genes, which are affected by CRISPR-Cas induced mutations in non-coding genomic regions using EpiRegio’s region query. Non-coding genetic variants within REMs may alter gene expression by modifying TF binding sites, which can lead to various kinds of traits or diseases. To understand the underlying molecular mechanisms, one aims to evaluate the effect of such genetic variations on TF binding sites. We developed an accurate and fast statistical approach, that can assess whether a single nucleotide polymorphism (SNP) is regulatory. Further, we combined this approach with epigenetic data and additional analyses in our Sneep workflow. For instance, it enables to identify TFs whose binding preferences are affected by the analyzed SNPs, which is illustrated on eQTL datasets for different cell types. Additionally, we used our Sneep workflow to highlight cardiovascular disease genes using regulatory SNPs and REM-gene interactions.
Overall, the described results allow a better understanding of REM-gene interactions and their interplay with TFs on gene regulation.
Hintergrund: Die Aortenklappenstenose stellt in Europa und Nordamerika das häufigste Klappenvitium dar und ist vor allem auf eine degenerative Genese zurückzuführen. Da das Auftreten erster Symptome mit einer schlechten Prognose assoziiert ist, ist die transfemorale Aortenklappenimplantation mittels Katheter (TAVI) als minimalinvasive Therapie schon seit längerem eine Alternative zum operativen Ersatz der Aortenklappe und aktuelles Thema der Forschung. Zwar existiert eine Vielzahl an Transkatheterklappen und es werden fortlaufend neue Generationen entwickelt, allerdings liegt bislang noch keine Studie vor, die einen direkten Vergleich der intraannularen Portico-Prothese (Abbott) mit der ebenfalls selbstexpandierbaren, aber supraannularen, Symetis-Prothese (Boston Scientific) präsentiert.
Methoden: Es erfolgte eine retrospektive Analyse von 142 gematchten (nach Alter, BMI, NYHA-Klasse, EuroScore, insulinpflichtiger Diabetes Mellitus, arterielle Hypertonie, COPD, KHK, präinterventionelle eGFR, cAVK, Schlaganfall, TIA in der Vorgeschichte) Patienten je Klappenmodell im medianen Alter von 83 Jahren, die sich mit einer hochgradigen symptomatischen Aortenklappenstenose im Zeitraum vom 12.10.2015 bis zum 07.01.2020 einer transfemoralen TAVI im Universitätsklinikum in Frankfurt am Main unterzogen. Untersucht wurde als primärer Endpunkt die Gesamtmortalität nach 1 Jahr. Darüber hinaus wurden mittels multivariater Cox-Regression unabhängige Risikofaktoren identifiziert. Als sekundäre Endpunkte wurden Komplikationen innerhalb von 30 Tagen gemäß den Definitionen des Valve Academic Research Consortium (VARC) 2 gewählt wie die Implantationen neuer Schrittmacher, paravalvuläre Leckage, Gefäßkomplikationen und akutes Nierenversagen. Analysiert wurden außerdem prozedurale Faktoren, die Symptomatik anhand der NYHA-Klasse sowie einige Laborparameter vor und nach der TAVI.
Ergebnisse: In dieser Arbeit konnte gezeigt werden, dass die 1-Jahres-Mortalität mit der Portico-Prothese signifikant höher ist als mit der Symetis-Prothese (25,2% vs. 12,2%; p=0,011). Dabei gelten neben der Portico-Prothese eine reduzierte linksventrikuläre Funktion und die NYHA-Klassen III/IV gemäß multivariater Cox-Regressionsanalyse als unabhängige Risikofaktoren. Postinterventionell war in der Portico-Kohorte ein neuer Linksschenkelblock (34,5% vs. 23,2%; p=0,036), die Implantation neuer Schrittmacher (22,6% vs. 11,8%; p=0,011) sowie ein akutes Nierenversagen (25,5% vs. 12,8%; p=0,006) signifikant häufiger. Hinsichtlich prozedurbezogener Faktoren hat sich herausgestellt, dass mit der Symetis-Prothese häufiger nachdilatiert (41,5% vs. 25,3%; p=0,004), mit der Portico-Prothese hingegen häufiger vordilatiert (92,2% vs. 82,3%; p=0,012) wurde. Außerdem wurde in der Portico-Kohorte signifikant mehr Kontrastmittel eingesetzt und das Verfahren mit der Durchleuchtung dauerte signifikant länger. Echokardiographisch resultierte post TAVI mit der Symetis-Prothese eine signifikant andere bzw. günstigere Verteilung der Aortenklappeninsuffizienzgrade. Laborchemisch war der Wert für NT-proBNP als biochemischer Marker für eine Herzinsuffizienz signifikant höher als in der Symetis-Gruppe.
Schlussfolgerung: Diese Arbeit zeigte eine signifikant höhere Mortalität nach 1 Jahr mit der Portico-Prothese im direkten Vergleich mit der Symetis-Prothese. Außerdem ergab der Vergleich signifikant höhere Komplikationsraten in der Portico-Kohorte hinsichtlich Schrittmacherimplantationen, neuem Linksschenkelblock und akutem Nierenversagen. Weitere Studien sollten die beiden Prothesen im längerfristigen Verlauf vergleichend analysieren. Die Ergebnisse dieser Studie können zur Optimierung neuer Klappengenerationen beitragen, indem sie auf potenziell prognosebestimmende Aspekte des Designs und der Implantationstechnik aufmerksam machen. Außerdem sensibilisert die Studie für eine individuell für jeden Patienten angepasste Prothesenauswahl. Möglicherweise sollte bei Vorerkrankungen der Niere oder bei vorbekannten Herzleitungsstörungen die Symetis- gegenüber der Portico-Prothese vorgezogen werden.
Resistenzen gegenüber Carbapenemen sind eine Bedrohung für die globale Gesundheit mit wenigen verbleibenden Therapieoptionen. Ceftazidim/Avibavtam (CZA) ist die Kombination aus einem Cephalosporin und einem Diazabicyclooctan, mit der Eigenschaft eine Vielzahl von Carbapenemasen der Ambler Klasse A und D zu inhibieren. Resistenzen gegenüber Carbapenemen in gramnegativen Bakterien sind in Kolumbien und anderen Ländern Lateinamerikas weit verbreitet. In den hier vorgestellten Arbeiten wurden 2.235 Enterobakterien und 492 P. aeruginosa Isolate aus fünf Lateinamerikanischen Ländern auf ihre Empfindlichkeit gegenüber CZA und anderen klinisch verfügbaren Antibiotika untersucht. Die CZA-resistenten Isolate wurden mittels PCR und Genomsequenzierung auf die zugrundeliegenden Resistenzmechanismen hin analysiert. CZA zeigte Aktivitäten gegenüber 99,2% (2.217/2.235) aller untersuchten Enterobacterales und 77,8% (383/492) aller P. aeruginosa Isolate. Als plausible Erklärung für die Resistenz gegen CZA konnte mittels qPCR bei allen Enterobakterien und bei 38,5% (42/109) der P. aeruginosa Isolate ein Metallo-β-Laktamase (MBL)-kodierendes Gen nachgewiesen werden. Die verbleibenden P. aeruginosa Isolate wurden einer Genomsequenzierung unterzogen, dabei zeigten sich Mutationen in Genen, die zuvor mit einer verringerten Empfindlichkeit gegen CZA assoziiert wurden, wie z.B. Genen die mit der Überexpression von MexAB-OprM und AmpC (PDC) in Verbindung stehen, sowie Genen, die PoxB (blaOXA-50-like), FtsI (PBP3), DacB (PBP4) und OprD kodieren. Unsere Ergebnisse unterstreichen die Notwendigkeit von Therapieoptionen gegenüber MBL-produzierenden und anderen Carbapenem-resistenten Mikroorganismen. Des Weiteren sind diese Studien eine Momentaufnahme der Empfindlichkeit gegen CZA vor dessen Verfügbarkeit in Lateinamerika und dienen deswegen als Ausgangspunkt um die Entwicklung von Resistenzen in dieser Region zu verfolgen.
Hintergrund: Der Hypoparathyreoidismus (Hypopara) ist neben der Recurrensparese eine typische postoperative Komplikation nach Thyreoidektomie. Ziel dieser Arbeit soll die Prozessoptimierung des postoperativen Managements sein, um einen p.o. Hypopara frühzeitig zu erkennen und zu therapieren und somit die klinischen Symptome zu lindern oder zu vermeiden.
Methoden: Es wurden alle Patienten mit einer beidseitigen Schilddrüsenresektion eingeschlossen. Ausschlusskriterien waren simultane Nebenschilddrüsen- erkrankungen sowie fortgeschrittene Schilddrüsenmalignome mit geplantem Tumordebulking und/oder langem ITS-Aufenthalt. Postoperativ wurden Parathormon (EDTA) sowie Kalzium (Serum) bestimmt. Bei einem Parathormon (PTH) - Wert unter dem Referenzbereich (15,0-68,3 pg/ml) und/oder einer ausgeprägten Hypokalzämie mit einem Kalziumwert < 1,9 (Ref. 2,20-2,65 mmol/l) und/oder klinischen Zeichen wie Kribbelparästhesien oder Tetanie wurde Kalzium und Vitamin D mittels festem Schema verordnet. Die Symptombesserung wurde klinisch dokumentiert.
Ergebnisse: Am AGAPLESION Elisabethenstift gGmbH in Darmstadt wurden im Zeitraum zwischen Januar 2019 und Juni 2022 Schilddrüseneingriffe bei insgesamt 465 Patienten durchgeführt. Nach Berücksichtigung der Ein- und Ausschlusskriterien wurden 193 Patienten mit Thyreoidektomie in die Auswertung einbezogen. Ein p.o. Hypopara wurde bei 51 Patienten (26,4 %) festgestellt. Bei 40 Patienten (20,7 %) traten Symptome auf (39x Kribbelparästhesie, 1xTetanie). Von den 51 Patienten lag bei 26 (51 %) ein nur leicht erniedrigter Kalziumwert am 1. p.o. Tag vor (zwischen 2,00 und 2,20 mmol/l), bei 10 Patienten (19,6 %) war der Kalziumwert im Normbereich (2,20-2,65 mmol/l). Im Vergleich dazu lag bei 6 von 51 Patienten (11,8 %) ein normwertiger PTH-Wert vor. Bei 20 Patienten (10,4 %) erfolgte intraoperativ eine Nebenschilddrüsen-Replantation in den ipsilateralen M. sternocleidomastoideus. Davon trat bei 8 Patienten (40 %) ein Hypopara auf. Bei 29 Patienten (15 %) wurde in der Histologie ein akzidentiell mitentferntes Epithelkörperchen nachgewiesen. Davon trat bei 13 Patienten (44,8 %) ein Hypopara auf. Die mittlere Zeit nach OP zur PTH-Bestimmung lag bei 2,41 Tagen. Die mittlere Aufenthaltsdauer der Patienten mit Hypopara betrug 3,86 Tage (± 2,272), die der restlichen Patienten betrug 2,69 Tage (± 1,759), p < 0,001.
Schlussfolgerungen: Die PTH-Bestimmung ist neben der klinischen Visite essentiell zur Früherkennung eines p.o. Hypopara. Eine mehrtägige Kalziumbestimmung ist damit nicht zwingend erforderlich, sodass die Verweildauer verkürzt werden kann. Das verordnete Schema zur oralen Substitution von Kalzium und Vitamin D ist auch ambulant fortführbar. Die Replantation einer nicht erhaltbaren NSD hat bei 60 % einen Hypopara verhindert. Die gezielte Darstellung und Erhalt der NSD sollte bei jedem Eingriff eingehalten werden. Insgesamt zeigt diese Arbeit den höheren Stellenwert des postoperativen PTH-Wertes sowie der klinischen Zeichen als das Serumkalzium zur Erkennung und Therapie des Hypopara nach Thyreoidektomie.
Understanding the brain's proactive nature and its ability to anticipate the future has been a longstanding pursuit in philosophy and scientific research. The predictive processing framework explains how the brain generates predictions based on environmental regularities and adapts to both predicted and unpredicted events. Prediction errors (PE) occur when sensory evidence deviates from predictions, triggering cognitive and neural processes that enhance learning and subsequent memory. However, the effects of PE on episodic memory have not been clearly explained. This dissertation aims to address three key questions to advance our understanding of PE and episodic memory. First, how does the degree of PE influence episodic memory, and how do expected and unexpected events interact in this process? Second, what insights can be gained from studying the electrophysiological activity associated with prediction violations, and what role does PE play in subsequent memory benefits? Lastly, how do memory processes change across the lifespan, and how does this impact the brain's ability to remember events? By answering these questions, this dissertation contributes to advancing our understanding of the cognitive and neural mechanisms underlying the relationship PE and episodic memory.
Das Experiment ALICE (A Large Ion Collider Experiment) am CERN (Conseil Européen pour la Recherche Nucléaire) LHC (Large Hadron Collider) fokussiert sich auf die Untersuchung stark wechselwirkender Materie unter extremen Bedingungen. Solche Bedingungen existierten wenige Mikrosekunden nach dem Urknall, als die Temperaturen so hoch waren, dass Partonen (Quarks und Gluonen) nicht zu farbneutralen Hadronen gebunden waren. In solch einem Quark-Gluon-Plasma können sich die Partonen frei bewegen, wobei sie allerdings mit anderen Partonen aus dem Medium stark wechselwirken. Am LHC werden Bleikerne auf ultra-relativistische Energien von bis zu 2.68 TeV beschleunigt und zur Kollision gebracht, wobei für weniger als 10 fm/c ein QGP entsteht, das schnell expandiert. Die Partonen hadronisieren, wenn das QGP sich auf Temperaturen von weniger als der Phasenübergangstemperatur von ≈155MeV abkühlt. Die finalen Teilchen- und Impulsverteilungen werden werden vom ALICE Detektor gemessen und geben Aufschluss auf elementare Prozesse im QGP.
Die TPC (Time Projection Chamber ) ist eines der wichtigsten Detektorsysteme von ALICE. Sie trägt maßgeblich zur Rekonstruktion von Teilchenspuren und zur Identifikation der Teilchensorten bei mittleren Rapiditäten bei. Die TPC ist eine große zylindrische Spurendriftkammer und besteht aus einem 88mˆ3 großen Gasvolumen, das von der zentralen Hochspannungselektrode in zwei Seiten geteilt wird. Durchquert ein Teilchen das Gasvolumen, ionisiert es entlang seiner Spur eine spezifische Menge von Gasatomen. Die Ionisationselektronen driften entlang des extrem homogenen elektrischen Feldes zu den Auslesekammern an den Endkappen auf beiden Seiten der TPC. Die Messung der Position und der Menge der Ionisationselektronen erlaubt die Rekonstruktion der Teilchenspur sowie, in Kombination mit der Impulsmessungen über die Krümmung der Teilchenspur im Magnetfeld, die Bestimmung der Teilchensorte über den spezifischen Energieverlust pro Wegstrecke im Gas. Das Gasvolumen der TPC war in LHC Run 1 (2010–2013) mit Ne-CO_2 (90-10) gefüllt. Die Gasmischung wurde zu Ar-CO_2 (88-12) für Run 2 (2015–2018) geändert. Als Auslesekammern wurden Vieldrahtproportionalkammern verwendet, die aus einer segmentierten Ausleseebene, einer Anodendrahtebene, einer Kathodendrahtebene und einem Gating-Grid (GG) bestehen. Das GG is eine zusätzliche Drahtebene, die durch zwei verschiedene Spannungseinstellungen transparent oder undurchlässig für Elektronen und positive Ionen geschaltet werden kann.
In den ersten Daten von Run 2 bei hohen Interaktionsraten wurden große Verzerrungen der gemessenen Spurpunkte beobachtet, die auf Grund von Verzerrungen des Driftfeldes auftreten und nicht von Daten aus Run 1 bekannt waren. Diese Verzerrungen treten nur sehr lokal an den Grenzen von manchen der inneren Auslesekammern (IROCs) auf. Zudem wurden auch große Verzerrungen in einer (C06) der äußeren Auslesekammern (OROCs) festgestellt, die sich bei einem bestimmten Radius über die ganze Breite der Kammer erstrecken. Die Ergebnisse dieser Arbeit befassen sich mit der Untersuchung jener Verzerrungen und ihrer Ursache, sowie mit der Entwicklung von Strategien um die Verzerrungen zu minimieren.
Messungen der Verzerrungen in den IROCs und Vergleiche mit Simulationen lassen darauf schließen, dass die Verzerrungen von positiver Raumladung hervorgerufen werden, die durch Gasverstärkung an sehr begrenzten Regionen der Auslesekammern entsteht und sich durch das Driftvolumen bewegt. Es werden charakteristische Abhängigkeiten von der Interaktionsrate sowie systematische Veränderungen bei Umkehrung der Orientierung des Magnetfeldes gemessen. Eine erneute Analyse von Run 1 Daten mit den Methoden aus Run 2 zeigt, dass die Verzerrungen bereits in Run 1 auftraten, jedoch durch die Ne-Gasmischung und niedrigere Interaktionsraten um eine Größenordnung kleiner waren. Neue Daten aus Run 2, für die die Gasmischung zeitweise wieder von Ar-CO_2 zu Ne-CO_2- N_2 geändert wurde, bestätigen die Ergebnisse der Run 1 Datenanalyse. Der Ursprung der Raumladung wird systematisch eingegrenzt. Es werden einzelne IROCs identifiziert, an deren Anodendrähten die Raumladung entsteht. Physikalische Modelle ermöglichen es, die Entstehung der Raumladung auf das Volumen zurückzuführen, das sich zwischen zwei IROCs befindet. Damit besteht die Vermutung, dass einzelne Spitzen von Anodendrähten am äußeren Rand dieser IROCs in das Gasvolumen hineinragen und somit hohe elektrische Felder erzeugen, an denen Gasverstärkung stattfindet. Die positiven Ionen können dann ungehindert in das Driftvolumen gelangen. Um diesen Effekt zu unterdrücken, wird das Potential der Cover-Elektroden angepasst, die sich auf den Befestigungsvorrichtungen der Drahtebenen an den Kammerrändern befinden. Dadurch kann die Menge von Ionisationselektronen, die in das Volumen zwischen zwei IROCs hineindriftet und vervielfacht wird, eingeschränkt werden. Über elektro-statische Simulationen und Messungen wird eine Einstellung für das Cover-Elektroden-Potential gefunden, mit der die Verzerrungen auf 30 % reduziert werden können. Die Verzerrungen in OROC C06 entstehen durch positive Ionen, die aus der Verstärkungsregion in das Driftvolumen gelangen, da an dieser bestimmten Stelle zwei aufeinanderfolgende GG-Drähte den Kontakt verloren haben. Die Verzerrungen werden um mehr als einen Faktor 3 reduziert, indem die Hochspannung der Anodendrähte um 50 V und somit der Gasverstärkungsfaktor um einen Faktor 2 verringert wird und indem das Potential der noch funktionierenden GG-Drähte erhöht wird.
Zusammenfassend konnten die lokalen Raumladungsverzerrungen für die letzte Pb−Pb Strahlzeit von Run 2 auf weniger als 1cm bei den höchsten Interaktionsraten verringert werden. Zudem wurde der Anteil des von Raumladungsverzerrungen betroffenen Volumens der TPC signifikant verringert, sodass die ursprüngliche Auflösung der Spurrekonstruktion wieder erreicht werden konnte.
Die kathetergestützte Thrombektomie ist, spätestens seitdem 2015 verschiedene Studien ihre Überlegenheit zur alleinigen medikamentösen Behandlung gezeigt haben, die bevorzugte Therapie bei Patienten mit akutem ischämi-schem Schlaganfall und embolischen Verschluss einer großen intrakraniellen Arterie. Obwohl die mechanische Thrombektomie mittlerweile zur Standardthe-rapie zählt, ist der Zusammenhang zwischen Lokalisation des Infarktareals und klinischem Behandlungsergebnis nach Thrombektomie bisher nicht gut untersucht. Die dieser Studie zugrunde liegende Hypothese war, dass Infarktdemar-kationen in der zentralen Corona radiata, Capsula interna und/oder den Ba-salganglien aufgrund einer potenziellen Schädigung der Fasern des Tractus corticospinalis mit einem schlechten Behandlungsergebnis (mRS 3 bis 6) nach mechanischer Thrombektomie assoziiert sind. Ziel dieser Studie war es somit, den Behandlungserfolg nach Thrombektomie bei Patienten mit entsprechender Infarktlokalisation zu untersuchen.
Hierfür wurden die Daten von 70 erwachsenen Patienten analysiert, die im Zeitraum von April 2016 bis Januar 2020 im Institut für Neuroradiologie des Universitätsklinikums Frankfurt aufgrund eines ischämischen Infarktes mit entsprechender Infarktdemarkation eine mechanische Thrombektomie erhalten haben. Alle erhobenen Daten stammen aus der elektronischen Krankenakte, dem Radiologie-Informations-System oder einem prospektiven Register zur internen Qualitätssicherung. Es erfolgte außerdem eine Unterteilung der Studi-enkohorte anhand des zusätzlichen kortikalen Infarktausmaßes bzw. der kortikalen Infarktlokalisation, um den Einfluss kortikaler Infarkte auf das Behandlungsergebnis beurteilen zu können. Die wichtigsten Endpunkte der Studie waren das klinische Behandlungsergebnis gemessen anhand der mRS nach 90 Tagen sowie die Ergebnisse der Subgruppenanalyse.
51,4 % der Studienpopulation erzielten nach 90 Tagen ein gutes klinische Be-handlungsergebnis (mRS 0 bis 2), 32,9 % der Patienten erreichten sogar ein exzellentes Ergebnis (mRS 0 bis 1). Insgesamt verstarben innerhalb von 90 Tagen nach dem Schlaganfallereignis 15,7 % aller Patienten und 32,9 % konn-ten nur ein schlechtes Behandlungsergebnis (mRS 3 bis 5) erzielen. Die Ergebnisse zeigen, dass die in der routinemäßig angefertigten Bildgebung nachgewiesenen Infarktdemarkationen im Verlauf der langen Bahnen nicht zwingend ein schlechtes Behandlungsergebnis bedingen. Bei Patienten mit ausge-dehnter Beteiligung des Kortex und Infarkten in definierten eloquenten Arealen waren die klinischen Behandlungsergebnisse allerdings schlechter als in der Vergleichsgruppe mit isolierten Läsionen der langen Bahnen.
Um künftig ein besseres Verständnis darüber zu erlangen, welche Patienten mit bestimmter Infarktlokalisation von einer mechanischen Thrombektomie langfristig profitieren können, sind weitere prospektive Studien mit exakt definierten Vergleichsgruppen und höherwertiger MRT-basierter Bildgebung erforderlich.
Im Rahmen der Versorgung von polytraumatisierten (schwerstverletzten) Patienten ist insbesondere die systemische Inflammation zu beachten. Durch das initiale Trauma (“first hit“) kommt es zu einer systemischen Dysregulation der inflammatorischen Kaskaden, wobei sowohl eine überschießende (SIRS/Sepsis) wie auch unterschießende Reaktion (CARS) zu schweren Komplikationen wie Multiorganversagen bis hin zum Tod führen kann. Die notfallmässige chirurgische Versorgung fügt durch multiple Faktoren wie Weichteilverletzung, Blutverlust und Intubation dem Patienten einen “second hit“ zu, welcher sich auf den “first hit“ aufsummieren und besagte Komplikationen induzieren kann. Aufgrund dessen wurden verschiedene Therapiekonzepte entwickelt wie beispielsweise die “Damage control surgery“, welche durch minimalinvasive Techniken die notfallmässig versorgungsbedürftigen Verletzungen temporär stabilisiert/versorgt, bis der Patient sich physiologisch stabilisiert und definitiv versorgt werden kann. Eine weitere Strategie stellt die „Safe Definitive Surgery“ dar, welche eine Synopsis bildet aus zu einen frühzeitiger definitiver Versorgung gepaart mit minimalinvasiven Techniken, um während der Operation multipler Frakturen intraoperativ anhand der Physiologie des Patienten regelmäßig zu reevaluieren und daran zu adjustieren.
Bei der definitiven Versorgung von langen Röhrenknochen im Schaftbereich werden klinisch standardmässig Marknägel verwendet. Hierbei eröffnet man den langen Röhrenkochen am proximalen Eintrittspunkt, bohrt den Knochen intramedullär mittels “Reamer“ auf und führt den Nagel ein, welchen man mittels Schrauben multidimensional in der Corticalis verriegelt. Hierbei stellt die intramedulläre Aufbohrung den kritischsten Schritt dar, da hierbei zum einen Knochenmark austritt und durch den Bohrer Thermonekrosen im Knochen auftreten können sowie auch Knochenpartikel austreten. Um diese Nachteile zu beheben, wurde der “Reamer-Irrigator-Aspirator“ (RIA) entwickelt, welcher nebst der klassischen Bohrfunktion noch eine Spül-Saugfunktion innehat und somit parallel intramedullär eine Kühlung herbeiführt, wie auch das Knochenmark nebst Knochenpartikeln absaugt. Hiervon gibt es eine ältere (RIA 1) und eine neuere (RIA 2) Version, wobei sich diese geringfügig in Grösse des Bohrkopfes und der Saugfunktion wie auch im Handling unterscheiden. Wenig ist jedoch zum aktuellen Zeitpunkt bekannt, welche Auswirkungen diese unterschiedlichen Versionen verglichen mit dem konventionellen “Reamer haben“. Um dies näher zu evaluieren, wurde ein standardisiertes Polytrauma-Modell an 30 Schweinen (Sus scrofa) durchgeführt. Unter konstanter Analgesie wurde nach Erreichen einer standardisierten Baseline an 24 der Tiere ein Polytrauma, bestehend aus unilateraler Femurfraktur, stumpfem Thoraxtrauma inklusive Leberlazeration und hämorrhagischem Schock ausgeübt. Sechs Tiere fungierten als Kontrollgruppe (sham), welche kein Trauma sowie Therapie erhielten, aber sonst gleich behandelt wurden. Die polytraumatisierten Tiere erhielten Therapie nach Schockraum- und ATLS Versorgung nach dem Trauma. Bestehend aus “Abdominal Packing“, Kreislaufstabilisierung und Versorgung der Femurfraktur mittels intramedullärer Nagelung. Die 24 polytraumtisierten Versuchstiere wurden bezüglich der Versorgung der Femurfraktur in drei Gruppen aufgeteilt: 1) Konventionelles Reaming, 2) RIA 1 und 3) RIA 2. An sechs Zeitpunkte (t1 (-1.5h) - t6 (6h)) über 7.5 Stunden erfolgten regelmäßige Blut- wie Urinentnahmen und eine bronchoalveoläre Lavage vor fachgerechtem Exitus am letzen Zeitpunkt. Anschließend wurde mittels ELISA in besagten Proben das Interleukin-6, Interleukin-8, Interleukin-10 und Tumornekrosefaktor-alpha bestimmt und statistische Unterschiede zwischen den Gruppen ermittelt.
Die Ergebnisse legen nahe, dass die Verwendung des Reamer-Irrigator-Aspirator Typ 2 aufgrund spezifischer Modifikationen verglichen mit seinem Vorgänger (RIA Typ 1) eine geringere inflammatorische Immunantwort aufweist. Verglichen mit dem konventionellen Reaming konnte in unserer Versuchsreihe in Hinblick auf entzündliche Mediatoren systemisch wie lokal kein Unterschied zu der Versorgung mittels RIA aufgezeigt werden. Jedoch präsentierte sich bei der Benutzung des konventionellen Reamers auch in unserer Versuchsreihe das Auftreten einer Fett/Lungenembolie, was bereits in der Literatur als eine gängige Komplikation dieses Instrumentariums beschrieben wird. Zusammenfassend ist der Reaming-Irrigator-Aspirator eine modernisierte Version des konventionellem Reamers, welcher multiple Vorteile aufweist, jedoch im Rahmen der Kostensenkung wahrscheinlich erst im weiteren zeitlichen Verlauf regelmäßige Anwendung in der Klinik finden wird.
Einleitung: Frailty (engl. für Gebrechlichkeit) bezeichnet eine mit hohem Alter zunehmende Verschlechterung des körperlichen und kognitiven Zustandes von Individuen, woraufhin der Körper nicht mehr in der Lage ist, adäquat auf äußere und innere Stressoren zu reagieren. Frailty ist mit einer erhöhten Morbiditäts- und Mortalitätsrate sowie längerer Krankenhausverweildauer und erhöhter postoperativer Komplikationsrate verbunden und stellt folglich einen chirurgischen Risikofaktor dar.
Problemstellung: Die Relevanz eines strukturierten Frailty Assessments in der präoperativen Risikostratifizierung führte zur Indikationsstellung, diverse validierte Risk Assessment Tools auf ihre prädiktive Vorhersagekraft bezüglich des Auftretens von postoperativen Komplikationen und postoperativer Sterbewahrscheinlichkeit zu untersuchen.
Methoden: In die vorliegende Studie wurden Patienten, die in dem Zeitraum vom 01.09.2018 und 31.01.2019 in der allgemeinchirurgischen Ambulanz vorstellig waren und einen allgemeinchirurgischen Eingriff erhielten, aufgenommen. Mittels Fragebögen wurden die Scores „Risk Analysis Index“, „Edmonton Frail Scale“ sowie „Charlson Comorbidity Index“ präoperativ erhoben und retrospektiv mit Daten aus der digitalen Patientenakte zusammengeführt. Endpunkte waren die 90-Tages- Mortalität sowie das Auftreten von schweren postoperativen Komplikationen ab Clavien Dindo Grad 3b. Die Analyse erfolgte in SPSS mittels Chi-Quadrat Test, t- Test und ROC-Kurven Analysen.
Ergebnisse: Das durchschnittliche Alter der Studienkohorte lag bei 56 ± 15.9 Jahren und der Anteil männlicher Patienten überwog mit 59.2% (n=282).
Die Fragebögen wurden 739 Patienten vorlegt und 476 Patienten konnten in die Datenanalyse eingeschlossen werden. Die 90-Tages-Mortalität lag bei 2.7% (n=13) und 9% (n=43) erlitten schwere postoperative Komplikationen ab Clavien-Dindo Grad IIIb. Die Einteilung nach der ASA-Klassifikation (p=0.024), maligne Diagnosen -7-(p<0.001) und Majorkomplikationen (p<0.001) stellten präoperative Risikofaktoren für postoperative 90-Tage-Mortalität dar. Von den Risk Assessment Scores zeigte lediglich der Risk Analysis Index eine signifikante Korrelation auf (p=0.013). Ein mittels ROC-Analyse ermittelter Cut-Off Wert von 23 klassifizierte 166 (34.9%) Patienten als frail, die mit 69% Sensitivität und 66% Spezifität (AUC=0.735) ein erhöhtes Risiko für postoperatives Versterben innerhalb von 90 Tagen aufwiesen (p=0.008). Risikofaktoren für das Auftreten schwerer postoperativer Komplikationen waren die ASA-Klassifikation (p=0.041), längere Krankenhausverweildauer (p<0.001) und maligne Diagnosen (p<0.001). Der Charlson Comorbidity Index (p=0.031) und RAI-C Werte ≥ 23 (p<0.001) korrelierten signifikant mit Majorkomplikationen. Das Alter ab 65 Jahren stellte mit 77 % Spezifität und 69 % Sensitivität ebenfalls einen prädiktiven Risikofaktor für postoperative Mortalität dar (AUC=0,787).
Schlussfolgerung: Mithilfe validierter Risk Assessment Tools ist es möglich Patienten, die ein erhöhtes Risiko für postoperative negative Ereignisse aufweisen, bereits präoperativ zu erkennen. Dies ermöglicht eine bessere Beurteilung der chirurgischen Indikationsstellung sowie das rechtzeitige Ergreifen von risikominimierenden Maßnahmen. Es ist notwendig die Ergebnisse dieser Arbeit künftig mit risikominimierenden Maßnahmen zu verknüpfen und zu untersuchen, ob die Implementierung der Risk Assessment Tools zu verbesserten postoperativen Ergebnissen führt, wenn modifizierbare Faktoren verbessert werden.
In den letzten Jahren haben sich die Therapiemöglichkeiten des Mammakarzinoms deutlich verbessert. Durch die Analyse von genetischen Veränderungen in den Tumorzellen oder in der Keimbahn ist eine zielgerichtete Tumortherapie bei einigen Subgruppen möglich; z.B. mit PARP- und PIK3CA-Inhibitoren.
In einer retrospektiven Analyse wurde in dieser Arbeit untersucht, wie genetische Mutationsanalysen in einer onkologischen Schwerpunktpraxis eingesetzt werden. Es sollte untersucht werden, wie häufig PatientInnen in einer onkologischen Praxis mit metastasiertem Mammakarzinom eine Mutationsanalyse brustkrebsassoziierter Gene erhalten haben, und welche Konsequenzen daraus gezogen wurden. Dabei wurde der Zeitraum von 2019 – 2022 betrachtet. Mithilfe der Software Albis wurden Daten von 49 PatientInnen identifiziert. 40 PatientInnen haben eine Keimbahndiagnostik der Gene BRCA1/2 erhalten. Von den PatientInnen, die die BRCA1/2-Analyse bekommen haben, konnten in 20% der PatientInnen eine Mutation in BRCA1 oder 2 detektiert werden. Bei den meisten dieser PatientInnen wurde der PARP Inhibitor Olaparib therapeutisch eingesetzt. 10 PatientInnen erhielten eine PIK3CA-Analyse, 9 von ihnen mittels PCR und eine mittels NGS. In dieser Gruppe wurde bei einer Patientin eine Mutation im PIK3CA-Gen ermittelt. 15 PatientInnen haben eine Multigenpanel-Diagnostik erhalten. Dabei ist eine Reihe weiterer genetischer Veränderungen nachgewiesen worden. Für einige dieser Veränderungen stehen therapeutische Möglichkeiten zur Verfügung, die zwar nicht für das Mammakarzinom, aber für andere Tumorentitäten bereits zugelassen sind.
Das periinterventionelle Management von antikoagulierten Patienten stellt eine große Herausforderung im klinischen Alltag dar. Die genaue Abwägung von Blutungs- und Thromboembolierisiko ist essentieller Bestandteil der Frage, ob und wann die blutgerinnungshemmende Medikation pausiert werden soll. Ist das Zeitintervall zur geplanten Intervention zu kurz gewählt und daher die antikoagulierende Wirkung der Arzneimittel noch ausgeprägt, kann es leichter zu intra- und postoperativen Blutungen kommen. Umgekehrt kann es bei einer zu langen Unterbrechung der Antikoagulation zur Entwicklung von Thromboembolien kommen. Um diese Risiken zu minimieren und die Patientensicherheit zu verbessern ist ein leitliniengerechtes Handeln von großer Bedeutung. Durch den Einfluss des demographischen Wandels und die steigende Inzidenz der Erkrankungen, die eine Antikoagulation notwendig machen, erhöht sich ebenso die Anzahl der antikoagulierten Patienten, die sich einer elektiven Operation unterziehen müssen, wodurch das Thema schon seit Jahren an Bedeutung gewinnt. Trotz diverser Leitlinien, die in den letzten Jahren publiziert wurden, findet man im klinischen Alltag oftmals nicht auf Anhieb die passende Empfehlung, da diese von dem Einfluss etlicher Risikofaktoren, wie Alter, Geschlecht, Nierenfunktion u.a. bestimmt werden sollte. Der Einsatz eines Clinic Decision Support Systems (CDSS) kann ein leitliniengerechtes Handeln möglicherweise verbessern, indem patientenspezifische Risikokonstellationen anhand europäischer Leitlinien geprüft werden und dem Nutzer eine optimale Vorgehensweise unterbreitet wird.
Zielsetzung: In dieser Arbeit, soll die Eignung eines klinischen Entscheidungs-Unterstützungssystems (CDSS) anhand eines Multiple Choice (MC) Tests mit 11 kliniknahen Fallbeispielen, bezüglich evidenzbasierten perioperativen Managements von antikoagulierten Patienten untersucht werden.
Methoden: Im Rahmen einer klinischen prospektiven randomisierten multizentrischen Simulationsstudie beantworteten Ärztinnen und Ärzte einen Multiple Choice Test bestehend aus 11 Fallbeispielen zum Thema periinterventionelles Management von antikoagulierten Patienten. Dabei sollte zu - 5 - jedem Beispiel zwei möglichst leitliniengerechte Empfehlung ausgewählt werden.
Die Ärztinnen und Ärzte wurden vorab in zwei Gruppen randomisiert. Der PERI-KOAG Gruppe wurde das CDSS zur Beantwortung der Fragen zur Verfügung gestellt. Die Kontroll-Gruppe hatte hingegen keinen Zugriff auf die Applikation und sollte den Test mit frei zugänglichen Hilfsmitteln, zum Beispiel Leitlinien oder anderen allgemein verfügbaren Apps beantworten. Die beiden Gruppen wurden anschließend in Bezug auf die Gesamtergebnisse, die Bearbeitungszeit und Berufserfahrung verglichen.
Ergebnisse: Insgesamt wurden 168 Teilnehmer in die beiden Gruppen randomisiert, wovon 76 Teilnehmer, 42 Teilnehmer der PERI-KOAG Gruppe und 34 Teilnehmer der Kontroll-Gruppe den MC-Test vollständig beendeten und in die weitere Auswertung eingeschlossen wurden. Der MC-Test konnte mit maximal 22 Punkten (=100%) abgeschlossen werden. Die PERI-KOAG Gruppe erreichte dabei im Durchschnitt signifikant bessere Ergebnisse als die Kontroll-Gruppe (82 ±15% vs. 70 ±10%; 18 ±3 vs. 15 ±2 Punkte; P =0,0003). Unter Berücksichtigung der Bearbeitungszeit erzielten Teilnehmer mit längerer Bearbeitung durchschnittlich höhere Ergebnisse, als Kollegen welche den Test schneller abschlossen. Dieser Effekt zeigte sich in beiden Gruppen. Ein signifikanter Unterschied konnte hierbei nur in der PERI-KOAG Gruppe gezeigt werden (PERI-KOAG Gruppe ≥33 min. 89 ±10% (20 ±2 Punkte) vs. <33 min. 73 ±15% (16 ±3 Punkte), P =0,0005). Innerhalb der PERI-KOAG Gruppe zeigten sich tendenziell höhere Ergebnisse innerhalb der erfahreneren Gruppe (>5 Jahre Berufserfahrung), aber keinen signifikanten Unterschied zu weniger (≤5 Jahre Berufserfahrung) erfahrenen Kollegen (87 ±10% (19 ±2 Punkte) vs. 78 ±17% (17 ±4 Punkte), P =0,08). Dagegen konnte in der Kontroll-Gruppe kein Unterschied zwischen den Testresultaten von mehr und weniger erfahrenen Teilnehmern gezeigt werden (>5 Jahre: 71 ±8% (16 ±2 Punkte) vs. ≤5 Jahre: 70 ±13% (15 ±3 Punkte) P =0,66).
Diskussion: Diese Arbeit zeigt, dass im Rahmen eines MC-Tests mit Hilfe des CDSS ein leitliniengerechtes perioperatives Management von antikoagulierten Patienten signifikant verbessert werden kann. Eine fachgerechte Anwendung des Tools ist essentiell, um schwerwiegende Folgen, wie Blutungen oder Thromboembolien zu vermeiden. Eine längere Bearbeitungszeit und mutmaßlich intensivere Nutzung des CDSS, geht mit besseren Ergebnissen einher als eine schnelle Testbearbeitung. Ein insgesamt verbessertes leitliniengerechtes Management zeigt, unabhängig von der Berufserfahrung der Teilnehmer, das große Potential des CDSS.
Hintergrund: Amblyopie ist nach Fehlsichtigkeit die häufigste Sehstörung bei Kindern. Sie ist eine wesentliche Ursache für eine lebenslange Minderung der bestkorrigierten Sehschärfe und ist meist unilateral. Eine Asymmetrie in der Qualität des visuellen Eindrucks während der sensiblen Phase führt in der Regel zu einer unzureichenden Entwicklung des binokularen Sehsystems. Die Standardtherapie der Amblyopie besteht aus optimaler optischer Korrektur vorhandener Brechungsfehler und der direkten Okklusion, wobei das funktionsbessere Auge zeitweise mit einem Augenpflaster abgedeckt wird. Bisherige Studien haben gezeigt, dass besonders bei Patienten mit tiefer Amblyopie, die Therapietreue oft mäßig ist. In einigen Fällen kann das amblyope Auge nicht mit der Foveola fixieren. Diese exzentrische Fixation beeinflusst den Therapieerfolg negativ. Unser Ziel war, bei dieser speziellen Patientengruppe die Okklusionsdauer objektiv zu registrieren und deren Auswirkung auf die Visusentwicklung und die Fixationsänderung in Abhängigkeit vom Alter über einen langen Zeitraum zu untersuchen.
Methoden: In unserer prospektiven multizentrischen Pilotstudie untersuchten wir amblyope Kinder mit exzentrischer Fixation im Alter von 3-16 Jahren während 12-monatiger Okklusionsbehandlung. Der Nahvisus wurde mittels Landoltringen und Lea-Symbolen (jeweils Reihenoptotypen) bestimmt. Die Okklusionsdauer wurde kontinuierlich mit einem TheraMon®-Mikrosensor aufgezeichnet, der am Augenpflaster angebracht wurde. Der Fixationsort am Augenhintergrund wurde mit einem direkten Ophthalmoskop bestimmt. Unsere Ziele waren: Evaluierung der Sehfunktion, Therapieadhärenz und Beurteilung des Fixationsortes des amblyopen Auges. Der Anteil des korrigierten Visusdefizits, die Dosis-Wirkungs-Beziehung und die Therapieeffizienz wurden berechnet.
Ergebnisse: In unserer Studie wurden 12 Patienten mit Schiel- und kombinierter Schiel- und Anisometropieamblyopie im Alter von 2,9-12,4 Jahren (im Mittel 6,5 ± 3,4 Jahre) untersucht. Der Anfangsvisus der amblyopen Augen nach 3 Monaten refraktiver Adaptationsphase lag im Mittel bei 1,4 ± 0,4 logMAR (Spannweite 0,9-2,0), und der 5 Führungsaugen bei 0,3 ± 0,3 logMAR (Spannweite -0,1-0,8). Die mittlere interokuläre Visusdifferenz (IOVAD, Visusunterschied zwischen dem amblyopen Auge und dem Führungsauge) zu Beginn betrug im Mittel 1,1 ± 0,4 log Einheiten (Spannweite 0,5-1,8). Die verschriebene Okklusionsdauer lag im Median bei 7,7 Stunden/Tag (Spannweite 6,6-9,9), die tatsächlich erreichte bei 5,2 Stunden/Tag (Spannweite 0,7-9,7). Nach 12 Monaten betrug die mediane Visusbesserung der amblyopen Augen 0,6 log Einheiten (Spannweite 0-1,6), die mediane IOVAD 0,3 log Einheiten (Spannweite 0-1,8). Multiple Regressionsanalyse mit Rückwärtselimination zeigte, dass sowohl das Alter (p=0,0002) als auch die Okklusionsdosis (p=0,046) signifikante Einflussfaktoren für den Visusanstieg waren. Kinder unter 4 Jahren zeigten das beste Ansprechen mit der niedrigsten Rest-IOVAD (Median 0,1 log Einheiten, Spannweite 0-0,3). Die Effizienzberechnung ergab eine Visusbesserung von etwa einer log Visusstufe pro 100 Stunden Okklusion in den ersten zwei Monaten und einer halben log Visusstufe nach 6 Monaten. Die Therapieeffizienz nahm mit zunehmendem Alter ab (p = 0,01). Trotz einer gewissen Visusbesserung auch bei Patienten im Alter von ≥8 Jahren (Median 0,4 log Einheiten), zeigten diese eine geringere Therapieadhärenz sowie -effizienz (mediane Rest-IOVAD 0,8 log Einheiten). Zentrale Fixation wurde von 9 Patienten nach im Median 3 Monaten erreicht (Spannweite 1-4 Monate). Drei Patienten (>6 Jahre) erreichten keine zentrale Fixation.
Schlussfolgerung: Amblyopie mit exzentrischer Fixation stellt auch bei guter Adhärenz eine Herausforderung für den Therapieerfolg dar. Unsere Studie zeigte erstmals prospektive quantitative Daten basierend auf elektronischer Erfassung der Okklusion bei dieser seltenen Patientengruppe. Es konnte die deutliche Abnahme der Therapieeffizienz mit zunehmendem Alter gezeigt werden. Die Visusbesserung wurde viel stärker vom Alter als von der Okklusionsdosis beeinflusst. Nur Kinder, die zum Okklusionsbeginn jünger als 4 Jahre waren, konnten im Studienzeitraum in ihren amblyopen Augen eine für ihr Alter annähernd normale Sehschärfe und eine IOVAD <0,2 log Einheiten erreichen. Demzufolge sind, trotz möglicher geringer Visusbesserung auch bei älteren Patienten, eine frühzeitige Diagnose und Therapie dieser Patientengruppe unerlässlich für den Therapieerfolg.
Förderung: bereitgestellt durch den Forschungspreis des Vereins „Augenstern e.V.“
In Deutschland existieren nur wenige Ergebnisse aus der klinischen Forschung, die im Kontext der allgemeinmedizinischen Versorgung gewonnen wurden. Dies ist u.a. damit zu begründen, dass Forschung in der Allgemeinmedizin in den Praxisalltag eingebunden sein muss, worauf die gegenwärtige Versorgungsstruktur nicht ausgelegt ist. Damit für Hausärztinnen und Hausärzte Forschung im Praxisalltag möglich ist, müssen also Strukturen geschaffen werden, die Forschung ermöglichen. Eine solche Struktur bieten Forschungspraxennetze (FPN) wie beispielsweise das Forschungspraxennetz „ForN“. ForN wurde vom Institut für Allgemeinmedizin der Goethe-Universität Frankfurt am Main im Jahr 2011 initiiert. In ForN tätige Forschungspraxen können sich mit einer Gültigkeit von fünf Jahren als „akademische Forschungspraxis“ akkreditieren lassen, wenn sie bestimmte Anforderungen erfüllen. Dazu gehört die Teilnahme an für Forschungsprojekte qualifizierenden Fortbildungen oder an Netz-begleitenden Treffen für Ärztinnen, Ärzte und Medizinische Fachangestellte (MFA) sowie die regelmäßige Teilnahme an Forschungsprojekten. Eine Verlängerung der Akkreditierung nach fünf Jahren ist möglich. Bisherige Publikationen über Forschung zu FPN bieten insbesondere Einblicke in Faktoren, welche den Beitritt in ein FPN fördern oder eher behindern. Forschung, die Faktoren der längerfristigen Mitwirkung der Praxen an FPN (wie Austrittsgründe, aber auch Motivation, eine Re-Akkreditierung anzustreben) untersucht, ist im Gegensatz dazu rar.
Diese Dissertation untersucht diese Faktoren anhand der folgenden Fragen: warum traten Forschungspraxen im Laufe der Zeit aus dem FPN ForN aus (ehemalige Mitglieder) und warum strebten andere eine Re-Akkreditierung an (aktive Mitglieder)? Weitere Unterfragen dieser Arbeit sind: welche Faktoren motivierten oder erschwerten hausärztlichen Teams eine Mitwirkung als Forschungspraxis? Wie wurde die bisherige Zusammenarbeit gesehen und als wie gut machbar wurden die Anforderungen zur Erlangung der Bezeichnung „akademische Forschungspraxis“ eingeschätzt?
Es wurde ein Fragebogen für ehemalige ärztliche ForN-Mitglieder entworfen und eingesetzt. Des Weiteren wurden Daten aus Fragebogenerhebungen von aktiven ForN-Mitgliedern (Hausärztinnen, Hausärzte, MFA) aufbereitetet. Die Daten wurden mithilfe der Datenanalysesoftware SPSS deskriptiv unter Angabe der Häufigkeiten, Mittelwerte, Standardabweichungen und Spannweiten ausgewertet.
Es konnten 14 Fragebögen von ehemaligen ärztlichen ForN-Mitgliedern aus 13 Praxen analysiert werden. Von den aktiven ForN-Mitgliedern wurden Fragebögen von 48 Ärztinnen und Ärzten sowie 57 MFA aus 41 Praxen ausgewertet. Als Gründe für den Austritt wurde von ehemaligen Mitgliedern insbesondere Zeitmangel und eine hohe Arbeitsbelastung angegeben. Weitere erschwerende Umstände waren ein Mangel an MFA, eine große Entfernung zum Standort des Instituts für Allgemeinmedizin und persönliche Gründe. Bis auf letztere Angabe waren dies auch die größten Hürden während der Teilnahme, die von aktiven Mitgliedern beschrieben wurden. Einen Beitrag für die Allgemeinmedizin zu leisten, persönliche Kompetenzen und Kompetenzen des Praxisteams zu erweitern sowie Abwechslung im Praxisalltag zu erleben, waren die wichtigsten motivierenden Faktoren einer Teilnahme im Forschungspraxennetz ForN, sowohl für aktive als auch für ehemalige Mitglieder. Die Anforderungen des FPN ForN an die Akkreditierung als Forschungspraxis wurden aus Perspektive der aktiven Mitglieder überwiegend als machbar empfunden. Nur die Umsetzung zusätzlicher, nicht verpflichtender Aktivitäten wurde als schwieriger erfüllbar bewertet. Bezüglich der Zusammenarbeit mit dem Institut für Allgemeinmedizin gaben ehemalige ärztliche ForN-Mitglieder an, eine gute Vorbereitung auf Forschungsaufgaben erfahren zu haben, dem ForN-Team des Instituts für Allgemeinmedizin vertrauen zu können und dass die Kommunikation allgemein gut war.
Gründe für den Austritt aus dem FPN und Hindernisse während der Teilnahme in ForN waren überwiegend externe Faktoren wie Zeitmangel, eine hohe Arbeitsbelastung oder ein Mangel an MFA. Auf diese Faktoren hat das Institut für Allgemeinmedizin keinen direkten Einfluss, es kann lediglich die administrativen Aufgaben innerhalb eines Forschungsprojektes für das Team einer Forschungspraxis so vorstrukturieren, dass sie möglichst gut im Praxisalltag bewältigt werden können. Ein Vergleich mit Publikationen, die sich mit förderlichen und hinderlichen Faktoren eines Beitritts in ein FPN auseinandersetzen, zeigt, dass ähnliche Gründe auch die längerfristige Mitwirkung beeinflussen.
Influenza is a contagious respiratory disease caused by influenza A and influenza B viruses. The World Health Organisation (WHO) reports that annual influenza epidemics result in approximately 1 billion infections, 3 to 5 million severe cases, and 300 to 650 thousand deaths. Understanding hidden mechanisms that lead to optimal vaccine efficacy and improvement antiviral treatment strategies remain continuous and central tasks. First, regarding the immune response to vaccines and natural infections, the antibody response echoes the dynamics of diverse immune elements such as B-cells, and plasma cells. Also, responses reflect the processes for B-cells to gain and adapt affinity for the virus. Antibodies (Abs) that respond to the virus surface proteins, particularly to the hemagglutinin (HA), have been identified to protect against infection. The Abs responses binding to HA can be broadly protective as this protein is considerably accessible on the virion. When following sequential infections with similar influenza strains, i.e. two infections with different strains of a subtype, an enhanced breadth and magnitude of Abs response is developed, mainly after the second infection. The effect of being effective to new strains is called Abs cross-reaction.
On the other hand, as for antiviral treatment, the WHO currently approves the use of neuraminidase inhibitors (NIs) such as zanamivir and oseltamivir. Diverse research areas such as system biology, learning-based methods, control theory, and systems pharmacology have guided the development of modern treatment schemes. To do so, mathematical models are used to describe a wide range of phenomena such as viral pathogenesis, immune responses, and the drug's dynamics in the body. Drug dynamics are usually expressed in two phases, pharmacokinetics (PK) and pharmacodynamics (PD) - the PK/PD approach. These schemes leverage pre-clinical and clinical data through modeling and simulation of infection and drug effects at diverse levels. Under such a framework, control-based scheduling systems seek to tailor optimal antiviral treatment for infectious diseases. Thus, influenza treatment can be theoretically studied as a control-based optimization duty (about systems stability, bounded inputs, and optimality). Finally, towards real-world implementation, learning-based methods such as neural networks (NNs) can guide solving issues on the control-based performance. Using NNs as identifiers provide a setting to deal with infrequent measures and uncertain parameters for the control systems.
This thesis theoretically explores central mechanisms in influenza infection via modeling and control approaches. In the first project, we explore how and to what extent antibody-antigen affinity flexibility could guide the Abs cross-reaction in two sequential infections using a hypothetical family of antigens. The set of antigens generally represent strains of influenza, such as those of a subtype. Each antigen is composed of a variable and a conserved area, generically representing the structures of the HA, head, and stalk, respectively. We test diverse scenarios of affinity thresholds in the conserved and variable areas of the antigens. The Abs response reaches a high magnitude when using equivalent affinity thresholds in the conserved and variable areas during the first infection. However, improved cross-reaction is developed when slightly increasing the affinity threshold of the variable area for the second infection. Key mutations via affinity maturation is a feature that, together with affinity flexibility between infections, guides Abs cross-reaction in the model outcome. These results could correlate with studies pointing out that broad responses might be dependent on reaching specific mutations for getting affinity to a newly presented antigen while broadly reaching related antigens. The general platform may serve as a proof-of-concept for exploring fundamental mechanisms that favor the Abs cross-reaction.
In a second project, theoretical schemes are developed to combine impulsive and inverse optimal control strategies to address antiviral treatment scheduling. We present results regarding stability, passivity, bounded inputs, and optimality using impulsive action. The study is founded on mathematical models of the influenza virus (target-cell limited model) adjusted to data from clinical trials. In these studies, participants were experimentally infected with influenza H1N1 and treated with NIs. Results show that control-based strategies could tailor dosage and reduce the amount of medication by up to 44%. Also, control-based treatment reaches the efficacy (98%) of the current treatment recommendations by the WHO. Monte Carlo simulations (MCS) disclose the robustness of the proposed control-based techniques. Using MCS, we also explore the applicability to the individualized treatment of infectious diseases through virtual clinical trials. Furthermore, bounded control strategies are applied directly in drug dose estimation accounting for overdose prevention. Finally, due to the limitations of the available technology intended for clinical practice, we emphasize the necessity of developing system identifiers and observers for real-world applications.
In the third project, the problem of data scarcity and infrequent measures in the real world is handled by means of learning-based methods. System identification is derived using a Recurrent High Order Neural Network (RHONN) trained with the Extended Kalman filter (EKF). Lessons learned from impulsive control frameworks are taken to develop a neural inverse optimal impulsive control --neurocontrol. The treatment efficacy is tested for early (one day post-infection) and late (2 to 3 days post-infection) treatment initiation. The neurocontrol reaches an efficacy of up to 95% while saving almost 40% of the total drug in the early treatment. Robustness is tested via virtual clinical trials using MCS.
Lastly, taking all together, the schemes developed in this thesis for modeling the Abs cross-reaction and control-based treatment tailoring can be extended and adapted to explore similar phenomena in different respiratory pathogens, such as SARS-CoV-2.
Molecular oxygen (O2) is essential for numerous metabolic processes. Not surprisingly, hypoxia and the resulting adaptations play a pivotal role in pathophysiology, e.g., in cancer or in inflammatory diseases. Of note, myeloid cells are known to accumulate in hypoxic regions such as tumor cores or rheumatoid arthritis joints and may contribute to disease progression. While most studies so far concentrated on transcriptional adaptation by the hypoxia-inducible factors (HIF) 1 and 2 under short term hypoxia, prolonged oxygen deprivation and alternative post-transcriptional regulation are rather poorly investigated.
Consequently, the aim of the study was to generate a comprehensive overview of mRNA de novo synthesis and degradation and its contribution to total mRNA changes in monocytic cells in the course of hypoxia.
To this end, I used thiol-linked alkylation for the metabolic sequencing of RNA (SLAM-Seq) to characterize RNA dynamics under hypoxia. Specifically, I labeled monocytic THP-1 cells under normoxia (N), acute hypoxia (AH; 8 h 1% O2), or chronic hypoxia (CH; 72 h 1% O2) with 4-thiouridine (4sU), which allows for transcriptome-wide identification of de novo synthesized mRNAs and estimation of their half-lives. Total mRNA expression analyses revealed that most changes occurred under CH. Considering that HIF accumulation and resulting transcriptional regulation was shown to decline again under CH, I further analyzed the impact of RNA stability on gene expression. I observed a global reduction in RNA half-lives under hypoxia, indicative for the attenuation of energy-consuming protein synthesis upon oxygen deprivation. Moreover, I observed a subgroup of hypoxic destabilized transcripts with resulting decreased mRNA expression under CH, which consisted of 59 nuclear-encoded mitochondrial mRNAs. This might prevent futile production of new mitochondria under conditions, where mitochondria are even actively degraded to prevent production of detrimental reactive oxygen species.
While stability-regulated transcripts were mainly destabilized under hypoxia, the vast majority of differentially de novo synthesized transcripts were upregulated.
Functional analyses revealed not only hypoxia, but also cholesterol homeostasis and inflammatory response as top enriched terms, corroborating findings on total mRNA level. Focusing on hypoxia-altered cholesterol metabolism, I observed an 9 accumulation of early and a decrease in late cholesterol precursors, which are separated by several oxygen-dependent enzymatic steps. Although total cholesterol levels were only slightly reduced, my data indicate locally lowered endoplasmic reticulum (ER) cholesterol levels under hypoxia, which cause feedback activation of the ER cholesterol-sensing transcription factor sterol regulatory element-binding protein 2 (SREBP2) and induction of cholesterol biosynthesis enzymes. Interestingly, a broad range of interferon-stimulated genes (ISGs), mainly known for their antiviral function, was also induced under hypoxia with similar kinetics as SREBP2 targets, suggesting an immunometabolic crosstalk. While the availability of certain cholesterol biosynthesis intermediates as well as a direct involvement of SREBP2 seemed rather unlikely to cause hypoxic ISG induction, changes in intracellular cholesterol distribution appeared crucial for the hypoxic induction of chemokine-ISGs. Mechanistically, I found that MyD88-dependent toll-like receptor 4 (TLR4) signaling contributes to enhanced hypoxic ISG induction, likely sensitized by changes in cholesterol dynamics. Importantly, hypoxia amplified induction of chemokine-ISGs in monocytes upon treatment with severe acute respiratory syndrome coronavirus type 2 (SARS-CoV-2) spike protein via TLR4 similarly as after addition of infectious virus, which might contribute to systemic inflammation in hypoxemic patients with severe coronavirus disease-2019 (COVID-19).
Taken together, I comprehensively analyzed RNA dynamics in hypoxic monocytes. Specifically, I identified RNA stability as a modulating mechanism to limit production of mitochondria under oxygen-restricted conditions. Moreover, I characterized the immunometabolic crosstalk between disturbed cholesterol homeostasis and spontaneous induction of interferon (IFN)-signaling in hypoxic monocytes, which might contribute to systemic inflammation in severe cases of COVID-19.
Aim: The cytochrome P450 reductase (POR) along with the cytochrome P450 enzymes (CYP) are responsible for the metabolism of a multitude of metabolites important for the maintenance of tissue function. Defects in this system have been associated with cardiovascular diseases. These enzymes are known to produce vasoactive lipids that modulate vascular tone. The aim of this study was to identify the consequence of a loss in endothelial POR for vascular function.
Methods and Results: To identify the endothelial contribution of the POR/CYP450 system to vascular function, we generated an endothelial-specific, tamoxifen-inducible POR knockout mouse (ecPOR-/-). Under basal condition ecPOR-/- already exhibited endothelial dysfunction in aorta and mesenteric vessels (acetylcholine-dependent relaxation, LogEC50 -7.6M for CTR vs. -7.2M for ecPOR-/- in aorta) and lower nitric oxide levels in the plasma (CTR: 236.8 ±77.4; ecPOR-/- 182.8 ±34.1 nmol/L). This dysfunction was coupled to attenuated eNOS function detected by the heavy arginine assay and decreased eNOS phosphorylation on S1177. Furthermore, insulin-induced phosphorylation of the eNOS activator, AKT, was also attenuated in the aorta from ecPOR-/- mice as compared to control mice. CYP450-dependent EET production was lower in plasma, lung and aorta of ecPOR-/- mice and this was accompanied with increased levels of vasoconstriction prostanoids (lipidomics of aorta, plasma and lung freshly isolated from CTR and ecPOR-/- mice). MACE-RNAseq from these aortas also showed a significant increase in genes annotated to eicosanoid production. In an in vivo angiotensin II model, acute deletion of POR increased the blood pressure as measured by telemetry and tail cuff (137.4 ± 15.9 mmHg in WT; 152.1 ± 7.154 mmHg in ecPOR-/-). In a rescue experiment using the NSAID naproxen, the increase in blood pressure induced by deletion of endothelial POR was abolished.
Conclusion: Collectively, in endothelial cells POR regulates eNOS activity and orchestrates the metabolic fate of arachidonic acid towards the vessel dilating EETs and away from deleterious prostanoids. In the absence of POR this endothelial regulation is compromised leading to vascular dysfunction.
The role of USP22 in nucleic acid sensing pathways and interferon-induced necroptotic cell death
(2023)
Every day, living organisms are challenged by internal and external factors that threaten to bring imbalance to their tightly regulated systems and disrupt homeostasis, leading to degeneration, and ultimately death. More than ever, we face the challenge of combating diseases such as COVID-19 caused by infection with the SARS-CoV-2 coronavirus. It is therefore crucial to identify host factors that control antiviral defense mechanisms. In addition, in the fight against cancer, it is becoming increasingly important to identify markers that could be used for targeted therapy to influence cellular processes and determine cell fate.
As a deubiquitylating enzyme, ubiquitin specific peptidase 22 (USP22) mediates the removal of the small molecule ubiquitin, which is post-translationally added to target proteins, thereby regulating several important processes such as protein degradation, activation or localization. Through its deubiquitylating function, USP22 controls several biological processes such as cell cycle regulation, proliferation and cancer immunoresistance by modulating key proteins involved in these pathways. Lately, USP22 was reported to positively regulate TNFα-mediated necroptosis, an inflammatory type of programmed cell death, in various human tumor cell lines by affecting RIPK3 phosphorylation. In addition, USP22 as a part of the Spt-Ada-Gcn5 acetyltransferase (SAGA) transcription complex is known to regulate gene expression by removing ubiquitin from histones H2A and H2B. However, little is known about the role of USP22 in global gene expression.
In this study, we performed a genome-wide screen in the human colon carcinoma cell line HT-29 and identified USP22 as a key negative regulator of basal interferon (IFN) expression. We further demonstrated that the absence of USP22 results in increased STING activity and ubiquitylation, both basally and in response to stimulation with the STING agonist 2'3'-cGAMP, thereby affecting IFNλ1 expression and basal expression of antiviral ISGs. In addition, we were able to establish USP22 as a critical host factor in controlling SARS-CoV-2 infection by regulating infection, replication, and the generation of infectious virus particles, which we attribute in part to its role in regulating STING signaling.
In the second part of the study, we connected the findings of USP22-dependent regulation of IFN signaling and TNFα-induced necroptosis and investigated the role of USP22 during necroptosis induced by the synergistic action of IFN and the Smac mimetic BV6 in caspase-deficient settings. We identified USP22 as a negative regulator of IFN-induced necroptosis, which does not depend on STING expression, but relies on a yet unknown mechanism.
In summary, we identify USP22 as an important regulator of IFN signaling with important implications for the defense against viral infections and regulation of the necroptotic pathway that could be exploited for devising targeted therapeutic strategies against viral infections and related diseases like COVID-19, and advancing precision medicine in cancer treatment.
Necroptosis is an immunogenic form of programmed cell death characterized by plasma membrane accumulation of activated mixed lineage kinase domain-like (MLKL) that eventually leads to membrane disruption and release of danger-associated molecular patterns (DAMPs). Necroptotic cell death is tightly controlled by checkpoints, including compartmentalization as well as post-translational modifications (PTMs), like phosphorylation and ubiquitination of receptor-interacting protein kinase (RIPK) 1, RIPK3 and MLKL. Removal of plasma membrane-located activated MLKL via endocytosis or exocytosis can counteract necroptosis, but up till now, the exact mechanisms by which necroptosis is regulated downstream of MLKL activation and oligomerization are not fully understood.
Ubiquitination is a key post-translational modification that regulates various cellular processes including cell survival and cell death signaling via ubiquitination of RIPK1, RIPK3 and MLKL. M1-linked (linear) poly-ubiquitination is mediated exclusively by the linear ubiquitin chain assembly complex (LUBAC) which critically regulates cell fate and immune signaling via death receptors such as TNF receptor 1 (TNFR1).
In this study, we demonstrate that M1 poly-Ubiquitin (poly-Ub) increases during necroptosis which can be blocked by inhibition of LUBAC activity with the small-molecule HOIL-1-interacting protein (HOIP) inhibitor HOIPIN-8 or by loss of LUBAC catalytic subunit HOIP. Intriguingly, HOIPIN-8, as well as the HOIP inhibitor gliotoxin, and HOIP knockdown effectively prevent TNFα/smac mimetic/zVAD.fmk-induced necroptotic cell death in cells of human origin, without affecting necroptotic RIPK1 and RIPK3 phosphorylation, necrosome formation and oligomerization of phosphorylated MLKL. We demonstrate that HOIPIN-8 treatment inhibits MLKL translocation to intracellular membranes and accumulation in plasma membrane hotspots as well as MLKL exocytosis. We further confirm that HOIPIN-8 treatment suppresses necroptotic cell death in primary human pancreatic organoids (hPOs). Using time-lapse imaging and live/dead staining, we demonstrate loss of organoid structure and hPO cell death induced by smac mimetics and caspase inhibitors, thus providing a novel platform to investigate necroptosis in near physiological settings. Inhibition of LUBAC activity with HOIPIN-8 prevents hPO collapse and extends cell viability. Of note, loss of the M1 Ub-targeting deubiquitinating enzymes (DUBs) OTU DUB with linear linkage specificity (OTULIN) and cylindromatosis (CYLD) in human cell lines does not affect necroptosis induction and HOIPIN-8-mediated rescue of necroptosis. Intriguingly, inhibition of LUBAC activity with HOIPIN-8 does not block necroptotic cell death in murine cell lines.
Using massive analyses of cDNA ends (MACE)-seq-based global transcriptome analysis we confirm that necroptosis induces a pro-inflammatory cytokine profile which is dependent on LUBAC function and necroptotic signaling. Loss of LUBAC activity prevents the MLKL-dependent production and release of pro-inflammatory cytokines and chemokines.
Finally, we identify Flotillin-1 and -2 (FLOT1/2) as putative targets of necroptosis-induced M1 poly-Ub. Ubiquitin-binding in ABIN and NEMO (UBAN)-based pulldowns of M1 poly-ubiquitinated proteins revealed enrichment of FLOTs after necroptosis induction which is dependent on LUBAC activity and can be blocked with necroptosis inhibitors Nec-1s, GSK’872 and NSA, targeting RIPK1, RIPK3 and MLKL, respectively. Of note, loss of FLOT1/2 potentiates necroptosis suppression induced by LUBAC inhibition with HOIPIN-8.
Together, these findings identify LUBAC-mediated M1 poly-Ub as an important mediator of necroptosis and identify FLOTs as novel putative targets of LUBAC-mediated M1 poly-Ub during necroptosis. In addition, by modeling necroptosis in primary human organoids, we further expand the spectrum of experimental models to study necroptosis in human cellular settings.
This dissertation is concerned with the task of map-based self-localization, using images of the ground recorded with a downward-facing camera. In this context, map-based (self-)localization is the task of determining the position and orientation of a query image that is to be localized. The map used for this purpose consists of a set of reference images with known positions and orientations in a common coordinate system. For localization, the considered methods determine correspondences between features of the query image and those of the reference images.
In comparison with localization approaches that use images of the surrounding environment, we expect that using images of the ground has the advantage that, unlike the surrounding, the visual appearance of the ground is often long-term stable. Also, by using active lighting of the ground, localization becomes independent of external lighting conditions.
This dissertation includes content of several published contributions, which present research on the development and testing of methods for feature-based localization of ground images. Our first contribution examines methods for the extraction of image features that have not been designed to be used on ground images. This survey shows that, with appropriate parametrization, several of these methods are well suited for the task.
Based on this insight, we develop and examine methods for various subtasks of map-based localization in the following contributions. We examine global localization, where all reference images have to be considered, as well as local localization, where an approximation of the query image position is already known, which allows for disregarding reference images with a large distance to this position.
In our second contribution, we present the first systematic comparison of state-of-the-art methods for ground texture based localization. Furthermore, we present a method, which is characterized by its usage of our novel feature matching technique. This technique is called identity matching, as it matches only those features with identical descriptors, in contrast to the state-of-the-art that also matches features with similar descriptors. We show that our method is well suited for global and local localization, as it has favorable scaling with the number of reference images considered during the localization process. In another contribution, we develop a variant of our localization method that is significantly faster to compute, as it applies a sampling approach to determine the image positions at which local features are extracted, instead of using classical feature detectors.
Two further contributions are concerned with global localization. The first one introduces a prediction model for the global localization performance, based on an evaluation of the local localization performance. This allows us to quickly evaluate any considered parameter settings of global localization methods. The second contribution introduces a learning-based method that computes compact descriptors of ground images. This descriptor can be used to retrieve the overlapping reference images of a query image from a large set of reference images with little computational effort.
The most recent contribution included in this dissertation presents a new ground image database, which was recorded with a dedicated platform using a downward-facing camera. In addition to the data, we also explain our guidelines for the construction of the platform. In comparison with existing databases, our database contains more images and presents a larger variety of ground textures. Furthermore, this database enables us to perform the first systematic evaluation of how localization performance is affected by the time interval between the point in time at which the reference images are recorded and the point in time at which the query image is recorded. We find out that for outdoor areas all ground texture based localization methods have reliability issues, if the time interval between the recording of the query and reference images is large, and also if there are different weather conditions. These findings point to remaining challenges in ground texture base localization that should be addressed in future work.
Matroids are combinatorial objects that generalize linear independence. A matroid can be represented geometrically by its Bergman fan and we compare the symmetries of these two objects. Sometimes, the Bergman fan has additional automorphisms, which are related to Cremona transformations in projective space. Their existence depends on a combinatorial property of the matroid, as has been shown by Shaw and Werner, and we study the consequences for the structure of such matroids. This allows us to gain a better understanding of the so-called Cremona group of a matroid and we apply our results to root system matroids.
Einfache elektrochemische Methode zur Bestimmung von Chlorit in wässrigen und nicht-wässrigen Systemen Stoffe bzw. Verbindungen, welche nachweislich krebserregend oder fruchtbarkeitsschädigend sind, werden seit Jahren, insbesondere durch die WHO, streng reguliert. Zu diesen Stoffen zählt u. a. Chlorit, welches als Abbauprodukt in Desinfektionsmitteln, Poolwassern und im Rahmen von organischen Oxidationsprozessen vorkommt. Im Rahmen des Projektes sollte eine elektrochemische Methode zu Detektion von Chlorit in wässrigen und organischen Proben entwickelt werden, wobei auf eine Glaskohlenstoffelektrode in Kombination mit Li [NTf]2 im Wässrigen und [Bmpyrr][NTf]2/MeOH im Organischen als Elektrolyten zurückgegriffen wurden.
Bei der Methodenentwicklung wurde auf Differentielle-Puls-Voltammetrie zurückgegriffen, da diese im Vergleich zum Cyclovoltammetrie deutlich empfindlicher ist. Die Methodenvalidierung nach ICH-Guidelines konnte erfolgreich durchgeführt werden Dabei konnte im Wässrigen eine Nachweisgrenze von 0.07 mg L-1 (Organisch: 0.20 mg L-1) erhalten werden. Beide lagen deutlich unter den WHO-Grenzwerten von 0.7 mg L-1. Die Selektivität/Interferenz wurde gegenüber den übrigen Chlor-Spezies getestet; für alle Spezies, außer Hypochlorit, konnten für die Wiederfindungsrate von Chlorit Werte nahe 100% erhalten werden. Die entwickelte Methode konnte erfolgreich auf wässrige (Poolproben, Desinfektionsmittel) und organische Proben (aus Pinnick-Synthesen) angewendet werden. Insbesondere durch die Anwendung im Bereich der Pinnick-Oxidation war der Sensor für mögliche In-Line-Analytik geeignet. Bei den organischen Proben konnte zudem die ionische Flüssigkeit zu 92% zurückgewonnen werden, was den Elektrolyten in Hinblick auf Nachhaltigkeit und Wirtschaftlichkeit noch attraktiver macht.
Entwicklung ionenchromatographischer Methoden zur Detektion von Chloroxo-Spezies
Der Bedarf an schnellen, kostengünstigen Analysemethoden, welche den Vorgaben der einzelnen Behörden weltweit entsprechen, ist in den letzten Jahren enorm gestiegen. Im Rahmen des Projektes sollte eine ionenchromatographische Methode (IC) entwickelt werden, welche neben den Chloroxo-Spezies (Chlorid, Hypochlorit, Chlorit, Chlorat und Perchlorat) auch die bekannten Standardionen (Fluorid, Bromid, Nitrat, Phosphat, Sulfat, Iodid) nachweisbar macht. Zunächst gelang es, die Methodenparameter zu optimieren und so die Chloro-Spezies, außer Hypochlorit, von den übrigen Standardanionen innerhalb von 50 Minuten vollständig zu trennen. Die Methode konnte in der weiteren Entwicklung sogar noch um die Detergenzien-Anionen Acetat, Formiat, Oxalat und Tartrat erweitert werden. (ASupp 7, 45 °C, 0.8 mL min-1, 6 mmol L-1 Na2CO3 / 1 mmol L-1 NaHCO3 + 10% Acetonitril). Auch alle notwendigen Validierungsparameter konnten erfolgreich bestimmt werden. Zuletzt war es möglich, erfolgreich unterschiedliche Realproben zu vermessen.
Da ein Nachweis von Hypochlorit mittels IC nicht möglich war, wurden weitere Anstrengung unternommen, dieses Anion mittels IC-PCR (Nachsäulenderivatisierung) nachzuweisen. Als Detektionsprinzip wurde dabei auf eine Bromat-Nachweis-Methode mittels UV/VIS zurückgegriffen, welche im Rahmen des Projektes angepasst wurde. Da davon ausgegangen werden muss, dass das Hypochlorit mit reaktiven Stellen innerhalb des Säulenmaterials reagiert und somit nicht mehr detektiert werden kann, wurden Passivierungsexperimente an der Vorsäule und Säule für 24 h mit einer Hypochlorit-NaOH-Mischung durchgeführt. Nach 60 Stunden Passivierung konnten erstmals reproduzierbare Ergebnisse bei dem Nachweis von OCl- erhalten werden. Zuletzt konnten erfolgreich fünf unterschiedliche Realproben vermessen und der Hypochlorit-Gehalt mit bisher angewandten Methoden verglichen werden, wobei die erhaltenen Werte in der gleichen Größenordnung lagen.
Entwicklung eines Sensors unter Verwendung der Viologen-Grundstruktur auf metallischen Oberflächen
Früher fanden Viologene und deren Derivate Anwendung im Bereich der Schädlingsbekämpfung und wurden hauptsächlich als Kontaktherbizid verwendet. Mittlerweile hat sich das Anwendungsspektrum der Viologene deutlich verändert, u.a. werden die in organischen Redox-Fluss-Batterien als Elektrolyte eingesetzt. Im Rahmen diesen Projekts wurden mehrere bekannte Viologen-Grundkörper (u. A. Methylviologen (MV)) vollständig elektrochemisch charakterisiert Im Anschluss wurde MV mit unterschiedlichen Ankergruppen (Thiol-, Sulfonat, -Phosphonat-, Carboxylanker) modifiziert und auf metallische Oberfläche (u. A. Gold und Kupfer) abgeschieden mit dem Ziel ein neues Sensor-Motiv für die Analytik zu entwickeln. Der Thiolanker konnte erfolgreich auf Gold, der Carboxylanker erfolgreich auf Kupfer abgeschieden werden. Die anschließenden elektrochemischen Untersuchungen der abgeschiedenen Monolagen ergaben jedoch eine geringe Stabilität der Anker in wässriger und organischer Umgebung, sodass in Zukunft weitere Anstrengungen unternommen werden müssen, die Stabilität des Viologensystems auf der Oberfläche zu verbessern.
Die vorliegende Doktorarbeit beschäftigt sich mit der Untersuchung von molekularen Systemen, die aus mehreren Chromophoren bestehen und über einen Zweiphotonen-Prozess aktiviert werden können.
Die Zweiphotonen-Absorption (2PA) beschreibt die nahezu simultane Absorption zweier Photonen, deren Summe die Energie ergibt, die für den entsprechenden elektronischen Übergang nötig ist. Da für die Anregung somit zwei niederenergetische Photonen benötigt werden, kann für die 2PA Nahinfrarot-Licht (NIR-Licht) verwendet werden, welches eine geringe Phototoxizität aufweist und eine tiefe Gewebedurchdringung ermöglicht. Weiterhin wird durch die intrinsische dreidimensionale Auflösung der 2PA eine hohe Ortsauflösung der Photoaktivierung erzielt.
Photolabile Schutzgruppen (PPGs) bzw. Photocages sind chemische Verbindungen, die der vorübergehenden Maskierung der biologischen Funktion eines (Makro-)Moleküls dienen. Sie können durch Licht geeigneter Wellenlängen abgespalten werden (uncaging), wodurch die Aktivität des geschützten Substrats wiederhergestellt wird. Leider weisen viele der etablierten PPGs schlechte Zweiphotonen-Eigenschaften auf. Um die 2P-Aktivität einer PPG zu erhöhen, kann sie kovalent mit einem guten Zweiphotonen-Absorber verknüpft werden, der bei Bestrahlung das Licht über einen Zweiphotonen-Prozess absorbiert und anschließend mittels Energietransfer auf die photolabile Schutzgruppe überträgt. Dies führt schließlich zur Uncaging-Reaktion.
Im Zuge von Projekt I dieser Dissertation wurde eine solche molekulare Dyade für verbessertes Zweiphotonen-Uncaging bestehend aus einem Rhodamin-Fluorophor als Zweiphotonen-Absorber und einem Rotlicht-absorbierenden BODIPY als photolabile Schutzgruppe hergestellt und charakterisiert. Die Zweiphotonen-Aktivität des Fluorophors wurde mittels TPEF-Messungen (two-photon excited fluorescence) untersucht. Anschließend wurde das Rhodamin an einen 3,5-Distyryl-substituierten BODIPY-Photocage gekuppelt. Der Energietransfer innerhalb dieser Dyade wurde mithilfe von transienter Ultrakurzzeit-Spektroskopie und quantenmechanischen Berechnungen untersucht. Die Freisetzung der Abgangsgruppe para-Nitroanilin (PNA) bei Belichtung der Dyade konnte sowohl nach Einphotonen-Anregung des Rhodamins als auch des BODIPYs mithilfe von UV/vis-Absorptionsmessungen qualitativ nachgewiesen werden.
Da die Uncaging-Reaktion allerdings nicht besonders effektiv war, wurde für die Weiterführung des Projekts ein neuer BODIPY Photocage, der eine verbesserte Photolyse-Effizienz und eine höhere Photostabilität aufwies, verwendet und erneut an einen Rhodamin-Fluorophor geknüpft. Anhand dieser optimierten Dyade konnte die Einphotonen-Photolyse quantifiziert, d.h. eine Uncaging-Quantenausbeute für die Freisetzung von PNA bestimmt werden. Weiterhin wurde beobachtet, dass die Photolyse der Dyade mit einer deutlichen Änderung ihrer Fluoreszenzeigenschaften einherging. Dies ermöglichte einen Nachweis des Zweiphotonen-Uncagings mithilfe eines Fluoreszenzmikroskops. Die Dyaden-Moleküle wurden zur Immobilisierung in Liposomen eingeschlossen und unter dem konfokalen Fluoreszenzmikroskop belichtet. Sowohl nach Einphotonen- als auch nach Zweiphotonen-Anregung der Rhodamin-Einheit konnte die gewünschte Fluoreszenzänderung beobachtet und somit das Uncaging bestätigt werden.
In Projekt II der Dissertation wurde ein photoaktivierbarer Fluorophor (PAF) hergestellt. PAFs liegen in ihrer geschützten Form dunkel vor. Durch die Aktivierung mit Licht können sie Fluoreszenzsignale emittieren. Sie liefern somit ein direktes Feedback über die Lichtverteilung und –intensität innerhalb einer Probe und werden somit unter anderem für die Charakterisierung und Optimierung von Belichtungsapparaturen verwendet. Besonders wünschenswert ist hierbei eine Fluoreszenzaktivierung mit sichtbarem Licht bzw. mit NIR-Licht über einen Zweiphotonen-Prozess.
Im Zuge der Arbeit wurde ein Rhodamin-Derivat synthetisiert, das durch die Anbringung eines DEACM450-Photocages in seine nichtemittierende Form gezwungen wurde. Bei Bestrahlung mit 455 nm konnte die Abspaltung der Cumarin-Schutzgruppe und der damit verbundene Anstieg der Rhodamin-Fluoreszenz beobachtet und eine Uncaging-Quantenausbeute bestimmt werden. Für die Untersuchung der Zweiphotonen-Photolyse wurde der geschützte Fluorophor in einem Hydrogel immobilisiert und unter dem konfokalen Fluoreszenzmikroskop betrachtet werden. Anschließend wurden Fluoreszenzbilder vor und nach Photoanregung von bestimmten Regionen des Hydrogels aufgenommen. Durch das Uncaging der Probe konnten helle, definierte Muster geschrieben und ausgelesen werden. Die Photoaktivierung führte dabei sowohl über die Einphotonen-Anregung mit blauem Licht (488 nm) als auch über die Zweiphotonen-Anregung mit NIR-Licht (920 nm) zur Generierung von stabilen, gleichmäßigen Fluoreszenzmustern mit hohem Kontrast.
Unter den weltweit in ständigem Gebrauch befindlichen Chemikalien befinden sich nicht nur Verbindungen mit akuter toxischer Wirkung, sondern auch solche mit Wirkung auf das endokrine System. Eine große Rolle spielt hier vor allem die Störung der Geschlechtsdifferenzierung und der Reproduktion, ausgelöst durch natürliche oder synthetische Chemikalien mit endokrinem Potential, sogenannte endokrine Disruptoren (ED). Diese Chemikalien können über unterschiedliche Eintragspfade in die Umwelt gelangen. Seit Mitte des 20. Jahrhunderts werden mehr und mehr Fälle bekannt, in denen anthropogene Chemikalien die Pflanzen- und Tierwelt belasten, darunter zahlreiche Befunde zu Störungen des Hormonsystems von Mensch und Tier.
Im Rahmen der Gefahren- und Risikobewertung steht bereits eine Vielzahl harmonisierter Prüfrichtlinien für die Identifizierung und Evaluierung der Effekte von (potentiellen) ED zur Verfügung. Um die Gesamtheit aller potentiellen Interaktionen von ED mit dem Hormonsystem detektieren zu können, ist die In-vivo-Untersuchung an Vertebraten in der Chemikalienregistrierung bisher unabdingbar. Bei der Untersuchung endokriner Potentiale in höheren Vertebraten spielen vor allem nager- und vogelbasierte Testsysteme eine wichtige Rolle. Diese bergen jedoch einen hohen zeitlichen, personellen und finanziellen Aufwand und erfordern eine massive Zahl an Versuchstieren, die für diese Tests benötigt werden. Darüber hinaus beinhalten Tierversuche eine Vielzahl von Problemen einschließlich ethischer Bedenken, die sich als Konsequenz der Tierhaltung unter Versuchsbedingungen ergeben. Ein sehr interessanter und vielversprechender Ansatz zur Reduktion von Tierversuchen ist die Entwicklung eines standardisierten Verfahrens für die Untersuchung potentieller ED in Vogelembryonen. Auf Vogelembryonen basierende In-ovo-Modelle stellen einen Mittelweg zwischen In-vitro- und In-vivo-Testsystemen dar. Mit dem Vogeleitest wird der sich entwickelnde Embryo, das für ED sensitivste Entwicklungsstadium im Leben eines Organismus, berücksichtigt.
Das Ziel der vorliegenden Arbeit war die Entwicklung und Eignungsuntersuchung eines auf dem Embryo des Haushuhns (Gallus gallus domesticus) basierenden Testsystems für den Nachweis von ED. Das resultierende Testsystem soll als Alternativmethode zu bisher etablierten nager- und vogelbasierten Testsystemen für die Untersuchung der Effekte hormonell aktiver Substanzen auf die Geschlechtsdifferenzierung in höheren Wirbeltieren eingesetzt werden.
Die im Rahmen der vorliegenden Dissertation durchgeführten Arbeiten umfassten sowohl die Charakterisierung der Normalentwicklung des Hühnerembryos, unbeeinflusst durch ED, als auch die morphologisch-histologischen Veränderungen der Gonaden von substanzexponierten Embryonen. Für die Untersuchung substanzbedingter Effekte, welche den Schwerpunkt der vorliegenden Arbeit darstellen, wurden die Embryonen gegenüber verschiedenen (anti)estrogenen und (anti)androgenen Substanzen exponiert. Unter Einfluss der Estrogene Bisphenol A (BPA) und 17α-Ethinylestradiol (EE2) entwickelten sich die Keimdrüsen der Männchen zu Ovotestes, während Weibchen ein Ovar mit deutlich schmalerem Cortex ausbildeten. Unter Einfluss der Antiestrogene Fulvestrant und Tamoxifen blieben Effekte auf die Gonaden männlicher Embryonen aus, eine durch das potente Estrogen EE2 hervorgerufene Feminisierung männlicher Gonaden konnte durch beide Substanzen jedoch effektiv antagonisiert werden. Weibchen bilden unter Einfluss von Tamoxifen deutlich schmalere linke Gonaden mit einem missgebildeten Cortex aus. Unter Einfluss der Androgene Tributylzinn (TBT) und 17α-Methyltestosteron (MT) blieben die Effekte auf männliche Embryonen aus, während die Weibchen anatomisch virilisierte Gonaden und eine Reduktion des linken gonadalen Cortex aufwiesen. Allein die untersuchten antiandrogenen Versuchssubstanzen Cyproteronacetat (CPA), Flutamid und p,p´-Dichlorodiphenyldichloroethen (p,p´-DDE) hatten keinen Effekt auf die gonadale Geschlechtsdifferenzierung männlicher und weiblicher Hühnerembryonen.
Es konnte gezeigt werden, dass der Embryo von G. gallus domesticus einen sensitiven Organismus innerhalb des Tierreichs darstellt und hinreichend sensitiv auf eine Reihe von endokrin wirksamen und reproduktionstoxischen Chemikalien reagiert. Anatomische und histologische Änderungen der Gonaden können daher als Biomarker für die Wirkung von ED bei Vögeln nützlich sein. Die untersuchten Endpunkte beziehen sich jedoch auf apikale Effekte und liefern keine mechanistischen Informationen zu den untersuchten Substanzen. Der
Hühnereitest ist eine sinnvolle Ergänzung zur bestehenden OECD-Testbatterie und zeichnet sich besonders durch seine kostengünstige und einfache Handhabung im Labor sowie einfach durchzuführende Tests aus. Durch die vergleichsweise kurze Versuchsdauer von nur 19 Tagen ist ein schnelles Substanzscreening möglich, welches zeitlich deutliche Vorteile gegenüber den etablierten nager- und vogelbasierten Testsystemen hat. Als Alternative zu bisherigen Assays könnte der vorgeschlagene Hühnereitest dazu beitragen, im Rahmen der (öko)toxikologischen Gefährdungs- und Risikobewertung von Chemikalien künftig weniger Versuchstiere zu verwenden.
Nukleinsäuren und Proteine bilden zusammen mit den Kohlenhydraten und Lipiden die vier großen Gruppen der Biomoleküle. Dabei setzen sich Nukleinsäuren aus einer variierenden Abfolge von Nukleotiden zusammen. Gleiches trifft auf die Proteine zu, wobei deren Bausteine als Aminosäuren bezeichnet werden. Die Reihenfolge der Bausteine bestimmt zusammen mit der Interaktion, die die einzelnen Bestandteile untereinander eingehen, deren Funktion. Um deren Wirkungsweise verstehen und nachverfolgen zu können, wurden unterschiedliche Methoden entwickelt, zu welchen auch die EPR-Spektroskopie gehört.
Durch den Einbau modifizierter Nukleotide oder Aminosäuren lassen sich Spinlabel in die sonst EPR-inaktiven Nukleinsäuren und Proteine einführen. Diese Marker lassen sich grundsätzlich in drei Klassen unterteilen (Metallionen, Nitroxidradikale und TAMs), weisen aber immer mindestens ein ungepaartes Elektronenpaar auf. Die Festphasensynthese ist eine Standardprozedur zur Herstellung von markierten Nukleinsäuren und Proteinen. Allerdings führen die Bedingungen dieser Methode zumindest teilweise zur Zersetzung der Nitroxidradikale, die dieser Arbeit zugrunde liegen, wenn sie direkt während der Synthese eingebaut werden. Der direkte Einbau ist aber in vielen Fällen essenziell, um bestimmte Eigenschaften zu erzielen.
Um den Abbau des Nitroxidradikals während der Festphasensynthese zu verhindern, kann dieses vorübergehend mit einer Schutzgruppe versehen werden, welche sich anschließend wieder abspalten lässt.
Der Schwerpunkt dieser Arbeit liegt hierbei auf der Darstellung neuer photolabil geschützter Spinlabel zur Synthese markierter Proteine und Nukleinsäuren.
Basierend auf den Nukleotiden Uridin und Cytidin konnten zwei für die RNA-Synthese vorgesehene Phosphoramidite synthetisiert werden, welche jeweils an der 5-Position des Pyrimidinrings mit einem photolabil geschützten Spinlabel auf Basis von TPA versehen waren. Durch Einbau des Uridinderivats in das Neomycin-Aptamer konnte zudem der Einfluss der Spinlabel auf die lokale Struktur mit Hilfe von in-line probing gezeigt werden.
Der gleiche TPA-Label konnte ebenfalls mit einem Lysin gekuppelt werden, welches später über ein orthogonales tRNA/Aminoacyl-tRNA Synthetase Paares in eine Polypeptid eingebaut werden sollte. In Kooperation mit dem AK Grininger ist auch ein nicht geschützter Spinlabel zur kupferfreien Markierung der Fettsäuresynthase entstanden. Abschließend war noch die Synthese eines auf Phenylalanin basierenden photolabil geschützten Spinlabel in Arbeit, welcher jedoch nicht beendet werden konnte. Dieser sollte mittels Festphasensynthese einbaubar sein, weswegen er am N-Terminus mit Fmoc geschützt ist.
Der Fokus der Arbeit liegt auf der Untersuchung von Wechselwirkungen zwischen Molekülen in selbst-anordnenden Monolagen (SAMs) auf Goldoberflächen mittels Rastertunnelmikroskopie und komplementären Methoden wie z.B. Infrarot-Reflektions-Absorptions-Spektro-skopie.
In dieser Arbeit wurde das kürzlich etablierte Konzept von eingebetteten Dipolmomenten in aromatischen, SAM-bildenden Molekülen eingehender untersucht. Das Ausmaß des Dipol-moments und die Größe der SAM-bildenden Moleküle wurden synthetisch variiert und der Einfluss auf die Struktur und elektronischen Eigenschaften der SAMs untersucht. Binäre, gemischte Monolagen aus SAM-bildenden Molekülen mit "entgegen gerichteten", Dipolmomenten wurden hergestellt und charakterisiert. Zur Herstellung der binären, gemischten Monolagen wurden zwei Methoden verwendet: die Monolagen wurden a) aus bereits gemischten Lösungen der Moleküle abgeschieden oder b) eine reine SAM in die Lösung des anderen Moleküls eingelegt, so dass ein Austausch stattfand. Der Vergleich der beiden Methoden ermöglicht Rückschlüsse über die Abscheidungsprozesse. Die Charakterisierung der SAMs dieser Mischungsreihen gab Aufschluss über Eigenschaften wie Packungsdichte, Austrittsarbeit, elektronischen Ladungstransport in Monolagen und Orientierung der Moleküle relativ zur Oberfläche und erlaubte Schlussfolgerungen über die Mischbarkeit und das Ausmaß der Dipolwechselwirkungen der Moleküle in der Monolage. In einem ähnlichen Ansatz zu dem oben beschriebenen Vorgehen wurden Quadrupolwechselwirkungen zwischen SAM-bildenen, Benzol-, Naphtalin- und Anthracenderivaten untersucht. In Mischungsreihen wurden SAMs von nicht- und teilweise (hoch)fluorierten, SAM-bildenden Molekülen auf Goldoberflächen charakterisiert. Die Ergebnisse der Untersuchungen können bei der gezielten Einstellung der elektronischen Eigenschaften in elektronischen Bauteilen wie OFETs Anwendung finden.
In einem weiteren Projekt wurde der Einfluss von polaren Endgruppen auf die in situ Abspaltung von Schutzgruppen an Terphenylthiol-Derivaten untersucht, wobei die Ergebnisse zum Aufbau größerer, aus organischer Elektronik bestehender, Netzwerke verwendet werden können.
Das Promotionsvorhaben ist im Bereich der arbeitssoziologischen Forschung angesiedelt. Vor dem Hintergrund der Individualisierung im arbeitssoziologischen Feld, sowie der gestiegenen Bedeutung von Home Office aufgrund der Corona-Pandemie, widmet sich das Vorhaben dem Problemfeld der wahrgenommenen Ambivalenz von Home Office, sowie dem Zusammenhang zwischen Home Office und Individualisierung, und dessen Bedeutung und Auswirkungen für und auf das Individuum.
Als methodisches Verfahren dient hier zur Theoriegenerierung die Grounded Theory. Gegenstand der Analyse ist die mediale Darstellung. Als mediale Daten werden Zeitungsartikel mit der thematischen Fokussierung auf Home Office betrachtet. Die hier gewählte Darstellung des Vorgehens, ermöglicht es, das Vorgehen mit der Grounded Theory kleinteilig und kleinschrittig nachzuvollziehen und verstehen zu können.
Ziel der Studie ist es, Home Office in Bezug zur Individualisierung zu setzen und die grundsätzlichen Zusammenhänge innerhalb der Wahrnehmungen von Home Office und Individualisierung herauszuarbeiten, sowie im medialen Kontext allgemeine Darstellungen und Wahrnehmungen von Home Office zu erkennen und zu verdeutlichen.
Letztlich zeigt sich, dass die Gemeinsamkeit in der medialen Darstellung von Home Office darin liegt, dass eine Aushandlung über die Notwendigkeit von Handlungsvermögen erfolgt. Diese Aushandlung spiegelt sich in den Aspekten der Darstellung von Handlungsmöglichkeiten und Handlungsgrenzen wieder, sowie in der Darstellung der Notwendigkeit von Gestaltungsspielraum und/oder der Notwendigkeit von Grenzen für das Individuum.
Die im Laufe der Auswertung entwickelten Darstellungsformen ermöglichen hierbei, die differenzierten Standpunkte im Hinblick auf die Arbeitsweise Home Office erfassen zu können. Es wurden Formen gebildet, um die verschiedenen Blickwinkel voneinander abgrenzen zu können. Bei Betrachtung dieser Formen wird jedoch ersichtlich, dass sich die exakte punktuelle Verortung des Subjektes zwischen Fremdbestimmung und Selbstbestimmung im Hinblick auf die Zielsetzung des maximalen persönlichen und/oder wirtschaftlichen Erfolges aus medialer Perspektive als schwierig erweist.
Die in der Auswertung entwickelten Darstellungsformen verdeutlichen außerdem die Gleichbedeutung von Arbeitssphäre und Lebenssphäre für das Individuum in der medialen Darstellung. Gleichzeitig zeigen sie den Wunsch nach Freiheit, den Wunsch nach Grenzen, sowie den Wunsch nach Selbstverwirklichung, Gestaltung und Entlastung von Erwartungen auf.
Um sich an ändernde Umwelteinflüsse und metabolische Bedürfnisse anpassen zu können, ist es für Zellen essenziell, dass Boten-RNA (engl. messenger RNA, mRNA) stetig und schnell nach der Translation abgebaut wird. In Prokaryoten ist dafür der Proteinkomplex Degradosom verantwortlich, in dem Endo- und Exoribonukleasen RNase E und PNPase das RNA-Transkript in kleinere Fragmente und schließlich einzelne Nukleotide spalten. Die DEAD-Box Helikase RhlB im Komplex dient zusätzlich dazu, mögliche Sekundärstrukturen in der RNA zu entfalten, welche sonst die weitere Degradation behindern würden. Es konnte gezeigt werden, dass RhlB’s sehr geringe katalytische Aktivität – gemessen durch ATP-Verbrauch und Rate an entwundener RNA – signifikant durch die allosterische Bindung an Komplexpartner RNase E erhöht wird. Gleichzeitig deuten andere Studien darauf hin, dass RhlB eine mögliche Selektivität für doppelsträngige RNA-Substrate mit 5‘-Einzelstrang-Überhängen aufweist.
Diese Arbeit liefert neue Erkenntnisse in Bezug auf die Kommunikation zwischen den Degradosom-Komponenten RhlB und RNase E aus E. coli, indem das potenzielle Wechselspiel zwischen RhlBs RNA-Selektivität und der allosterischen Aktivierung durch RNase E untersucht wurde. Der vielseitige Einsatz NMR-spektroskopischer Techniken sowie die Verwendung kurzer RNA-Substrate mit spezifischen Strang-Eigenschaften ermöglicht es, mit einen ungewöhnlichen, RNA-zentrierten Ansatz an diese unzureichend verstandene Protein-Interaktion heranzugehen.
Zunächst wurden hierzu eine Reihe kurzer doppelsträngiger RNA-Konstrukte hergestellt, die sich nicht nur in ihren Einzelstrang-Merkmalen unterscheiden, sondern auch die thermodynamischen Anforderungen eines DEAD-Box Helikase Substrats erfüllen, und gleichzeitig eine ausreichende NMR-spektroskopische Signal-Zuordnung erlauben. Die thermale Stabilität, das Faltungsverhalten sowie die 1H Imino-protonen- und 13C HSQC-Zuordnungen aller geeigneten Konstrukte wurden erfolgreich bestimmt.
Um den Einfluss spezifischer RNA-Substrate sowie die Bindung zweier verschiedener RNase E Fragmente auf RhlBs ATP-Umsatzrate zu untersuchen, wurde sich zunächst eines photometrischen Phosphat-Assays bedient. Damit konnte deutlich gezeigt werden, dass RhlB in Abwesenheit des Komplex-Partners nicht in der Lage ist, signifikante Mengen an ATP umzusetzen, unabhängig davon, welches RNA-Konstrukt eingesetzt wird. Die Bindung der RNase E Fragmente erhöhte signifikant die ATP-Hydrolyse-Rate der Helikase, wobei die größte Aktivierung für den RNA-Duplex mit 5‘-Einzelstrang sowie ein einzelsträngiges Substrat zu beobachten ist. Da diese Ergebnisse deutlich eine RNA-Abhängigkeit beim ATP-Umsatz der Helikase zeigen, wurde untersucht, ob diese Unterschiede ihren Ursprung bereits in der Bindung der spezifischen RNA-Substrate haben. Mittels einer Mischapparatur, die es erlaubt die enzymatische Reaktion direkt im Spektrometer zu initiieren sowie zeitaufgelöster 31P NMR-Experimente konnte die allosterische Aktivierung der ATP-Hydrolyse-Rate von RhlB auch unter NMR-spektroskopischen Messbedingungen nachgewiesen werden.
Da die Ergebnisse des ATPase Assays deutlich eine RNA-Abhängigkeit bei der ATP-Umsatz-Rate der Helikase zeigen, wurde zusätzlich untersucht, ob diese Unterschiede ihren Ursprung in den Affinitäten für die verschiedenen RNA-Substrate haben und ob diese durch die Bindung von RNase E and RhlB beeinflusst werden. Um im gleichen Zuge zu überprüfen, ob die Bindung der RNA an RhlB die RNA-Konformation oder Basenpaarung ändert, werden 1H NMR-Titrationsexperimente durchgeführt. Es konnte erstmals gezeigt werden, dass RhlB eine inhärente Präferenz für Duplexe mit 5‘-Überhang gegenüber Konstrukten mit 3‘-Überhang oder stumpfen Enden besitzt, was sich in einer erhöhten Affinität zeigt. Zusätzlich offenbaren die Messungen, dass RNase Es allosterische Bindung selektiv die Affinität gegenüber Konstrukten mit Einzelstrang-Überhang erhöht, während die Affinität zu RNA Duplexen ohne Überhang sogar verringert wird. Diese Ergebnisse liefern erstmals einen Nachweis, dass RNase E aktiv Einfluss auf RhlBs RNA-Bindung nimmt. Weder die Bindung der RNA and RhlB noch an den RhlB/RNase E Komplex scheint die Basenpaarung oder Konformation der RNA-Substrate zu beeinflussen, da lediglich eine homogene Peak-Verbreitung aller Imino-Protonen-Signale im 1H NMR-Spektrum beobachtet werden konnte.
Seit Jahrzehnten finden Kunststoffe aufgrund ihrer vorteilhaften Materialeigenschaften wie z. B. Formbarkeit und im Vergleich zu Glas oder Metall geringe Kosten und leichtes Gewicht, vermehrt Anwendung in allen Bereichen des täglichen Lebens. Einhergehend gelangen Kunststoffe zunehmend in die Umwelt, und reichern sich dort an. Besondere Aufmerksamkeit erfahren Partikel im Größenbereich von 1-1000 µm, sogenanntes Mikroplastik (MP), welches entweder direkt eingetragen wird oder in der Umwelt durch Fragmentierung größerer Plastikteile entsteht. Lange Zeit fokussierte sich die MP Forschung vorrangig auf aquatische Ökosysteme, obwohl Schätzungen davon ausgehen, dass die Kunststoffeinträge in terrestrischen Ökosystemen um ein Vielfaches höher sind. Besonders relevante Eintragspfade sind neben der unsachgemäßen Entsorgung von Abfällen, die landwirtschaftliche Klärschlamm- und Kompostdüngung und der zunehmende Einsatz von Mulchfolien, sowie der im Straßenverkehr generierte Reifenabrieb.
Für eine Abschätzung und Bewertung der MP-Belastung in Böden sind analytische Messungen von MP in Umweltproben essenziell, derzeit jedoch kaum existent, da MP im Boden partikulär und heterogen verteilt vorliegt und deshalb nur schwierig zu detektieren ist. Die für viele Analyseverfahren notwendige Isolation der Kunststoffpartikel, sowie die für repräsentative Messungen erforderliche Aufbereitung großer Probenvolumina stellen besondere analytische Herausforderungen mit großem Kosten- und Zeitaufwand dar. Chromatografische Verfahren finden wenig Anwendung, bieten aber vorteilhafte Voraussetzungen als Screeningverfahren für die Untersuchung von Böden, da sie nicht zwangsweise eine Partikelisolation verlangen, und zudem als Ergebnis einen Massegehalt liefern.
Diese Dissertation zeigt drei Anwendungen Chromatografie basierter Analyseverfahren zur Charakterisierung von MP im Boden. Erstmalig wurde die Thermo-Extraktion-Desorption-Gaschromatografie-Massenspektrometrie (TED-GC/MS) für die Analytik von Reifenabrieb in realen Umweltproben angewandt bei minimaler Probenaufbereitung. Dafür wurde ein Straßenrandboden umfangreich beprobt und analysiert, und es konnte neben der Eignung der analytischen Methode auch eine repräsentative Probenahmestrategie und räumliche Verteilungsmuster von Reifenabrieb im Boden demonstriert werden.
Der zweite Forschungsschwerpunkt lag auf der Methodenentwicklung und validierung eines neuartigen chemischen Extraktionsverfahrens für die Bestimmung von Polyestern in Bodenproben. Das Verfahren basiert auf der hydrolytischen Spaltung von Polyestern in ihre Monomere, deren flüssigchromatografische Abtrennung von Matrixbestandteilen und der Detektion mittels UV-Absorption. Das Verfahren verlangt neben der Extraktion keine weiteren Probenaufbereitungsschritte, ist für unterschiedliche Umweltmatrizes geeignet und ist damit z. B. prädestiniert für den Nachweis von Polyesterfasern auf gedüngten landwirtschaftlichen Flächen.
MP ist nicht nur aufgrund seiner Persistenz problematisch, sondern auch, weil es hydrophobe organische Schadstoffe aus dem Umweltmedium anreichern und transportieren kann. Maßgeblich für das Sorptionsverhalten sind die Materialeigenschaften des zugrunde liegenden Kunststoffes, welche Änderungen durch Alterungsprozessen unterliegen. Der Zusammenhang zwischen Materialalterung und Sorptionsverhalten wurde in früheren Studien kontrovers diskutiert und ist der dritte Teil dieser Arbeit. In einem Sorptionsexperiment konnte mittels Headspace-Gaschromatografie mit Flammenionisations-Detektion die Aufnahme von Aromaten an den Kunststoffen Polypropylen und Polystyrol quantifiziert werden. Die Kunststoffe wurden materialwissenschaftlich charakterisiert, teilweise künstlich gealtert und die daraus resultierende Änderungen der Materialeigenschaften sowie einhergehenden Änderungen des Sorptionsverhaltens erfasst. Dadurch war es möglich den Einfluss einzelner Materialeigenschaften auf das Sorptionsverhalten zu bewerten, Rückschlüsse auf zugrunde liegende Sorptionsmechanismen zu treffen und zu zeigen, dass in vorliegendem Experiment die Polymeralterung bei MP nicht zu einer erhöhten Schadstoffsorption führte.
The role of Apelin signaling and endocardial protrusions during cardiac development in zebrafish
(2023)
During cardiac development, cardiomyocytes (CMs) are delaminated from the compact muscle wall to increase the muscle mass of the heart. This process is also known as cardiac trabeculation. It has been shown that growth factors produced by endocardial cells (EdCs) are required for myocardial morphogenesis and growth. In particular, Neuregulin produced by EdCs promotes myocardial trabeculation. The deficiency of Neuregulin signaling leads to hypotrabeculation. Endocardial protrusions project from the endocardium to the myocardium are also essential for the trabeculae onset. Yet current studies only introduce the function of endocardial sprouts descriptively. This article first reports the mechanisms of endocardial sprouting during myocardial trabeculation. By living imaging, we first demonstrate that EdCs interact with CMs through membrane protrusions in zebrafish embryos. More interestingly, these protrusions stay in close contact with their target CMs in spite of the cardiac contraction. We utilize loss-of-function strategies to report the importance of myocardial apelin, which induces endocardial protrusion formation. Zebrafish lacking Apelin signaling exhibit defects in endocardial protrusion formation as well as excessive deposition of cardiac jelly and hypotrabeculation. Notably, we also present data that blocking protrusion formation in endocardial cells phenocopies the trabeculation defects in apelin mutants. Mechanistically, endocardial-derived Neuregulin requires Apelin signaling mediated endocardial protrusions, and Neuregulin dependent pERK expression is attenuated in the condition of reduced endocardial protrusion formation. Together, our data suggest that endocardial-myocardial communication through endocardial protrusions acts as an underlying principle allowing myocardial growth.
Nukleäre Rezeptoren (NRs) sind ligandengesteuerte Transkriptionsfaktoren, die sich aus einer Superfamilie von 48 humanen Mitgliedern zusammensetzt. Seit vielen Jahrzehnten stellen sie ein attraktives Forschungsgebiet für die Arzneistoffentwicklung dar, da sie eine bedeutende Rolle in zahlreichen Prozessen unseres Körpers spielen. Das Ziel dieser Forschungsarbeit bestand darin, neue innovative Liganden für den Peroxisomen-Proliferator-aktivierter-Rezeptor γ (PPARγ) sowie die Waisenrezeptoren Nervenwachtumsfaktor induzierter Klon B (Nur77) und Neuronen-abgeleiteter Waisenrezeptor (NOR-1) zu identifizieren.
Bei den Rezeptoren Nur77 und NOR-1 handelt es sich um noch unzureichend erforschte NRs der NR4A-Familie. Es fehlt insbesondere an Modulatoren dieser Rezeptoren als Werkzeuge, um ihr zum Teil noch unentdecktes Potential zu erforschen. Um diese Lücke zu schließen, wurde ein in vitro Screening durchgeführt und eine Arzneistoff-Fragment-Bibliothek mit 480 Fragmenten, die aus bekannten strukturellen Motiven zugelassener Arzneimittel stammen, auf ihre modulatorische Aktivität an Nur77 und NOR-1 gescreent. Durch das Screening und weitere Testungen konnten jeweils für Nur77 und für NOR-1 drei Verbindungen als Liganden identifiziert werden. Bei der weiteren Charakterisierung stellte sich insbesondere 41 als besonders vielversprechenden Ausgangspunkt für die Entwicklung von Liganden für Nur77 und NOR-1 heraus, der ein besseres Verständnis für die invers agonistische Aktivität lieferte und die Möglichkeit für eine agonistische Modulation aufzeigte. Zudem konnte durch ein weiteres Screening mit Computer-gestützten Verfahren auf Nur77 der Chemotyp von 41 noch weiter optimiert werden und führte zur Identifizierung von Verbindung 68 (EC50 = 2 ± 1 μM). Diese zeichnete sich durch eine hohe Potenz aus, die zu einer beachtenswerten Aktivierung von Nur77 (169 ± 18% maximale Aktivierung) führte. Die Untersuchung der strukturellen Erweiterung von 43 (IC50 = 47 ± 8 μM) führte zur Verbindung 75, die eine 3,5-fache Steigerung des inversen Agonismus auf NOR-1 zeigte. Die Erkenntnisse dieser Entdeckung ermöglichte den Rückschluss, dass das Einführen von voluminösen Resten, wie Brom oder Phenyl eine invers agonistische Potenz im unteren mikromolaren Bereich bewirkte. Die Identifizierung der Verbindungen 41 und 68 für Nur77 sowie 43 und 76 für NOR-1 könnten dazu beitragen, ein tieferes Verständnis der molekularen Mechanismen hinter der Aktivierung von Nur77 und NOR-1 zu erlangen und einen vielversprechenden chemischen Ausgangspunkt für die Entwicklung von noch wirksameren und selektiveren Liganden bieten.
Im anderen Teil dieser Forschungsarbeit stand die Synthese eines selektiven allosterischen PPARγ-Liganden im Fokus, um mit diesem die allosterische Modulation von PPARγ zu charakterisieren. Den Ursprung der Idee lieferte Garcinolsäure, dass in der Lage ist, PPARγ orthosterisch und allosterisch zu binden. Aufgrund der komplexen biologischen Effekte und der geringen synthetischen Zugänglichkeit konnte 37 nicht als Ausgangspunkt für dieses Vorhaben dienen. Auf der Suche nach einer geeigneten Ausgangsverbindung wurde durch ein in vitro Screening mit einer hauseigenen Sammlung von synthetischen PPARγ-Modulatoren, bei dem die orthosterische Bindungsstelle von PPARγ durch den irreversiblen Antagonisten GW9662 blockiert wurde, Verbindung 39 identifiziert. Diese ist wie 37 in der Lage PPARγ ortho- und allosterisch zu binden, weist aber eine bessere synthetische Zugänglichkeit auf. Die Co-Kristallisation von 39 mit der PPARγ-Ligandenbindungsdomäne zeigte, dass die orthosterische Bindungstasche (BT) keinen Platz für eine Verlängerung des Moleküls bietet, die allosterische BT ist dagegen Lösungsmittel exponiert, wodurch eine Verlängerung möglich schien. Daraufhin wurde die Hypothese aufgestellt, dass eine Verlängerung von 39 eine orthosterische Bindung verhinderte und dadurch eine selektive allosterische Bindung ermöglichen könnte. Aus diesem Grund wurde eine modifizierte Struktur von 39 verwendet, um eine einfache Einbringung eines Linkers in das Molekül zu ermöglichen. Durch verschiedenste Modifikationen und Anpassungen wurde 104 als potenzieller selektiver allosterischer Ligand synthetisiert. Die Testung von 104 im Reportergenassay zeigte eine schwache Aktivierung von PPARγ allein, jedoch offenbarte sich bei der Kombination mit dem orthosterischen Agonisten Pioglitazon eine dosisabhängige Steigerung der Aktivität von PPARγ. Diese Ergebnisse deuteten darauf hin, dass trotz der Bindung von 104 eine Bindung von 33 in die orthosterische BT immer noch möglich war. Diese Annahme konnte anschließend auch durch zellfreie Experimente (Isotherme Titrationskalorimetrie, MS-basierte-PPARγ-Ligandenbindungs-Assay) bestätigt werden. Der eindeutige Beweis für die selektive allosterische Bindung von 104 lieferte die Co-Kristallisation von 104 mit der PPARγ-LBD. Zusätzlich offenbarte sich, durch den strukturellen Vergleich der Bindungsmodi von anderen PPARγ-Liganden, der außergewöhnliche Bindungsmodus von 104, da 104 im Vergleich zu anderen Liganden selektiv die allosterische BT, ohne Überlappung in die orthosterische BT, besetzte. Weitere Untersuchungen, wie der Einfluss von 104 auf die Rekrutierung von Co-Regulatoren, die Differenzierung von adipozytären Stammzellen und die Genexpression zeigten eine bisher einmalige Modulation von PPARγ, die auf die selektive allosterische Modulation zurückzuführen war. Mit 104 wurde ein innovatives und vielfältig einsetzbares Werkzeug zur Erforschung der allosterischen Modulation von PPARγ entdeckt, dessen Geschichte an diesem Punkt noch nicht zu Ende ist.
Das adaptive Immunsystem schützt den Menschen vor extra- wie auch intrakorporal auftretenden Pathogenen und Krebszellen. Die Funktionalität dieses Prozesses geht hierbei auf die Interaktion und Kooperation einer Vielzahl verschiedener Zelltypen des Körpers zurück und ist vorwiegend innerhalb der Lymphknoten lokalisiert. Ist auch nur ein Bestandteil dieses sensiblen Prozesses gestört, kann dies zu einem teilweisen oder vollständigen Verlust der immunologischen Fitness des Menschen führen. Daher war es das Ziel dieser Arbeit, solche Aberrationen des humanen Lymphknotengewebes umfassend digital-pathologisch zu detektieren und zu definieren.
Hierfür wurde zunächst eine digitale Gewebedatenbank etabliert. Diese basiert auf dem im Rahmen dieser Arbeit implementierten Content-Management-System Digital Tissue Management Suite. Weiterhin wurde die Software Feature analysis in tissue histomorphometry entwickelt, welche die Analyse von zweidimensionalen whole slide images ermöglicht. Hierbei werden Methoden aus dem Bereich Computer Vision und Graphentheorie eingesetzt, um morphologische und distributionale Eigenschaften der Zelltypen des Lymphknotens zu charakterisieren. Darüber hinaus enthält diese Software Plug-ins zur Visualisierung und statistischen Analyse der Daten.
Aufbauend auf der eigens implementierten, digitalen Infrastruktur, in Kombination mit der Software Imaris wurden zweidimensional und dreidimensional gescannte, reaktive und neoplastische Gewebeproben digital phänotypisiert. Hierbei konnten neue mechanische Barrieren zur Kompartimentalisierung der Keimzentren aufgeklärt werden. Weiterhin konnte der Erhalt des quantitativen Verhältnisses einzelner Zellpopulationen innerhalb der Keimzentren beschrieben werden. Ausgehend von den reaktiven Phänotypen des Lymphknotens, wurden pathophysiologische Aberrationen in verschiedenen lymphatischen Neoplasien untersucht. Hierbei konnte gezeigt werden, dass speziell die strukturelle Destruktion häufig mit einer morphologischen Veränderung der fibroblastischen Retikulumzellen einhergeht.
Neben strukturellen Veränderungen sind auch zytologische Veränderungen der Tumormikroumgebung zu verzeichnen. Eine besondere Rolle spielen hierbei sogenannte Tumor-assoziierte Makrophagen. Im Rahmen dieser Arbeit konnte gezeigt werden, dass speziell Makrophagen in der Tumormikroumgebung des diffus großzelligen B-Zell-Lymphoms und der chronisch lymphatischen Leukämie spezifische pathophysiologische Veränderungen aufzeigen. Auch konnte gezeigt werden, dass genetische Änderungen neoplastischer B-Zellen mit einer generellen Reduktion der CD20-Antigendichte einhergehen.
Zusammenfassend ermöglichten die Ergebnisse die Generierung eines umfassenden digital-pathologischen Profils des klassischen Hodgkin-Lymphoms. Hierbei konnten morphologische Veränderungen neoplastischer, CD30-positiver Hodgkin-Reed-Sternberg-Zellen validiert und beschrieben werden. Auch konnten pathologische Veränderungen des Konnektoms und der Tumormikroumgebung dieser Zellen parametrisiert und quantifiziert werden. Abschließend wurde unter Anwendung eines Random forest-Klassifikators die diagnostische Potenz digital-pathologischer Profile evaluiert und validiert.
This research attempts to provide for an overview of the state of co-operation between the United Nations and regional organizations like the CoE, OSCE, EU and NATO during the last Yugoslav wars, considering the 1991-2008 period. In this case, the "reconstruction" of what the organisations did in each of the countries involved in the conflicts, the country-by-country approach used in writing the research and the consideration of both headquarters and field level should facilitate the understanding of the state of things at that time. The research further includes an analysis of the co-operative trends developed by the considered international organisations since the beginning of the 1990s and is concluded by a reflection on the normative relevance of the issue of "international cooperation". In this case, the intention of the author was to go beyond the general policy level approach used for the description of UN-regional organizations interaction and propose a re-consideration of the concept of "international co-operation" as a possible normative tool in guiding the so far nebulous division of tasks of international actors in conflict-related scenarios. In this case, the concise description of the general framework for co-operation under Chapter VIII of the UN Charter, already matter of wide debate by academics and practitioners, sets the frame for a more elaborate, and hopefully innovative, consideration of the notion of "international cooperation". This, of course, is to be contextualized to the lessons learned extrapolated from the case study.
Restructuration des répertoires langagiers de migrant·e·s de la République du Congo en Lorraine
(2023)
Cette thèse étudie la complexité du plurilinguisme des migrant·e·s d’origine de la République du Congo en Lorraine à travers le prisme de la restructuration des répertoires langagiers. En affûtant la conceptualisation de la restructuration des répertoires langagiers par l’étude du plurilinguisme des migrant·e·s d’origine congolaise, cette recherche ouvre de nouvelles perspectives pour les recherches portant sur le plurilinguisme, notamment concernant les mobilités transgénérationnelles et la diversité des processus de restructuration façonnant les répertoires langagiers. En se focalisant sur les biographies langagières et migratoires de 15 individus migrants, sur leurs réseaux sociaux et sur leurs ressources langagières, cette étude révèle la diversité des processus et des facteurs au cœur des restructurations des répertoires langagiers à travers une étude ethnographique multi-située en Lorraine et au Congo. La compréhension de la diversité des dynamiques restructurant les connaissances langagières des enquêté·e·s passe par l’étude des situations de socialisation langagière au Congo dans leur historicité, des itinéraires de migration et des restructurations des réseaux sociaux ainsi que des répertoires langagiers dans l’installation en Lorraine. Les participations à la société lorraine et ses groupes sociaux imprègnent les identifications, les orientations sociales et les positionnements dans les réseaux sociaux et vice-versa.
Les répertoires langagiers apparaissent comme des enregistrements de la mobilité des individus et de celle des générations antérieures ainsi que de leur entourage. Les restructurations concernent entre autres les ressources associées au français, aux langues congolaises et à d’autres langues appropriées par la migration. Les ressources du français sont restructurées par les migrant·e·s en s’appropriant les ressources courantes dans différentes situations sociales en Lorraine, en marquant et/ou en dissimulant les ressources appropriées ailleurs et inappropriées dans ces situations. En même temps, un savoir de différenciation des ressources, dont font aussi partie les schémas de catégorisation et les stratégies communicatives, est développé et une (in)sécurité langagière se manifeste. Les ressources associées aux langues congolaises, leurs fonctions sociales et leurs représentations sont restructurées dans des processus d’attrition, d’actualisation, de transformation et d’élaboration langagière. Les ressources associées à d’autres langues européennes appropriées par la migration sont reléguées au second plan et se perdent lentement par manque d’usage. Enfin, les connaissances liées à la gestion du plurilinguisme, de la diversité culturelle et de l’altérité, appropriées dans les mêmes situations de diversité, aident au traitement interne des expériences des mobilités spatiales et sociales ainsi que des restructurations des répertoires langagiers.
Terahertz (THz) radiation lies between the micro and far-infrared range in the electromagnetic spectrum. Compared with microwave and millimeter waves, it has a larger signal bandwidth and extremely narrow antenna beam. Thus, it is easier to achieve high-resolution for imaging and detection applications. The unique properties, such as penetration for majority non-polar materials, non-ionizing characteristic and the spectral fingerprint of materials, makes THz imaging an appealing artifice in the military, biomedical, astronomical communications, and other areas. However, THz radiation’s current low power level and detection sensitivity block THz imaging system from including fewer optical elements than the visible or infrared range. This leads to imaging resolution, contrast, and imaging field of view degenerate and makes the aberration more serious. THz imaging based on the space Fourier spectrum detection is developed in this thesis to achieve high-quality imaging. The main concept of Fourier imaging is by recording the field distribution in the Fourier plane (focal plane) of the imaging system; the information of the target is obtained. The numerical processing method is needed to extract the amplitude and phase information of the imaged target. With additional process, three-dimensional (3D) information can be obtained based on the phase information. The novel recording and reconstructing ways of the Fourier imaging system enables it to have a higher resolution, better contrast, and broader field of view than conventional imaging systems such as microscopy and plane to plane telescopic imaging system.
The work presented in this thesis consists of two imaging systems, one is working at 300 GHz based on the fundamental heterodyne detection of the THz radiation, the other is operated at 600 GHz by utilizing the sub harmonic heterodyne detection technique. The realization and test of the heterodyne detection are based on the THz antenna-coupled field-effect transistor (TeraFET) detector developed by Dr. Alvydas Lisauskas. Both systems use two synchronized electronic multiplier chains to radiate the THz waves. One radiation works as the local oscillator (LO), the other works as illumination with a slight frequency shift, the radiations are mixed on the detector scanning in the Fourier plane to record the complex Fourier spectrum of the imaged target. The LO has the same frequency range as the illuminating radiation for fundamental heterodyne detection but half the frequency range for the sub-harmonic heterodyne detection. The 2-mm resolution, 60-dB contrast, and 5.5-cm diameter imaging area at 300 GHz and the of 500-μm resolution, 40-dB contrast, and 3.5-cm diameter imaging area at 600 GHz are achieved (the 300-GHz illuminating radiation has the approximate power of 600 μW , the 600-GHz illuminating radiation has the approximate power of 60 μW ).
The thesis consists of 6 parts. After the introduction, the second chapter expands on the topic of Fourier optics from a theoretical point of view and the simulations of the Fourier imaging system. First, the theory of the electromagnetic field propagation in free space and through an optical system are investigated to elicit the Fourier transform function of the imaging system. The simulation is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on reconstruction. The preliminary imaging field of view and resolution are also demonstrated. The third chapter describes the Fourier imaging system at 300 GHz based on the fundamental heterodyne detection, including the experimental setup, the 2D, and 3D imaging results. The following fourth chapter reports the integration of the TeraFET detector with two substrate lenses (one is a Si lens on the back-side Si substrate, the other is a wax/PTFE lens on the front side containing the bonding wires) for sub-harmonic heterodyne detection at 600 GHz. The characteristic of the wax/PTFE lens at THz range is presented. After that, the compared imaging results between the detector with and without the wax/PTFE lens are shown. The fifth chapter extends the demonstration on the lateral and depth resolution of the Fourier imaging system in detail and uses the experimental results at 600 GHz to validate the analytical predictions. The comparison of the resolution between the Fourier imaging system and the conventional microscopy system proves that the Fourier imaging system has better imaging quality under the same system configuration. The last chapter in this thesis concludes on the findings of the THz Fourier imaging and gives an outlook for the enhancement of the Fourier imaging system at THz range.
This dissertation investigates a special class of anaphoric form, yè, in Ewe known as the logophoric pronoun. This research makes a number of novel observations.
In the first chapter, I introduce the reader to the phenomenon under investigation as well as provide information on Ewe and its dialects and, methodology. In Chapter 2, I present the pronominal system of Ewe which is categorised into strong and weak forms following Cardinaletti & Starke (1994) and Agbedor (1996). The distribution of pronouns is outlined which sets the tone for an overview of logophoric marking. In this respect, I present variations in logophoric marking strategies cross linguistically and show that Ewe differs significantly from other pronouns in this category. In an effort to explain the deviant case of yè, I entertain the idea that yè is a pure logophoric pronoun in the sense of Clements (1975) and thus, its additional de re and strict interpretation does not imply non-logophoricity.
Chapter 3 demonstrates that yè is sensitive to contexts which portray the intention of an individual. Following Sells (1987), the antecedent of yè must have an intention to communicate. I broadly categorize logophoric contexts into reportative (direct-indirect speech) or non-reportative (speaker’s mental attitude, reporter’s observation or background knowledge of a situation). Based on this categorization, indirect speech report (Clements 1975), dis- course units such as a paragraph or an episode (Clements 1975), and sentential adjuncts such as purpose, causal and consequence clauses (Culy 1994a) are reviewed. The logophoric pro- noun occurs in the complement of attitude verbs (Clements 1975), also termed logocentric (à la (Stirling 1994)) or logophoric predicates (à la (Culy 1994a)) as well as with non-attitudinal verbs (e.g. va ‘come’ or wO ‘do’ as in sentential adjuncts). I argue contra Clements (1975) and Culy (1994a) that yè can occur with perception predicates. I further provide three new instances of non-reportative contexts which are compatible with yè namely, as-if clauses, benefactive na clauses and alesi ‘how’ clauses. I show, corroborating previous studies that contexts which are necessary for the licensing of yè include all of the aforementioned except causal clauses. Among these contexts, the complementizer be or regarding cases where there is no be, an element in C (due to the Doubly-Filled-Comp Filter (DFCF) c.f. Chomsky & Lasnik (1977)), is sufficient to license yè. Following Bimpeh & Sode (2021), yè is licensed by feature checking (in the spirit of von Stechow (2004)): be bears the interpretatble [log] feature which checks the uninterpretable [log] feature of yè. I include a redefinition of logophoricity as pertaining to Ewe.
Given the disparity found in the literature concerning the interpretation of yè: Ewedome (pronounce EVedome) has only de se readings (Bimpeh 2019); while ‘pure’ Ewe, Mina (variety of Ewe spoken in Togo) Pearson (2015), Danyi (O’Neill 2015) and Anlo (pronounced ANlO) (Satık 2019) has de re readings; chapter 4 aims at lending empirical support to the ungoing discussion by verifying the interpretation of yè. Two acceptability judgment tasks were conducted namely, truth value judgment task and binary forced choice task. The results corroborates Pearson (2012, 2015) and others’ discovery that yè has a de re interpretation in the Ewedome (contra Bimpeh (2019); Bimpeh et al. (2022)), Anlo and Tonu (pronounced TONu) dialects of Ewe.
In chapter 5, I discuss the relation between logophoricity (yè, yè a) and Control (PRO). I show that yè may be restricted to a set of verbs which obligatorily require the morpheme a ‘potential marker’ (Essegbey 2008), in subject position. This set of verbs are those that are known as control verbs c.f. (Landau 1999) in English. As a result of this restriction, research such as Satık (2019) claims that yè a is the overt instantiation of PRO in English. According to the Ewe facts, it appears as though on one hand, yè and PRO share similar properties in logophoric contexts and on the other hand, yè in combination with the potential marker, a also share properties with PRO in subject control environments. Against this background, I discuss the relation between yè, yè a and PRO and show that neither yè in isolation nor yè in combination with a, contrary to Satık (2019), is the overt instantiation of PRO. I clarify that the potential morpheme a is not cliticised or combined with the logophoric yè. The two forms are seperate morphemes. The potential marker a only shows up in control environments because a sub-class of verbs require it for grammaticality purposes. As such, the property of de se-ness does not come from yè by itself, yè a or a but rather from the sub-class of verbs which require the potential marker a...
Molekulare Werkzeuge können in der Wissenschaft unter anderem dazu verwendet werden, biochemische Prozesse gezielt zu untersuchen, um sie somit besser zu verstehen. Dabei handelt es sich zum Beispiel, um kleine chemische Moleküle, die gezielt für ihr Anwendungsgebiet konzipiert worden sind. Mit Ihnen lassen sich z.B. Interaktionen zwischen (Makro-)Molekülen regulieren, chemische Gleichgewichte lokal verändern oder auch Botenstoffe zielgerichtet freisetzen. Die Effekte dieser temporären Einwirkung auf verschiedenste biologische Systeme können hilfreiche Erkenntnisse struktureller, funktioneller oder systematischer Art für die entsprechenden Forschungsgebiete liefern.
Um die interdisziplinären Problemstellungen zielgerichtet mit den entsprechend zugeschnittenen Werkzeugen zu adressieren, ist es dabei jedoch absolut notwendig, dass ein umfassendes und über die Grenzen der jeweiligen Fachgebiete hinaus gehendes Verständnis der jeweiligen Fragestellungen entwickelt wird.
Viele der bisher bekannten Werkzeuge benötigen für ihren Einsatz bis heute noch relativ harsche Reaktionsbedingungen, haben ein eingeschränktes Anwendungsfeld oder lassen sich nicht ausreichend Zeit- & Ortsaufgelöst „aktivieren“. Die Möglichkeit Licht als externes Trigger-Signal zu verwenden, um die entsprechenden molekularen Werkzeuge zu aktivieren (oder auch zu deaktivieren), überwindet genau diese Defizite und bringt neben der hohen zeitlichen und räumlichen Auflösung noch viele weitere Vorteile mit sich. Im Rahmen meiner Doktorarbeit ist es mir gelungen gemeinsam mit meinen Kooperationspartnern neue lichtaktivierbare molekulare Werkzeuge von Grund auf zu designen, zu synthetisieren, sie auf ihre photochemischen Eigenschaften zu untersuchen und sie anzuwenden. Durch die interdisziplinäre Zusammenarbeit mit Doktoranden aus der Organischen, Theoretischen und Physikalischen Chemie, konnte ein umfassendes Bild dieser neuen Substanzklassen aufgezeigt werden. Die verschiedenen Arten lichtaktivierbarer Werkzeuge sollen im Verlauf dieser Arbeit genauer herausgearbeitet werden. Generell kann man in drei grundlegenden Klassen von lichtaktivierbaren Werkzeugen unterscheiden: 1. irreversibel photolabile Schutzgruppen, 2. photoaktivierbare Label und 3. reversibel lichtschaltbare Photoschalter.
Auf dem Gebiet der photolabilen Schutzgruppen, auch photoaktivierbare Schutzgruppen oder Photocages genannt, ist es uns gelungen eine neue Spezies von Molekülen zu identifizieren, die dazu in der Lage sind, nach photochemischer Anregung eine spezifische Bindung innerhalb ihres molekularen Gerüsts zu spalten. Möglich gemacht wurde dies, indem wir den sog. „uncaging Prozess ganz neu gedacht“ haben und mit der Unterstützung von Theorie und Spektroskopie unsere Ergebnisse in einer Struktur-Aktivitäts-Beziehungs-Studie (SAR) festhalten konnten. Aus einer Substanzbibliothek von diversen theoretisch berechneten Kandidaten, wurden die vielversprechendsten Verbindungen anschließend synthetisiert und photochemisch charakterisiert. Nach initialen Untersuchungen und den daraus hervorgehenden Erkenntnissen, wurden weitere molekulare Struktur auf die Optimierungen der photochemischen Eigenschaften hin theoretisch berechnet und anschließend im Labor realisiert. Daraus resultierend entwickelten wir einen Photocage, der mit einer hohen Quantenausbeute mit Licht von über 450 nm photolysierbar ist und ebenfalls dazu in der Lage ist Neurotransmitter wie z.B. Glutamat zielgerichtet und lichtaktiviert freizusetzen. Eine weitere Struktur-Aktivitäts-Beziehungs-Studie wurde im Rahmen dieser Arbeit mit dem Isatin-Gerüst als potentiell neue photolabile Schutzgruppe durchgeführt.
Ebenfalls konnten in einer dritten Studie auf dem Gebiet der photolabilen Schutzgruppen Untersuchungen am Coumarin-Grundgerüst zeigen, dass eine systematische Einschränkung der Relaxationspfade im Molekül eine Verbesserung der photochemischen Eigenschaften mit sich bringen kann.
Photoaktivierbare Label werden in den verschiedensten Bereichen der Wissenschaft angewendet. Meist erlauben jedoch die chemischen Moleküle nur eine begrenzte „Beobachtungszeit“ der biochemischen Prozesse aufgrund der effizienten und damit schnellen Relaxationspfade zurück in den Grundzustand. Zu Beginn der durchgeführten Untersuchungen, bestand unsere Idee darin, die selektive Prä-IR-Anregung mit Hilfe eines UV/vis-Pulses (entsprechend der VIPER-Spektrokopie) in ein langlebiges Triplett-Signal eines geeigneten Chromophors zu überführen, welches anschließend für die Beobachtung vergleichsweise lang-lebiger biochemischer Prozesse verwendet werden könnte. Aus dieser Idee heraus entwickelten wir einen Chromophor, der neben einer Absorption im sichtbaren Bereich des elektromagnetischen Spektrums, zusätzlich eine IR-adressierbare funktionelle Gruppe, sowie die Eigenschaft, ein effizientes Inter-System-Crossing (ISC) nach photochemischer Anregung durchzuführen, besaß. Zu unserem Erstaunen zeigte dieses Derivat jedoch nach erfolgreicher Synthese nicht das erwartete Verhalten. Ein weiteres Beispiel für die hochgradige Komplexität der Photochemie.
Mit Hilfe von theoretischen und spektroskopischen Methoden konnten dennoch viele hilfreiche Erkenntnisse aus dieser Studie für zukünftige Untersuchungen aufgedeckt werden.
Ebenso war es während meiner Promotion eines der Ziele, den Schaltprozess des sog. Fulgid-Photoschalters genauer zu untersuchen und somit besser zu verstehen. Hierbei handelt es sich um ein ausgesprochen beständiges, photochemisch reversibel schaltbares Molekül, auch wenn dies vielleicht auf den ersten Blick ein Widerspruch in sich zu sein scheint. Es gelang uns diesen Photoschalter, genauer gesagt seine Photo-Isomere, auf dem Gebiet der chemischen Aktinometrie zu etablieren.
Dafür waren zahlreiche Messungen diverser Reaktivitäten (photochemische Reaktions-Quantenausbeuten) in verschiedenste Wellenlängenbereiche vom Nah-UV-Bereich bis hin zur 700 nm Grenze erforderlich. Außerdem wurden alle Werte mit der Referenzmessung einer Photodiode bzw. je nach Wellenlängenbereich auch mit der klassischen Ferri-Oxalat-Aktinometrie verglichen. Im Anschluss daran fokussierte ich mich weiter auf die einzelnen Photo-Isomere und ihre einzigartige chemische Struktur. Mit Hilfe der chiralen HPLC gelang es uns die einzelnen Photo-Isomere voneinander zu isolieren und diese mit verschiedensten photochemischen und theoretischen Methoden „genauer unter die Lupe“ zu nehmen. Die aus dieser Studie gewonnenen Erkenntnisse bereiten den Weg für diverse, zukünftige spektroskopische Anwendungen dieses Photoschalters.
Der erste Teil der vorliegenden Arbeit beinhaltet die funktionelle Analyse von fünf Oberflächenproteinen von B. recurrentis die die Fähigkeit besitzen, die Aktivierung von humanen Komplement zu inhibieren und Borrelien vor Bakteriolyse zu schützen. Im zweiten Teil der Arbeit wurden zwei immunologische Testverfahren mit hoher Sensitivität sowie Spezifität entwickelt und mit zahlreichen Patientenseren evaluiert. Die entwickelten Tests könnten in Zukunft als zuverlässige Instrumente für eine gesicherte Diagnose von LRF eingesetzt werden.
Eine Sequenzanalyse führte zur Identifizierung eines neuen Proteinclusters, welches die fünf untersuchten Komplement-inhibierenden Proteine als „Cluster of Complement-targeting and Host-interacting Proteins“ oder „Chi-Gencluster“, zusammenfasst. Diese Oberflächenproteine wurden als ChiA, ChiB, ChiC, ChiD und ChiE bezeichnet. Weiterführende Sequenzanalysen ergaben, dass das Chi-Gencluster extrem hoch konserviert ist und sowohl in den ersten B. recurrentis-Isolaten aus den 1990er Jahren als auch in B. recurrentis-Stämmen nachgewiesen werden konnte, die 2015 aus Patienten isoliert wurden.
Durch funktionelle Analysen konnte gezeigt werden, dass alle fünf Chi-Proteine in der Lage sind den alternativen und terminalen Komplementweg zu inhibieren. Ebenfalls konnte für die Proteine ChiB, ChiD sowie ChiE nachgewiesen werden, dass die Interaktion mit der Komplementkomponente C5 dosisabhängig verläuft.
Die strukturelle Aufklärung des Proteins ChiB ermöglichte es Aminosäuren zu identifizieren, von denen angenommen wurde, dass sie für die Interaktion mit Komplement eine Rolle spielen könnten. Durch in vitro Mutagenese konnten insgesamt fünf verschiedene Varianten von ChiB generiert werden, die jedoch keine Veränderungen in ihrem Komplement-inhibierenden Potential gegenüber dem unveränderten ChiB-Protein aufwiesen. Weder in der Inhibition des alternativen oder des terminalen Komplementweges, noch in der Interaktion mit den untersuchten Komplementkomponenten C3b, C5 und C9.
Weiter konnte gezeigt werden, dass die lytische Aktivität von Humanserum durch Vorinkubation mit ChiB, ChiC, ChiD und ChiE drastisch reduziert werden konnte, sodass Serum-sensible Borrelienzellen in Gegenwart von Komplement überlebten. „Gain-of-function“ B. garinii-Transformanten, welche mit dem entsprechendem Chi-kodierenden Gen transformiert wurden, bestätigten die mit den gereinigten Proteinen erhobenen Ergebnisse.So konnte nachgewiesen werden, dass ChiB-, ChiC- oder ChiD-produzierende „Gain-of-function“ B. garinii Transformanten, nicht jedoch ChiE- produzierende Zellen, in der Lage waren einen Serum-resistenten Phänotypen auszubilden. Für Transformanten, die zwei-, drei- oder vier Chi-Proteine in verschiedenen Kombinationen gleichzeitig produzierten, konnte allerdings die Fähigkeit in Gegenwart von Humanserum zu überleben nicht bestätigt werden.
Molekulare Analysen mit verschiedenen RF-Borrelienstämmen führten zum Nachweis, dass die fünf Chi-kodierenden Gene bei allen Isolaten vorhanden sind und unter in vitro Bedingungen exprimiert werden. Im Gegensatz zu B. recurrentis PAbJ, ließ sich das HcpA kodierende Gen in B. duttonii LAI nicht nachweisen, jedoch alle dem Chi-Cluster zugehörigen Gene. Bei B. duttoni V fehlte das gesamte Chi-Cluster sowie die für CihC- und HcpA-kodierenden Gene. Durch eine Western Blot-Analyse konnte mit spezifischen Antikörpern bestätigt werden, dass die Proteine CihC, HcpA und ChiB in B. recurrentis A17 unter in vitro Bedingungen produziert wurden.
Im zweiten Teil der vorliegenden Arbeit wurden durch die Analyse der IgM- und IgG-Immunreaktivitäten der LRF-Patientenseren zwei Proteine identifiziert, CihC und GlpQ, die als potenzielle Antigene für die Serodiagnostik des LRF evaluiert wurden. Eine initiale Evaluierung des IgM Lineblot-Immmunoassays zeigte jedoch nur eine geringe Sensitivität für die beiden Antigene, während der IgG Lineblot-Immunoassay eine sehr hohe Sensitivität aufwies. Der ELISA hingegen zeigte bei einer Kombination beider Antigene sehr gute Sensitivitäten und Spezifitäten. Um die starke Hintergrundfärbung bei den Lineblot-Immunoassays, welche eine korrekte Bewertung der Reaktivitäten gegenüber CihC erheblich erschwerten, zu minimieren, wurde ein „Epitop-Mapping“ durchgeführt, um immunogene Regionen innerhalb des CihC-Proteins zu lokalisieren. Eine zweite Evaluierung mit dem immunreaktiven N-terminalen CihC-Fragment CihC-N führte zu einer deutlichen Verbesserung der IgG Lineblot-Immunoassays mit einer Sensitivität von 100 % und einer starken Reduktion der Hintergrundfärbung. Zusätzlich konnte die Sensitivität der IgM-ELISA deutlich verbessert werden. Die Verwendung von CihC-N führte beim IgG-ELISA zur Herabsetzung des Cut-off-Wertes und zu einer besseren Unterscheidung zwischen den positiven LRF-Seren und den verwendeten Kontrollseren. Im Rahmen dieser Arbeit konnten somit zwei serologische in vitro Diagnostika entwickelt werden, die als zuverlässige Point-of-Care-Diagnostik in klinischen Studien eingesetzt werden könnten. Zur Steigerung der Sensitivität des IgM-Lineblot-Immunoassays sollten allerdings weiterführende Untersuchungen mit weiteren immunreaktiven Antigenen, wie z.B. den Vmp-Proteinen von B. recurrentis, angestrebt werden.
Untersuchung der Expression von Wachstumsfaktoren in reseziertem Hirngewebe von Epilepsiepatienten
(2023)
Hintergrund: Die Epilepsie gehört zu den häufigsten chronischen neurologischen Erkrankungen beim Menschen. Bei Patienten mit mesialer TLE und Hippocampussklerose besteht die höchste Wahrscheinlichkeit, eine medikamentöse Therapierefraktärität zu entwickeln. Die Ursache der Hippocampussklerose sowie die ursächlichen Mechanismen sind nicht bekannt. Allerdings kann eine initiale Schädigung, wie etwa komplizierte Fieberkrämpfe im Kindesalter, Schädel-Hirn-Traumata, Schlaganfälle, entzündliche Prozesse oder Ähnliches, für die Entwicklung einer Hippocampussklerose prädisponieren. Diese kann anschließend nach einer klinisch stummen Latenzperiode zur Entwicklung spontaner epileptischer Anfälle und der Diagnose einer Epilepsie führen. Im Rahmen der Epileptogenese, also der Entstehung und Progression der Epilepsie kommt es zu Wachstumsprozessen, weshalb eine Beteiligung von neurotrophen Wachstumsfaktoren naheliegend war. Das Ziel dieser Arbeit war die vergleichende Untersuchung resezierter Hippocampi auf Wachstumsfaktoren, um semiquantitative Daten zu deren Verteilung bei Epilepsiepatienten zu erhalten. Des Weiteren war die Korrelation mit den klinischen Daten der Patienten von besonderem Interesse, da so Hinweise auf mögliche Zusammenhänge zwischen dem klinischen Erscheinungsbild und der Expression der Wachstumsfaktoren gewonnen werden konnten.
Methoden: Bei dem in der vorliegenden Arbeit untersuchten Gewebe handelt es sich um Hippocampi von 21 Patienten mit TLE, die epilepsiechirurgisch therapiert wurden. Die Schnitte der paraffinierten Hippocampi wurden mittels Immunhistochemie auf die Wachstumsfaktoren BDNF, FGF2, GDNF, GMFB und PDGF-B untersucht. Im Anschluss wurden die Schnitte gescannt und die Zellen mittels eines Algorithmus identifiziert und ausgewertet. Diese experimentellen Daten wurden anschließend mit den klinischen Daten der Patienten korreliert.
Ergebnisse: Es fand sich eine signifikante Korrelation zwischen der Expression von GMFB und dem postoperativen Outcome der Patienten. Des Weiteren fanden sich auch Korrelationen zwischen der präoperativen Anfallsfrequenz und der Expression von BDNF sowie GDNF. Auch die Epilepsiedauer korrelierte mit der Expression von BDNF. Zudem fanden sich Korrelationen zwischen den Ergebnissen der neuropsychologischen Testungen und der Expression von BDNF, sowie PDGF-B.
Diskussion: Die vorliegende Arbeit liefert einige Daten, die Hinweise für nachfolgende Untersuchungen geben können. Sowohl für die Anfallsfrequenz, als auch für die Epilepsiedauer fanden sich signifikante Korrelationen mit BDNF. Beides ist passend zu den vermuteten und zum Teil in der Literatur beschriebenen Mechanismen im Rahmen der Epilepsie, also einer postiktalen Hochregulation von Wachstumsfaktoren beziehungswiese des Zugrundegehens von Zellen im Verlauf der Erkrankung und damit zu einer reduzierten Expression von Wachstumsfaktoren. Geschlechterabhängige Unterschiede in der Expression der Wachstumsfaktoren fanden sich, passend zu der vorhandenen Literatur, nicht. Interessant ist, dass sowohl Geschlechtshormone als auch anfallssuppressive Medikamente einen Einfluss auf die Expression der Wachstumsfaktoren haben können.
Bis heute ist kein Biomarker bekannt, der eine Vorhersage über den Erfolg einer operativen Therapie bei therapierefraktären TLE treffen kann. Da meine Daten eine Korrelation von GMFB und dem postoperativen Outcome zeigen, bietet es sich für weitere Untersuchungen an, GMFB als präoperativen Biomarker zu nutzen. zu können, wäre eine einfachere Probengewinnung beispielsweise aus Blut, Liquor, Urin oder Speichel notwendig. Im Sinne einer „Liquid Biopsy“ könnte so der Erfolg einer chirurgischen Therapie weiter objektiviert werden, was die Entscheidungsfindung einfacher und risikoärmer gestalten würde.
Ein intaktes Arbeitsgedächtnis ermöglicht es, Informationen, z.B. visuellen oder auditorischen Ursprungs temporär zu speichern, zu manipulieren und weiterzuverarbeiten. Es bildet die Grundlage zum Lernen, zum Begreifen und zum Verstehen von Sprache und somit die Grundlage zum tagtäglichen Funktionieren.
Beeinträchtigungen des Arbeitsgedächtnisses sind mit schlechten (Arbeits-) Leistungen, eingeschränkter zwischenmenschlicher Kommunikation, niedrigerem gesellschaftlichem Funktionsniveau und Arbeitslosigkeit vergesellschaftet und somit folgenschwer.
Psychiatrische Erkrankungen aus dem schizophrenen Spektrum, die unipolare Depression oder das Aufmerksamkeitsdefizit-Hyperaktivitätssyndrom (ADHS) gehen gehäuft mit kognitiven Beeinträchtigungen einher. Auch die bipolare affektive Störung zählt zu den psychiatrischen Erkrankungen, die mit kognitiver Beeinträchtigung assoziiert ist.
Das Ziel der Studie war es, darzustellen, dass kognitive Einschränkungen von Patienten, die an einer bipolaren affektiven Störung leiden, unter den exekutiven Funktionen insbesondere das Arbeitsgedächtnis betreffen und diese auch in euthymer Stimmungslage zu erfassen sind.
Hierzu wurde mittels einer Aufgabe zur Farbveränderung vier verschiedener Kreise, die um ein zentral platziertes, schwarzes Kreuz angeordnet waren, das visuelle Arbeitsgedächtnis anhand der Merkfähigkeit der Patienten, deren euthyme Stimmungslage mit den Ratingskalen MADRS und YMRS bestätigt wurde, im Vergleich zu einer Gruppe gesunder Kontrollprobanden, die mit der Patientengruppe in den Faktoren Alter, Geschlechterverteilung, prämorbide Intelligenz, Schulbildung und Händigkeit vergleichbar war, überprüft.
Anhand der erzielten Ergebnisse wurde die Arbeitsgedächtniskapazität K nach Pashler bestimmt. Es ergab sich eine bei mittlerer Effektstärke signifikant geringere Arbeitsgedächtniskapazität in der Gruppe der remittierten Patienten mit bipolarer affektiver Störung im Vergleich zur Kontrollgruppe gesunder Probanden.
Ein Einfluss der zum Zeitpunkt der Testung in der Patientengruppe angewandten Psychopharmaka auf die Arbeitsgedächtniskapazität konnte ausgeschlossen werden, sodass die ermittelten Defizite nicht als eine Form von Medikamentennebenwirkungen erklärt werden konnten. Interessanterweise betrug die mediane Erkrankungsdauer in der Patientengruppe drei Jahre, sodass davon auszugehen ist, dass die Ausprägung von Defiziten des Arbeitsgedächtnisses keinen langen Krankheitsverlauf bedingt, sondern bereits zu Beginn der Erkrankung vorhanden sein könnte.
Somit konnte die Studie darlegen, dass kognitive Defizite, insbesondere Störungen des Arbeitsgedächtnisses mit daraus resultierender signifikant erniedrigter Arbeitsgedächtniskapazität, bei Patienten mit bipolarer affektiver Störung in euthymer Stimmungslage bereits zu einem frühen Zeitpunkt des Krankheitsverlaufs bestehen, die eine Folge der Erkrankung selbst sind und keine Nebenwirkung von psychopharmazeutischer Medikation darstellen. Den Grund für das Auftreten kognitiver Defizite bei Patienten mit bipolarer affektiver Störung liefert diese Studie nicht, sie impliziert dennoch, dass das Verständnis und die Berücksichtigung kognitiver Störungen bei der bipolaren affektiven Störung zukünftig ein wichtiges Therapieziel darstellen sollte um das funktionelle Outcome von Patienten, die an dieser Störung leiden, entscheidend zu verbessern und somit eine Teilnahme am tagtäglichen Funktionieren weiterhin ermöglicht wird.
In die Zukunft blickend sollten unsere Ergebnisse mithilfe weiterer Untersuchungen validiert werden, insbesondere in Bezug auf genetische Komponenten, die die Arbeitsgedächtniskapazität regulieren. Es sollten Faktoren identifiziert werden, die eine reduzierte Arbeitsgedächtniskapazität bei Patienten mit bipolarer affektiver Störung bedingen. Die vorliegende Studie beantwortet nämlich nicht die Frage, wie genetische Faktoren und Umweltfaktoren die Arbeitsgedächtniskapazität auf kognitiver und neurophysiologischer Ebene beeinflussen könnten.
Angesichts der erwähnten Relevanz eines intakten Arbeitsgedächtnisses für die Funktionsfähigkeit der Patienten sollten zukünftige Studien prüfen, ob prokognitive Interventionen wie die kognitive Remediation oder sogar medikamentöse Therapieoptionen diese Defizite verbessern könnten.
Discrepancies between knockdown and knockout animal model phenotypes have long stood as a perplexing phenomenon. Several mechanisms explaining such observations have been proposed, namely the toxicity or the off-target effects of the knockdown reagents, as well as, in certain cases, genetic robustness – an organism's ability to maintain its phenotype despite genetic perturbations. In addition to these explanations, transcriptional adaptation (TA), a phenomenon defined as an event whereby a mutation in one gene leads to transcriptional upregulation or downregulation of another, adapting, gene or genes expression, has been recently proposed as an alternative explanation for the conflicting knockdown and knockout phenotype paradox.
Since its discovery in 2015, TA's precise mechanism remains a subject of ongoing research. Majority of evidence suggests that mutant mRNA degradation plays a central in TA. Epigenetic remodeling is also thought to play a role, as evidenced by an increase in active histone marks at the transcription start sites of the adapting genes. Whether mRNA degradation is indeed the key player in TA remains debated. Furthermore, it is still unknown how exactly TA develops, what adapting genes it targets, and whether genomic mutations that render mutant mRNA sensitive to degradation are required for TA to occur.
Throughout the experiments described in this Dissertation, I have designed an inducible TA system where TA can be triggered on demand and its effects on the cell’s transcriptome followed through time. I have demonstrated that degradation-prone transgenes, once induced and expressed, can be efficiently degraded, resulting in the protein loss-independent upregulation of adapting genes via TA. Adapting genes with higher degree of sequence similarity become upregulated faster than genes with lower degree of sequence similarity. Further functionality of this approach to study TA is limited by the leakiness of the inducible gene expression system; however, constitutively expressed degradation-prone transgenes were used to demonstrate TA in human cells.
In addition, I have developed an approach to target wild-type cytoplasmic mRNAs without altering the cell’s genome and reported a TA-like phenomenon, which manifested as adapting gene upregulation not relying on mutations in other genes. Cytoplasmic mRNA cleavage with CRISPR-Cas13d triggered a TA-like response in three different gene models: Actg1 knockdown, Ctnna1 knockdown, and Nckap1 knockdown. After comparing two different modes of triggering TA, CRISPR-Cas9 knockout versus CRISPR-Cas13d knockdown, I reported little overlap between the dysregulated genes and suggested that diverse mRNA degradation modes led to distinct TA responses. In addition, the transcriptional increase of Actg2 caused by CRISPR-Cas13d-mediated Actg1 mRNA cleavage did not require chromatin accessibility changes.
Experiments and genetic tools described in this dissertation investigated how TA develops from its earliest onset, how it affects the global transcriptome of the cell, as well as provided compelling evidence for an mRNA degradation-central TA mechanism. I have created tools to study both direct and indirect TA gene targets and unveiled important insights into the temporal dynamics of TA. Genes with higher sequence similarity were found to be upregulated more rapidly than those with lower similarity. Furthermore, it was revealed that the epigenetic properties of TA responses vary depending on the triggering mechanism. Cas13d-mediated degradation of wild-type mRNAs led to immediate transcriptional enhancement independent of epigenetic changes, which stood in contrast to previously measured alterations in chromatin accessibility in CRISPR-Cas9 mutants. This research has thus significantly advanced our knowledge of TA and provided valuable tools and findings that contribute to the broader understanding of gene expression regulation in response to mRNA degradation.
This thesis provides a detailed derivation of dissipative spin hydrodynamics from quantum field theory for systems composed of spin-0, spin-1/2, or spin-1 particles.
The Wigner function formalism is introduced for quantum fields in the respective representations of the Poincaré group, and the conserved currents, i.e., the energy-momentum tensor and the total angular momentum tensor, in various so-called pseudogauges are derived. An expansion around the semiclassical limit in powers of the Planck constant is performed.
Subsequently, kinetic equations are obtained for binary elastic scattering, using both the de Groot-van Leeuwen-van Weert and Kadanoff-Baym method, with the latter retaining the effect of quantum statistics. The resulting collision term features both local and nonlocal contributions, with the latter providing a relaxation mechanism for the spin degrees of freedom of the quasiparticles. The local-equilibrium distribution function is derived from the requirement that the local part of the collision term vanishes.
From quantum kinetic theory, dissipative spin hydrodynamics is then constructed via the method of moments, extended to particles with spin. The system of moment equations is closed via the Inverse-Reynolds Dominance (IReD) approach, resulting in a set of equations of motion describing the evolution of both ideal and dissipative degrees of freedom. The application to polarization phenomena relevant to heavy-ion collisions is discussed.
Upper mantle shear zones are complex systems where deformation is commonly closely interacting with metamorphic (solid-solid) and/or melt/fluid-rock reactions. Here, feedback processes between deformation, reactions, grain size reduction and phase mixing result in strain weakening and the localization of deformation. The expression of these interlinked processes is portrayed by the microfabrics of strained peridotites and pyroxenites. The present thesis is focusing on these processes and their impact on the deformation in three upper mantle shear zones situated in the peridotite massifs of Lanzo (Italian Alps), Erro-Tobbio (Italian Alps) and Ronda (Betic Cordillera, Spain). In all three shear zones, the presence of melt led to phase mixing either by interstitial crystallization of pyroxenes from a Si-saturated and partially also highly evolved melt or by melt-rock reactions of pyroxene porphyroclasts with a Si-undersaturated melt. The effect of melt on the localization of strain is twofold and variable. Enhanced deformation by melt-wetted boundaries is assumed for all shear zones. Additionally, phase mixing by crystallization of interstitial pyroxenes or melt-rock reactions reduce or maintain the grain size by the formation of fine grained neoblasts and secondary phase boundary pinning. In this regard, pre- to early syn-kinematic, map-scale percolation of OH-bearing, evolved melts in the NW Ronda peridotite massif and the associated crystallization of interstitial pyroxenes result in the activation of grain size sensitive deformation mechanisms in the entire melt-effected area. In the rocks collected at Erro-Tobbio, syn-kinematic melt-rock reactions of pyroxene porphyroclasts and Si-undersaturated melt led to the formation of ultramylonitic neoblast tails (grain size ~10 μm). Compared to the adjacent coarser-grained olivine-dominated matrix, the activation of diffusion creep led to an increase in the strain rate by an order of magnitude within interconnected ultramylonitic layers. Strain localization and softening in ultramylonitic layers are also documented in the Lanzo samples. Neoblast tails of pyroxene porphyroclasts were likewise identified as their precursor. The phase assemblage of the tails, including ortho- and clinopyroxene, olivine, plagioclase, and spinel (± amphibole), and their geochemical trends suggest, unlike in Erro-Tobbio, a formation by continuous net-transfer reactions enhanced by the spinel lherzolite to plagioclase lherzolite transition.
The new results obtained from the three studied shear zones underscore the importance of reactions for the interlinked processes of grain size reduction, phase mixing, strain localization and strain softening in upper mantle shear zones. Concerning strain localization, the nature of the reaction (solid-solid, melt/fluid-rock) seems to play a subordinate role compared to its timing. Pre- to early syn-kinematic melt-triggered reactions result in strain localization along map-scale shear zones. Late stage syn-kinematic melt-rock or metamorphic reactions under high stress conditions are capable of localizing the deformation along discrete, sub-centimeter thick ultramylonites.
This thesis aims to investigate the properties of hadronic matter by analyzing fluctuations of conserved charges. A transport model (SMASH) is used for these studies to achieve this. The first part of this thesis focuses on examining transport coefficients, specifically the diffusion coefficients of conserved charges and the shear viscosity. The second part investigates equal-time correlations of particle numbers in the form of cumulants. The last chapter studies different aspects of the isobar collision systems Ru and Zr.
As a first step, the hadronic medium and interactions between its constituents are introduced, and simultaneously, their impact on transport coefficients is investigated. The methodology is verified by comparing the results of SMASH with Chapman-Enskog calculations, followed by examining 3-to-1 multi-particle reactions, revealing their influence on shear viscosity and electrical diffusion. The analysis of the full hadron gas considers angle-dependent cross-sections and additional elastic cross-sections via the AQM description, showing significant impacts on transport coefficients. The dependency on the number of degrees of freedom is explored, with noticeable effects on diffusion coefficients but a smaller influence on the shear viscosity. At non-zero baryon chemical potential, the diffusion coefficients are strongly influenced, while the shear viscosity remains unaffected. Overall, the study underscores the importance of individual cross-sections and the modeling of interactions on transport coefficients.
The following chapter explores fluctuations of conserved charges, crucial for understanding phase transitions in heavy-ion collision from the quark-gluon plasma to the hadronic phase. Using SMASH, the impact of global charge conservation on particle number cumulants in subvolumes of boxes simulating infinite matter is studied. Comparisons with simpler systems highlights the influence of hadronic interactions on cumulants, especially via charge annihilation processes and the results from SMASH shows agreement with analytical calculations. Calculations at finite baryon chemical potential reveals a transition from a Poisson to Skellam distribution within the net proton cumulants. It is shown that an unfolding procedure to obtain the net baryon fluctuations from the net proton ones deviates from the actual net baryon result, particularly in larger volumes. Finally, net proton correlations at vanishing baryon chemical potential align with ALICE measurements and the net proton cumulants are unaffected by deuteron formation.
In the next step, the goal is to investigate critical fluctuations in the hadronic medium. Therefore, the hadronic system is initialized with critical equilibrium fluctuations by coupling the hadron resonance gas with the 3D Ising model. The single-particle probability distributions are derived from the principle of maximum entropy. Evolving these distributions in SMASH, their development in an expanding sphere adjusted to experimental conditions can be analyzed. It reveals resonance decay and formations as the primary source that affects the particle cumulants. Because of isospin randomization processes, critical fluctuations are better preserved in net nucleon numbers. However, for the strongest coupling investigated in this work, correlations of the critical field are still present in the final state of the evolution in the net proton fluctuations. Examining cumulant dependence on rapidity windows shows a non-monotonic trend.
In the third part, collisions involving the isobars Ru and Zr are studied at a center-of-mass energy of 200 GeV. Initially, SMASH is used to study the initial conditions to hydrodynamical simulations, emphasizing the importance of the nuclear structure of isobars on the geometry of the collision area. It is found that the deformation parameters notably influence the initial state. Correlations between nucleon-nucleon pairs on eccentricity fluctuations yield no significant effect. Subsequently, the hydrodynamic model vHLLE evolves the previously explored initial conditions and for the transition between the hydrodynamic and kinetic descriptions, the Cooper-Frye formula is used. Usage of the canonical ensemble ensures the exact conservation of the conserved charges B, Q, and S. The neutron skin effect, which changes the charge distribution within Ru nuclei, is additionally considered. Fluctuations are assessed, revealing suppression in large rapidity windows due to global charge conservation. The hadronic phase modifies fluctuations of net pions, net kaons, and net protons via annihilation processes, yet fluctuations remain unaffected by the neutron skin effect.
The core of this work is represented by the investigation of the chiral phase transition, using Monte Carlo simulations and unimproved staggered fermions, both in the weak and strong coupling regimes of Quantum Chromodynamics. Based on recent results from Monte Carlo simulations, both using unimproved staggered fermions and Wilson fermions, the chiral phase transition in the continuum and chiral limit shows compatibility with a second-order phase transition for Nf (number of flavours) in range [2:7], at zero baryon chemical potential. This achievement relies on the analytic continuation of Nf to non-integer values on the lattice, which allows to make use of extrapolation techniques to the chiral limit, where simulations are not possible. Furthermore, these results provide a resolution to the ambiguous scenario for Nf = 2 in the chiral limt. The first part of this thesis is devoted to the investigation of the chiral phase transition when a non-zero imaginary baryon chemical potential is involved, whose value corresponds to the 81% of the Roberge-Weiss one. Using the same extrapolation techniques aforementioned, the order of the chiral phase transition in the continuum and chiral limit shows compatibility with a second-order phase transition for Nf in range [2:6], highlighting a lack of dependence of the order of the chiral phase transition on the imaginary baryon chemical potential value. The second part of this thesis is about the study of the extension of the first-order chiral region in the strong coupling regime, at zero baryon chemical potential. Using Monte Carlo techniques, this can be done by investigating the Z2 boundary on a coarse lattice, whose temporal extent reads Nt = 2, and simulations are realised for Nf = 4, 8. The results in the weak coupling regime show, for $Nt = 8, 6, 4 and fixed Nf value, an inflating first-order chiral region. As in the strong coupling limit a second-order chiral phase transition is expected, the first-order chiral region has to shrink as the strong coupling regime is approached, resulting in a non-monotonic behaviour of the Z2 boundary. For Nf = 8, a critical mass on the Z2 boundary has been obtained, confirming the expected non-monotonic behaviour. For Nf = 4 the results do not provide a unique conclusion: Either a Z2 boundary at extremely low bare quark mass or a second-order chiral phase transition in the O(2) universality class in the chiral limit can take place. In addition to the two main topics, the performances of the second-order minimum norm integrator (2MN) and the fourth-order minimum norm integrator (4MN) have been compared, after implementing the 4MN one in the CL2QCD code used to realise our simulations. The 2MN integrator had already been implemented in the code since the first version was released. The two integrators belong to the class of symplectic integrators and represent an essential component of the RHMC algorithm, involved in our investigation. This step is extremely important, in order to guarantee the best quality when collecting data from simulations, and the results of the comparison suggested to favor the 2MN integrator, for both the topics.
Die chronische myeloische Leukämie (CML) ist eine klonale myeloproliferative Neoplasie und hat ihren Ursprung in transformierten pluripotenten Stammzellen im Knochenmark. Der Krankheitsentstehung liegt eine reziproke chromosomale Translokation zugrunde, in deren Folge ein neues Fusionsgen, das sogenannte Philadelphia-Chromosom, entsteht. Das hiervon codierte Genprodukt ist eine Tyrosinkinase mit konstitutiver Aktivität mit resultierender unkontrollierter Signaltransduktion. Gegen diese Tyrosinkinase existiert eine molekular zielgerichtete Therapie, die Tyrosinkinase-Inhibitoren (TKI).
Den Therapiestandard stellt die Behandlung mit einem TKI dar. Seit einigen Jahren existiert jedoch das Therapieziel der therapiefreien Remission (TFR), bei dem CML-Patienten mit einem guten molekularen Ansprechen den TKI nach einiger Zeit absetzen und unter engmaschigen Kontrollen therapiefrei bleiben. Ungefähr die Hälfte dieser Patienten erleidet kein molekulares Rezidiv und bleibt langfristig in TFR. Zu der Thematik der TFR existieren zahlreiche klinische Studien, die die Umsetzbarkeit und die Sicherheit eines Absetzversuchs belegen und Kriterien definiert haben, die für einen Absetzversuch erfüllt sein sollten. In dieser Dissertation wird die Umsetzung der TFR im klinischen Alltag onkologischer Praxen untersucht. Es wird untersucht, ob die Studienergebnisse mit den TFR-Raten und den identifizierten Einflussfaktoren auf den Praxisalltag übertragbar sind und ob das Therapieziel TFR in den klinischen Alltag integrierbar ist. Hierfür werden die Daten von 61 CML-Patienten mit einem Absetzversuch aus fünf onkologischen Praxen retrospektiv ausgewertet. Erhoben werden Parameter der Routineversorgung und die Ergebnisse der Kontrolluntersuchungen während der TFR werden dokumentiert und ausgewertet. Die TFR-Raten von ca. 50%, die in den Absetz-Studien beobachtet wurden, finden sich im hier untersuchten Patientenkollektiv wieder. Mithilfe der binären logistischen Regression wird getestet, ob bestimmte Faktoren, wie die Therapiedauer und das verwendete Medikament vor dem Absetzen, einen signifikanten Einfluss auf den Verlauf der TFR haben. Hier kann kein signifikanter Einflussfaktor identifiziert werden. Es lässt sich eine signifikant längere therapiefreie Überlebensdauer bei den Patienten zeigen, die mit einem TKI der zweiten Generation vor dem Absetzen behandelt wurden.
Zusammenfassend lässt sich sagen, dass die TFR bei geeigneten CML-Patienten in der Praxis umsetzbar und sicher ist und fest im klinischen Alltag onkologischer Praxen verankert sein sollte.
RNA research is very important since RNA molecules are involved in various gene regulatory mechanisms as well as pathways of cell physiology and disease development.1 RNAs have evolved from being considered as carriers of genetic information from DNA to proteins, with the three major types of RNA involved in protein synthesis, including messenger RNA (mRNA), transfer RNA (tRNA), and ribosomal RNA (rRNA).2 In addition to the RNAs involved in protein synthesis numerous regulatory non-coding RNAs (ncRNAs) have been discovered in the transcriptome. The regulatory ncRNAs are classified into small ncRNAs (sncRNAs) with transcripts less than 200 nucleotides (nt) and long non-coding RNAs (lncRNAs) with more than 200 nt.3
LncRNAs represent the most diverse and versatile class of ncRNAs that can regulate cellular functions of chromatin modification, transcription, and post-transcription through multiple mechanisms.4 They are involved in the formation of RNA:protein, RNA:RNA and RNA:DNA complexes as part of their gene regulatory mechanism.4,5 The RNA:DNA interactions can be divided into RNA:DNA heteroduplex formation, also called R-loops, and RNA:DNA:DNA triplex formation. In triplex formation, RNA binds to the major groove of double-stranded DNA through Hoogsteen or reverse Hoogsteen hydrogen bonding, resulting in parallel or anti-parallel triplexes, respectively. In vitro studies have confirmed the formation of RNA:DNA:DNA triplexes.6 However, the extent to which these interactions occur in cells and their effects on cellular function are still not understood, which is why these structures are so exciting to study (Chapter I RNA:DNA:DNA Triplexes).
This cumulative thesis investigates several functional and regulatory important RNAs. The first project involves the improved biochemical and biophysical characterization of RNA:DNA:DNA triplex formation between lncRNAs of interest and their target genes. Triplex formation was confirmed by a series of experiments including electromobility shift assays (EMSA), thermal melting assays, circular dichroism (CD), and liquid state nuclear magnetic resonance (NMR) spectroscopy. The following is a summary of the main findings of these publications.
In research article 5.1, the oxygen-sensitive HIF1α-AS1 was identified as a functionally important triplex-forming lncRNA in human endothelial cells using a combination of bioinformatics techniques, RNA/DNA pulldown, and biophysical experiments. Through RNA:DNA:DNA triplex formation, endogenous HIF1α-AS1 decreases the expression of several genes, including EPH receptor A2 (EPHA2) and adrenomedullin (ADM), by acting as an adaptor for the repressive human silencing hub (HUSH) complex, which has been studied by our collaborators in the groups of Leisegang and Brandes.
2) Triplex formation between HIF1α-AS1 and the target genes EPHA2 and ADM was investigated in biochemical and biophysical studies. The EMSA results indicated that HIF1α-AS1 forms a low mobility RNA:DNA:DNA triplex complex with the EPHA2 DNA target sequence. The CD spectrum of the triplex showed distinct features compared to the EPHA2 DNA duplex and the RNA:DNA heteroduplex. Melting curve analysis revealed a biphasic melting transition for triplexes, with a first melting point corresponding to the dissociation of the RNA strand with melting of the Hoogsteen hydrogen bonds. The second, higher melting temperature corresponds to the melting of stronger Watson-Crick base pairing. Stabilized triplexes were formed using an intramolecular EPHA2 DNA duplex hairpin construct in which both DNA strands were attached to a 5 nucleotide (nt) thymidine linker. This approach allowed improved triplex formation with lower RNA equivalents and higher melting temperatures. By NMR spectroscopy, the triplex characteristic signals were observed in the 1H NMR spectrum, the imino signals in a spectral region between 9 and 12 ppm resulting from the Hoogsteen base pairing. To elucidate the structural and sequence specific Hoogsteen base pairs 2D 1H,1H-NOESY measurements of the EPHA2 DNA duplex and the HIF1α-AS1:EPHA2 triplex were performed. The 1H,1H-NOESY spectrum of the HIF1α-AS1:EPHA2 triplex with a 10-fold excess of RNA was semi-quantitatively analyzed for changes in the DNA duplex spectrum. We discovered, strong and moderate attenuation of cross peak intensities in the imino region of the NOESY spectrum. This attenuation was proposed to result from weakening of Watson-Crick base pairing by Hoogsteen hydrogen bonding induced by RNA binding. The Hoogsteen interactions can be mapped based on the analysis of the cross peak attenuation in the NOESY spectra, which we used to generate a structural model of the RNA:DNA:DNA triplex. These biophysical results support the physiological function of HIF1α as a triplex-forming lncRNA that recruits the HUSH-epigenetic silencing complex to specific target genes such as EPHA2 and ADM, thereby silencing their gene expression through RNA:DNA:DNA triplex formation.
Lebensqualität, kognitive Leistung und multisensorische Integrationsleistung bei NMOSD Patienten
(2023)
Die Neuromyelitis-optica-Spektrum-Erkrankung (NMOSD) ist eine entzündliche Autoimmunerkrankung des zentralen Nervensystems (ZNS), die schubweise auftritt und meist in den Anfängen aufgrund der symptomatischen Ähnlichkeit mit der Multiplen Sklerose (MS) verwechselt wird. Primär manifestiert sich die NMOSD in Form von Sehstörungen und sensomotorische Lähmungserscheinungen. Im Krankheitsverlauf treten aber auch bei einem Großteil der Patienten kognitive Defizite auf, wobei vorwiegend das Gedächtnis, die Informationsverarbeitung und die Aufmerksamkeit betroffen sind, die nicht in Routineuntersuchungen erfasst werden. Kognitive Beeinträchtigungen wurden bereits bei der MS beschrieben. Ebenso spielt eine verminderte Lebensqualität bei beiden Erkrankungen eine große Rolle. Analog zu Untersuchungen bei MS Patienten, die gezeigt haben, dass kognitive Beeinträchtigungen mitunter ursächlich für die niedrige Lebensqualität sind, wird in dieser Arbeit postuliert, dass auch bei NMOSD Patienten das Ausmaß an kognitiven Dysfunktionen mit dem Grad an Einbußen in der Lebensqualität zusammenhängt. Ferner sollen weitere Prädiktoren ermittelt werden, welche einen Einfluss auf die Lebensqualität haben, wie bereits bestätigt körperliche Einschränkungen. Es wird erwartet, dass NMOSD Patienten von einer verminderten Lebensqualität berichten, die von den schlechteren Ergebnissen in den neuropsychologischen Tests vorhergesagt werden kann.
Zur Untersuchung der Kognition wurde in der vorliegenden Arbeit neben etablierten neuropsychologischen Tests auch die multisensorische Integrationsleistung mithilfe des SiFI Paradigmas angewandt, welche bereits bei MS Patienten und Patienten mit leichten kognitiven Defiziten (mild cognitive impairment; MCI) auffällige Daten lieferte und für eine Testung der globalen Kognitionsleistung genutzt werden konnte. Der Grund für den Einsatz der SiFI waren die nachgewiesenen Hirnkorrelate bei multisensorischer Integration, welche ebenfalls bereits bei kognitiver Dysfunktion festgestellt wurden, wie Atrophien, Konnektivitätsstörungen und Auffälligkeiten in der Transmission bestimmter Neurotransmitter. Ziel dieser Anwendung ist eine Implementierung der SiFI in den Klinikalltag zur erleichterten Erfassung kognitiver Defizite. Viele bekannte neuropsychologischen Tests sind entweder zu teuer, zu lang, abhängig von der sprachlichen Fähigkeit oder für die Patienten zu anstrengend. Die SiFI wäre daher eine gute Alternative als Marker kognitiver Defizite.
20 NMOSD Patienten wurden zu ihrer Lebensqualität (EQ-5D) sowie ihrem psychopathologischen Zustand (SCL-90-R) befragt und es wurde eine umfassende neuropsychologische Testung durchgeführt. Zur Diagnostik der multisensorischen Integrationsleistung wurde die SiFI Aufgabe herangezogen. Die Ergebnisse deuten auf eine verminderte kognitive Leistung mit mittelhohen Werten in den Fragebögen zur Lebensqualität. NMOSD Patienten nahmen die Illusion in der SiFI Aufgabe bei längeren Intervallen wahr, vergleichbar mit MS und MCI Patienten. Dies deutet auf eine verzögerte Integration sensorischer Informationen.
Angefangen mit einem Einblick über die Erkrankung und Darstellung des bisherigen Wissenschaftsstands zu den einzelnen Konstrukten und ihrer Zusammenhänge wird das Studiendesign vorgestellt und die Ergebnisse angegeben und interpretiert. Abschließend folgen eine kritische Beurteilung und Zusammenfassung der vorliegenden Daten mit Ausblick auf weitere Forschungsziele.
G-protein-coupled receptors (GPCRs) from the largest family of receptors in the human body. They contain seven transmembrane helices. There are roughly 800-900 GPCR genes expressed in humans encoded by 4-5% of the human genome. These receptors are the most important signal transducers and play a crucial role in cell physiology and pathology, by using various extracellular stimuli to start complex intracellular signaling. GPCRs interact with a wide variety of stimuli from small molecules (photons, ions, amines) to large molecules (peptides, small proteins), and trigger downstream cascade effects by interacting with G-proteins, GPCR kinases, and ß-arrestin. Because of their crucial roles in many cellular functions, GPCRs are the most important drug targets for the pharmaceutical industry. Approximately 30% of the clinically approved drugs available in the market are against GPCRs. In this work achieved successful expression and purification of GPCRs from class-C and class-A families. Combined with biochemical experiments, DNP-ssNMR, and molecular simulation helped to decipher the mechanism of crosstalk between the allosteric modulator, and the orthosteric binding sites of the peptide receptor. The main findings and major highlights of this dissertation are outlined in the following paragraphs.
The calcium-sensing receptor (CaSR) belongs to the GPCR class-C family and contains a large extracellular domain. This receptor regulates Ca2+ homeostasis in blood and its absorption in the kidney and bone. To understand the molecular and structural mechanisms of these receptors their cDNAs were cloned into the pPICZ and pOET1 vectors to express them in Pichia pastoris and in Sf9 insect cells respectively. The CaSR was successfully expressed heterologously in Pichia pastoris and in the insect cell with high yield. The purified receptor purified in LMNG shows no aggregation in a monomeric state. Further optimization was performed to use it for cryo-EM sample preparation and structure determination. In 2nd part of the thesis, different mini G (mini Gs, mini Gi, mini Gqs, and mini Gsi) DNA constructs were made and expressed in E. coli. It's challenging to obtain active GPCR structures due to the instability of G-protein or G-protein-bound receptors. In this work, all mini-G proteins and chimera mini-G-protein-maltose binding protein (MBP) were cloned and expressed in E. coli and purified with a His-trap column with high purity.
In the last part of the thesis, to decipher the mechanism of allosteric modulation of orthosteric binding sites in the bradykinin receptor was produced and characterized in insect cells. Angiotensin I converting enzyme inhibitors (ACEIs), are very important drugs and are widely used for the treatment of hypertension, congestive heart failure, and diabetic neuropathy. These drugs target primarily the catalytic zinc center of the ACE. It has been shown that enalaprilat, a well-known ACEI, binds to a proposed zinc-binding site on hB1R and even directly activates the receptor. To obtain information on the influence of ACEIs on the receptor-peptide complex, and to have a better understanding of the molecular mechanism and structural plasticity of the bradykinin receptor and PAM, we used the three commercially available ACEIs captopril, enalaprilat, and lisinopril for our studies. An important result of this thesis is that though enalaprilat, captopril, and lisinopril all have similar functional properties in humans, each one regulates the orthosteric binding site of hB1R in a unique way. These findings provide atomic insights into the allosteric modulation of the bradykinin receptor. This study along with the effects of ACEI on the binding sites of receptors also deciphers the effects of the Zn2+ as well as the crosstalk between zinc binding sites and ACEI compounds. The binding of allosteric modulators induces distinct endogenous binding, which might aid in creating new possibilities in the pharmaceutical field.
RNAs are key players in life as they connect the genetic code (DNA) with all cellular processes dominated by proteins. The dynamics study of RNA modifications has become an important part of epitranscriptomics field, as they are reversible and dynamically regulated far more than originally thought. Several evidences portrait a catalog of RNA modifications and their links to neurological disorders, cancers, and other diseases. Therefore, a deeper investigation of RNA modifications dynamics including their specific profile, biosynthesis, maturation and degradation is required for pioneering disease diagnostics and potential therapeutics development.
Mammalian tissues reveal diverse physiology and functions, despite sharing identical genomes and overlapping transcription profiles. So far, most research on this diversity were referred to variable transcriptomic processing among tissues and differential post-translational modifications that tune the activity of ubiquitous proteins to each tissue’s needs. However, study of epitranscriptome dynamics relevance to tissues’ functions is not yet revealed. There are a few reports on mouse RNA modification profiles, which are focused on only one type of RNA and limited types of modifications. The first part of my dissertation aims to generate a comprehensive tissue-specific as well as RNA species-specific investigation of all existing RNA modifications, as well as investigating potential codon as an effector of translation diversity among tissues. Using isotope dilution mass spectrometry, I created a library including absolute quantification of 24 tRNA modifications, and up to 22 rRNA modifications. I find an almost identical pattern of modifications in 28S- and 18S-rRNA subunits, but different levels of most modifications in 5.8S-rRNA or tRNA among highly metabolic active organs to e.g. heart or spleen. The findings suggest a high degree of similarity between quantities of modifications between presented data to all previous literature, confirming that it is a suitable model to study the tissue-based RNA modification patterns.
The most noticeable difference exhibited was tRNA modifications, which suggests a discerning tRNA engagement in translation between different organs. This can be a good start for investigation of codon bias in enriched genes of specific tRNA modifications among different tissues that may cause differential translation pattern, causing organs diversity. Moreover, 5.8S rRNA data showed an organ-specific pattern, which proposes functional diversity of this rRNA subunit among different organs. Future studies must investigate the possible implications of organ-specific 5.8S rRNA modifications functions, to elucidate the core of the observed variations.
Abundance of RNA modifications is carefully regulated in cells. Part of this regulation is achieved by activity of enzymes removing RNA modifications, named RNA erasers. Literature has provided proof of demethylation activity of AlkBH family on different types of RNA. For instance, AlkBH5 is known to remove m6A in mRNA, and both AlkBH3 and AlkBH1 are reported to demethylate m1A and m3C in tRNA. So far, RNA erasers are mainly studied in vitro and direct in vivo studies are missing.
Mass spectrometry is a promising approach in the identification and quantification of many RNA modifications. However, mass spectrometric analysis by nature, offers only a static view of nucleic acid modifications, and fails to account for their cellular dynamics. Nucleic Acid Isotope Labeling coupled Mass Spectrometry (NAIL-MS) was developed as a powerful technique which differentiates among remaining, co-transcriptional and post-transcriptional incorporation of a target RNA modification. This temporal resolution captures the dynamic nature of RNA modifications, and offers absolute and relative quantification of all existing nucleosides in any given RNA sequence, including different isotopologues and isotopomers.
The objective of this study was to uncover the first “direct” iv vivo data on AlkBH1, 3 and 5 activities in demethylating each of their specific substrates. I investigated the RNA modification changes through pulse-chase experiments in collaboration with my colleagues Dr. Kayla Borland and Dr. Felix Hagelskamp. A remarkable observation was that AlkBH3 protein -but not AlkBH1- was overexpressed under methylating reagent treatment in vivo. These findings suggest that AlkBH3 -but not AlkBH1- is a methylation damage induced enzyme, that potentially triggers ASCC-AlkBH3 alkylation repair complex after aberrant methylation damage by MMS treatment. However, using NAIL-MS method, we could not detect any significant effect on demethylation activity of the enzymes in tRNA, rRNA or mRNA towards the possible substrates m6A, m1A, m3C, m5C and m7G in vivo. These distinct outcomes can be partially explained by probable existence of other unidentified demethylases that compensate for AlkBHs demethylation activity; or more probably, demethylation may still arise by remaining active AlkBHs to restore the original levels of the observed RNA modifications, since a stronger KD or a complete knockout of AlkBHs genes was not possible. Further research on fully knocked out AlkBHs genes can provide stronger evidence on unidentified demethylation activities in HEK cells.
Neutron stars are unique laboratories for the investigation of the high density properties of bulk matter. In this work, the astrophysical constraints for a phase transition from hadronic matter to deconfined quark matter are examined thoroughly. A scheme for relating known astrophysical observables such as mass, radius and tidal deformability to the parameter space of such a transition is devised and applied to the set of data currently available.
In order to span a wide parameter space, a highly parameterizable relativistic mean field equation in compliance with chiral effective field theory results is used, where the stiffness of the equation of state can be varied via the effective mass at saturation density. The phase transitions are modelled using a Maxwell construction and assumed to be of first order, with a constant speed of sound quark matter model. The resulting equations of state are analyzed and divided into four categories, which can be used to constrain the parameter space that allows phase transition. It is highlighted, that a subset of this parameter space would even be detectable without the need of higher precision measurements. A phase transition at high densities is shown to be particularly promising in this regard. Finally, the groundwork is laid to apply the equation of state used in this work for supernova or merger simulations, by extending it to non-zero temperatures.
Nok Eisen : zentralnigerianische Eisenverhüttung in der Mitte des ersten Jahrtausends vor Christus
(2023)
Based on excavations, excavation documentation and archaeometallurgical analyses, this thesis aims to characterise Nok iron production in central Nigeria through a contextually based investigation.
In 2010, 2011, 2013 and 2016, the Nok research project at Goethe University Frankfurt/Main in collaboration with the National Commission for Museums and Monuments, Nigeria excavated 27 iron-smelting furnaces from 8 sites 60 kilometres north of Abuja. All furnaces date around the middle of the first millennium BCE. Absolute dates, relative pottery chronology and terracotta figurine finds in furnace contexts suggest their affiliation to the Nok context. In comparison, all 27 furnaces resemble each other closely regarding their design and spacial arrangement. The numbers of furnaces per site, furnace width, furnace wall angle and thickness as well as pits beneath the furnaces are just some features with similar qualities. The similarities of the smelting sites also extend into their finds: the structure of tuyères and their position in situ as well as macroscopic slag morphology and distribution. Find morphology and distribution as well as furnace structure suggest a highly standardized way of Nok iron production. However, archaeometallurgical analyses show heterogeneous use of raw materials between sites and/or furnaces. In similarly structured furnaces different kinds of iron ore were smelted leaving a high iron content in the respective slags. This hints at an early stage of iron production in which the smelting process was limited to one operative set-up.
Abdominal aortic aneurysm (AAA) is the most common type of aortic aneurysm, which is defined as a dilation of the abdominal aorta over 3.0 cm or more. Surgical repair is the golden standard for the treatment of AAA, in which open surgical repair (OSR) and endovascular aneurysm repair (EVAR) are the main approaches. Technically speaking, the lesion segment of aueurysm is completely replaced by a graft during OSR, while in EVAR, the lesion is insulated by a stentgraft. EVAR is a less invasive treatment than OSR and shows a lower early mortality rate, although the long-term advantages of EVAR over OSR remain inconclusive.
Endoleak, especially the type II endoleak (T2EL), is a common complication after EVAR. According to research, 16-28% of the patients develop a T2EL after EVAR, and it accounts for nearly three in four of all types of endoleaks. Around 30-50% of the T2EL resolved spontaneously during the follow-up, however, it still causes a secondary intervention in many patients. Therefore, it is critical to monitor endoleaks after repair.
Patent aortic branches in the stent-overlapped area and vasa vasorum have been identified as potential sources of blood flow in T2EL. However, the mechanisms of biological changes or remodeling of the aneurysm sac after the repair are still not clear, but they have been considered to play an important role in the development of endoleaks. Unfortunately, it is impossible to obtain a tissue sample of the aortic wall in patients who underwent EVAR.
MicroRNAs (miRNAs) are a class of small single-stranded non-coding RNAs that inhibit the expression of target message RNA (mRNA). miR-29b/29c, miR-155, and miR-15a are miRNAs associated with regulating extracellular matrix (ECM) components, inflammation, and proliferation, respectively. All four miRNAs have been identified as biomarkers of AAA, not only in aneurysm tissue but also extracellular as circulating miRNAs. However, it is still unknown whether they can reflect the biological changes after AAA repair. Thus, we conducted a prospective study to investigate the changes in expression of circulating miR-29b, miR-29c, miR-155, and miR-15a before (T0), 3 days (T1), and 3 months (T2) after AAA repair.
A total of 39 patients were recruited for this study, 17 of whom were repaired by OSR and 22 of whom were repaired by EVAR. Four patients failed the T2 follow-up due to the Covid-19 pandemic. No significant changes were found in the expression of miR-29b, miR-29c, miR-155, and miR-15a. There were also no obvious differences between OSR and EVAR. However, the T1 expression of miR-15a was significantly lower in patients without endoleak after EVAR than in those who developed endoleak after EVAR and those who were repaired by OSR. Unfortunately, these differences did not persist to the T2 follow-up, and no other differences were found among these patients.
In summary, miR-15a is a miRNA that significantly changes in AAA patients. This study demonstrates that the expression of circulating miR-15a is lower in patients without endoleak three days after EVAR, compared to those who had endoleak after EVAR and those who underwent OSR. The results suggest that miR-15a might be involved in the early aortic remodeling after EVAR as an indicator of endoleak.
Die vorliegende Dissertation befasst sich mit der Synthese und Untersuchung funktioneller Materialien für die Modifizierung von Grenz- und Oberflächen. Einen wichtigen Einfluss auf die Bildung der untersuchten, hochgeordneten Strukturen hat das Konzept der Selbstanordnung, dessen Grundlage schwache Wechselwirkungen sind. Ihre Ausbildung erfordert das Vorliegen geeigneter, funktioneller Gruppen in den Präkursoren und damit die Nutzung der vielfältigen Möglichkeiten der chemischen Synthese zur Bereitstellung maßgeschneidert funktionalisierter Moleküle. Den fünf Projekten dieser Arbeit gemeinsam ist daher die Synthese und Untersuchung für den jeweiligen Anwendungszweck geeigneter, dipolarer Präkursor-Moleküle, die zur Ausbildung funktioneller Koordinationspolymere (CPs) bzw. Metall-organischer Gerüstverbindungen (MOFs) und selbstanordnender Monolagen (SAMs) genutzt werden können. In Zusammenarbeit mit Kooperationspartnern wurden auf dieser Grundlage Untersuchungen zur Anwendbarkeit der erhaltenen Materialien in der Sensorik und zur Oberflächenfunktionalisierung durchgeführt.
Im ersten Projekt dieser Dissertation erfolgte die Untersuchung der Bildungs- und Phasenumwandlungsreaktionen von zehn verschiedenen Kupfer-Terephthalat Koordinationspolymeren. Neben bereits bekannten Koordinationspolymeren konnten so auch drei bisher literaturunbekannte CPs hergestellt und ihre Strukturen durch Kooperationspartner gelöst bzw. Strukturvorschläge gemacht werden. Die Identifikation und Auseinandersetzung mit strukturstabilisierenden Wechselwirkungen schließen dieses Projekt ab und bilden die Grundlage für die Untersuchung der Synthese und Stabilität abgeleiteter, komplexerer Koordinationspolymere.
Im Fokus des zweiten Projekts steht 𝛽-Cu2(bdc)(OH)2, ein Kupfer-Terephthalat Koordinationspolymer, dessen Kristallstruktur zuvor nicht bekannt war, im vorliegenden Projekt aber durch Kooperationspartner auf Basis des Röntgenpulverdiffraktogramms des Materials gelöst werden konnte. Der Vergleich der analytischen Daten von 𝛽-Cu2(bdc)(OH)2 mit der Literatur zeigte gute Übereinstimmungen u. a. der Diffraktogramme und IR-Spektren mit dem in der Literatur als SURMOF-2 bezeichneten, oberflächengebundenen Schichtmaterial. Aufgrunddessen kann davon ausgegangen werden, dass es sich bei SURMOF-2 um 𝛽-Cu2(bdc)(OH)2 handelt, und folglich dessen Kristallstrukturlösung die beiden bisher in der Literatur vorhandenen Strukturvorschläge für SURMOF-2 ersetzt.
Im Rahmen des dritten Projekts sollten für die Sensorik anwendbare, MOF-basierte Dünnschichtsysteme hergestellt werden. Das Sensorkonzept, das auf der Änderung des dielektrischen Verhaltens der MOFs bei Einlagerung dipolarer Analytmoleküle beruht, erfordert den Einsatz dipolarer Liganden in den entsprechenden Koordinationsnetzwerken. Hierfür wurden mehrere teilweise dipolare pillar-Liganden synthetisiert und diese für den Aufbau von Kupfer(II)terephthalat-basierten pillared-layer MOFs eingesetzt. Im Rahmen des Projekts konnten so auf Grundlage der Erkenntnisse aus Projekt 1 und in Zusammenarbeit mit Kooperationspartnern neue pillared-layer MOFs hergestellt und ihre Kristallstrukturen gelöst werden. Die abschließend durch Kooperationspartner erfolgte Abscheidung dünner, oberflächengebundener Schichten dieser MOFs und erste Untersuchungen hinsichtlich ihrer Eignung für die geplante Sensorikanwendung runden das Projekt ab.
Im vierten Projekt sollte eine geeignete, in situ abspaltbare Schutzgruppe für die Thiolgruppe etabliert und ihr Einfluss auf die Bildung von Terphenylthiolat-SAMs untersucht werden. Diese Voraussetzung erfüllt die im Rahmen dieser Arbeit am Beispiel von CH3-, F- und CF3-terminierten Terphenylthiolen etablierte 3,4-Dimethoxybenzyl-Gruppe, die sich durch den Zusatz von Trifluoressigsäure in der Abscheidungslösung in situ abspalten lässt. Zum Vergleich wurden von Kooperationspartner Monolagen aus den entsprechenden freien Thiolen abgeschieden und untersucht. Schichtdicken, Packungsdichten, Kippwinkel und Elementarzellen von Monolagen aus freien und geschützten Terphenylthiolen zeigen gute Übereinstimmungen. Im Gegensatz zu anderen, ebenfalls in situ abspaltbaren Gruppen hat die Anwesenheit der 3,4-Dimethoxybenzyl-Gruppe folglich keinen negativen Einfluss auf die Struktur und Qualität der gebildeten Monolagen.
In Fortführung des vorangegangenen Projekts wurde im abschließenden Projekt in Zusammenarbeit mit Kooperationspartnern der Einfluss verschiedener Kopfgruppen (H-, CH3-, F-, CF3- und SF5-) und der Länge des aromatischen Rückgrats (Phenyl-, Biphenyl- und Terphenyl-) auf die Ladungstransporteigenschaften der entsprechenden SAMs untersucht. Mit Ausnahme einiger Benzolthiole, lieferten alle betrachteten Präkursoren hochgeordnete, dicht gepackte Schichten aus aufrecht angeordneten Molekülen. Wie erwartet korreliert die Austrittsarbeit der modifizierten Oberflächen mit dem Dipolmoment der jeweiligen Kopfgruppe, wobei der Effekt der SF5-Gruppe mit einer erzielten Austrittsarbeit von annähernd 6 eV besonders hervorzuheben ist. Den Erwartungen entsprechend, sinkt die elektrische Stromdichte bei gleichbleibender Kopfgruppe mit steigender Moleküllänge. Die Stromdichte ist außerdem von der Kopfgruppe abhängig und nimmt von CH3- über H-, CF3- und SF5- bis hin zu F- ab, korreliert aber folglich nicht mit der Austrittsarbeit oder dem Dipolmoment.
Type 1 diabetes (T1D) is precipitated by the autoimmune destruction of the insulin-producing beta-cells in the pancreatic islets of Langerhans. Chemokines have been identified as major conductors of the islet infiltration by autoaggressive leukocytes, including antigen-presenting cells and islet autoantigen-specific T cells. We have previously generated a roadmap of the gene expression in the islet microenvironment during T1D in a mouse model and found that most of the chemokine axes are chronically upregulated during T1D. We focused our attention on CXCL10/CXCR3, CCL5/CCR5, CXCL16/CCR6, CX3CL1/CX3CR1, and XCL1/XCR1. First, we found that the absence of CCR6 and of CX3CR1 diminished T1D incidence in a mouse model for T1D. Further, the XCL1/XCR1 chemokine axis is of particular interest, since XCR1 is exclusively expressed on convention dendritic cells type 1 (cDC1) that excel by their high capacity for T cell activation. Here we demonstrate that cDC1 expressing XCR1 are present in and around the islets of patients with T1D and of islet-autoantibody positive individuals. Further, in an inducible mouse model for T1D, we show that XCL1 plays an important role in the attraction of highly potent dendritic cells expressing XCR1 to the islets. XCL1-deficient mice display a diminished infiltration of XCR1+ cDC1 and subsequently also a reduced magnitude and activity of islet autoantigen-specific T cells. XCR1-deficient mice display a reduced magnitude and activity of islet autoantigen-specific T cells. A 3D-visualization of the entire pancreas reveals that both XCL1-deficient mice and XCR1-deficient mice indeed maintain most of their functional islets after induction of the disease. Thus, the absence of XCL1 results in a profound decrease in T1D incidence. The XCR1-deficiency also reduces T1D incidence, even if in a less drastic way compared to XCL1-deficiency. An interference with the XCL1/XCR1 chemokine axis might constitute a novel target for the therapy for T1D.
In narratology, a widely recognized method involves exploring the connection between implied authors and implied readers. It entails correlating abstract narrative components within a text to understand the conveyed message and the multitude of interpretations it can offer. The present study adopts an implied reader-oriented approach to analyze three selected novels from the twentieth and twenty-first centuries—one Nigerian, one Caribbean, and one Kurdish. The aim is to explore the potential readings within these texts, considering the hermeneutic process of critical reading. The selected texts include Chinua Achebe’s Things Fall Apart, (1958), Same Selvon’s The Lonely Londoners, (1956), and Karwan Kakesur’s The Channels of the Armed Monkeys, (2011). This approach closely examines the communication between the author and reader of the text, with a special focus on the varying levels of communication between the components of the narration, including fictional and implied fictional communication.
The implied fictional communication occurs between a narrative agent known as ‘the implied author’ and its fictional counterpart ‘the implied reader’ rather than between the real, flesh and blood authors and readers. I argue that this level of communication is coded, and the act of decoding it is part of the reading process performed by the reader. Certain texts can propose different and sometimes opposing readings which are initially and purposefully designed by the implied author and addressed to different implied readers. These readings are not necessarily the results of different real readers but rather incorporated ones predetermined by the implied author only to be acknowledged and uncovered by the readers. In other words, the latent meaning is and always was an integral part of the text and is not something created by the imaginative reader or critic. The core interest of my thesis lies in identifying prompts and suggestions within the narrative of the selected texts and ultimately understanding the readerships prestructured in them. Identifying the different readers within those texts will provide new reinterpretations that can add undetected values to the reading process and sometimes suggests opposing readings to how those texts have so far been read. Additionally, it is the objective of this thesis to propose new ways that readers can interact with reading literature that would result in a more aesthetic and entertaining reading experience besides providing ways to be more informed and aware of the cues certain narrative texts contain.
There have been numerous critical studies on both narratology and postcolonial or minority literatures; however, there has been little scholarly work that attempts to utilize narratology as a theoretical foundation for understanding postcolonial and minority fiction.
This study examines fictional texts from Nigerian, Caribbean, and Kurdish literature, employing the narratological concept known as ‘Multiple Implied Readers’. By incorporating concepts from Brian Richardson’s ‘Singular Text, Multiple Implied Readers’, and Peter J. Rabinowitz’s ‘authorial audiences’, I explore the various readerships that the texts could encompass. This exploitation may lead to the discovery of new readings, interpretations, and meanings that would otherwise remain undetected. These structures introduce provocative indeterminacies that challenge the reader’s synthesis of information into coherent configurations of meaning. Consequently, this approach not only enhances the reading experience but also opens doors to new interpretations of the text. In some cases, these interpretations could even dismantle prior understandings and propose entirely new readings.
The concepts of the implied author and implied reader have been studied before in relation to various disciplines of narratology. However, by applying them in conjunction with the relatively less researched subject of multiple implied readers, I aim to shed light on important aspects of these readings. This exploration could prove beneficial for literature students as well as critical readers of literary texts, revealing the potential of these texts to accommodate more than one implied reader within their narratives.
In der vorliegenden Arbeit wurden die Proteine Vlp15/16 und GlpQ aus B. miyamotoi hinsichtlich ihrer Eigenschaft, mit Plasminogen zu interagieren, charakterisiert.
Da einige Fälle von ZNS-Beteiligungen bei B. miyamotoi-Infektionen berichtet wurden, ist anzunehmen, dass diese Borrelienspezies über molekulare Mechanismen zur Überwindung der Blut-Hirn-Schranke verfügt. Eine solche Strategie könnte die Bindung wirtseigener Proteasen wie z.B. Plasminogen sein, um Komponenten der extrazellulären Matrix zu degradieren und dadurch die Dissemination des Erregers zu erleichtern.
Während Vmps, zu welchen auch Vlp15/16 gehört, als membranständige Proteine durch Variation der antigenen Oberflächenmatrix zur Immunevasion des Erregers beitragen, ist GlpQ bei der Hydrolyse von Phospholipiden in den Zellstoffwechsel eingebunden. Trotz dieser unterschiedlichen Funktionen, die den beiden Proteinen zukommen, binden beide Moleküle Plasminogen. Die Eigenschaften dieser Interaktion wurden in dieser Arbeit im Detail untersucht. Die Ergebnisse zeigen, dass Vlp15/16 und GlpQ Plasminogen konzentrationsabhängig binden und die Dissoziationskonstanten (Vlp15/16:Kd = 354 nM ± 62 nM; GlpQ: Kd = 413 nM ± 72 nM) für beide Proteine im Bereich der Serumkonzentration von 2 µM liegen. Darüber hinaus konnte gezeigt werden, dass den beiden Proteinen unterschiedliche Mechanismen zugrunde liegen, Plasminogen zu binden. Während die erhobenen Daten für Vlp15/16 darauf hindeuten, dass Lysin-Reste essenziell für die Interaktion sind, scheinen bei GlpQ ionische Wechselwirkungen von Bedeutung zu sein.
Um die Beteiligung von C-terminal lokalisierten Lysin-Resten für die PlasminogenBindung von GlpQ nachzuweisen, wurden Varianten mit einzelnen Lysin-Substitutionen an zwei unterschiedlichen Positionen (333 und 334) sowie eine Variante mit einer Zweifach-Substitution (GlpQ-K333A-K334A) generiert. Die Bindungsanalysen ergaben, dass insbesondere der Lysin-Rest an Position 334 bei der Interaktion mit Plasminogen beteiligt ist.
Die funktionellen Analysen zeigten, dass das an Vlp15/16 beziehungsweise GlpQ gebundene Plasminogen zu Plasmin aktiviert werden konnte und darüber hinaus dazu in der Lage war, das physiologische Substrat Fibrinogen zu degradieren.
Abschließend wurde die Plasminogen-Bindung an nativen B. miyamotoi-Zellen mittels Immunfluoreszenz-Mikroskopie nachgewiesen.
Die Ergebnisse dieser Arbeit weisen Vlp15/16 und GlpQ als Plasminogen-bindende Proteine aus, mit deren Hilfe B. miyamotoi befähigt ist, Komponenten der extrazellulären Matrix zu degradieren und somit prinzipiell zur Dissemination des Erregers beizutragen.
Der Begriff der Kompetenz ist allgegenwärtig und wird fast schon inflationär eingesetzt, um beispielsweise Qualität und Wertigkeit einer Dienstleistung oder eines Produktes hervorzuheben, sowie häufig verwendet, um eine besondere Bedeutung und hohe Leistungsfähigkeit zu vermitteln.
Innerhalb des formalisierten schulischen, aber auch des beruflichen und des universitären Bildungssystems nimmt der Kompetenzbegriff, nachdem er aufgrund seiner Popularität den Begriff der Schlüsselqualifikation ablöste, eine zentrale Stellung ein. Kompetenzorientierter Unterricht soll nicht nur dafür sorgen, dass Deutschland im internationalen Vergleich schulischer Bildungsergebnisse besteht, sondern auch ermöglichen, dass Bildung und Ausbildung an gesellschaftlichen Erfordernissen und individuellen Voraussetzungen gleichermaßen ausgerichtet werden können.
In der Kunstpädagogik ist die Kompetenzorientierung nicht unstrittig. Zwischen dem Begrüßen als Möglichkeit des Anschlusses an internationale Bildungsstandards und der vehementen Ablehnung als Versuch der Ökonomisierung und Technokratisierung von Bildungsprozessen sind nur wenige Alternativen auszumachen, die eine fachspezifische Aneignung und Reformulierung des Begriffs beabsichtigen.
Die hier vorliegende Forschungsarbeit untersucht die Anwendung, Schulung und Erweiterung von Kompetenzen in einem bildnerischen Projekt in der Jugendhilfe, einem Teilbereich der Sozialen Arbeit. In außerschulischen Bildungskontexten wird der Begriff der Kompetenz bislang noch wenig rezipiert. Was nicht zuletzt daran liegt, dass Handlungsfelder außerhalb formalisierter Lernsettings lange nicht als einflussreiche Bildungsorte in den Blick genommen wurden. Erst langsam beginnt sich eine Forschung zu etablieren, die Bildung in Bezug auf die gesamte Lebenswelt versteht. Dabei werden Kompetenzen ähnlich wie im schulischen Bildungssystem oftmals auf vermittelbare Wissensbestände, Fertigkeiten oder methodische Vorgehensweisen bezogen und somit vor allem kognitiv und domänenspezifisch bestimmt. Ein weiter gefasstes Verständnis begreift Kompetenz jedoch als Fähigkeit, subjektiv erfolgreich mit der Umwelt zu interagieren, wobei diese Fähigkeit in der Interaktion ausgebildet und modifiziert wird. Mit diesem Verständnis lassen sich auch motivationale und volitionale Aspekte integrieren.
Kompetenz wird damit als eine sowohl sachliche als auch soziale und personale Bestandteile beinhaltende Befähigung zur Lebensbewältigung betrachtet, die auf eine weitestgehende Selbstbestimmung abzielt und ein auf die Zukunft gerichtetes Handeln ermöglicht. Kompetenz ist damit nicht nur als Folge oder Ergebnis von Bildungsprozessen anzusehen, die in der erwünschten Form und Ausprägung entwickelt werden sollen. Kompetenz kann vielmehr als eine dem Individuum eigene Befähigung angesehen werden, die in Bildungsprozessen subjektiv sinnhaft aktiviert, weiter ausgebildet und verändert wird. Damit geraten sowohl die subjektiven Sinnstrukturen als auch die soziokulturellen Kontexte, in denen Kompetenz als Bewältigungskönnen ausgebildet werden muss, stärker in den Blick.