Refine
Year of publication
Document Type
- Doctoral Thesis (5594) (remove)
Language
- German (3556)
- English (2009)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5594)
Is part of the Bibliography
- no (5594) (remove)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Nanopartikel (9)
- Proteomics (9)
Institute
- Medizin (1470)
- Biowissenschaften (814)
- Biochemie und Chemie (723)
- Physik (581)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (287)
- Geowissenschaften (138)
- Neuere Philologien (114)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
This thesis contains three theoretical works about certain aspects of the interplay of electronic correlations and topology in the Hubbard model.
In the first part of this thesis, the applicability of elementary band representations (EBRs) to diagnose interacting topological phases, that are protected by spatial symmetries and time-reversal-symmetry, in terms of their single-particle Matsubara Green’s functions is investigated. EBRs for the Matsubara Green’s function in the zero-temperature limit can be defined via the topological Hamiltonian. It is found that the Green’s function EBR classification can only change by (i) a gap closing in the spectral function at zero frequency, (ii) the Green’s function becoming singular i.e. having a zero eigenvalue at zero frequency or (iii) the Green’s function breaking a protecting symmetry. As an example, the use of the EBRs for Matsubara Green’s functions is demonstrated on the Su-Schriefer-Heeger model with exact diagonalization.
In the second part the Two-Particle Self-Consistent approach (TPSC) is extended to include spin-orbit coupling (SOC). Time-reversal symmetry, that is preserved in the presence of SOC, is used to derive new TPSC self-consistency equations including SOC. SOC breaks spin rotation symmetry which leads to a coupling of spin and charge channel. The local and constant TPSC vertex then consists of three spin vertices and one charge vertex. As a test case to study the interplay of Hubbard interaction and SOC, the Kane-Mele-Hubbard model is studied. The antiferromagnetic spin fluctuations are the leading instability which confirms that the Kane-Mele-Hubbard model is an XY antiferromagnet at zero temperature. Mixed spin-charge fluctuations are found to be small. Moreover, it is found that the transversal spin vertices are more strongly renormalized than the longitudinal spin vertex, SOC leads to a decrease of antiferromagnetic spin fluctuations and the self-energy shows dispersion and sharp features in momentum space close to the phase transition.
In the third part TPSC with SOC is used to calculate the spin Hall conductivity in the Kane-Mele-Hubbard model at finite temperature. The spin Hall conductivity is calculated once using the conductivity bubble and once including vertex corrections. Vertex corrections for the spin Hall conductivity within TPSC corresponds to the analogues of the Maki-Thompson contributions which physically correspond to the excitation and reabsorption of a spin, a charge or a mixed spin-charge excitation by an electron. At all temperatures, the vertex corrections show a large contribution in the vicinity of the phase transition to the XY antiferromagnet where antiferromagnetic spin fluctuations are large. It is found that vertex corrections are crucial to recover the quantized value of −2e^2/h in the zero-temperature limit. Further, at non-zero temperature, increasing the Hubbard interaction leads to a decrease of the spin Hall conductivity. The results indicate that scattering of electrons off antiferromagnetic spin fluctuations renormalize the band gap. Decreasing the gap can be interpreted as an effective increase of temperature leading to a decrease of the spin Hall conductivity.
Trait-dependent effects of biotic and abiotic filters on plant regeneration in Southern Ecuador
(2024)
Tropical forests have always fascinated scientists due to their unique biodiversity. However, our understanding of ecological processes shaping the complexity of tropical rainforests is still relatively poor. Plant regeneration is one of the processes that remain understudied in the tropics although this is a key process defining the structure, diversity and assembly of tropical plant communities. In my dissertation, I combine experimental, observational and trait-based approaches to identify processes shaping the assembly of seedling communities and compare associations between environmental conditions and plant traits across plant life stages. By working along a steep environmental gradient in the tropical mountains of Southern Ecuador, I was able to investigate how processes of plant regeneration vary in response to biotic and abiotic factors in tropical montane forests.
My dissertation comprises three complementary chapters, each addressing an individual research question. First, I studied how trait composition in plant communities varies in relation to the broad- and local-scale environmental conditions and across the plant life cycle. I measured key traits reflecting different ecological strategies of plants that correspond to three stages of the plant life cycle (i.e., adult trees, seed rain and recruiting seedlings). I worked on 81 subplots along an elevational gradient covering a large climatic gradient at three different elevations (1000, 2000 and 3000 m a.s.l.). In addition, I measured soil and light conditions at the local spatial scale within each subplot. My findings show that the trait composition of leaves, seeds and seedlings changed similarly across the elevational gradient, but that the different life stages responded differently to the local gradients in soil nutrients and light availability. Consequently, my findings highlight that trait-environment associations in plant communities differ between large and small spatial scales and across plant life stages.
Second, I investigated how seed size affects seedling recruitment in natural forests and in pastures in relation to abiotic and biotic factors. I set up a seed sowing experiment in both habitat types and sowed over 8,000 seeds belonging to seven tree species differing in seed size. I found that large-seeded species had higher proportions of recruitment in the forests compared to small-seeded species. However, small-seeded species tended to recruit better in pastures compared to large-seeded species. I showed that high surface temperature was the main driver of differences in seedling recruitment between habitats, because it limited seedling recruitment of large-seeded species. The results from this experiment show that pasture restoration requires seed addition of large-seeded species and active protection of recruiting seedlings in order to mitigate harmful conditions associated with high temperatures in deforested areas.
Third, I examined the associations between seedling beta-diversity and different abiotic and biotic factors between and within elevations. I applied beta-diversity partitioning to obtain two components of beta-diversity: species turnover and species richness differences. I associated these components of beta-diversity with biotic pressures by herbivores and fungal pathogens and environmental heterogeneity in light and soil conditions. I found that species turnover in seedling communities was positively associated with the dissimilarity in biotic pressures within elevations and with environmental heterogeneity between elevations. Further, I found that species richness differences increased primarily with increasing environmental heterogeneity within elevations. My findings show that the associations between beta-diversity of seedling communities and abiotic and biotic factors are scale-dependent, most likely due to differences in species sorting in response to biotic pressures and species coexistence in response to environmental heterogeneity.
My dissertation reveals that studying processes of community assembly at different plant life stages and spatial scales can yield new insights into patterns and processes of plant regeneration in tropical forests. I investigated how community assembly processes are governed by abiotic and biotic filtering across and within elevations. I also experimentally explored how the process of seedling recruitment depends on seed size-dependent interactions, and verified how these effects are associated with abiotic and biotic filtering. Identifying such processes is crucial to inform predictive models of environmental change on plant regeneration and successful forest restoration. Further exploration of plant functional traits and their associations with local-scale environmental conditions could effectively support local conservation efforts needed to enhance forest cover in the future and halt the accelerating loss of biodiversity.
Im Rahmen dieser publikationsbasierten Dissertation wurden drei wissenschaftliche Arbeiten veröffentlicht. Als Erstautorenschaft wurde 2022 die Arbeit “Effectiveness of High-intensity Focused Ultrasound (HIFU) Therapy of Solid and Complex Benign Thyroid Nodules - A Long-term Follow up Two-center Study.” im Journal “Experimental and Clinical Endocrinology & Diabetes” veröffentlicht. Im Folgenden wird der Inhalt dieser Arbeit dargelegt. Ein kurzer Überblick über die Ergebnisse der anderen beiden mitpublizierten Arbeiten findet sich im Kapitel „Weitere Ergebnisse der Arbeitsgruppe“.
Durch die hohe Prävalenz benigner Schilddrüsenknoten sind deren Behandlungsalternativen von großem wissenschaftlichem Interesse. Dabei bildet die nebenwirkungsarme, minimalinvasive Thermoablation mittels high-intensity focused ultrasound (HIFU) eine attraktive Alternative zu herkömmlichen Verfahren wie der Schilddrüsenchirurgie oder der Radioiodtherapie. Bei der HIFU-Echotherapie werden die Schilddrüsenknoten auf 80 - 90 Grad Celsius erhitzt, sodass eine irreversible Koagulationsnekrose entsteht. Um den Therapieprozess und die Indikationsstellung von HIFU bei benignen Schilddrüsenknoten zu optimieren, ist es notwendig, genaue Studien durchzuführen.
Ziel der vorliegenden bizentrischen Langzeitstudie war, die Effektivität von HIFU-Echotherapien bei benignen Schilddrüsenknoten zu evaluieren und erstmalig den Einfluss der Knotenmorphologie auf den Therapieerfolg zu untersuchen. Vor der Therapie und in regelmäßigen Intervallen nach der Therapie wurden die Größe und die Morphologie der Schilddrüsenknoten mittels Ultraschall dokumentiert. In der retrospektiven Studie wurden Daten von 58 Patienten ausgewertet. Dabei wurde die Gesamtpopulation in eine Gruppe mit soliden und in eine Gruppe mit komplexen Knoten eingeteilt. Die durchschnittliche prozentuale Volumenreduktion in jeder Gruppe wurde mit dem Wilcoxon-Signed-Rank Test statistisch analysiert.
Die Gesamtpopulation zeigte eine Volumenreduktion der zuvor abladierten Knoten von 38.86 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p < 0.0001, n = 25), 42.7 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p < 0.0001, n = 18), 62.21 % nach 9 Monaten (Spannweite: 12.88 % - 93.2 %, p = 0.0078, n = 8) und 61.42 % nach 12 Monaten (Spannweite: 39.39 % - 93.2 %, p > 0.05, n = 4). Die soliden Knoten hatten eine Volumenreduktion von 49.98 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p = 0.0001, n = 15), 46.40 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p = 0.001, n = 11), 65.77 % nach 9 Monaten (Spannweite: 39.39 % - 93.2 %, p = 0.0156, n = 7) und 63.88 % nach 12 Monaten (Spannweite: 39.39 % - 93.2%, p > 0.05, n = 2). Komplexe Knoten hatten eine Volumenreduktion von 35.2 % nach 3 Monaten (Spannweite: 5.85 % - 68.63 %, p = 0.002, n = 10), 36.89 % nach 6 Monaten (Spannweite: 12.23 % - 68.63 %, p = 0.0156, n = 7) und 63.64 % nach 12 Monaten (Spannweite: 52,38 % - 73.91 %, p > 0.05, n = 2).
In der vorliegenden bizentrischen Langzeitstudie wurde deutlich, dass HIFU-Echotherapie eine effektive Behandlungsoption benigner Schilddrüsenknoten ist. Erstmalig gezeigt wurde der Trend, dass solide Knoten besser auf HIFU-Echotherapie ansprechen als komplexe Knoten.
Anhand der gewonnenen Ergebnisse und der neuen Erkenntnisse zum Einfluss der Knotenmorphologie auf die HIFU-Echotherapie benigner Schilddrüsenknoten kann HIFU als Therapieoption besser bewertet werden. Eine differenziertere Indikationsstellung in Bezug auf solide und komplexe Knoten wird ermöglicht und die HIFU-Echotherapie kann gegen andere thermoablative Verfahren abgewogen werden.
This thesis develops a naturalist theory of phenomenal consciousness. In a first step, it is argued on phenomenological grounds that consciousness is a representational state and that explaining consciousness requires a study of the brain’s representational capacities. In a second step, Bayesian cognitive science and predictive processing are introduced as the most promising attempts to understand mental representation to date. Finally, in a third step, the thesis argues that the so-called “hard problem of consciousness” can be resolved if one adopts a form of metaphysical anti-realism that can be motivated in terms of core principles of Bayesian cognitive science.
Thomas Bowrey, who was an employee of the British colonial government, visited the Malay-speaking region at the end of the 17th century and published a dictionary of Malay (1701) which consists of 12,683 headwords. It is one of the oldest and largest collections of data on this language, which was the first language of the people he came into contact with while travelling through the Malay Peninsula, spending most of his time in harbours along its west coast. Malay, which was spoken in the various trading centres of this area (e.g. Penang, Malacca), had long previously begun to develop into a form of lingua franca during Bowrey’s stay there due to the fact that traders, especially those from Arabic countries (beginning in the 12th century), China (from the 15th century onwards), Portugal (since 1511), the Netherlands (since 1641), and less so from England, came into contact with Malays speaking their local dialects in the various trading posts in Malaya and probably began to become acquainted with the trade-language variant. Thus, Bowrey must have observed and recorded elements of both.
The data he collected is not limited to Malay variants spoken in coastal areas, but includes material from dialects which he encountered during his travels throughout the Malay Peninsula, though without, however, describing the locations in which he took notes on the lexicon and clauses. Not all of his material was written into manuscript form during his stay in Southeast Asia. A large part of his notes taken in situ were prepared for publication during his long journey home. His notes, which were used to print his dictionary, are in part kept in British libraries. Most of the material accessible to the public was studied during the preparation of this thesis.
Earlier works on this dictionary are quite limited in scope. They deal with very specific aspects such as the meanings of headwords found between the letters A and C (Rahim Aman, 1997 & 1998), and the work of Nor Azizah, who deals with the lexical change found in Bowrey’s dictionary between D and F, and syntactic and sociolinguistic aspects (Mashudi Kader, 2009), and collective nouns by Tarmizi Hasrah (2010). This study will discuss Bowrey’s dictionary as a whole in order to describe its contribution to our knowledge of linguistic and non-linguistic facts in 17th century Malaya. Besides analysing Malay synchronically, this thesis also deals with historical-comparative questions and asks whether Bowrey contributes to our knowledge of the changes to the Malay language between the 17th and 21st centuries.
In order to answer the research questions, this study not only relies on the dictionary in its entirety, but also on the notes found in British libraries as well as other material on early Malay, such as the Pigafetta list (1523), Houtman (1598–1603), and the Wilkinson dictionary (1901) as a complement to Bowrey’s dictionary; at the same time, the Malay Concordance Project (online), the SEAlang Project (online), Kamus Besar Bahasa Indonesia (online), and Kamus Dewan Edisi Keempat (2007) will represent modern Malay. It should be borne in mind that in contrast to the Thomas Bowrey dictionary (TBD), Kamus Dewan Edisi Keempat (KDE4) does not hold information on colloquial forms of Malay, many of which reflect features of lingua franca Malay. This study is divided into two different branches, namely the consideration of synchronic aspects and historical comparative aspects.
Finally, this study concludes that the Malay language in Thomas Bowrey’s dictionary is heavily influenced by both external and internal factors prevalent to the 17th century. The Malay language recorded in the Thomas Bowrey dictionary is very similar to modern Malay. The similarities between the Malay language of the 17th century and the Malay language of today are considerable, even though there are, of course, still some notable variances.
A powerful technique to distinguish the enantiomers of a chiral molecule is the Coulomb Explosion Imaging (CEI). This technique allows us to determine the handedness of a single molecule. In CEI, the molecule becomes charged by losing many electrons in a very short period of time by interacting with the light. The repulsion forces between the positive charged particles of the molecule leads the molecule to break into parts-fragments. By measuring the three vector momentum of (at least) four fragments, the handedness observable can be determined. In this thesis, CEI is induced by absorption of a single high energy photon, which creates an inner-shell hole (K shell) of the molecule. The subsequent cascade of Auger decays lead to fragmentation. We decided to work with the formic acid molecule in this thesis. Two different experiments were conducted. The first experiment focused on exciting electrons to different energy states, while the second experiment focused on extracting directly a photoelectron to the continuum and measure the angular distribution of the photoelectron in the molecular frame. The primary goal was to search for chiral signal in a pure achiral planar molecule under the previous electron processes. The results of these findings were further implemented to two more molecules.
Therapierefraktärer Schmerz ist ein weit verbreitetes, äußerst belastendes Leitsymptom rheumatischer Erkrankungen. Viele Betroffene weichen daher bei Versagen der Standardmedikation selbstständig auf Cannabis oder die strukturell verwandte Substanz Palmitoylethanolamid (PEA) als Add-On- oder Alternativtherapie aus, obwohl dies in Deutschland bisher nur eingeschränkt zulässig ist. Die deutsche Gesetzgebung ist diesbezüglich nicht eindeutig, weshalb Ärzt:innen in ihrer Entscheidung, Cannabis zu verschreiben, auf Leitlinien, Fallberichte und Expert:innenmeinungen zurückgreifen müssen. Dies führt zu schwierigen Einzelfallentscheidungen, da sich die derzeitige Datenlage zu Cannabis-based Medicine (CBM) bzw. PEA und Rheuma als mangelhaft darstellt und die Leitlinien dementsprechend keine klaren Empfehlungen enthalten. Ziel der vorliegenden Arbeit ist es, die vorhandene Evidenz zusammenzufassen, zu ordnen und anhand der Hill-Kriterien den möglichen kausalen Zusammenhang zwischen der Einnahme von CBM bzw. PEA und der analgetischen Wirkung bei Rheumaschmerzen zu prüfen.
"Mir ist so digk vor gesait" : Studien zur erzählerischen Gestaltung des "Meleranz" von dem Pleier
(2024)
In der germanistischen Mediävistik richtet sich das Forschungsinteresse vornehmlich auf die höfische Literatur und dabei insbesondere auf die frühen und späten Artusromane. Vor allem die Werke von Hartmann von Aue und Wolfram von Eschenbach sind zentrale Forschungsobjekte, während Texte wie Pleiers ‚Meleranz‘ bisher nur begrenzt Beachtung fanden.
Die Forschungslücke, die die vorliegende Arbeit adressiert, liegt in der detaillierten Analyse der spezifischen Erzähltechniken des pleierschen Textes, die sich sowohl durch die Verwendung traditioneller arthurischer Motive als auch durch innovative narrative Ansätze auszeichnen. Ausgehend von dem Befund eines stark zurückgenommenen Erzählers wird untersucht, welche narrativen Strategien und Verfahren der Pleier im ‚Meleranz‘ anwendet, um trotz dieser Abkehr von der implizierten poetischen Regelhaftigkeit einer dominanten Erzählerfigur das Erzählen vom Ritter ‚Meleranz‘ gelingen und zugleich an einigen Stellen ausgesprochen konventionell wirken zu lassen.
Um aufzudecken, wie der Text ohne die Stimme eines deutlich hervortretenden Erzählers vermittelt wird, nutze ich im Verlauf der Arbeit eine Typologie der Stoffvermittlung durch (arthurische) Erzähler. In den Einzelstudien zum ‚Meleranz‘ werden seine Motive, Erzählmuster und Figurenkonstellationen in einem close reading erarbeitet und mit der Typologie abgeglichen, um bestimmen zu können, welche Vermittlungsformen im pleierschen Text genutzt werden. Mit Hilfe dieses Vergleichs kann das Erzählverfahren im ‚Meleranz‘ extrapoliert und gleichzeitig offengelegt werden. Mittels dieses Vorgehens wird verdeutlicht werden, dass es sich beim ‚Meleranz‘ um einen Text handelt, der arthurische Konventionen lediglich anders inszeniert, um die vermittelnde Funktion der Stimme des Erzählers zu substituieren oder ihr Fehler auszugleichen.
While high-quality climate reconstructions of some past warm periods in the Cenozoic era now exist, the geological processes responsible for driving the observed longterm changes in atmospheric CO2 are not sufficiently well understood. The long-term change in atmospheric CO2 across the Cenozoic has been proposed to be driven by processes such as terrestrial weathering, organic carbon production and burial, reverse weathering, and volcanic degassing. One way of constraining the relative importance of the various driving forces proposed so far is to better understand the degree to which ocean chemistry has changed because the chemistry of seawater responds to geologic processes that drive atmospheric CO2. In addition, knowledge of the concentration of the major elements in seawater is crucial for accurately applying proxies such as those based on the boron isotopic composition and Mg/Ca of marine carbonates (a proxy for palaeo pH/CO2 and palaeotemperature, respectively). Previously reported records of seawater composition are primarily derived from fluid inclusions in marine evaporites; however, the results are sparse due to the limited availability of such deposits. In this thesis, changes in the Eocene seawater chemistry were reconstructed using trace element (elements/Ca) and isotopic (δ26Mg) proxies in a Larger Benthic Foraminifera (LBFs), i.e., Nummulites sp., to constrain the driving processes of long-term changes in seawater chemistry.
To achieve the objective of this thesis, first, a measurement protocol was established using LA-ICPMS to measure the K/Ca ratio simultaneously with other element/calcium ratios, which is challenging due to the interference of ArH+ on K+. Utilising this newly established measurement protocol, laboratory-cultured Operculina ammonoides grown at different seawater calcium concentrations ([Ca2+]), repeated at different temperatures, as well as modern O. ammonoides collected from different regions exhibiting a range of seawater parameters, were investigated. A significant correlation was observed between K/Casw and K/CaLBF, allowing K/CaLBF to potentially be used as a proxy for seawater major ion reconstructions. In addition, modern O. ammonoides demonstrated no significant influence of most seawater parameters (temperature, salinity, pH, or [CO32-]) on K/CaLBF. Modern O.
ammonoides were also assessed for their Mg isotopic composition (δ26Mg), revealing no significant effect of temperature or salinity on δ26MgLBF. Furthermore, the Mg isotopic fractionation in O. ammonoides was found to be close to that of inorganic calcite, indicating minimal vital effects in these large benthic foraminifera.
Operculina ammonoides is the nearest living relative of the abundant Eocene genus Nummulites, enabling the reconstruction of seawater chemistry using the calibration based on O. ammonoides. The trace elemental/calcium proxies, including Na/Ca, K/Ca, and Mg/Ca, as well as the δ26Mg proxy, were investigated in Eocene Nummulites. The result showed that during the Eocene, [Ca2+]sw was 1.6-2 times higher, while [K+]sw was ~2 times lower than the modern seawater composition. Furthermore, [Mg2+]sw decreased from the early Eocene (54.3− +9 7..69 mmol kg-1 at ~55 Ma) to Late Eocene (37.8− +4 4..3 4 mmol kg-1 at ~31 Ma), followed by
an increase toward modern seawater [Mg]. In contrast, the variability in δ26Mgsw values remained within a narrow range of ~0.3 ‰ throughout the Cenozoic. The reconstructed [Ca2+]sw agrees with the suggestion that Cenozoic seawater chemistry changes can be explained via a change in the seafloor spreading rate. When combined with existing records, the observed minimal change in δ26Mgsw with an increase in [Mg2+]sw suggests an additional possible role of a decrease in the formation of authigenic clay minerals coincident with the Cenozoic decline in deep ocean temperature, which is also supported by the increase in the [K+]sw reconstructed here for the first time. This finding highlights that the reduction in seafloor-spreading rate and decline in reverse weathering during the Cenozoic era has played a significant role in the evolution of seawater chemistry, emphasizing the importance of these processes in driving long-term changes in the carbon cycle.
Die vorliegende Dissertation bietet eine eingehende Analyse der Entstehung und Evolution der rechtlichen Rahmenbedingungen der Arbeitnehmerüberlassung in der Volksrepublik China. Ursprünglich in den 1980er Jahren als Instrument zur Reduzierung der Arbeitslosigkeit eingeführt, hat sich die Funktion der Arbeitnehmerüberlassung im Laufe der Zeit gewandelt. Diese Entwicklung wird in der Arbeit sorgfältig nachgezeichnet.
Die Studie skizziert die legislative Entwicklung von der anfänglichen Konzeption bis zur formellen Legalisierung im Jahr 2007 und untersucht die geltenden gesetzlichen Bestimmungen zur Arbeitnehmerüberlassung. Dabei werden die spezifischen Aspekte der chinesischen Gesetzgebung herausgestellt, bei der die Arbeitnehmerüberlassung vornehmlich als komplementäre Beschäftigungsform angesehen wird. Die Arbeit beleuchtet die Rechte und Pflichten aller Akteure. Obwohl nicht umfassend rechtsvergleichend angelegt, wird doch immer wieder ein Blick auf die Rechtslage in Deutschland geworfen, sodass die unterschiedlichen regulatorischen Ansätze deutlich hervortreten. Zugleich werden die besonderen Herausforderungen behandelt, denen diese Beschäftigungsform im chinesischen Kontext begegnet.
Precise tune determination and split beam emittance reconstruction at the CERN PS synchrotron
(2023)
In accelerator physics, the need to improve the performance and better control the operating point of an accelerator has become, year after year, an increasingly important need in order to achieve higher energies and brightness, as well as point-like particle beams. If this involves increasingly advanced technological developments (in terms, for example, of materials for more intense superconducting magnets), it can not take place in the absence of targeted studies of linear and non-linear beam dynamics. In the context of this Ph.D. thesis in physics, linear and non-linear dynamics of charged particles in circular accelerators is the topic that will be discussed and treated in detail. In particular, the presentation and discussion of the results will be divided in two main topics: the need to know the physical properties of a proton beam; and the development of innovative methods to determine and study the accelerator’s working point. With regard to the first topic, an innovative procedure will be presented to determine the transverse size of the PS beam in the beam extraction phase. Among the different ways the extraction occurs at the PS, the analysed one is based on the transverse splitting of the beam by means of non-linear fields. Thus, the knowledge of the transverse beam size is not trivial since resonant linear and non-linear beam structures (namely, core and islands) arise and, for each of them, the beam size has to be quantified. This parameter is crucial for two main reasons: the accelerator that will receive the beam exiting the upstream accelerator may have restrictions (physical or magnetic) that involve a partial or total loss of the incoming beam; and any experiments located downstream of the considered accelerator may need a beam with a transversal size as constant as possible; consequently, its monitoring and control are essential. The second topic concerns the accurate determination of the working point of an accelerator, defined as the number of transverse oscillations the particle beam travels per unit of accelerator circumference, both horizontally and vertically. This quantity is called horizontal and vertical tune, respectively. Their knowledge is also crucial to understand whether the beam will be stable or unstable. In fact, not all tune values are acceptable, as there are particular values that bring the beam into resonance. In this configuration, the amplitude of the transverse oscillations of the particles increases in an uncontrolled manner and leads to the loss of all or part of the beam. Note that, in particular operating conditions, the resonant conditions are sought and desired to model, in a suitable way, the transversal shape of the beam, such as the above mentioned PS extraction scheme. It is even clearer how much the determination of the machine working point is essential to determine the operating conditions of an accelerator. In this context, several methods (also taken from the field of applied mathematics) to calculate the tune will be demonstrated and tested numerically on different types of synthetic signals. At the end of this description, the use of experimental data will allow to obtain the benchmark of a new method for the direct calculation of some characteristic quantities of non-linear beam dynamics (namely, the amplitude detuning, i.e. the variation of tune as a function of intensity of the perturbation provided to the beam.
Caspase-2 is the evolutionary most conserved member of the caspase family and was shown to be involved in genotoxic stress induced apoptosis, control of aneuploidy, and ageing related metabolic changes. However, its role in apoptosis seems redundant due to the observation, that knockout does not inhibit apoptotic signalling exclusively. Instead, knockout of caspase-2 leads to tumor susceptibility in vivo, which led to the assumption, that caspase-2 has non-apoptotic functions and can act as a tumor suppressor. The underlying mechanism of the tumor suppressor activity of caspase-2 has not been clarified so far. Furthermore, caspase-2, has a prominent, and as pro-enzyme exclusive localisation in the nucleus and other subcellular compartments, implicating a distinct and location specific role.
In this study, a novel caspase-2 specific substrate, termed p54nrb, was identified. P54nrb is harbouring a caspase-2 specific cleavage site at the aspartate residue D422, and cleavage of p54nrb leads apparently to disruption of its putative DNA binding domain at the C-terminus.
P54nrb is a nuclear multifunctional RNA and DNA binding protein, known for roles in transcriptional regulation, DNA unwinding and repair, RNA splicing, and retention of defective RNA. Overexpression of p54nrb has been observed in several human cancers, such as cervix carcinoma, melanoma, and colon carcinoma.
Data from this study revealed, that depletion of p54nrb in tumor cell lines results in a loss of resistance to drug induced cell death and to reduced capability of anchorage independent growth, which is functionally equivalent to a reduced tumorigenic potential. Meanwhile, p54nrb depletion alone is not cytotoxic.
The investigation of p54nrb dependent gene regulations by high resolution quantitative proteomics uncovered an altering expression of multiple tumorigenic genes. For two of these candidates, the tumorigenic protease cathepsin-Z and the anti-apoptotic gelsolin, p54nrb dependent expression was detected universally in all three investigated tumor cell lines, cervix carcinoma, melanoma, and colon carcinoma. Additionally, a direct interaction of p54nrb with the cathepsin Z and gelsolin encoding DNA, but not with their corresponding mRNA, could be demonstrated.
Conjointly, this study unveils a novel mechanistic feature of caspase-2 as a tumor suppressor. The caspase-2—p54nrb axis can orchestrate the levels of several tumorigenic proteins and thereby determine the cell death susceptibility and long-term tumor survival. These findings might be of great value for future therapeutic interventions and for overcoming drug resistance of tumors.
Ziel der Arbeit ist es die Eigenschaften und die Häufigkeit von Rezidiven der primär und sekundär therapierten Basalzellkarzinome der MKPG, insbesondere in Abhängigkeit der Lokalisation und des Resektionsstatus zu evaluieren und mit den Ergebnissen der Literatur zu vergleichen, um ein optimiertes chirurgisches Vorgehen zu sichern.
Precise intensity monitoring at CRYRING@ESR: on designing a Cryogenic Current Comparator for FAIR
(2023)
In the field of today’s beam intensity diagnostic there is a significant gap in the non-interceptive, calibrated measurement of the absolute intensity of continuous (unbunched) dc beams with current amplitudes below 1 μA. At the Facility for Antiproton and Ion Research (FAIR) low-intensity DC beams will occur during slow extraction from the synchrotrons as well as for coasting beams of highly-charged or exotic nuclei in the storage rings. The lack of adequate beam instrumentation limits the experimental program as well as the accuracy of experimental results.
The Cryogenic Current Comparator (CCC) can close the diagnostic gap with a high-precision dc current reading independent of ion-species and of beam parameters. However, the established detector design based on a core with high magnetic permeability and on a radial shield geometry has well-known weaknesses concerning magnetic shielding efficiency and intrinsic current noise. To eliminate these weaknesses, a novel coreless CCC with a co-axial shield was constructed and combined with a high-performance SQUID contributed by the Leibniz-Institute of Photonic Technology (Leibniz-IPHT Jena). The new axial CCC model was compared to a radial CCC with the established design provided by the Friedrich-Schiller-University Jena. According to numerical simulations prepared at TU Darmstadt and test measurements of the detectors in the laboratory, the new design offered a significant improvement of the shielding factor – from 75dB to 207dB at the required dimensions – and eliminated all noise contributions from the core material, promising an improved current resolution. Although the lower inductance of the pickup coil reduced the coupling to the beam significantly, the noise properties of the new CCC type were comparable to the classical version with a high-permeability core. However, the expected decrease of the low-frequency noise and thus an increase of the current resolution could not be observed at this stage of development.
Consequently, the classical CCC based on the radial shielding and high-permeability core had to be installed in CRYRING@ESR to provide best possible intensity measurements for the upcoming experimental campaign. In CRYRING the CCC was operated with beam currents between 1nA and 20μA and with different ion species (H, Ne, O, Pb, U). It was shown that the CCC provides a noise-limited current resolution of better than 3.2 nArms at a bandwidth of 200 kHz as well as a noise level below 40 pA/√Hz above 1 kHz. During the operation, the main noise sources of the accelerator environment had to be identified and suitable mitigation strategies were developed. Temperature and pressure fluctuations were suppressed with a newly-designed cryogenic support system based on a 70 l helium bath cryostat, developed and built in collaboration with the Institut für Luft- und Kältetechnik Dresden, in combination with a helium re-liquefier. The cryogenic operating time was restricted to around 7 days, which must be expanded significantly in the future. Digital filters were developed to remove the perturbations of the helium liquefier and of the neighboring dipole magnets. Given the promising results the CCC system can be considered as a prototype for future CCCs at FAIR.
Structure-function relationships in substrate binding protein dependent secondary transporters
(2023)
This work provides new insights into the relevance of SBP dependent secondary transport systems, especially in the thus far under-researched subgroup of TAXI transporters. Importantly, we identified and characterized the TAXI transport system TAXIPm-PQM from Proteus mirabilis. We demonstrated that, in contrast to previously characterized SBP dependent secondary transport systems, TAXIPm-PQM is a proton coupled system and transports the C5-dicarboxylate α- ketoglutarate. Since initially the transport of α-ketoglutarate could only be demonstrated in vivo but not in vitro using established protocols (Mulligan et al. 2009), we investigated in detail the differences between the in vivo and in vitro assay. This resulted in a bioinformatic analysis of TRAP and TAXI signal peptides, which strongly implied that TAXIPm-P requires a transmembrane anchor to allow for transport. We then provided TAXIPm-P surface tethered to the membrane in in vitro transport assays and confirmed the prediction of our bioinformatic analysis that TAXIPm-PQM deploys a membrane-anchored instead of a soluble SBP. Furthermore, the TAXI transport system TAXIMh-PQM from Marinobacter hydrocarbonoclasticus transports fumarate only if both membrane domains Q and M are present. For further characterization, Michaelis-Menten kinetics and affinities were determined for both TAXI transport systems TAXIPm-PQM from Proteus mirabilis and TAXIMh-PQM from Marinobacter hydrocarbonoclasticus. In addition, nanobodies were selected for the membrane domain TAXIPm-QM from Proteus mirabilis to stabilize different conformations which can serve in subsequent structural elucidation studies. Furthermore, the TRAP SBP TRAPHi-SiaP from Haemophilus influenzae was shown to interact not only with its corresponding membrane domain TRAPHi-SiaQM but with at least one additional transporter. It was thereby excluded that TRAPHi- SiaP transfers N-acetylneuraminic acid to the only native E. coli TRAP transporter TRAPEc-YiaMNO and suggested to rather interact with a SBP dependent ABC transport system as this protein family represents the largest SBP dependent protein group in E. coli (Moussatova et al. 2008).
This research attempts to provide for an overview of the state of co-operation between the United Nations and regional organizations like the CoE, OSCE, EU and NATO during the last Yugoslav wars, considering the 1991-2008 period. In this case, the "reconstruction" of what the organisations did in each of the countries involved in the conflicts, the country-by-country approach used in writing the research and the consideration of both headquarters and field level should facilitate the understanding of the state of things at that time. The research further includes an analysis of the co-operative trends developed by the considered international organisations since the beginning of the 1990s and is concluded by a reflection on the normative relevance of the issue of "international cooperation". In this case, the intention of the author was to go beyond the general policy level approach used for the description of UN-regional organizations interaction and propose a re-consideration of the concept of "international co-operation" as a possible normative tool in guiding the so far nebulous division of tasks of international actors in conflict-related scenarios. In this case, the concise description of the general framework for co-operation under Chapter VIII of the UN Charter, already matter of wide debate by academics and practitioners, sets the frame for a more elaborate, and hopefully innovative, consideration of the notion of "international cooperation". This, of course, is to be contextualized to the lessons learned extrapolated from the case study.
RNA research is very important since RNA molecules are involved in various gene regulatory mechanisms as well as pathways of cell physiology and disease development.1 RNAs have evolved from being considered as carriers of genetic information from DNA to proteins, with the three major types of RNA involved in protein synthesis, including messenger RNA (mRNA), transfer RNA (tRNA), and ribosomal RNA (rRNA).2 In addition to the RNAs involved in protein synthesis numerous regulatory non-coding RNAs (ncRNAs) have been discovered in the transcriptome. The regulatory ncRNAs are classified into small ncRNAs (sncRNAs) with transcripts less than 200 nucleotides (nt) and long non-coding RNAs (lncRNAs) with more than 200 nt.3
LncRNAs represent the most diverse and versatile class of ncRNAs that can regulate cellular functions of chromatin modification, transcription, and post-transcription through multiple mechanisms.4 They are involved in the formation of RNA:protein, RNA:RNA and RNA:DNA complexes as part of their gene regulatory mechanism.4,5 The RNA:DNA interactions can be divided into RNA:DNA heteroduplex formation, also called R-loops, and RNA:DNA:DNA triplex formation. In triplex formation, RNA binds to the major groove of double-stranded DNA through Hoogsteen or reverse Hoogsteen hydrogen bonding, resulting in parallel or anti-parallel triplexes, respectively. In vitro studies have confirmed the formation of RNA:DNA:DNA triplexes.6 However, the extent to which these interactions occur in cells and their effects on cellular function are still not understood, which is why these structures are so exciting to study (Chapter I RNA:DNA:DNA Triplexes).
This cumulative thesis investigates several functional and regulatory important RNAs. The first project involves the improved biochemical and biophysical characterization of RNA:DNA:DNA triplex formation between lncRNAs of interest and their target genes. Triplex formation was confirmed by a series of experiments including electromobility shift assays (EMSA), thermal melting assays, circular dichroism (CD), and liquid state nuclear magnetic resonance (NMR) spectroscopy. The following is a summary of the main findings of these publications.
In research article 5.1, the oxygen-sensitive HIF1α-AS1 was identified as a functionally important triplex-forming lncRNA in human endothelial cells using a combination of bioinformatics techniques, RNA/DNA pulldown, and biophysical experiments. Through RNA:DNA:DNA triplex formation, endogenous HIF1α-AS1 decreases the expression of several genes, including EPH receptor A2 (EPHA2) and adrenomedullin (ADM), by acting as an adaptor for the repressive human silencing hub (HUSH) complex, which has been studied by our collaborators in the groups of Leisegang and Brandes.
2) Triplex formation between HIF1α-AS1 and the target genes EPHA2 and ADM was investigated in biochemical and biophysical studies. The EMSA results indicated that HIF1α-AS1 forms a low mobility RNA:DNA:DNA triplex complex with the EPHA2 DNA target sequence. The CD spectrum of the triplex showed distinct features compared to the EPHA2 DNA duplex and the RNA:DNA heteroduplex. Melting curve analysis revealed a biphasic melting transition for triplexes, with a first melting point corresponding to the dissociation of the RNA strand with melting of the Hoogsteen hydrogen bonds. The second, higher melting temperature corresponds to the melting of stronger Watson-Crick base pairing. Stabilized triplexes were formed using an intramolecular EPHA2 DNA duplex hairpin construct in which both DNA strands were attached to a 5 nucleotide (nt) thymidine linker. This approach allowed improved triplex formation with lower RNA equivalents and higher melting temperatures. By NMR spectroscopy, the triplex characteristic signals were observed in the 1H NMR spectrum, the imino signals in a spectral region between 9 and 12 ppm resulting from the Hoogsteen base pairing. To elucidate the structural and sequence specific Hoogsteen base pairs 2D 1H,1H-NOESY measurements of the EPHA2 DNA duplex and the HIF1α-AS1:EPHA2 triplex were performed. The 1H,1H-NOESY spectrum of the HIF1α-AS1:EPHA2 triplex with a 10-fold excess of RNA was semi-quantitatively analyzed for changes in the DNA duplex spectrum. We discovered, strong and moderate attenuation of cross peak intensities in the imino region of the NOESY spectrum. This attenuation was proposed to result from weakening of Watson-Crick base pairing by Hoogsteen hydrogen bonding induced by RNA binding. The Hoogsteen interactions can be mapped based on the analysis of the cross peak attenuation in the NOESY spectra, which we used to generate a structural model of the RNA:DNA:DNA triplex. These biophysical results support the physiological function of HIF1α as a triplex-forming lncRNA that recruits the HUSH-epigenetic silencing complex to specific target genes such as EPHA2 and ADM, thereby silencing their gene expression through RNA:DNA:DNA triplex formation.
Identification of new natural products from nematode-associated bacteria using mass spectrometry
(2023)
This work aims to find unknown natural products produced by bacteria, that live in close association with nematodes and to elucidate their structure by using mass spectrometry.
The first chapter of this work is dedicated to the detection of hitherto unknown natural products by using a metabolomics approach and subsequent structure elucidation of said compounds. This chapter includes metabolomics analysis of Xenorhabdus szentirmaii wild type and knockout mutants, overproduction of the target compound, identification of derivatives from other strains and MS based structure elucidation.
The second and third chapters are about natural products that protect C. elegans from B. thuringiensis infections.
The second chapter deals with natural products that protect the nematode host without killing the pathogen. I deployed molecular biology methods to generate deletion and overproduction strains of a target compound, identified it via LC-MS/MS analysis and used LC-MS/MS and lipidomics to analyse the chemical properties of the active compound.
The third chapter aims at finding natural products, which are produced by Pseudomonas strains MYb11 and MYb12, respectively. These natural products display the ability to protect C. elegans by killing B. thuringiensis. I identified said compounds via fractionation and subsequent bioactivity testing. After identification, I generated production strains of the target compounds and elucidated the structure of the bioactive derivative.
The last chapter deals with the structure elucidation of peptides produced by an unusual GameXPeptide synthetase in Xenorhabdus miraniensis. I analysed producer strains of GameXPeptides using LC-MS and elucidated the structural differences between the known GameXPeptides, produced by P. luminescens TT01, and the unusual ones produced by X. miraniensis.
Nok Eisen : zentralnigerianische Eisenverhüttung in der Mitte des ersten Jahrtausends vor Christus
(2023)
Based on excavations, excavation documentation and archaeometallurgical analyses, this thesis aims to characterise Nok iron production in central Nigeria through a contextually based investigation.
In 2010, 2011, 2013 and 2016, the Nok research project at Goethe University Frankfurt/Main in collaboration with the National Commission for Museums and Monuments, Nigeria excavated 27 iron-smelting furnaces from 8 sites 60 kilometres north of Abuja. All furnaces date around the middle of the first millennium BCE. Absolute dates, relative pottery chronology and terracotta figurine finds in furnace contexts suggest their affiliation to the Nok context. In comparison, all 27 furnaces resemble each other closely regarding their design and spacial arrangement. The numbers of furnaces per site, furnace width, furnace wall angle and thickness as well as pits beneath the furnaces are just some features with similar qualities. The similarities of the smelting sites also extend into their finds: the structure of tuyères and their position in situ as well as macroscopic slag morphology and distribution. Find morphology and distribution as well as furnace structure suggest a highly standardized way of Nok iron production. However, archaeometallurgical analyses show heterogeneous use of raw materials between sites and/or furnaces. In similarly structured furnaces different kinds of iron ore were smelted leaving a high iron content in the respective slags. This hints at an early stage of iron production in which the smelting process was limited to one operative set-up.
N6-methyladenosine (m6A) is the most abundant and well understood modification in eukaryotic mRNA and was first identified in polyadenylated parts of the mRNA.The distinct distribution of m6A in the transcriptome with special enrichment in long internal exons, 39UTRs and around stop codons was uncovered by early biochemical work and later on antibody based sequencing techniques. The so called m6A writer, reader and eraser machinery is responsible for the dynamic and with that regulatory nature of the m6A modification. As m6A writer, the human N6-methyltransferase complex (MTC) cotranscriptionally methylates the central adenine within a RRACH (preferably GGACU) sequence context to form m6A in the nascent RNA chain.9–15 The catalytic core of the complex is formed by the two proteins METTL3 and METTL14, with the active site located in the methyltransferase domain (MTD) of METTL3.16–18 The DPPW motif near the methyl donor S-adenosylmethionine (SAM) binding site in this MTD was postulated to bind the target adenine during catalysis. Moreover, a positively charged groove in the METTL3-METTL14 interface, the C-terminal RGG domain in METTL14 and the zinc finger motifs in METTL3 were identified as important domains for RNA binding. However, to date there are no full-length or substrate-RNA-bound structures of the catalytic METTL3-METTL14 complex.
In addition, a set of accessory proteins assembles to the METTL3-METTL14 heterodimer to form the full MTC, mediated by WTAP that firmly binds to the N-terminal leader helix in METTL3.20 WTAP was shown to locate the whole complex to the nuclear speckles and can modulate m6A deposition to specific sites in the RNA. Moreover, WTAP acts as binding platform for other accessory proteins including VIRMA, RBM15, ZC3H13 and HAKAI that are mostly identified to mediate position specific methylation. For example, RBM15 was shown to mediates region-selective methylation in a WTAP dependent manner, directing specificity towards U-rich sequences.
The observed specificity of the methyltransferase complex to methylate only site specific DRACH sequenced is still poorly understood. Some possible modulators like the role of the accessory proteins are under investigation, however, the structural context of the RNA methylation sites or a structural preference of the complex have been mainly neglected so far. Moreover, the structural dynamics of this methylation process still remain elusive. This thesis contributes to the afore-mentioned aspects by analysis of the methylation process regarding RNA structure sensitivity with enzymatic activity assays and its dynamic nature by implementing a smFRET approach.
We hypothesized the target RNA secondary structure to be an additional important modulator of methylation efficiency, based on the RNA binding elements of the complex (positively charged binding groove, zinc finger domain, RGG domain) and the supposed target adenine binding in the active site. Here, we postulated the possibility for a flipped-out adenine to be of special relevance, which is closely related to the local stability of the target adenine containing structure. Moreover, efficient binding of the protein complex to the RNA should require the ability to anchor the RNA on both sides of the target sequence.
Restructuration des répertoires langagiers de migrant·e·s de la République du Congo en Lorraine
(2023)
Cette thèse étudie la complexité du plurilinguisme des migrant·e·s d’origine de la République du Congo en Lorraine à travers le prisme de la restructuration des répertoires langagiers. En affûtant la conceptualisation de la restructuration des répertoires langagiers par l’étude du plurilinguisme des migrant·e·s d’origine congolaise, cette recherche ouvre de nouvelles perspectives pour les recherches portant sur le plurilinguisme, notamment concernant les mobilités transgénérationnelles et la diversité des processus de restructuration façonnant les répertoires langagiers. En se focalisant sur les biographies langagières et migratoires de 15 individus migrants, sur leurs réseaux sociaux et sur leurs ressources langagières, cette étude révèle la diversité des processus et des facteurs au cœur des restructurations des répertoires langagiers à travers une étude ethnographique multi-située en Lorraine et au Congo. La compréhension de la diversité des dynamiques restructurant les connaissances langagières des enquêté·e·s passe par l’étude des situations de socialisation langagière au Congo dans leur historicité, des itinéraires de migration et des restructurations des réseaux sociaux ainsi que des répertoires langagiers dans l’installation en Lorraine. Les participations à la société lorraine et ses groupes sociaux imprègnent les identifications, les orientations sociales et les positionnements dans les réseaux sociaux et vice-versa.
Les répertoires langagiers apparaissent comme des enregistrements de la mobilité des individus et de celle des générations antérieures ainsi que de leur entourage. Les restructurations concernent entre autres les ressources associées au français, aux langues congolaises et à d’autres langues appropriées par la migration. Les ressources du français sont restructurées par les migrant·e·s en s’appropriant les ressources courantes dans différentes situations sociales en Lorraine, en marquant et/ou en dissimulant les ressources appropriées ailleurs et inappropriées dans ces situations. En même temps, un savoir de différenciation des ressources, dont font aussi partie les schémas de catégorisation et les stratégies communicatives, est développé et une (in)sécurité langagière se manifeste. Les ressources associées aux langues congolaises, leurs fonctions sociales et leurs représentations sont restructurées dans des processus d’attrition, d’actualisation, de transformation et d’élaboration langagière. Les ressources associées à d’autres langues européennes appropriées par la migration sont reléguées au second plan et se perdent lentement par manque d’usage. Enfin, les connaissances liées à la gestion du plurilinguisme, de la diversité culturelle et de l’altérité, appropriées dans les mêmes situations de diversité, aident au traitement interne des expériences des mobilités spatiales et sociales ainsi que des restructurations des répertoires langagiers.
Auf der Oberfläche von Erythrozyten, Thrombozyten und Neutrophilen befinden sich mehrere hundert verschiedene polymorphe, ungekoppelt vererbte Blutgruppenantigene. Dementsprechend birgt jede Bluttransfusion das Risiko einer Immunisierung gegen fremde Blutgruppenmerkmale. Auch während der Schwangerschaft können aufgrund väterlich vererbter Antigene Alloantikörper induziert werden. Deshalb muss das Blut vor jeder Transfusion oder während einer Schwangerschaft auf das Vorhandensein irregulärer erythrozytärer Antikörper untersucht werden. Dabei greifen die aktuellen diagnostischen Verfahren auf primäre, stabilisierte Testerythrozyten von Blutspendern zurück, deren relevante Blutgruppenantigene bekannt sind. Antikörperspezifitäten können anhand von Agglutinationsreaktionen der Testzellen mit dem zu untersuchenden Patientenplasma auf ein oder mehrere Antigene zurückgeführt werden. Ist jedoch ein Antikörper gegen ein häufiges, ein hochfrequentes oder ein nicht-polymorphes, ubiquitäres Antigen gerichtet, kann in Ermangelung Antigen-negativer Testzellen keine adäquate Diagnostik gewährleistet, die Verträglichkeit der Transfusion also nicht definitiv sichergestellt werden. Auch der medizinische Einsatz therapeutischer Antikörper, welche Antigene adressieren, die auch auf Erythrozyten exprimiert werden, führt zunehmend zu Problemen. Tests auf granulozytäre Antikörper sind mangelhaft bezüglich ihrer Robustheit, besitzen eine unzureichende Auflösung und sind zudem meist zeitaufwändig und daher teuer. Antikörper gegen humane Plättchenantigene spielen insbesondere in der Schwangerschaft eine Rolle; sie vermögen bei Neugeborenen thrombozytopenische Blutungen bis hin zu massiven Hirnblutungen zu verursachen, die zu schweren Entwicklungsstörungen führen können. Bisher erfolgt jedoch mangels geeigneter Reagenzien keine standardisierte pränatale Untersuchung auf thrombozytäre Antikörper. In dieser Arbeit wurde ein neuartiges Verfahren für die Identifikation und Differenzierung irregulärer Blutgruppenantikörper etabliert, welches auf gentechnisch hergestellten, xenogenen Testzellen basiert, die einzelne definierte humane Blutgruppenantigene auf ihrer Oberfläche präsentieren. Die nicht humanen Zellen co exprimieren Fluorochrome, anhand derer Antikörper-markierte Testzellen durchflusszytometrisch voneinander unterscheidbar sind. Weiterhin können die generierten Testzellen zur Depletion von Antikörpern aus polyagglutinierenden Plasmen unter Erhalt der anderen Antikörperspezifitäten verwendet werden. Diese Technologie könnte die konventionelle Diagnostik erheblich erleichtern und bietet zudem die Möglichkeit, therapeutische Antikörper (wie z. B. anti-CD38, anti CD47, etc.), die häufig zu Interferenzen mit der Routinediagnostik führen, spezifisch prädiagnostisch aus Patientenproben zu entfernen.
Investigation of the kinematics involved in compton scattering and hard X-ray photoabsorption
(2023)
The present work investigates the kinematics of Compton scattering at gaseous, internally-cool helium and molecular nitrogen targets in the high- and the low-energy regime. Additionally, photoionization at molecular nitrogen with high-energy photons is investigated. These exeprimental regimes were previously inaccessible due to the extremely small cross sections involved. Nowadays, the third- and fourth-generation synchrotron machines produce sufficient photon flux, enabling the investiagtion of the above processes. The utilized cold-target recoil-ion momentum spectroscopy (COLTRIMS) technique further increases the detection efficiency of the observed processes, since it enables full-solid-angle detection by exploiting momentum conservation.
Compton scattering is investigated at both high (helium and N2) and low (helium) photon energies. In the high-energy regime, the impulse approximation is mostly valid, which is not the case for the low-energy regime. The impulse approximation assumes that the Compton-scattering process takes place at a free electron with a momentum distribution as if it was bound, thus ignoring the binding energy of the system. In the low-energy regime, the impulse approximation is not valid.
Photoionization is investigated at high photon energies, where the linear momentum of the photon cannot be neglected, as is the fashion of the commonly used dipole approximation.
Terahertz (THz) radiation lies between the micro and far-infrared range in the electromagnetic spectrum. Compared with microwave and millimeter waves, it has a larger signal bandwidth and extremely narrow antenna beam. Thus, it is easier to achieve high-resolution for imaging and detection applications. The unique properties, such as penetration for majority non-polar materials, non-ionizing characteristic and the spectral fingerprint of materials, makes THz imaging an appealing artifice in the military, biomedical, astronomical communications, and other areas. However, THz radiation’s current low power level and detection sensitivity block THz imaging system from including fewer optical elements than the visible or infrared range. This leads to imaging resolution, contrast, and imaging field of view degenerate and makes the aberration more serious. THz imaging based on the space Fourier spectrum detection is developed in this thesis to achieve high-quality imaging. The main concept of Fourier imaging is by recording the field distribution in the Fourier plane (focal plane) of the imaging system; the information of the target is obtained. The numerical processing method is needed to extract the amplitude and phase information of the imaged target. With additional process, three-dimensional (3D) information can be obtained based on the phase information. The novel recording and reconstructing ways of the Fourier imaging system enables it to have a higher resolution, better contrast, and broader field of view than conventional imaging systems such as microscopy and plane to plane telescopic imaging system.
The work presented in this thesis consists of two imaging systems, one is working at 300 GHz based on the fundamental heterodyne detection of the THz radiation, the other is operated at 600 GHz by utilizing the sub harmonic heterodyne detection technique. The realization and test of the heterodyne detection are based on the THz antenna-coupled field-effect transistor (TeraFET) detector developed by Dr. Alvydas Lisauskas. Both systems use two synchronized electronic multiplier chains to radiate the THz waves. One radiation works as the local oscillator (LO), the other works as illumination with a slight frequency shift, the radiations are mixed on the detector scanning in the Fourier plane to record the complex Fourier spectrum of the imaged target. The LO has the same frequency range as the illuminating radiation for fundamental heterodyne detection but half the frequency range for the sub-harmonic heterodyne detection. The 2-mm resolution, 60-dB contrast, and 5.5-cm diameter imaging area at 300 GHz and the of 500-μm resolution, 40-dB contrast, and 3.5-cm diameter imaging area at 600 GHz are achieved (the 300-GHz illuminating radiation has the approximate power of 600 μW , the 600-GHz illuminating radiation has the approximate power of 60 μW ).
The thesis consists of 6 parts. After the introduction, the second chapter expands on the topic of Fourier optics from a theoretical point of view and the simulations of the Fourier imaging system. First, the theory of the electromagnetic field propagation in free space and through an optical system are investigated to elicit the Fourier transform function of the imaging system. The simulation is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on reconstruction. The preliminary imaging field of view and resolution are also demonstrated. The third chapter describes the Fourier imaging system at 300 GHz based on the fundamental heterodyne detection, including the experimental setup, the 2D, and 3D imaging results. The following fourth chapter reports the integration of the TeraFET detector with two substrate lenses (one is a Si lens on the back-side Si substrate, the other is a wax/PTFE lens on the front side containing the bonding wires) for sub-harmonic heterodyne detection at 600 GHz. The characteristic of the wax/PTFE lens at THz range is presented. After that, the compared imaging results between the detector with and without the wax/PTFE lens are shown. The fifth chapter extends the demonstration on the lateral and depth resolution of the Fourier imaging system in detail and uses the experimental results at 600 GHz to validate the analytical predictions. The comparison of the resolution between the Fourier imaging system and the conventional microscopy system proves that the Fourier imaging system has better imaging quality under the same system configuration. The last chapter in this thesis concludes on the findings of the THz Fourier imaging and gives an outlook for the enhancement of the Fourier imaging system at THz range.
This dissertation investigates a special class of anaphoric form, yè, in Ewe known as the logophoric pronoun. This research makes a number of novel observations.
In the first chapter, I introduce the reader to the phenomenon under investigation as well as provide information on Ewe and its dialects and, methodology. In Chapter 2, I present the pronominal system of Ewe which is categorised into strong and weak forms following Cardinaletti & Starke (1994) and Agbedor (1996). The distribution of pronouns is outlined which sets the tone for an overview of logophoric marking. In this respect, I present variations in logophoric marking strategies cross linguistically and show that Ewe differs significantly from other pronouns in this category. In an effort to explain the deviant case of yè, I entertain the idea that yè is a pure logophoric pronoun in the sense of Clements (1975) and thus, its additional de re and strict interpretation does not imply non-logophoricity.
Chapter 3 demonstrates that yè is sensitive to contexts which portray the intention of an individual. Following Sells (1987), the antecedent of yè must have an intention to communicate. I broadly categorize logophoric contexts into reportative (direct-indirect speech) or non-reportative (speaker’s mental attitude, reporter’s observation or background knowledge of a situation). Based on this categorization, indirect speech report (Clements 1975), dis- course units such as a paragraph or an episode (Clements 1975), and sentential adjuncts such as purpose, causal and consequence clauses (Culy 1994a) are reviewed. The logophoric pro- noun occurs in the complement of attitude verbs (Clements 1975), also termed logocentric (à la (Stirling 1994)) or logophoric predicates (à la (Culy 1994a)) as well as with non-attitudinal verbs (e.g. va ‘come’ or wO ‘do’ as in sentential adjuncts). I argue contra Clements (1975) and Culy (1994a) that yè can occur with perception predicates. I further provide three new instances of non-reportative contexts which are compatible with yè namely, as-if clauses, benefactive na clauses and alesi ‘how’ clauses. I show, corroborating previous studies that contexts which are necessary for the licensing of yè include all of the aforementioned except causal clauses. Among these contexts, the complementizer be or regarding cases where there is no be, an element in C (due to the Doubly-Filled-Comp Filter (DFCF) c.f. Chomsky & Lasnik (1977)), is sufficient to license yè. Following Bimpeh & Sode (2021), yè is licensed by feature checking (in the spirit of von Stechow (2004)): be bears the interpretatble [log] feature which checks the uninterpretable [log] feature of yè. I include a redefinition of logophoricity as pertaining to Ewe.
Given the disparity found in the literature concerning the interpretation of yè: Ewedome (pronounce EVedome) has only de se readings (Bimpeh 2019); while ‘pure’ Ewe, Mina (variety of Ewe spoken in Togo) Pearson (2015), Danyi (O’Neill 2015) and Anlo (pronounced ANlO) (Satık 2019) has de re readings; chapter 4 aims at lending empirical support to the ungoing discussion by verifying the interpretation of yè. Two acceptability judgment tasks were conducted namely, truth value judgment task and binary forced choice task. The results corroborates Pearson (2012, 2015) and others’ discovery that yè has a de re interpretation in the Ewedome (contra Bimpeh (2019); Bimpeh et al. (2022)), Anlo and Tonu (pronounced TONu) dialects of Ewe.
In chapter 5, I discuss the relation between logophoricity (yè, yè a) and Control (PRO). I show that yè may be restricted to a set of verbs which obligatorily require the morpheme a ‘potential marker’ (Essegbey 2008), in subject position. This set of verbs are those that are known as control verbs c.f. (Landau 1999) in English. As a result of this restriction, research such as Satık (2019) claims that yè a is the overt instantiation of PRO in English. According to the Ewe facts, it appears as though on one hand, yè and PRO share similar properties in logophoric contexts and on the other hand, yè in combination with the potential marker, a also share properties with PRO in subject control environments. Against this background, I discuss the relation between yè, yè a and PRO and show that neither yè in isolation nor yè in combination with a, contrary to Satık (2019), is the overt instantiation of PRO. I clarify that the potential morpheme a is not cliticised or combined with the logophoric yè. The two forms are seperate morphemes. The potential marker a only shows up in control environments because a sub-class of verbs require it for grammaticality purposes. As such, the property of de se-ness does not come from yè by itself, yè a or a but rather from the sub-class of verbs which require the potential marker a...
Bei über der Hälfte der Patienten mit einer operationsbedürftigen MI liegt gleichzeitig eine Insuffizienz der TK vor. In den meisten Fällen handelt es sich hierbei um eine funktionelle Insuffizienz welche aus einer RV-Pathologie, bedingt durch eine Volumen- oder Druckbelastung resultiert. In der Vergangenheit bestand die Überzeugung eine konservative Behandlung der TI sei ausreichend und nach Beheben der ursächlichen Grunderkrankung sei diese selbstlimitierend. Neuere Studien konnten jedoch belegen, dass eine bestehende TI auch nach operativer Versorgung einer ursächlichen LV-pathologie keine ausreichende Rückbildungstendenz aufweist, sondern im Verlauf sogar noch progredient ist. Die persistierende TI führt zu einer deutlich erhöhten Morbidität und Mortalität. Ist eine zweizeitige Operation an der TK im Verlauf erforderlich, so ist die Früh- und Spätmortalität deutlich erhöht und die Langzeitergebnisse sind schlecht. Diese Ergebnisse haben dazu geführt, dass die Indikation zur operativen Versorgung der TI ≥ 2 zu einem früheren Zeitpunkt und weniger restriktiv gestellt wird. Jedoch weisen die aktuellen ESC/EACTS-Guidelines insbesondere hinsichtlich der Versorgung einer TI < 2 nur einen niedrigen Evidenz-Grad auf, der richtige Operationszeitpunkt bleibt weiterhin umstritten. Der Grund für eine eher zurückhaltende Einstellung ist vor allem die Angst vor einer erhöhten Morbidität und Mortalität durch den additiven Eingriff. Zudem sind kaum Studien zu einer operativen Versorgung einer TI < 2 vorhanden. Ziel der vorliegenden Arbeit war daher der Gewinn weiterer Erkenntnisse, dieses bis dato kaum untersuchten Patientengutes, insbesondere hinsichtlich der peri- und postoperativen Mortalität, sowie der Auswirkungen der prophylaktischen TKR im Langzeitverlauf. Im Rahmen dieser monozentrischen, prospektiven Studie wurden 264 Patienten eingeschlossen, welche sich im Zeitraum von 2009 bis 2015 einer TKR im Rahmen einer MKR an der Klinik für Thorax- Herz- und thorakaler Gefäßchirurgie des Universitätsklinikums Frankfurt am Main unterzogen. Das Patientenkollektiv wurde nachfolgend in zwei Gruppen unterteilt, nach dem Schweregrad der präoperativ bestehenden TI in eine „prophylaktische” pTKR-Gruppe bei einer TI < 2 und eine „therapeutische” tTKR-Gruppe bei einer TI ≥ 2. Primärer Endpunkt war die Erfassung der Früh- und Spätmortalität. Sekundäres Endziel war die Untersuchung des postoperativen Verlaufes der TI, sowie der Verlauf der kardialen Funktion. Die 30-Tages-Mortalität betrug 12% in der pTKR-Gruppe und 17% in der tTKR-Gruppe. Der wichtigste Einflussfaktor war die EKZ-Dauer. Der Unterschied zwischen den beiden Gruppen war statistisch nicht signifikant. Im Vergleich zu anderen Studien zeigte sich eine höhere 30-Tages-Mortalität, jedoch handelte es sich bei diesen zumeist um einen isolierten Eingriff an der Mitralklappe, mit einer deutlich kürzeren EKZ. Hinsichtlich der Gesamtmortalität zeigte sich ein 1-, 5- und 7-Jahres-Überleben in der pTKR-Gruppe von 81%, 66% und 56%, sowie 65%, 52% und 41% in der tTKR-Gruppe. Die höhere Gesamtmortalität dieser Studie im Vergleich zu anderen Arbeiten ist durch das deutlich ältere und multimorbide Patientenkollektiv erklärt. Bei dem Vergleich von Patienten, welche im Rahmen dieser Studie eine prophylaktische TKR erhielten gegenüber den Patienten, bei welchen im Rahmen von Vergleichsarbeiten bewusst auf eine TKR verzichtet wurde (NTKR-Gruppe), zeigte sich ein verbessertes Langzeitüberleben der pTKR-Gruppe. Bei den Arbeiten, bei welchen kein Überlebensvorteil unserer pTKR-Gruppe, gegenüber deren NTKR-Gruppe gezeigt werden konnte, zeigten sich dennoch positive Effekte der begleitenden Klappenoperation. Die erhöhte Frühsterblichkeit dieser Arbeit ist dem Umstand geschuldet, dass durch die zur Indikationsstellung herangezogenen Risikofaktoren ein Hochrisikokollektiv selektioniert wurde, mit einer konsekutiv erhöhten Sterblichkeit auch abhängig vom Ausmass der TI. Bereits in der Vergangenheit konnte eine Verbesserung des Langzeitüberlebens durch die Durchführung einer TKR bei einer TI ≥ 2, gegenüber dem Verzicht auf diese nachgewiesen werden. Anhand des Vergleiches von anderen Arbeiten mit der vorliegenden Arbeit konnte dieser Überlebensvorteil auch für die Durchführung einer pTKR bei einer TI < 2 gezeigt werden. Zudem konnte dargelegt werden, dass es sich bei der begleitenden pTKR um eine effektive und dauerhafte Methode zur Vermeidung einer Klappeninsuffizienz handelt. Somit konnte gezeigt werden, dass auch bei Patienten mit einer TI < 2 eine additiven TKR die Entwicklung einer späten TI verhindert.
Neutron stars are unique laboratories for the investigation of the high density properties of bulk matter. In this work, the astrophysical constraints for a phase transition from hadronic matter to deconfined quark matter are examined thoroughly. A scheme for relating known astrophysical observables such as mass, radius and tidal deformability to the parameter space of such a transition is devised and applied to the set of data currently available.
In order to span a wide parameter space, a highly parameterizable relativistic mean field equation in compliance with chiral effective field theory results is used, where the stiffness of the equation of state can be varied via the effective mass at saturation density. The phase transitions are modelled using a Maxwell construction and assumed to be of first order, with a constant speed of sound quark matter model. The resulting equations of state are analyzed and divided into four categories, which can be used to constrain the parameter space that allows phase transition. It is highlighted, that a subset of this parameter space would even be detectable without the need of higher precision measurements. A phase transition at high densities is shown to be particularly promising in this regard. Finally, the groundwork is laid to apply the equation of state used in this work for supernova or merger simulations, by extending it to non-zero temperatures.
Hintergrund: Der Rettungsdienst versorgt täglich viele Patient/-innen in unterschiedlichen Umgebungen und ist damit auch potentieller Überträger nosokomialer Infektionen. Zur Händehygiene, als entscheidende Säule der Infektionsprophylaxe, liegen bislang nur wenige Daten aus dem Rettungsdienst vor.
Methoden: Prospektive multizentrische Studie mit Fragebogen zur Selbst- und Fremdeinschätzung der Compliance und beeinflussender Faktoren (abgeleitet von der WHO Perception Survey for Health-Care Workers) sowie direkte Compliance-Beobachtung nach WHO-Standard bei Rettungsdienstpersonal zweier Berufsfeuerwehren in Deutschland.
Ergebnisse: Es wurden 207 Fragebögen eingereicht und während ca. 66h Beobachtungszeit wurden 674 Händedesinfektionsgelegenheiten protokolliert. Der präventive Effekt der HH wurde allgemein von den Mitarbeitenden anerkannt. Die Selbsteinschätzung (MW: 80%) und beobachtete Compliance-Rate (38%) zeigten eine deutliche Diskrepanz und die Compliance variierte zwischen den verschiedenen Indikationen. Besonders niedrig zeigte sich die Compliance rund um die Durchführung aseptischer Tätigkeiten. Hier zeichnete sich ein geringes Risikobewusstsein für nicht sichtbare Verunreinigungen ab. Hürden für die Umsetzung der Händehygiene stellten vor allem die Vorrangigkeit anderer Maßnahmen, Unterbrechung des Arbeitsablaufes und Zeitmangel dar.
Schlussfolgerungen: Die beobachtete Compliance-Rate im Rettungsdienst lag unterhalb der innerklinischen Durchschnittswerte. Insbesondere die Compliance im Rahmen aseptischer Tätigkeiten muss dringend gesteigert werden. Dies erfordert einen multimodalen Lösungsansatz, der die Optimierung der Ausbildung, Algorithmen, Materialverfügbarkeit und Praktikabilität der Händedesinfektion im Rettungsdienst beinhaltet.
Lebensqualität, kognitive Leistung und multisensorische Integrationsleistung bei NMOSD Patienten
(2023)
Die Neuromyelitis-optica-Spektrum-Erkrankung (NMOSD) ist eine entzündliche Autoimmunerkrankung des zentralen Nervensystems (ZNS), die schubweise auftritt und meist in den Anfängen aufgrund der symptomatischen Ähnlichkeit mit der Multiplen Sklerose (MS) verwechselt wird. Primär manifestiert sich die NMOSD in Form von Sehstörungen und sensomotorische Lähmungserscheinungen. Im Krankheitsverlauf treten aber auch bei einem Großteil der Patienten kognitive Defizite auf, wobei vorwiegend das Gedächtnis, die Informationsverarbeitung und die Aufmerksamkeit betroffen sind, die nicht in Routineuntersuchungen erfasst werden. Kognitive Beeinträchtigungen wurden bereits bei der MS beschrieben. Ebenso spielt eine verminderte Lebensqualität bei beiden Erkrankungen eine große Rolle. Analog zu Untersuchungen bei MS Patienten, die gezeigt haben, dass kognitive Beeinträchtigungen mitunter ursächlich für die niedrige Lebensqualität sind, wird in dieser Arbeit postuliert, dass auch bei NMOSD Patienten das Ausmaß an kognitiven Dysfunktionen mit dem Grad an Einbußen in der Lebensqualität zusammenhängt. Ferner sollen weitere Prädiktoren ermittelt werden, welche einen Einfluss auf die Lebensqualität haben, wie bereits bestätigt körperliche Einschränkungen. Es wird erwartet, dass NMOSD Patienten von einer verminderten Lebensqualität berichten, die von den schlechteren Ergebnissen in den neuropsychologischen Tests vorhergesagt werden kann.
Zur Untersuchung der Kognition wurde in der vorliegenden Arbeit neben etablierten neuropsychologischen Tests auch die multisensorische Integrationsleistung mithilfe des SiFI Paradigmas angewandt, welche bereits bei MS Patienten und Patienten mit leichten kognitiven Defiziten (mild cognitive impairment; MCI) auffällige Daten lieferte und für eine Testung der globalen Kognitionsleistung genutzt werden konnte. Der Grund für den Einsatz der SiFI waren die nachgewiesenen Hirnkorrelate bei multisensorischer Integration, welche ebenfalls bereits bei kognitiver Dysfunktion festgestellt wurden, wie Atrophien, Konnektivitätsstörungen und Auffälligkeiten in der Transmission bestimmter Neurotransmitter. Ziel dieser Anwendung ist eine Implementierung der SiFI in den Klinikalltag zur erleichterten Erfassung kognitiver Defizite. Viele bekannte neuropsychologischen Tests sind entweder zu teuer, zu lang, abhängig von der sprachlichen Fähigkeit oder für die Patienten zu anstrengend. Die SiFI wäre daher eine gute Alternative als Marker kognitiver Defizite.
20 NMOSD Patienten wurden zu ihrer Lebensqualität (EQ-5D) sowie ihrem psychopathologischen Zustand (SCL-90-R) befragt und es wurde eine umfassende neuropsychologische Testung durchgeführt. Zur Diagnostik der multisensorischen Integrationsleistung wurde die SiFI Aufgabe herangezogen. Die Ergebnisse deuten auf eine verminderte kognitive Leistung mit mittelhohen Werten in den Fragebögen zur Lebensqualität. NMOSD Patienten nahmen die Illusion in der SiFI Aufgabe bei längeren Intervallen wahr, vergleichbar mit MS und MCI Patienten. Dies deutet auf eine verzögerte Integration sensorischer Informationen.
Angefangen mit einem Einblick über die Erkrankung und Darstellung des bisherigen Wissenschaftsstands zu den einzelnen Konstrukten und ihrer Zusammenhänge wird das Studiendesign vorgestellt und die Ergebnisse angegeben und interpretiert. Abschließend folgen eine kritische Beurteilung und Zusammenfassung der vorliegenden Daten mit Ausblick auf weitere Forschungsziele.
RNAs are key players in life as they connect the genetic code (DNA) with all cellular processes dominated by proteins. The dynamics study of RNA modifications has become an important part of epitranscriptomics field, as they are reversible and dynamically regulated far more than originally thought. Several evidences portrait a catalog of RNA modifications and their links to neurological disorders, cancers, and other diseases. Therefore, a deeper investigation of RNA modifications dynamics including their specific profile, biosynthesis, maturation and degradation is required for pioneering disease diagnostics and potential therapeutics development.
Mammalian tissues reveal diverse physiology and functions, despite sharing identical genomes and overlapping transcription profiles. So far, most research on this diversity were referred to variable transcriptomic processing among tissues and differential post-translational modifications that tune the activity of ubiquitous proteins to each tissue’s needs. However, study of epitranscriptome dynamics relevance to tissues’ functions is not yet revealed. There are a few reports on mouse RNA modification profiles, which are focused on only one type of RNA and limited types of modifications. The first part of my dissertation aims to generate a comprehensive tissue-specific as well as RNA species-specific investigation of all existing RNA modifications, as well as investigating potential codon as an effector of translation diversity among tissues. Using isotope dilution mass spectrometry, I created a library including absolute quantification of 24 tRNA modifications, and up to 22 rRNA modifications. I find an almost identical pattern of modifications in 28S- and 18S-rRNA subunits, but different levels of most modifications in 5.8S-rRNA or tRNA among highly metabolic active organs to e.g. heart or spleen. The findings suggest a high degree of similarity between quantities of modifications between presented data to all previous literature, confirming that it is a suitable model to study the tissue-based RNA modification patterns.
The most noticeable difference exhibited was tRNA modifications, which suggests a discerning tRNA engagement in translation between different organs. This can be a good start for investigation of codon bias in enriched genes of specific tRNA modifications among different tissues that may cause differential translation pattern, causing organs diversity. Moreover, 5.8S rRNA data showed an organ-specific pattern, which proposes functional diversity of this rRNA subunit among different organs. Future studies must investigate the possible implications of organ-specific 5.8S rRNA modifications functions, to elucidate the core of the observed variations.
Abundance of RNA modifications is carefully regulated in cells. Part of this regulation is achieved by activity of enzymes removing RNA modifications, named RNA erasers. Literature has provided proof of demethylation activity of AlkBH family on different types of RNA. For instance, AlkBH5 is known to remove m6A in mRNA, and both AlkBH3 and AlkBH1 are reported to demethylate m1A and m3C in tRNA. So far, RNA erasers are mainly studied in vitro and direct in vivo studies are missing.
Mass spectrometry is a promising approach in the identification and quantification of many RNA modifications. However, mass spectrometric analysis by nature, offers only a static view of nucleic acid modifications, and fails to account for their cellular dynamics. Nucleic Acid Isotope Labeling coupled Mass Spectrometry (NAIL-MS) was developed as a powerful technique which differentiates among remaining, co-transcriptional and post-transcriptional incorporation of a target RNA modification. This temporal resolution captures the dynamic nature of RNA modifications, and offers absolute and relative quantification of all existing nucleosides in any given RNA sequence, including different isotopologues and isotopomers.
The objective of this study was to uncover the first “direct” iv vivo data on AlkBH1, 3 and 5 activities in demethylating each of their specific substrates. I investigated the RNA modification changes through pulse-chase experiments in collaboration with my colleagues Dr. Kayla Borland and Dr. Felix Hagelskamp. A remarkable observation was that AlkBH3 protein -but not AlkBH1- was overexpressed under methylating reagent treatment in vivo. These findings suggest that AlkBH3 -but not AlkBH1- is a methylation damage induced enzyme, that potentially triggers ASCC-AlkBH3 alkylation repair complex after aberrant methylation damage by MMS treatment. However, using NAIL-MS method, we could not detect any significant effect on demethylation activity of the enzymes in tRNA, rRNA or mRNA towards the possible substrates m6A, m1A, m3C, m5C and m7G in vivo. These distinct outcomes can be partially explained by probable existence of other unidentified demethylases that compensate for AlkBHs demethylation activity; or more probably, demethylation may still arise by remaining active AlkBHs to restore the original levels of the observed RNA modifications, since a stronger KD or a complete knockout of AlkBHs genes was not possible. Further research on fully knocked out AlkBHs genes can provide stronger evidence on unidentified demethylation activities in HEK cells.
Prevenzione e repressione nel contrasto al riciclaggio : un’indagine comparata tra Italia e Germania
(2023)
The doctoral thesis provides a comparative study of the Italian and the German crime of money laundering. Although the topic of the essay is double, its final purpose concerns solely the Italian criminal provision (article 648-bis of the Italian Criminal code, art. 648-bis c.p.) in the attempt to thoroughly investigate its offensiveness, underlying legal interest and legitimation as well as to propose a restrictive interpretation.
The first chapter defines the research topic and the comparative methodology which shall be used throughout the thesis. The comparison is hereby intended as a tool to not only describe, but also contextualize the German legislation and create a “dialogue” with the italian criminal provision. Also, the first chapter lays down the three fundamental questions upon whom the analysis will be built (“from where?”, “what?” and “who?”) and offers a conceptual framework of the crime of money laundering by enlightening the existing liaison between this criminal offence and the paradigm of crime-prevention; European and supranational law; and the activities of prosecution and intelligence.
The second chapter delves into the question “from where?”, that is, the question of the role and the meaning of the predicate offence in money laundering’s prevention as well as repression. Therefore, the topic of the predicate crime is examined both from the angle of the anti-money laundering obligations for private actors and from the strictly penal angle. The question of the contribution of the predicate offence to money laundering’s offensiveness is specifically investigated with regard to both supranational and national law (including the most recent reforms that took place in Italy and Germany).
The third chapter is dedicated to the question of “what” is money laundering. This topic is first of all addressed from a pre-normative point of view. To this end, the chapter begins with a survey of relevant criminological theories that have been developed in order to explain, on an empirical basis, the phenomenon of money laundering and its effects on economy and society. The chapter then moves on to the criminal law provisions by examining the shape and current interpretation of the national crimes of money laundering and interrogating their suitability in the light of the criminological suggestions.
With a view to drawing some conclusions on the Italian crime of money laundering, the fourth and last chapter explores the question of “who” launders, meaning the possibility for the author of the predicate offence to be punished as self-launderer. In this context, self-laundering is examined as a form of both rationalization and extremization of the crime of money laundering. Lastly, the doctoral thesis summarizes its findings and proposes a restrictive interpretation of art. 648-bis c.p.
Im Rahmen dieser Arbeit wurde die schnelle Energietransfer- (EET) und Elektronentransfer (ET)-Dynamik unterschiedlichster Quantenpunkte (QD) spektroskopisch untersucht. Die untersuchten Systeme bestanden in den meisten Fällen aus Donor-Akzeptor-Paaren, bei denen die Halbleiternanokristalle als Donor fungierten. Der Fokus lag dabei auf der gezielten Anpassung des Donors, um die optimale Funktionalität zu erreichen. Die Untersuchung der Nanokristalle erstreckte sich daher von einfachen Kernen über verschiedene Kern-Schale-Partikel bis hin zu völlig anderen Strukturen wie Nanoplatelets (NPL). Als Akzeptor wurden eine Vielzahl von Molekülen verwendet, die sich als Elektronen- und/oder Energieakzeptoren für die verschiedenen QDs eignen.
In the recent past, we are making huge progress in the field of Artificial Intelligence. Since the rise of neural networks, astonishing new frontiers are continuously being discovered. The development is so fast that overall no major technical limits are in sight. Hence, digitization has expanded from the base of academia and industry to such an extent that it is prevalent in the politics, mass media and even popular arts. The DFG-funded project Specialized Information Service for Biodiversity Research and the BMBF-funded project Linked Open Tafsir can be placed exactly in that overall development. Both projects aim to build an intelligent, up-to-date, modern research infrastructure on biodiversity and theological studies for scholars researching in these respective fields of historical science. Starting from digitized German and Arabic historical literature containing so far unavailable valuable knowledge on biodiversity and theological studies, at its core, our dissertation targets to incorporate state-of-the-art Machine Learning methods for analyzing natural language texts of low-resource languages and enabling foundational Natural Language Processing tasks on them, such as Sentence Boundary Detection, Named Entity Recognition, and Topic Modeling. This ultimately leads to paving the way for new scientific discoveries in the historical disciplines of natural science and humanities. By enriching the landscape of historical low-resource languages with valuable annotation data, our work becomes part of the greater movement of digitizing the society, thus allowing people to focus on things which really matter in science and industry.
Die Digitalisierung weiter Teile der Lebenswelt ist vor allem mit der Verbreitung und extensiven Nutzung des Smartphones verknüpft. Eine Mehrzahl der älteren Menschen in Deutschland nutzt Smartphones selbstverständlich im Alltag. Die vorliegende Studie adressiert erstens wie stark sich das Smartphone bereits in den Alltag älterer Menschen als vergleichsweise neue Technologie eingeschrieben hat. Im Mittelpunkt steht dabei, welche Funktionen genutzt werden, wie oft und wann zum Smartphone gegriffen wird und welche Gemeinsamkeiten und Unterschiede in der Nutzung identifizierbar sind. Darüber hinaus wird zweitens der Zusammenhang zwischen alltäglicher Smartphonenutzung, Medienkompetenz und technikbezogenen Einstellungen in den Blick genommen. Drittens geht die Studie der Frage nach inwiefern die Smartphonenutzung mit zentralen Variablen der Lebensqualität im Alter, der sozialer Eingebundenheit sowie dem subjektiven Wohlbefinden assoziiert ist. Die vorliegende Arbeit ist eine quantitativ empirische Studie, die einem mikrolängsschnittlichem Design folgt. Zur Beantwortung der Forschungsfragen wurden objektive Nutzungsdaten, Daten aus einem ambulanten Assessment sowie Daten eines querschnittlichen Fragebogens kombiniert. Die Ergebnisse zeigen, dass die Befragten älteren Menschen im Hinblick auf Nutzungsdauer, -intensität als auch inhaltlicher Vielfalt hohe inter- als auch intraindividuelle Unterschiede aufwiesen. Gemeinsamkeiten der Nutzung waren die Kommunikation oder Alltagsorganisation. Das Smartphone wurde aber auch zum Spielen oder für gesundheitsbezogene Handlungen genutzt. Gleichzeitig ging eine zeitlich intensive auch mit einer inhaltlich breit gefächerten Nutzung einher. Die Unterschiede in der Nutzung konnten primär durch technikbezogene Einstellungen und deklarative Wissensbestände zu Computer und Smartphone erklärt werden. Intensivnutzer wiesen positivere Einstellungen gegenüber Technik auf und verfügten über höhere Wissensbestände. Trotz intensiver Nutzung des Smartphones zur Kommunikation zeigte sich kein klarer Zusammenhang mit sozialer Eingebundenheit und subjektivem Wohlbefinden. Vielmehr konnte in diesem Kontext die wahrgenommene Qualität der erlebten sozialen Beziehungen als zentraler Prädiktor identifiziert werden. Zusammengenommen zeigte sich eine tiefe Integration des Smartphones in den Alltag älterer Smartphonenutzer.
This thesis deals with several aspects of non-perturbative calculations in low-dimensional quantum field theories. It is split into two main parts:
The first part focuses on method development and testing. Using exactly integrable QFTs in zero spacetime dimensions as toy models, the need for non-perturbative methods in QFT is demonstrated. In particular, we focus on the functional renormalization group (FRG) as a non-perturbative exact method and present a novel fluid-dynamic reformulation of certain FRG flow equations. This framework and the application of numerical schemes from the field of computational fluid dynamics (CFD) to the FRG is tested and benchmarked against exact results for correlation functions. We also draw several conclusions for the qualitative understanding and interpretation of renormalization group (RG) flows from this fluid-dynamic reformulation and discuss the generalization of our findings to realistic higher-dimensional QFTs.
The topics discussed in the second part are also manifold. In general, the second part of this thesis deals with the Gross-Neveu (GN) model, which is a prototype of a relativistic QFT. Even though being a model in two spacetime dimensions, it shares many features of realistic models and theories for high-energy particle physics, but also emerges as a limiting case from systems in solid state physics. Especially, it is interesting to study the model at non-vanishing temperatures and densities, thus, its thermodynamic properties and phase structure.
First, we use this model to test and apply our findings of the first part of this thesis in a realistic environment. We analyze how the fluid-dynamic aspects of the FRG realize themselves in the RG flow of a full-fledged QFT and how we profit from this numeric framework in actual calculations. Thereby, however, we also aim at answering a long-standing question: Is there still symmetry breaking and condensation at non-zero temperatures in the GN model, if one relaxes the commonly used approximation of an infinite number of fermion species and works with a finite number of fermions? In short: Is matter (in the GN model) in a single spatial dimension at non-zero temperature always gas-like?
In general, we also use the GN model to learn about the correct description of QFTs at non-zero temperatures and densities. This is of utmost relevance for model calculations in low-energy quan- tum chromodynamics (QCD) or other QFTs in medium and we draw several conclusions for the requirements for stable calculations at non-zero chemical potential.
Die vorliegende Arbeit stellt eine auf datenwissenschaftlichen Methoden beruhende Analyse des aktuellen Wissens über mögliche kausale Zusammenhänge zwischen therapeutischen Morphinapplikationen mit Todesfällen dar, welche auf computergestützter Extraktion von Information aus frei verfügbaren Wissensdatenbanken und der Analyse der darin enthaltenen numerischen Information besteht. Die Relevanz der vorliegenden Analyse ergibt sich aus dem weltweit breiten Einsatz von Morphin zur Behandlung starker Schmerzen und der immer wieder vorkommenden Todesfälle während einer Morphintherapie, die regelmäßig zu Gerichtsverfahren mit den verschreibenden Ärzten als Angeklagte führen.
Morphin ist ein Opioid und zählt zu den starken Analgetika der WHO Stufe III. Bei der Applikation von Morphin kann es neben der gewünschten Analgesie auch zur Abflachung der Ventilation bis hin zum fatalen Atemstillstand kommen. In der Literatur wird die Inzidenz von Morphin-assoziierten Todesfällen mit 0,3 bis 4% angegeben. So kommt es in einigen Fällen auch zu strafrechtlichen Ermittlungen und Gerichtsverfahren mit dem Verdacht der vorsätzlichen Tötung oder sogar des Mordes. Die Frage, ob eine Morphinapplikation Ursache für den Tod eines Patienten war, ist nicht einfach zu beantworten, was mit einigen Besonderheiten von Opioid-Analgetika im Allgemeinen und von Morphin im Besonderen zusammenhängt. Für Morphin existieren z.B. keine genau definierten maximalen Dosen. Es wurden bisher lediglich Empfehlungen ausgesprochen, abhängig auch davon, ob ein Patient noch „opioid-naiv“ ist oder bereits Opioide einnimmt und damit ein Gewöhnungseffekt eingetreten ist, welcher neben der Analgesie die Gefahr des Atemstillstandes verringert. Grundsätzlich gilt immer, die Dosis so gering wie möglich und so hoch wie nötig zu halten. Die Dosis wird an die Schmerzintensität adaptiert, wobei nach keine maximal erlaubte Dosis existiert. Besonders bei terminal kranken Patienten ist die Kausalität zwischen therapeutischer Morphinapplikation und dem Tode oft fraglich, und es werden regelmäßig Gutachten eingeholt, die meistens von Rechtsmedizinern, Anästhesisten und klinischen Pharmakologen erstellt werden.
In diesen Gutachten müssen viele Faktoren, die die Wirkungen von Morphin bis hin zum letalen Ausgang beeinflussen können, diskutiert wurden, und die daher Hauptinhalt der vorliegenden Arbeit sind. Dazu gehören die verabreichten Morphindosen und die Konzentrationen von Morphin und seiner Metabolite im Blut, aber auch Charakteristika des Patienten, wie Alter, Vorerkrankungen wie z.B. Leber- oder Niereninsuffizienz, Komedikationen, oder pharmakogenetische Faktoren. Darüber hinaus spielt für die zeitliche Zuordnung einer Morphingabe mit dem Tode die verzögerte Verteilung Morphins an seinen Wirkort (das zentrale Nervensystem) eine wichtige Rolle.
Eine weitere Schwierigkeit, die sich bei Morphin-assoziierten Toden darstellt, ist die oft zur Debatte stehende verabreichte Morphindosis, die nachträglich aus den gemessenen Konzentrationen im Blut des Verstorbenen rekonstruiert werden soll, was oft nicht sicher möglich ist. Die postmortal gemessenen Konzentrationen von Morphin unterliegen relevanten Veränderungen aufgrund postmortaler Flüssigkeitsumverteilung oder des Zerfalls von Morphin, aber auch als Folge von Veränderungen während der Lagerung der Proben.
In unserer Analyse und Auswertung der vorhandenen Literatur zu diesen Themen kamen wir zu dem Ergebnis, dass es gegenwärtig praktisch sehr schwer ist, eine Morphindosis oder -konzentration sicher mit dem Tod eines Patienten in Verbindung zu bringen. Somit bleibt jeder Todesfall individuell und kontext-abhängig und erfordert die Berücksichtigung weiterer Aspekte bei der der strafrechtlichen Aufarbeitung. Zudem kamen wir zu dem Entschluss, dass angesichts dieser bereits seit langen bekannten Problemen mit Morphin und aber auch anderen Opioiden (siehe “opioid crisis” in den USA), die Entwicklung von sichereren stark wirksamen Analgetika als Ersatz für Opioide dringlich ist.
Die vorliegende Dissertation hat die Evaluation der Instruktionssensitivität von Testitems unter Berücksichtigung individueller Lernvoraussetzungen von Schülerinnen und Schülern zum Thema. Die Instruktionssensitivität von Items bzw. Testaufgaben erfasst, ob diese in der Lage sind, Effekte von Unterricht auf die Leistungen der Schülerinnen und Schüler abzubilden. Der Begriff der individuellen Lernvoraussetzungen wird im Rahmen dieser Arbeit sehr breit gefasst und subsumiert unter anderem kognitive, metakognitive, motivationale und volitionale Merkmale (Brühwiler, 2014; Brühwiler et al., 2017). Ausgehend von den Lernvoraussetzungen, welche im Zusammenhang von Angebots-Nutzungs-Modellen (u.a. Brühwiler, 2014; Fend, 1981) konzeptionell aufgegriffen werden, wird in den daran anschließenden quantitativen Analysen ein besonderer Fokus auf die Qualität der Lernmotivation (Ryan & Deci, 2000) gelegt. Das empirische Ziel der Arbeit besteht in der exemplarischen Überprüfung, inwiefern Indikatoren der Instruktionssensitivität von Testitems durch die Qualität der Lernmotivation der Schülerinnen und Schüler beeinflusst werden.
Vor dem Hintergrund dieses Erkenntnisinteresses werden Parameterschätzungen aus längsschnittlichen Mehrebenen-Item-Response-Modellen mit unterschiedlichen Modellspezifikationen gegenübergestellt. Analysiert werden Daten von 832 Fünftklässlerinnen und Fünftklässlern aus dem Schweizer Kanton St. Gallen, die wiederholt an Schulleistungstests im Fach Mathematik teilgenommen haben. Unterscheiden sich die Parameterschätzungen zwischen den Spezifikationen, spricht dies dafür, dass die Qualität der Lernmotivation einen Einfluss auf die Schätzung der Instruktionssensitivität der Mathematikitems nimmt. Als Indikatoren der Instruktionssensitivität werden die differenzielle (Naumann et al., 2016) und die spezifische Sensitivität herangezogen. Angenommen wird, dass die Einbeziehung der Qualität der Lernmotivation als Kovariate die Schätzung dieser beiden Indikatoren beeinflusst.
Das Ergebnis der Analysen ist eindeutig: Keine der aufgestellten Hypothesen kann angenommen werden. Die Resultate sprechen dafür, dass die Parameterschätzungen zur Evaluation der Instruktionssensitivität von der Qualität der Lernmotivation nicht wesentlich beeinflusst werden. Diese Befundlage überrascht, da zahlreiche Studien darauf hindeuten, dass motivationale Merkmale von Schülerinnen und Schülern einen Einfluss auf deren schulische Leistungen nehmen (u.a. Kriegbaum et al., 2015; Taylor et al., 2014) und für die Schätzung der Indikatoren der Instruktionssensitivität auf Daten von Schulleistungstests zurückgegriffen wurde. Die Ergebnisse werden aus inhaltlicher und methodischer Perspektive diskutiert.
Neuroendokrine Tumoren (NET) sind eine seltene Krankheit mit einem breitgefächerten heterogenen Erscheinungsbild, wodurch sich die Diagnose der Tumoren aus einer Vielzahl aus Gründen häufig um Jahre verzögert (1). In dieser Arbeit analysierten wir einen großen Datensatz in einem tertiären Referenzzentrum (UKF) von 1984-2019, um die Symptomatik vor der Diagnose des Tumors sowie den Zeitraum von der Tumormanifestation bis zur Diagnose weiter zu klären. Für die deskriptiven Analysen kamen SPSS, Cox-Regression und Log-Rank-Test zur Anwendung.
Insgesamt schloss die retrospektive Studie 488 gastroenteropankreastische (GEP)-NET mit 486 Patienten ≥ 18 Jahren ein, wovon knapp mehr als die Hälfte männlich (52,9%) waren. Das mittlere Alter bei Erstdiagnose (ED) betrug 58 Jahre (477/486, 9 unbekannt). Die häufigsten Primärtumorlokalisationen stellten Pankreas (143/488 Patienten) und Dünndarm (145/488 Patienten) dar. Die Mehrheit der NET waren langsam wachsende G1-Tumoren mit einem Ki67 < 3% (155/330). Die Hälfte der Patienten entwickelten im Verlauf Fernmetastasen, wobei die meisten bereits bei der ED vorlagen und insbesondere die Leber als Metastasierungsorgan dominierte. Bei mehr als 60% der Patienten konnten Angaben zur klinischen Symptomatik vor der ED detektiert werden, wovon wiederum mehr als die Hälfte symptomatisch waren. 42% der symptomatischen Patienten zeigten NET-spezifische Symptome (Bauchschmerzen 77/128; 60,2%, Durchfall 51/128; 39,8%, Flush 19/128; 14,8%, Karzinoidsyndrom 8/128; 6,3% Tachykardie 6/128; 4,7%). In der primären bildgebenden Diagnostik dominierten konventionelle Bildgebungen wie Sonographie und Computertomographie (CT), wobei nuklearmedizinische Diagnostik eine Seltenheit darstellte. Mehr als 30% der Tumoren wurden als Zufallsbefunde im Rahmen einer bildgebenden Diagnostik oder Operation diagnostiziert. Die Mehrheit der Patienten stellte sich initial außerhalb unserer Klinik vor, nur etwa 15% wurden innerhalb unserer Klinik insbesondere in der Gastroenterologie vorstellig, wo der NET diagnostiziert wurde.
Die Phase von der Tumormanifestation bis zur ED aller NET betrug im Median 17 Tage. Das Vorhandensein von Fernmetastasen sowie Symptomen führte zu keiner signifikanten Kürzung der Phase und einer schnelleren ED des NET (Median 65,5 vs. 90 Tage, p = 0,4).
Compaction and spheroid formation modulates stemness and differentiation of human pancreas organoids
(2023)
The incidence of diabetes type 1 (T1D) in children and young adults is increasing worldwide. T1D is well treated by insulin administration. However, there is currently no long-lasting cure for this ailment. The success rate of pancreatic islet transplantation to treat T1D is limited by the availability of patient-matched islets and the necessity of using life-long immunosuppressive medication. The difficulties caused by transplantation can be overcome by generating bio-engineered pancreatic islets from patient-derived progenitor cells. Aim of this thesis is to establish new strategies for the generation and analysis of pancreatic lineages derived from human progenitor cells. It reports on the optimization of a technique to form human pancreatic spheroids from hollow monolayered human pancreas organoids (hPOs) to investigate how cell-cell and cell-matrix interaction can be leveraged to induce endocrine differentiation of the pancreas progenitor cell organoids. We introduce cell aggregation protocols to generate endocrine pancreas cell lineages from ductal pancreatic cells. Next, we study the effect of co-culture with stromal and endothelial cells to promote cell differentiation toward a pancreatic fate enhancing β cells productivity.
This thesis has focused on identifying the differences in gene expression along with phenotypical transformation during differentiation of human pancreatic organoids (hPOs) towards human β cells to be used in the future of cellular therapeutics in treating T1D patients.
Large international airports were identified as sources of ultrafine particles (UFPs) (Hu et al., 2009; Yu et al., 2012; Hsu et al., 2013; Keuken et al., 2015; Hudda and Fruin, 2016). Since September 2017 UFP emissions originating from the Frankfurt International Airport, Germany are monitored by the Hessian Agency for Nature Conservation, Environment and Geology (HLNUG) showing elevated UFP concentrations during airport operating hours (05:00–23:00 CET) (Ditas et al., 2022). Referring to that, the organic chemical composition of aviation-related UFPs emerging from the Frankfurt Airport was analysed by performing a comprehensive non-target screening of UFP filter samples.
Aluminium-filter samples were collected at an air quality monitoring station 4 km north of the Frankfurt Airport, using a 13-stage impactor system (Nano-MOUDI). The chemical
characterization of UFPs in the size range of 10-18 nm, 18-32 nm and 32-56 nm was accomplished by ultra-high-performance liquid chromatography, heated electrospray ionisation and mass analysis using an Orbitrap high-resolution mass spectrometer. Non-target screening revealed that the majority of detected compounds belong to homologous series of two different types of organic esters, which are base stocks of aircraft lubrication oils.
In reference to five different jet engine lubrication oils of various manufacturers, the corresponding lubricant base stocks and their additives, two amines and one organophosphate, were identified in the UFPs by the use of matching retention time, exact mass and MS/MS fragmentation pattern of single organic molecules. The quantitative analysis of the jet engine oil constituents in the aviation-related UFPs with diameters < 56 nm was accomplished by standard addition. By characterizing the Nano-MOUDI, loss factors for each size stage were determined and used for correction accordingly. Particle-number size distribution measurements, conducted parallel to the filter sampling, enabled the determination of the jet engine oil contribution to the UFP mass.
Furthermore, the nucleation and particle formation potential of a commonly used synthetic jet engine lubrication oil was investigated in the laboratory. Thermodenuder experiments at 20 °C and 300 °C were carried out to monitor the gas-to-particle partitioning behaviour of jet engine oils. At 300 °C a significantly higher number of particles with a mean diameter of ~10 nm are formed, leading to a more than fivefold increase in total particle numbers compared to 20 °C. Particle diameters of the newly formed oil particles in the laboratory experiment appeared in the same size region as UFPs emerging from Frankfurt Airport. Particles originating from the Frankfurt city centre direction showed larger diameters.
Results indicate that aircraft emissions strongly influence the total mass of 10-18 nm particles. The jet oil fraction decreases for bigger particles (e.g., 18-56 nm), implying that these oils form new particles in the cooling exhaust gases of aircraft engines. In addition, non-target screening and in vitro bioassays on aviation-related PM2.5 filter samples were combined to provide indications for potential toxicologically relevant compounds in dependence of different wind directions and airport operations. Most recently, the applied non-target screening method was also used to identify seasonal variations in the organic aerosol composition in Beijing.
Die vorliegende Dissertation mit dem Titel “Structural dynamics of eukaryotic H/ACA RNPs from Saccharomyces cerevisiae & Structural dynamics of the Guanidine-II riboswitch from Escherichia coli” besteht aus zwei Projekten. Das erste Projekt befasst sich mit den eukaryotischen H/ACA Ribonukleoproteinen (RNP) aus der Hefe. Diese können sequenzspezifisch in der RNA ein Uridin Nukleotid in das Rotationsisomer Pseudouridin (Ψ) umwandeln. Die H/ACA RNPs bestehen aus einer Leit-RNA und vier Proteinen, der katalytisch aktiven Pseudouridylase Cbf5, Nhp2, Gar1 und Nop10. Die Leit-RNA besteht in Eukaryoten konserviert aus zwei Haarnadelstrukturen, die von einem H-Box oder ACA-Box Sequenzmotiv gefolgt sind. In jeder dieser Haarnadeln befindet sich ein ungepaarter Bereich, die sogenannte Pseudouridylierungstasche, wo durch komplementäre Basenpaarung die Ziel-RNA gebunden wird. Fehlerhafte H/ACA RNPs können beim Menschen zu schweren Krankheiten wie verschiedenen Krebsarten oder dem Knochenmarksversagen Dyskeratosis congenita führen, aber sie bieten auch Möglichkeiten zum Einsatz als Therapiemethode. In dieser Arbeit wurde hauptsächlich der zweiteilige Aufbau der H/ACA RNPs untersucht.
Dafür wurden zunächst die einzelnen Komponenten hergestellt werden. Cbf5, Nop10 und Gar1 wurden zusammen heterolog in E. coli exprimiert und gereinigt. Außerdem wurden mehrere Deletionsvarianten von Gar1 hergestellt. Zusätzlich wurde die Leit-RNA unmarkiert über T7 Transkription synthetisiert, sowie sechs verschiedene FRET-Konstrukte mit verschiedenen Markierungschemas der Fluorophore Cy3 und Cy5 über DNA-geschiente Ligation. Anschließend wurde über Größenausschlusschromatographie und radioaktiven Aktivitätsassays geprüft, dass sich die aktiven H/ACA RNPs in vitro aus den einzelnen Komponenten rekonstituieren lassen.
In smFRET Experimenten wurden einzelne Haarnadelstrukturen mit dem zweiteiligen Komplexen verglichen. Dabei konnte gezeigt werden, dass die H3 Haarnadel durch die Anwesenheit von H5 dynamischer und heterogener wurde, während H5 überwiegend unbeeinflusst war. Außerdem konnte die dreidimensionale Orientierung der Haarnadelstrukturen in verschiedenen Assemblierungsschritten mittels smFRET untersucht werden. Hier deutete sich an, dass in Abwesenheit von Proteinen beide Haarnadeln eher entgegengesetzt stehen als in einer parallelen Konformation. Cbf5 scheint den Linker zwischen den Beiden auszustrecken bzw. zu orientieren und die Haarnadelstrukturen etwas gegeneinander zu neigen. Ein Zusammenspiel von Nhp2 und Gar1 war nötig um die oberen Bereiche der Haarnadeln zusammenzuziehen. Es konnte auch ein Modell für den vollen H/ACA RNP vorgeschlagen werden. Im kompletten Komplex könnte das Zusammenziehen der Haarnadelstrukturen durch Nhp2 und Gar1 mit dem Effekt von Cbf5 konkurrieren und könnte hauptsächlich den oberen Bereich von H3 betreffen. Zum Schluss wurde das Zusammenspiel von Gar1 und Nhp2 auf eine Abhängigkeit von den RGG Domänen von Gar1 hin untersucht. Hier besteht möglicherweise eine Hierarchie, die eine Kooperativität von den N- und C-terminalen Domänen benötigt.
Das zweite Projekt befasst sich mit dem Guanidin-II Riboschalter aus E. coli. Der Riboschalter kann das toxische Molekül Guanidinium (Gdm+) spezifisch in seiner Aptamerdomäne binden und dadurch die Genexpression von Proteinen zur Detoxifizierung von Gdm+ aktivieren. Der Riboschalter besteht aus zwei Haarnadelstrukturen, mit einer Schleife, die aus der Sequenz ACGR besteht, wobei R ein Purin ist. In einem vorgeschlagenen Modell soll die Ribosomenbindestelle (Shine-Dalgarno Sequenz) in Abwesenheit von Ligand mit dem Linker komplementär Basenpaaren und so die Translation verhindern. Mit Ligand würde sich dann eine Schleifen-Schleifen Interaktion mit den beiden CG Basen ausbilden, wodurch die Anti-Shine-Dalgarno Sequenz nicht mehr zugänglich wäre. Bisherige Studien arbeiteten zumeist nur mit der Aptamerdomäne, den einzelnen Haarnadeln oder noch kleineren Elementen. In dieser Arbeit wurden die Strukturdynamiken von verschiedenen Längen, auch mit der Expressionsplatform, untersucht. Außerdem wurden verschiedene Mutationen analysiert und die Effekte auf den Riboschalter in seiner natürlichen Umgebung in E. coli.
Zunächst mussten insgesamt 24 FRET-Konstrukte hergestellt werden, die sich in Länge, Markierungsschema und Mutationen unterschieden. Hierfür wurde DNA-geschiente Ligation verwendet. Dank der verschiedenen Fluorophorpositionen konnte ein konformationelles Modell für die Aptamerdomäne vorgeschlagen werden. In diesem Modell könnte in Abwesenheit von Ionen das Aptamer offen vorliegen. Durch Mg2+ würde sich bereits eine lockere Schleifen-Schleifen Interaktion ausbilden. Zusätzlich deuten die Ergebnisse auf eine neue Konformation hin, der stabilisierten Schleifen-Schleifen Interaktion, bei der der Linker zusätzlich mit den Haarnadelstrukturen interagiert, beispielswese mit den Purinen an der vierten Schleifenposition...
Magnetische Quadrupole und Solenoide sind ein elementarer Bestandteil einer Beschleunigeranlage und begrenzen die transversale Ausdehnung eines Teilchenstrahls durch eine Reflexion der Teilchen in Richtung der Beschleunigerachse. Die konventionelle Bauweise als Elektromagnet besteht aus einem Eisenjoch welches mit Spulen umwickelt ist. In dieser Arbeit werden diese Magnetstrukturen auf Basis von Permanentmagneten designt und hinsichtlich ihrer Qualität zum Strahltransport optimiert, sowie Feldmessungen an permanentmagnetischen Quadrupolen durchgeführt. Diese wurden mit 3D-gedruckten Halterungen aus Kunststoff gefertigt, was eine Vielzahl von Formvariationen ermöglicht. Darauf aufbauend wurde ein im Vakuum befindlicher Aufbau entwickelt, mit welchem die Strahlenvelope im inneren eines permanentmagnetischen Quadrupol Tripletts diagnostiziert werden kann. Dies greift auf ein am Institut für angewandte Physik entwickeltes System zur nicht-invasiven Strahldiagnose mithilfe von Raspberry Pi Einplatinencomputern und Kameras in starken Magnetfeldern zurück.
Die in dieser Arbeit vorgestellte Konfiguration eines PMQ’s ist eine Weiterentwicklung des am CERN im Linac4, einem Alvarez-Driftröhrenbeschleuniger zur Beschleunigung von H– , verwendeten Designs. Bei diesem sind je acht quaderförmige Permanentmagnete aus Samarium Cobalt (SmCo) in die Driftröhren des Beschleunigers integriert.
Darauf aufbauend wurden die geometrischen Designparameter hinsichtlich ihres Einflusses auf die Qualität des Magnetfelds untersucht. In einem magnetischen Quadrupol zur Strahlfokussierung wird dies durch einen linearen Anstieg des Magnetfeldes von Quadrupolachse zu Polflächen charakterisiert. Das Design wurde im Zuge dessen zur Verwendung von industriellen Standardgeometrien von Quadermagneten und der Erhöhung der magnetischen Flussdichte erweitert. Dazu wurde untersucht wie sich das Hinzufügen von zusätzlichen Magneten auswirkt und ob eine bessere Feldqualität durch andere Magnetformen erreicht wird.
Die Kombination mehrerer PMQ in geringem Abstand (<10 mm) führt abhängig von der Geometrie der PMQ-Singlets zu einer erheblichen Verschlechterung der Feldlinearität, was eine Erhöhung des besetzten Phasenraumvolumens der Teilchen nach sich zieht.
Am Beispiel von PMQ-Tripletts werden die zu beachtenden Designparameter analysiert und Lösungsansätze vorgestellt. Die auftretenden Effekte werden anhand von Strahldynamiksimulation veranschaulicht. Für eine Anwendung der vorgestellten Designs wurde eine Magnethülle mit einer Wabenstruktur zur Aufnahme der Einzelmagnete entwickelt. Diese besteht aus zwei Halbschalen, welche jeweils den Kompletteinschluss aller Magnete garantiert und eine einfache Montage um ein Strahlrohr ermöglicht. Diese wurden in der Institutswerkstatt aus Kunststoff via 3D-Druck gefertigt. Aufgrund der höheren erreichbaren Magnetisierung wurden Neodym-Eisen-Bor-Magnete (Nd2F14B, Br =1,36 T) für den Bau der entwickelten Strukturen verwendet. Für eine Magnetfeldmessung zur Bestätigung der magnetostatischen Simulationen und einer Bewertung der Druckqualität wurde eine motorisierte xyz-Stage zur Bewegung einer Hallsonde aufgebaut. Die Messungen zeigen eine gute Zentrierung des Magnetfeldes, sodass PMQ mit einer Kunststoffhalterung eine schnelle und billige Möglichkeit sind, kurzfristig eine Quadrupol-Konfiguration aufzubauen. Die Kosten belaufen sich für einen einzelnen PMQ je nach Länge auf 50€ bis 100€.
Basierend auf der PMQ-Struktur wurde ein PMQ-Triplett in ein Vakuum versetzt und mit Raspberry Pi Kameras im Zwischenraum der Singlets ausgestattet. Dies ermöglichte die Aufnahme der Strahlenvelope innerhalb des Tripletts anhand der durch einen Heliumstrahl induzierten Fluoreszenz und erste Erkenntnisse für notwendige Weiterentwicklungen wurden gesammelt. Auf den genauen technischen Aufbau wird im abschließenden Kapitel der Arbeit detailliert eingegangen.
In der einfachsten Form wird ein PM-Solenoid anhand eines einzelnen axial magnetisierten Hohlzylinders realisiert und erzeugt näherungsweise die Feldverteilung einer Zylinderspule. Durch die radialen Magnetfeldkomponenten an den Rändern des Solenoiden erhalten Teilchen eine tangentiale Geschwindigkeitskomponente und führen eine Gyrationsbewegung entlang der Solenoidachse aus. Diese reduziert den Strahlradius und die Teilchen behalten eine Geschwindigkeitskomponente, welche zur Solenoidachse zeigt. Für eine Maximierung dieser Fokussierung muss das Magnetfeld auf die Zylinderachse konzentriert werden. Insbesondere bei einer Verlängerung des Hohlzylinders wird die Kopplung der Polflächen über das Innenvolumen abgeschwächt. Aufgrund dessen wurde ein Design bestehend aus drei Hohlzylindersegmenten entwickelt. Dieses setzt sich aus zwei radial und einem axial magnetisierten Hohlzylinder zusammen und erhöht die mittlere magnetische Flussdichte für ausgewählte Geometrien um einen Faktor zwei im Vergleich zu einem einzelnen Hohlzylinder gleicher Geometrie. Dies ist gleichzusetzen mit einer Vervierfachung der Fokussierstärke, welche quadratisch mit der mittleren magnetischen Flussdichte skaliert. Die Strahldynamischen Konsequenzen werden anhand von Simulationen mit generierten Magnetfeldverteilungen erläutert. Für eine kostengünstige Bauweise wurde eine Design basierend auf quaderförmigen Magneten entwickelt.
Die Paulinenpflege Winnenden e.V. wurde 1823 gegründet als Rettungshaus für verwahrloste Kinder. Bald wurde daraus eine Doppelanstalt einerseits für Kinder, die aus sozialen Gründen nicht zuhause leben konnten, andererseits für hör- und sprachbehinderte Kinder. Zum 200-jährigen Jubiläum im Jahr 2023 erscheint dieses wissenschaftliche Werk. Dieses Werk erscheint zusätzlich in weitgehend identischer Weise als Buch.
Xylose, an abundant sugar fraction of lignocellulosic biomass, is a five-carbon skeleton molecule. Since decades, utilization of this sugar has gained much attention and has been in particular focus as a substrate for production of biofuels like ethanol by microbial hosts, including Saccharomyces cerevisiae. In this yeast, xylose is naturally not used as a carbon source, but its utilization could be achieved by metabolic engineering either via the oxidoreductive route or through the isomerase pathway. Both pathways share xylulose as a common intermediate that must be phosphorylated before entering the endogenous metabolism via the non-oxidative pentose phosphate pathway (noxPPP). Besides this, in some bacteria a non-phosphorylating oxidative pathway for xylose degradation exists, known as Weimberg pathway, where a molecule of xylose is converted by a series of enzymes - xylose dehydrogenase (XylB), xylonate dehydratase (XylD), 3-keto-2-deoxy-xylonate dehydratase (XylX) and α-ketoglutarate semialdehyde dehydrogenase (KsaD) - to form α-ketoglutarate (AKG). Besides having several useful properties as a product, AKG could also be used for cell growth as an intermediate of the tricarboxylic acid (TCA) cycle. One target of the present study is to establish a functional Weimberg pathway in S. cerevisiae. Previous studies have shown that this task is not trivial, for instance due to the toxicity of xylonate (the first metabolite of the pathway) and the involvement of an iron-sulfur cluster dependent enzyme, the D-xylonate dehydratase. The assembly of iron-sulfur clusters on a heterologous protein in yeast is known to be challenging.
To establish the Weimberg pathway in yeast, the genes xylB, xylD, and xylX were obtained from Caulobacter cresentus and ksaD was from Corynebacterium glutamicum. In a variant, the dehydratase xylD was replaced with orf41 from Arthrobacter nicotinovorans, which is believed to be independent of iron-sulfur clusters. Growth of yeast cells on xylose as a sole carbon source was expected as an indicator of a functional Weimberg pathway. However, the heterologous expression of the codon optimized genes was not sufficient to reach this goal. Due to the complexity of the interactions of the heterologous pathway with the endogenous cellular processes, it was assumed that potential limitations could be overcome by adaptive laboratory evolution, using xylose as a sole source of carbon. Increasing selection pressure was applied on a strain with Weimberg pathway genes integrated into the genome over several generations. As a variant of the evolutionary engineering approach, mutator strains were generated. For this, RAD27 and MSH2 genes were deleted, which are involved in nucleotide excision and mismatch repair mechanisms, respectively. Some of the resulting strains PRY24, PRY25, PRY27 and PRY28 were able grow in xylose as a sole carbon source after evolutionary engineering. As a control, a non-mutator strain PRY19 was also included. Strikingly, only the mutator strains were able to consume xylose as a sole carbon source, which shows the feasibility of the approach.
In addition to the mutator strain strategy, a further approach employed in the present study was the simultaneous expression of the Weimberg pathway in the cytosol and mitochondria. This was based on the reasoning that the iron-sulfur cluster biogenesis on XylD may be improved in the organelle and that the AKG is an intermediate of the TCA cycle. In the strain AHY02, all enzymes of the pathway were tagged with mitochondrial targeting signals in addition to a full cytosolically localized pathway. The localization of the mitochondrial variants was confirmed by fluorescence microscopy. Together with AHY02, CEN.PK2-1C wild type strain was also included as a control for evolution. When a selection pressure on xylose was applied, both strains - AHY02 and CEN.PK2-1C - were able to grow in the course of evolution. Deletion of the xylulokinase (XKS1) gene was found to be detrimental for both evolved strains in xylose-containing media. This suggests that the evolution of the endogenous oxidoreductive and noxPPP genes is responsible for growth of the evolved cells. For the evolved strain AHY02, it could also be possible that the Weimberg pathway genes supported to growth in addition to the oxidoreductive route. To elucidate the underlying molecular mechanisms, genome sequencing and reverse engineering approaches would be necessary in future.
In addition to screening for growth on xylose as a sole carbon source, a less stringent screening system was created to examine even a minor flux of xylose towards AKG. For this, all genes necessary for conversion of isocitrate to AKG where deleted, yielding a glutamate auxotrophic strain. In this system, the cells can grow on other carbon sources, whereas xylose is only provided as a source of AKG for the synthesis of glutamate...
Epithelial cells enable essential physiological functions, including absorption, morphogenesis, secretion, and transport. To execute these functions, epithelial cells often form three-dimensional shapes that include curved sheets of cells surrounding a pressurized fluid-filled lumen. These three-dimensional tissues (called domes) are essential for organ function, but when they are not working properly, developmental defects, inflammation, and cancer can ensue. Recently, it has been shown that the cells that form domes show active superelasticity on micropatterned plates.
We show here that the immortalized renal proximal tubule epithelial cell line, LLC-PK1, stereotypically forms tubules in 10 days. Tubule formation takes place in 4 stages. When cells are plated on a culture dish, they form a monolayer on the 1st day; on the 3rd day, three-dimensional structures are formed, called domes; and after the 4.5th day, these domes start fusing to begin the transition stage and transit to the tubule stage. At the end of the 10th day, differentiated, elongated, and matured tubes form (Figure 3.1). Therefore, tubule formation is a self-organized, stereotypic morphogenetic program under long-term, unperturbed tissue culture conditions.
We propose that tubulogenesis is a two-step process in proximal tubules by doming and wrapping. The process begins with dome formation, and as the cell layers come together in the transition stage at the edge of the dome, this leads to the formation of the lumen of the eventual tubule. We also found that F-actin provides the mechanical strength during the formation of these three-dimensional structures during tubule formation. To better understand this 4-step process on a molecular level, we performed proteomics of tubule formation to identify the different proteins that play a significant role in proximal tubule development. Importantly, we identified proximal tubule markers like synaptopondin, angiotensin 1-10, collectrin, polycystin 1, and polycystin 2. These proteins play an important role in renal tube formation and differentiation.
Cell division is carried out by highly conserved cyclin-CDK complexes, which phosphorylate various cellular components. Cyclin-CDKs act differently depending on the cell cycle phase and work cooperatively to create DNA replication and cytokinesis. Therefore, we identified that cyclin-B1, marker of proliferation Ki-67, the RAD51 recombinase, and proliferating cell nuclear antigen (PNCA) are upregulated in the monolayer stage, and the expression decreases as tubule formation takes place. The proximal tubule reabsorbs 60-65% of the glomerulus filtrate. Therefore, it requires a lot of energy generated by using the fatty acid oxidation (FAO) pathway. In our model, we found FAO expression is higher than that of the other metabolic pathways.
We found expression of an intricate protein network in mitochondria, which we interpret as a sign of mitochondrial homeostasis being vital for the FAO pathway to work. Furthermore, we also identified different types of transporters at each stage of proximal tubule formation, and we could recognize different cytoskeletal components playing a significant role in each stage of proximal tubule formation, for instance, at the monolayer stage, vimentin expression is high, and its expression is reduced as tubules form. Hence, this 2D system, at this step of characterization, seems suitable to use to study differential transport protein expression and how this might relate to physiological functions and syndromes.
Next, we inhibited different transporters using specific inhibitors and analyzed the effect on dome and tubule formation. We identified that Na+/K+ ATPase and vacuolar H+ ATPase play a significant role in the process of epithelial dynamics. Digoxin (a Na+/K+ ATPase inhibitor) treatment inhibits dome and tubule formation. Bafilomycin (a v-ATPase inhibitor) treatment demonstrated a delay in dome and tube formation. Therefore, this study shows that this 2D proximal tubule novel system can be used for screening of pharmacological leads in the context of specific aspects of kidney physiology.
Despite the recent success in growing kidney organoids, they are not well suited to investigate various pathophysiological conditions in vitro for several reasons: They grow in 3D and form a tissue that later needs to be dissected/cleared and stained to investigate pathophysiological changes. Moreover, organoids require complex and expensive protocols for generation and are challenging to use in screening approaches. Therefore, we set out to demonstrate feasibility for our 2D system using normal renal epithelial cells, which are the origin of various pathological conditions, to study pathophysiological conditions.
Bei den meisten erwachsenen Säugetieren führt ein Herzinfarkt zu Fibrose und Verlust von funktionellem Herzgewebe. Einige Wirbeltiere, wie der Zebrabärbling, besitzen jedoch die bemerkenswerte Fähigkeit, nach einer Schädigung ihres Herzgewebes verlorenes Gewebe zu regenerieren und so schädliche Folgen zu verhindern. Die lokale Immunantwort auf eine Verletzung wird zunehmend als eine wichtige Determinante für das regenerative Potential eines Gewebes gesehen. Das Komplementsystem ist Teil des humoralen Immunsystems. Historisch ist es als eine Sammlung von Protein bekannt, den Komplementkomponenten, die in der Leber synthetisiert werden und im Blutkreislauf zirkulieren. Bei Exposition gegenüber einem Auslöser, wie z. B. einem Pathogen, wird eine Komplementkomponentproteinspaltungskaskade initiiert, die dazu führen kann, dass Immunzellen rekrutiert werden, und, dass die Phagozytose erleichtert, ggf. die Zielzelle lysiert wird. Studien legen nahe, dass das Komplementsystem an zellulären Prozessen beteiligt sei, die für Entwicklungs- und Krankheitsprozesse entscheidend sind, wie etwa Proliferation und Dedifferenzierung. Es gibt Hinweise, dass das Komplementsystem eine Rolle bei Krebserkrankungen und bei regenerativen Prozessen spielen könnte. In verschiedenen Arten wurde eine lokale verletzungsinduzierte Expression von komplementkomponentkodierenden Genen in regenerierendem Gewebe beobachtet.
Einzelne Studien legen nahe, dass Funktionsverlust einzelner Komplementkomponenten regenerative Prozesse beeinträchtigt.
Offene Fragen bleiben jedoch: Ist die lokale Expression von mehreren komplementkomponentkodierenden Genen ein Merkmal von regenerierendem Gewebe, das sie von Geweben unterscheidet, welchem die Fähigkeit zur Regeneration fehlt? Und welche Rolle könnte das Komplementsystem und seine Komponenten während des regenerativen Prozesses spielen? Um diesen Fragen nachzugehen, wurde eine Expressionsanalyse von Zebrabärblingsgewebe nach Verletzung mittels RT-qPCR und in situ Hybridisierung durchgeführt: kardiale Kryoverletzung, Larvenrumpfamputation und Schwanzflossenamputation. Ich beobachtete, dass mehrere komplementkomponentkodierende Gene in diesen Geweben nach Verletzung induziert wurden. Die Interpretation veröffentlichter single cell RNAseq Datensätze legt nahe, dass diese komplementkomponentenkodierenden Gene von verschiedenen Zelltypen exprimiert werden, darunter Immunzellen, Epikardzellen und Fibroblasten. Um transkriptionelle Unterschiede zwischen regenerierendem und nicht regenerierendem Gewebe zu identifizieren, verwendete ich ein nicht regeneratives Zebrabärblingmodell, die il11ra- Mutante. Dieser Mutante fehlt die Fähigkeit, verschiedene Organe zu regenerieren, das ist der Fall beim Herzen, dem larvalen Rumpf, und der Schwanzflosse. Ich stellte fest, dass die Mehrheit der verletzungsinduzierten komplementkomponentkodierenden Gene il11ra nachgeschaltet war. Darüber hinaus zeigten Experimente unter Verwendung chemischer Inhibitoren, dass speziell die Expression der komplementkomponentkodierenden Gene c3a.1,
c4b und c7a im Larvenrumpfamputationsmodell durch den Il11-Stat3-Signalweg moduliert wird.
Zur Klärung der Frage, ob das Komplementsystem und/ oder seine Komponenten eine Rolle während der Regeneration spielen, wurden verschiede Funktionsverlustmodelle generiert und im larvalen Rumpfamputationsmodell auf mögliche Aberrationen getestet. Zum einen generierte ich Überexpressionslinien von endogenen Inhibitoren der Komplementproteinspaltungskaskade. Überexpression eines etablierten Komplementsysteminhibitors rca2.1/ tecrem führte zu einer im Vergleich zu Wildtyp- Geschwistern verringerten Regeneration des larvalen Rumpfs. Zum anderen generierte ich Funktionsverlustmutanten von individuellen Komplementkomponenten durch CRISPR/Cas9 vermittelter Mutagenese, und zwar für masp1, masp2, cfd, c1s, c4b, c5 und c9. Die larvale Rumpfregeneration war in diesen Mutanten unauffällig. Allerdings zeigten c4b Mutanten eine verringerte Kardiomyozytenproliferation und eine differenzielle Expression von einigen Markergenen, einschließlich einer erhöhten Expression von inflammatorischen Zytokinen.
Meine Studien führten zu neuen Einblicken in das Komplementsystem im Kontext der Regeneration. Ich fand heraus, dass mehrere komplementkomponentenkodierenden Gene in regenerierendem Zebrabärblinggewebe exprimiert werden, und zwar im Herzgewebe, im larvalen Rumpf und in der adulten Flosse. Darüber hinaus zeige ich, dass die verletzungsinduzierte Expression von komplementkodierenden Genen in regenerierendem Gewebe dem Regenerationsmasterregulator il11ra nachgeschaltet ist. Speziell c3a.1, c4b und c7a wurden durch il11/ stat3 reguliert...
Lungensonographie bei Patienten mit HIV und AIDS
Ziele und Methoden: Vor dem Hintergrund mehrerer retrospektiven Studien und Fallserien zur Anwendung des Lungenultraschalls zur Diagnose HIV-assoziierter Lungenerkrankungen führten wir eine prospektive Studie in der Abteilung für Infektiologie am Klinikum der Goethe-Universität Frankfurt durch. Wir schlossen hierbei Patientinnen und Patienten ein, bei denen durch konventionelle Diagnostik eine Lungenerkrankung nachzuweisen oder auszuschließen war, und führten zeitnah zur konventionellen Diagnostik verblindete Ultraschalluntersuchungen durch. Diese wurden zudem verblindet von zwei weiteren Ultraschalluntersuchern reevaluiert, basierend darauf wurde die Interrater-Reliabilität zwischen den drei Befunden errechnet. Die konventionell-radiologischen Untersuchungen wurden verblindet von einem weiteren Radiologen befundet.
Ergebnisse: Wir untersuchten 80 HIV-positive Patienten, von denen 54 nachweislich eine pulmonale Erkrankung hatten. Die häufigsten Diagnosen waren Pneumocystis jirovecii-Pneumonien (21 Fälle), bakterielle Pneumonien (17 Fälle) und andere Diagnosen (16 Fälle). Die Lungenultraschalluntersuchungen zeigten bei 90.7% der Patienten mit pulmonaler Diagnose und bei 34.5% der lungengesunden Patienten Auffälligkeiten. Die CT-Untersuchungen fanden Pathologien in 97.5% der Erkrankten und 27.3% der Gesunden. Röntgenuntersuchungen zeigten bei 78.1% der Erkrankten und bei 25% der Gesunden pathologische Befunde. Die häufigsten Pathologien in allen Modalitäten waren interstitielle Veränderungen. Diese zeigten in der Lungenultraschalluntersuchung keinen signifikanten Unterschied zwischen den verschiedenen Lungenerkrankungen, waren jedoch signifikant häufiger als bei Patienten ohne Lungenerkrankung. Konsolidierungen und Pleuraergüsse waren im Lungenultraschall zwar häufiger bei Erkrankten, aber nicht signifikant gegenüber den Gesunden. Die Interrater-Reliabilität des Lungenultraschalls war hoch für interstitielle Pathologien (ICC=0.82) ohne nennenswerte Änderungen im Studienverlauf (r=-0.11), und niedriger bei Konsolidierungen und Ergüssen (jeweils κ=0.12) mit positivem Zusammenhang zur Studiendauer (r=0.88 für Konsolidierungen, r=0.37 für Ergüsse).
Diskussion: Lungenerkrankungen sind bei HIV-Patienten im Ultraschall am häufigsten durch interstitielle Pathologien nachzuweisen, diese allein erlauben allerdings keine Unterscheidung zwischen verschiedenen Erkrankungen. Die Sensitivität der Ultraschalluntersuchung ist geringer als die der Computertomographie, jedoch höher als die Sensitivität des Röntgens. Interstitielle Pathologien werden bereits nach kurzer Lernphase reliabel identifiziert. Konsolidierungen und Ergüsse waren seltenere Befunde, und scheinen eine längere Lernphase zu benötigen, da die Interrater-Reliabilität im Verlauf der Studie ansteigt. In allen Modalitäten zeigten auch gesunde Patienten bildgebend Auffälligkeiten, was den positiv prädiktiven Wert bei niedrigerer Prävalenz negativ beeinflussen kann.
Lungensonographie bei Patienten mit COVID-19
Ziele und Methoden: Im Rahmen der seit Ende 2019 andauernden COVID-19 Pandemie boten sich die erlernten Sonographiekenntnisse für die bettseitige Diagnostik dieser neuen Lungenerkrankung an. Aufgrund der Pathogenität des neuartigen Erregers wandten wir die Lungensonographie zur Diagnostik unter Isolationsbedingungen an, um Transporte für konventionelle Bildgebung zu reduzieren. Bettseitig durchgeführte Lungensonographien bei SARS-CoV-2-positiven Patientinnen und Patienten wurden mit durchgeführter konventioneller Bildgebung im Rahmen dieser retrospektiven Fallserie verglichen.
Ergebnisse: Die Ultraschalluntersuchungen von 17 Patientinnen und Patienten wurden ausgewertet, hiervon zeigten 14 Untersuchungen Pathologien. In neun Fällen wurden interstitielle Pathologien beobachtet, fünf dieser Fälle zeigten zusätzlich Konsolidierungen.
Drei Patienten hatten außer Konsolidierungen keine weiteren Pathologien. Pleuraergüsse wurden in drei Fällen beobachtet, Pleuraplaques bei einem Patienten. In 5 von 7 Fällen mit auffälligem Thorax-CT zeigte die Lungensonographie Pathologien. Die Lungensonographie zeigte in jedem Fall Pathologien, in dem auch das Röntgen auffällig war.
Diskussion: Diese Fallserie zeigt die Anwendung der Sonographie als bettseitige Lungendiagnostik unter Isolationsbedingungen. Interstitielle Pathologien und Konsolidierungen scheinen die relevantesten Hinweise auf eine pulmonale Beteiligung im Rahmen der COVID-19-Erkrankung zu sein. Wegen der geringen Fallzahl und des retrospektiven Designs ist die Aussagekraft dieser Substudie gering, jedoch zeigt sie die Umsetzbarkeit der Sonographie als bildgebendes Verfahren, wenn aufgrund notwendiger Isolationsmaßnahmen und hoher Fallzahlen konventionelle Bildgebung erschwert ist.
The capacity of pathogenic bacteria to adhere to host cells and to avoid subsequent clearance by the host´s immune response is the initial and most decisive step leading to infections. Human pathogenic bacteria circulating in the bloodstream need to find ways to interact with endothelial cells (ECs) lining the blood vessels to infect and colonise the host. The extracellular matrix (ECM) of ECs might represent an attractive initial target for bacterial interaction, as many bacterial adhesins have reported affinities to ECM proteins, particularly fibronectin (Fn). Trimeric autotransporter adhesins (TAA) have been described as important pathogenicity factors of Gram-negative bacteria. The TAA from human pathogenic Bartonella henselae, Bartonella adhesin A (BadA), is one of the longest and best characterised adhesin and represents a prototypic TAA due to its domain architecture. B. henselae, the causative agent of cat scratch disease, endocarditis, and bacillary angiomatosis, adheres to ECs and ECM proteins via BadA interaction.
In this research, it was determined that the interaction between BadA and Fn is essential for B. henselae host cell adhesion. BadA interactions were identified within the heparin-binding domains of Fn, and the exact binding sites were revealed by mass spectrometry analysis of chemically crosslinked whole-cell bacteria and Fn. It turned out that specific BadA interactions with defined Fn regions represent the molecular basis for bacterial adhesion to ECs. These data were confirmed by using BadA-deficient bacteria and CRISPR-Cas FN1 knockout ECs. It was also identified that BadA binds to Fn from both cellular and plasma origin, suggesting that B. henselae binding to Fn might possibly take part in other infection processes apart from bacterial adherence, e.g. evasion from the host cell immune system.
Interactions between TAAs and Fn represent a key step for adherence of B. henselae to ECs. Still, Fn-mediated binding is of more significant importance for pathogenic bacteria than broadly recognised. Fn removal from the ECM environment of ECs, also reduced adherence of Staphylococcus aureus, Borrelia burgdorferi, and Acinetobacter baumannii to host cells Interactions between adhesins and Fn might therefore represent a crucial step for the adhesion of human-pathogenic Gram-negative and Gram-positive bacteria targeting the ECs as a niche of infection or as means for persistence.
This research demonstrated that combining large-scale analysis approaches to describe protein-protein interactions with supportive functional readouts (binding assays) allows for the discrimination of crucial interactions involved in bacterial adhesion to the host. The herein-described experimental approaches and tools might guide future research for other pathogenic bacteria and represent an initial point for the future generation of anti-virulence strategies to inhibit bacterial binding to host cells.
Die Krebsstammzellforschung gelangte in den letzten Jahren vermehrt in den Fokus der Tumorforschung. Im Tumor bilden Krebsstammzellen eine kleine Population an Zellen mit Stammzelleigenschaften, wodurch sie eine große Rolle bei der Entstehung von Rezidiven, Metastasen, sowie der Entwicklung von Chemotherapieresistenzen spielen. Um eine gezielte Bekämpfung von Krebsstammzellen zu ermöglichen, müssen diese im
Tumor zunächst zuverlässig durch Krebsstammzellmarker detektiert werden können.
Gerade bei soliden pädiatrischen Tumoren, wie dem Hepatoblastom, ergeben sich hierbei Schwierigkeiten dadurch, dass im sehr heterogenen Tumorgewebe viele Zellen aufgrund der embryonalen Natur des Tumors bereits Stammzellmarker exprimieren, ohne dass es sich bei diesen Zellen um Krebsstammzellen handelt. Das Hepatoblastom ist mit 2/3 der Lebertumore des Kindes die häufigste maligne Leberneoplasie im Kindesalter.
Auch wenn es bereits Hinweise auf das Vorliegen von Krebsstammzellen im Hepatoblastom gibt, so konnten diese bisher nicht genauer durch fest definierte Krebsstammzellmarker identifiziert werden.
Um dies zu erreichen, wurden in dieser Arbeit die beiden Hepatoblastomzelllinien HuH6 und HepG2 auf die Expression der bereits bekannten Krebsstammzellmarker CD90, CD34 und CXCR4 überprüft. Zusätzlich wurde auf eine Bindung des „oval cell“ Antikörpers, OV-6, untersucht. Mittels Durchflusszytometrie-Analysen konnte eine Zellpopulation gefunden werden, welche die Oberflächenmarker CD34 und CD90 koexprimiert und gleichzeitig den OV-6 Antikörper bindet. Im nächsten Schritt wurden die Zellen auf einige Krebsstammzelleigenschaften überprüft. Zur weiteren Untersuchung dieser Subpopulation erfolgte mittels MACS (magnetic activated cell sorting) eine Anreicherung der CD90 exprimierenden Zellen. Diese wurde mittels qPCR auf die Expression der Pluripotenzmarker Oct4 und Nanog, sowie der Zytidindeaminase AID untersucht. Es konnte eine signifikant erhöhte Expression von AID und Oct4 detektiert werden. Im Gegensatz hierzu zeigte sich die Expression von EpCAM, c-myc und Albumin, welche als Kontrollgene untersucht wurden, nicht signifikant erhöht. Um auf das Metastasierungspotential der CD90 angereicherten Zellen rückzuschließen, wurde ein Migrationsassay mit angereicherten und depletierten Zellen durchgeführt. Hier wiesen die CD90 angereicherten Zellen, im Vergleich zu den depletierten Zellen eine erhöhte Migration auf. Im Tumorsphäroid-Assay war die HepG2 Zelllinie in der Lage Tumor-61 -sphäroide auszubilden. Nach der Passagierung zeigten diese eine erhöhte Expression der Krebsstammzellmarker CD90 und CD34, sowie der Pluripotenzmarker Oct4 und Nanog.
Zusammengefasst kann mit den Krebsstammzellmarkern CD90, CD34 und OV-6 eine Subpopulation im Hepatoblastom identifiziert werden, die nach unseren Analysen Krebsstammzelleigenschaften aufweisen. Mithilfe dieses Markersets können nun neue Therapieansätze auf ihre Effektivität, Krebsstammzellen gezielt zu eliminieren, getestet werden.
The EMT-transcription factor ZEB1 has been intensively studied in solid cancers, where it is expressed at the invasive front and in cancer-associated fibroblasts (CAFs). In tumour cells, ZEB1 has been involved in multiple steps of cancer progression including stemness, metastasis and therapy resistance, yet its role in the tumour-microenvironment is largely unknown. Here, the role of Zeb1 in CAFs was investigated using mouse models reflecting different tumour stages in immunocompetent fibroblast specific Zeb1 KO mice. Fibroblast-specific depletion of Zeb1 accelerated tumour growth in the inflammation driven AOM/DSS tumour initiation model, reduced tumour growth and invasion in the sporadic AOM/P53 model and reduced liver metastasis in a progressed orthotopic transplantation model. Immunohistochemical and single cell RNA-sequencing analysis showed that Zeb1 ablation resulted in attenuated expression of the myofibroblast marker aSMA and reduced ECM deposition, indicating a shift among fibroblast subpopulations. Modulation of CAFs was furthermore associated with increased inflammatory signaling in fibroblasts resulting in immune infiltration into primary tumours and exaggerated inflammatory signaling in T cells, B cells and macrophages. These changes in the tumour microenvironment were associated with increased efficacy of immune checkpoint inhibition therapy. In summary, Zeb1 expression in CAFs was identified as a potential target to block immunosuppression and metastatic dissemination in colon cancer.
This thesis presents the experimental and numerical analysis of seismic waves that are produced by wind farms. With the aim to develop renewable energies rapidly, the number of wind turbines has been increased in recent years. Ground motions induced by their operation can be observed by seismometers several kilometers away. Hence, the seismic noise level can be significantly increased at the seismic station. Therefore, this study combines long-term experiments and numerical simulations to improve the understanding of the seismic wavefields emitted by complete wind farms and to advance the prediction of signal amplitudes.
Firstly, wind-turbine induced signals that are measured at a small wind farm close to Würzburg (Germany) are correlated with the operational data of the turbines. The frequency-dependent decay of signal amplitudes with distance from the wind farm is modeled using an analytical method including the complex effects of interferences of the wavefields produced by the multiple wind turbines. Specific interference patterns significantly affect the wave propagation and therefore the signal amplitude in the far field of a wind farm. Since measurements inside the wind turbines show that the assumption of in-phase vibrating wind turbines is inappropriate, an approach to calculate representative seismic radiation patterns from multiple wind turbines, which allows the prediction of amplitudes in the far field of a complete wind farm, is proposed.
In a second study, signals with a frequency of 1.15 Hz, produced by the Weilrod wind farm (north of Frankfurt, Germany) are observed at the seismological observatory TNS (Taunus), which is located at a distance of 11 km from the wind farm. The propagation of the wavefield emitted by the wind farm is numerically modeled in 3D, using the spectral element method. It is shown that topographic effects can cause local signal amplitude reductions, but also signal amplification along the travel path of the seismic wave. The comparison of simulations with and without topography reveals that the reduction and amplification are spatially linked to the shape of the topography, which could be an explanation for the relatively high signal amplitude observed at TNS.
Finally, the reduction of the impact of wind turbines on seismic measurements using borehole installations is studied using 2D numerical models. Possible effects of the seismic velocity, attenuation, and layering of the subsurface are demonstrated. Results show that a borehole can be very effective in reducing the observed high-frequency signals emitted by wind turbines. However, a borehole might not be beneficial if signals with frequencies of about 1 Hz (or lower) are of interest, due significant wavelength-dependent effects. The estimations of depth-dependent amplitudes with a layered subsurface are validated with existing data from wind-turbine-induced signals measured at the top and bottom of two boreholes.
The experimental analysis of measurements conducted at wind farms and the advances of modeling such signals improve the understanding of the propagation of wind-farm induced seismic wave fields. Furthermore, the methods developed in this work have a high potential of universal application to the prediction of signal amplitudes at seismometers close to wind farms with arbitrary layout and geographic location.
Das Glioblastom ist eine tödliche maligne Erkrankung des zentralen Nervensystems. Etablierte Therapiekonzepte resultieren in einer Fünfjahresüberlebensrate von fünf Prozent. Die derart infauste Prognose wird unter anderem bedingt durch die Heterogenität des Tumors. Insbesondere einer Population stammzellartiger Zellen wird die Verantwortung für Resistenz und Rekurrenz des Glioblastoms zugesprochen. Die genuine Plastizität des Glioblastoms mit entsprechender Fähigkeit zur Änderungen tumorweiter Expressionsprofile und Ausbildung einzigartiger funktioneller Fähigkeiten kann ohne gezielte Beeinträchtigung von stammzellartigen Zellen womöglich nicht ausreichend überwunden werden. Als Urheber kritischer Eigenschaften erscheint die erfolgreiche Elimination dieser Population innerhalb des Glioblastoms notwendig um nachhaltige Therapieerfolge zu erzielen. Mögliche Strategien der Elimination stammzellartiger Zellen setzen an Differenzierung und Ausbeutung stammzelltypischer Signalwege zur Modulation dieser Zellen an. Hierdurch sollen zentrale Fähigkeiten der Population stammzellartiger Zellen, wie Selbsterneuerung, Resistenz gegenüber Strahlen- und Chemotherapie und erneute Formation heterogener Tumore, überwunden werden.
Zentrale zelluläre Prozesse, welche zum Erhalt des stammzellartigen Zustandes dieser Zellen beitragen, sind unter anderem der Hedgehog- und Notch-Signalweg. Einer Beeinträchtigung dieser Signalwege wohnt womöglich die Fähigkeit der effektiven Modulation zentraler Eigenschaften stammzellartiger Zellen inne. Neben diesen Signalwegen gibt es eine Reihe weiterer Prozesse, welchen eine Urheberschaft an der Resistenz der Zellen zugesprochen wird. Hierzu zählt beispielweise der Prozess der Autophagie. Die Autophagie ist ein hochkonservierter zellulärer Mechanismus zur Selbsterneuerung durch Selbstdegradation fehlerhafter zellulärer Komponenten. Gleichzeitig kann die Autophagie durch eine Überaktivität zu einem spezifischen, autophagischen Zelltod beitragen. Die Modulation dieses Dualismus kann in einer Vielzahl von Tumoren, so auch im Glioblastom, das Schicksal einer tumorfördernden Autophagie in eine antitumorale Autophagie ändern.
Im Rahmen dieser Arbeit wurde erstmalig eine Modulation zentraler Eigenschaften stammzellartiger Zellen durch die Beeinflussung ihrer zellulären Prozesse mittels kombinierter Therapie durch Arsentrioxid oder GANT und (-)-Gossypol gezeigt. Arsentrioxid wirkt unspezifisch unter anderem als Inhibitor von Notch- und Hedgehog-Signalweg. Diese Inhibition wurde auch in den untersuchten Zellen nachgewiesen und führte zu einer Reduktion von stammzelltypischen Markerproteinen und Fähigkeiten der Tumorgenese in -vitro und ex -vivo, sowie zur Sensitivierung gegenüber strahleninduzierten Schäden. Gegenüber einer spezifischen Hedgehog-Inhibition durch eine GANT-vermittelte Bindung an Gli-Transkriptionsfaktoren zeigten sich deutliche Vorteile der dualen Inhibition durch Arsentrioxid hinsichtlich der genannten Eigenschaften. Die Kombination der Substanzen mit dem pan-Bcl-Inhibitor (-)-Gossypol führte zu einer synergistischen Steigerung der antitumoralen Effekte. (-)-Gossypol wird in Gliomzellen insbesondere mit der Modulation der autophagischen Maschinerie und Auslösung eines autophagischen Zelltodes in Verbindung gebracht. Die Ergebnisse weisen parallele Signalweginteraktionen mit effektiver Modulation des DNA-Damage-Response-Systems durch die Reduktion des Proteins CHEK als kausalen Mechanismus des Synergismus der Substanzen aus.
Die beobachteten Änderungen der typischen Eigenschaften stammzellartiger Zellen durch die Therapie mit Arsentrioxid und (-)-Gossypol implizieren lohnende Folgeuntersuchungen zur weiteren Evaluation dieser Effekte in -vivo, um zukünftig translationale Ableitungen zu erlauben. Die Heterogenität des Glioblastoms und seine genuine Plastizität lassen sich womöglich erfolgreich durch multiple Eingriffe in unterschiedliche zelluläre Prozesse, hierunter Notch- und Hedgehog-Signaling, modulieren. Hierdurch könnten zentrale Eigenschaften des Glioblastoms eventuell effektiv verändert und Resistenz sowie Rekurrenz überwunden werden.
Brain development is a complex and highly organized process that relies on the coordinated interaction between neurons and vessels. These cell systems form a neurovascular link that involves the exchange of oxygen, ions, and other physiological components necessary for proper neuronal and vascular function. This physiologically coupled process is executed through analogous structural and molecular signaling mechanisms shared by both cell types. At the neurovascular interface, the cellular crosstalk via these shared signaling mechanisms allows for the synchronized expansion and integration of neurons and vessels into complex cellular networks. This study investigated the role of VEGFR2, a receptor for vascular endothelial growth factor (VEGF), during postnatal neuronal development in the mouse hippocampus. Prior studies have revealed physiological roles of VEGF, a pro-angiogenic morphogen, in nervous system development. However, it was unclear if VEGF signaling had a direct effect on neuronal physiology and function through neuronal-expressing receptors. In this investigative work, we identified a previously unknown function of VEGFR2, whereby VEGF-induced signaling coordinates the development and circuitry integration of CA3 pyramidal neurons in the early postnatal mouse hippocampus. Mechanistically, we found that VEGFR2 signaling requires receptor endocytosis, a process mediated by ephrinB2. We also found that VEGF-induced cooperative signaling between VEGFR2 and ephrinB2 is functionally required for the dendritic arborization and spine maturation of developing CA3 neurons during the first few postnatal weeks. Moreover, in a collaborative effort with the research group of Carmen Ruiz de Almodovar, formerly at the University of Heidelberg, we simultaneously studied VEGF-induced VEGFR2 signaling in CA3 axonal development. Together, we aimed to gain a comprehensive understanding of the complex interplay between VEGF and VEGFR2 signaling during the early postnatal development of CA3 neurons. Ruiz de Almodovar’s research group found that, unlike the branch and spine development of CA3 dendrites, VEGF-VEGFR2 signaling promotes axonal development through mechanisms that are independent of ephrinB2 function. Our findings on CA3 dendritic development are reported in the published manuscript, Harde et al. (2019), and the complementary work on CA3 axonal development from Ruiz de Almodovar's group is presented in the co-published manuscript, Luck et al. (2019). Although the totality of Ruiz de Almodovar's group's work on CA3 axons is not fully discussed here, it is referenced where noted to provide biological context for our findings on CA3 dendritic development.
VEGFR2 signaling within neurovascular niches is known to play a role in the neurogenesis of neural progenitor cells during embryonic development and within the adult brain. However, the precise localization of neuronal VEGFR2 expression and functional role within the nervous system during postnatal brain development was unknown. To investigate this, we used immunohistochemistry to identify the spatial expression of VEGFR2 within the mouse hippocampus during the first few weeks after birth. Our results showed that VEGFR2 was predominantly expressed within the hippocampal vasculature, consistent with prior studies. However, we also observed localized VEGFR2 expression in pyramidal cell neurons of the hippocampal CA3 region by postnatal day 10 (P10). This spatially restricted postnatal expression of VEGFR2 in CA3 neurons suggested a potential role in the development of these neurons during this developmental stage.
The first two weeks after birth in the mouse hippocampus is a critical period for the development of neuronal circuits, as neurons undergo extensive dendritic arborization and spine formation. To explore the role of VEGFR2 in the postnatal nervous system, we used a Nes-cre VEGFR2lox/- mouse line to target the deletion of VEGFR2 expression within the nervous system while preserving normal receptor expression in all other cell types. We also generated corresponding control mice that were negative for Nes-cre. By breeding these mice with Thy1-GFP reporter mice, we could analyze the functional consequences of VEGFR2 by assessing the morphologies of CA3 dendritic trees and spine density and maturation at P10 and P15, respectively. Our analysis showed that CA3 neurons in Nes-cre VEGFR2lox/- mice had less complex dendritic arbors compared to control mice. There were significant reductions in total length and branch points, particularly in areas located 100-250 μm from the cell soma within the stratum radiatum layer. Additionally, Nes-cre VEGFR2lox/- mice exhibited a significant decrease in spine density accompanied by an increased proportion of immature spines. These findings suggest that VEGFR2 plays a crucial role in the proper development of CA3 dendrites and spines during the early postnatal weeks.
Cyber Physical Systems (CPS) are growing more and more complex due to the availability of cheap hardware, sensors, actuators and communication links. A network of cooperating CPSs (CPN) additionally increases the complexity. This poses challenges as well as it offers chances: the increasing complexity makes it harder to design, operate, optimize and maintain such CPNs. However, on the other side an appropriate use of the increasing resources in computational nodes, sensors, actuators can significantly improve the system performance, reliability and flexibility. Therefore, self-X features like self-organization, self-adaptation and self-healing are key principles for such systems.
Additionally, CPNs are often deployed in dynamic, unpredictable environments and safety-critical domains, such as transportation, energy, and healthcare. In such domains, usually applications of different criticality level exist. In an automotive environment for example, the brake has a higher criticality level regarding safety as the infotainment. As a result of mixed-criticality, applications requiring hard real-time guarantees compete with those requiring soft real-time guarantees and best-effort application for the given resources within the overall system. This leads to the need to accommodate multiple levels of criticality while ensuring safety and reliability, which increases the already high complexity even more.
This thesis deals with the question on how to conveniently, effectively and efficiently handle the management and complexity of mixed-critical CPNs (MC-CPNs). Since this cannot be done by the system developer without the assistance of the system itself any longer, it is essential to develop new approaches and techniques to ensure that such systems can operate under a range of conditions while meeting stringent requirements.
Based on five research hypothesis, this thesis introduces a comprehensive adaptive mixed-criticality supporting middleware for Cyber-Physical Networks (Chameleon), which efficiently and autonomously takes care of the management and complexity of CPNs with regard to the mixed-criticality aspect.
Chameleon contributes to the state-of-art by introducing and combining the following concepts:
- A comprehensive self-adaption mechanism on all levels of the system model is provided.
- This mechanism allows a flexible combination of parametric and structural adaptation actions (relocation, scheduling, tuning, ...) to modify the behavior of the system.
- Real-time constraints of mixed-critical applications (hard real-time, soft real-time, best-effort) are considered in all possible adaptation conditions and actions by the use of the importance parameter.
- CPNs are supported by the introduction of different scopes (local, system, global) for the adaptation conditions and actions. This also enables the combination of different scopes for conditions and actions.
- The realization of the adaptation with a MAPE-K loop instantiated by a distributed LCS allows for real-time capable reasoning of adaptation actions which also works on resource-spare systems.
- The developed rule language Rango offers an intuitive way to specify an initial rule set for LCS in the context of CPS/CPNs and supports the system administrators in the process of rule set generation.
Artificial intelligence in heavy-ion collisions : bridging the gap between theory and experiments
(2023)
Artificial Intelligence (AI) methods are employed to study heavy-ion collisions at intermediate collision energies, where high baryon density and moderate temperature QCD matter is produced. The experimental measurements of various conventional observables such as collective flow, particle number fluctuations, etc. are usually compared with expensive model calculations to infer the physics governing the evolution of the matter produced in the collisions. Various experimental effects and processing algorithms can greatly affect the sensitivity of these observables. AI methods are used to bridge this gap between theory and experiments of heavy-ion collisions. The problems with conventional methods of analyzing experimental data are illustrated in a comparative study of the Glauber MC model and the UrQMD transport model. It is found that the centrality determination and the estimated fluctuations of the number of participant nucleons suffer from strong model dependencies for Au-Au collisions at 1.23 AGeV. This can bias the results of the experimental analysis if the number of participant nucleons used is not consistent throughout the analysis and in the final model-to-data comparison. The measurable consequences of this model dependence of the number of participant nucleons are also discussed. In this context, PointNet-based AI models are developed to accurately reconstruct the impact parameter or the number of participant nucleons in a collision event from the hits and/or reconstructed track of particles in 10 AGeV Au-Au collisions at the CBM experiment. In the last part of the thesis, different AI methods to study the equation of state (EoS) at high baryon densities are discussed. First, a Bayesian inference is performed to constrain the density dependence of the EoS from the available experimental measurements of elliptical flow and mean transverse kinetic energy of mid rapidity protons in intermediate energy collisions. The UrQMD model was augmented to include arbitrary potentials (or equivalently the EoSs) in the QMD part to provide a consistent treatment of the EoS throughout the evolution of the system. The experimental data constrain the posterior constructed for the EoS for densities up to four times saturation density. However, beyond three times saturation density, the shape of the posterior depends on the choice of observables used. There is a tension in the measurements at a collision energy of about 4 GeV. This could indicate large uncertainties in the measurements, or alternatively the inability of the underlying model to describe the observables with a given input EoS. Tighter constraints and fully conclusive statements on the EoS require accurate, high statistics data in the whole beam energy range of 2-10 GeV, which will hopefully be provided by the beam energy scan programme of STAR-FXT at RHIC, the upcoming CBM experiment at FAIR, and future experiments at HIAF and NICA. Finally, it is shown that the PointNet-based models can also be used to identify the equation of state in the CBM experiment. Despite the uncertainties due to limited detector acceptance and biases in the reconstruction algorithms, the PointNet-based models are able to learn the features that can accurately identify the underlying physics of the collision. The PointNet-based models are an ideal AI tool to study heavy-ion collisions, not only to identify the geometric event features, such as the impact parameter or the number of participant nucleons, but also to extract abstract physical features, such as the EoS, directly from the detector outputs.
The single-source shortest-path problem is a fundamental problem in computer science. We consider a generalization of the shortest-path problem, the $k$-shortest path problem. Let $G$ be a directed edge-weighted graph with $n$ nodes and $m$ edges and $s,t$ be two fixed nodes. The goal is to compute $k$ paths $P_1,\dots,P_k$ between two fixed nodes $s$ and $t$ in non-decreasing order of their length such that all other paths between $s$ and $t$ are at least as long as the $k$\nth path $P_k$. We focus on the version of the $k$-shortest path problem where the paths are not allowed to visit nodes multiple times, sometime referred to as $k$-shortest simple path problem.
The probably best known $k$-shortest path algorithm is Yen's algorithm. It has a worst-case time complexity of O(kn\cdot scp(n,m)), where scp(n,m) is the complexity of the single-source shortest-path algorithm used as a subroutine. In case of Dijkstra's algorithm scp(n,m) is O(m + n\log n). One of the more recent improvements of Yen's algorithm is by Feng.
Even though Feng's algorithm is much faster in practice, it has the same worst-case complexity as Yen's algorithm.
The main results presented in this thesis are upper bounds on the average-case of Yen's and Feng's algorithm, as well as practical improvements and a parallel implementation of Yen's and Feng's algorithms including these improvements. The implementation is publicly available under GPLv3 open source license.
We show in our analysis that Yen's algorithm has an average-case complexity of O(k \log(n)\cdot scp(n,m)) on G(n,p) graphs with at least logarithmic average-degree and random edge weights following a distribution with certain properties.
On G(n,p) graphs with constant to logarithmic average-degree and uniform random edge-weights over $[0;1]$, we show an average-case complexity of O(k\cdot\frac{\log^2 n}{np}\cdot scp(n,m)). Feng's algorithm has an even better average-case complexity of O(k\cdot scp(n,m)) on unweighted G(n,p) graphs with logarithmic average-degree and for constant values of $k$. We further provide evidence that the same holds true for G(n,p) graphs with uniform random edge-weights over $[0;1]$.
On the practical side, we suggest new heuristics to prune even more single-source shortest-path computations than Feng's algorithm and evaluate all presented algorithms on G(n,p) and Grid graphs with up to 256 million nodes. We demonstrate speedups by a factor of up to 40 compared to Feng's algorithm.
Finally we discuss two ways to parallelize the suggested algorithms and evaluate them on grid graphs showing speedups by a factor of 2 using 4 threads and by a factor of up to 8 using 16 threads, respectively.
A synchrotron is a particular type of cyclic particle accelerator and the first accelerator concept to enable the construction of large-scale facilities [10], such as the largest particle accelerator in the world, the 27-kilometre-circumference Large Hadron Collider (LHC) by CERN near Geneva, Switzerland, the European Synchrotron Radiation Facility (ESRF) in Grenoble, France for the synchrotron radiation, the superconducting, heavy ion synchrotron SIS100 under construction for the FAIR facility at GSI, Darmstadt, Germany and so on. Unlike a cyclotron, which can accelerate particles starting at low kinetic energy, a synchrotron needs a pre-acceleration facility to accelerate particles to an appropriate initial value before synchrotron injection. A pre-acceleration can be realized by a chain of other accelerator structures like a linac, a microtron in case of electrons, for example, Proton and ion injectors Linac 4 and Linac 3 for the LHC, UNLAC as the injector for the SIS18 in GSI and in future the SIS18 as injector for the SIS100. The linac is a commonly used injector for the ion synchrotron and consists of some key components. The three main parts of a linac are: An ion source creating the particles, a buncher system or an RFQ followed by the main drift tube accelerator DTL. In order to meet the energy and the beam current requirement of a synchrotron injector linac, its cost is a remarkable percentage of the total facility costs.
However, the normal conducting linac operation at cryogenic temperatures can be a promising solution in improving the efficiency and reducing the costs of a linac. Synchrotron injectors operate at very low duty factor with beam pulse lengths in 1 micros to 100 micros range, as most of the time is needed to perform the synchrotron cycle. Superconducting linacs are not convenient, as they cannot efficiently operate at low duty factor and high beam currents.
The cryogenic operation of ion linacs is discussed and investigated at IAP in Frankfurt since around 2012 [1, 37]. The motivation was to develop very compact synchrotron injectors at reduced overall linac costs per MV of acceleration voltage. As the needed beam currents for new facilities are increasing as well, the new technology will also allow an efficient realization of higher injector linac energies, which is needed in that case. Operating normal conducting structures at cryogenic temperature exploits the significantly higher conductivity of copper at temperatures of liquid nitrogen and below. On the other hand, the anomalous skin effect reduces the gain in shunt impedance quite a bit[25, 31, 9]. Some intense studies and experiments were performed recently, which are encouraging with respect to increased field levels at linac operation temperatures between 30 K and 70 K [17, 24, 4, 23, 5, 8]. While these studies are motivated by applications in electron acceleration at GHz-frequencies, the aim of this paper is to find applications in the 100 to 700 MHz range, typical for proton and ion acceleration. At these frequencies, a higher impact in saving RF power is expected due to the larger skin depth, which is proportional to the frequency to the power of negative half with respect to the normal skin effect. On the other hand, it is assumed that the improvement in maximum surface field levels will be similar to what was demonstrated already for electron accelerator cavities. This should allow to find a good compromise between reduced RF power needs for achieving a given accelerator voltage and a reduced total linac length to save building costs.
A very important point is the temperature stability of the cavity surface during the RF pulse. This is of increasing importance the lower the operating temperature is chosen: the temperature dependence of the electric conductivity in copper gets rather strong below 80 K, as long as the RRR - value of the copper is adequate. It is very clear, that this technology is suited for low duty cycle operated cavities only - with RF pulse lengths below one millisecond. At longer pulses the cavity surface will be heated within the pulse to temperatures, where the conductivity advantage is reduced substantially. These conditions fit very well to synchrotron injectors or to pulsed beam power applications.
H – Mode structures of the IH – and of the CH – type are well-known to have rather small cavity diameters at a given operating frequency. Moreover, they can achieve effective acceleration voltage gains above 10 MV/m even at low beam energies, and already at room temperature operation[29]. With the new techniques of 3d – printing of stainless steel and copper components one can reduce cavity sizes even further – making the realization of complex cooling channels much easier.
Another topic are copper components in superconducting cavities – like power couplers. It is of great importance to know exactly the thermal losses at these surfaces, which can’t be cooled efficiently in an easy way.
In view of a growing world population and the finite nature of fossil resources, the development of eco-friendly production processes is essential for the transition towards a sustainable industry. Methanol, which can be produced both petrochemically and from renewable resources, offers itself as bridging technology and attractive alternative raw material for biotechnological processes. This work describes developments for the progress of the well-studied methylotrophic α proteobacterium Methylorubrum extorquens AM1 towards an efficient methylotrophic cell factory. Although many homologous and heterologous production routes have already been described and realized for M. extorquens in a laboratory scale, no industrial process has yet been realized. Three major reasons can be identified for this: (1) A limited choice of tools for genetic modifications, (2) a lack of understanding of carbon fluxes and side reactions occurring in modified strains, such as product reimports, and (3) the lack of tailored production strains for profitable target products and optimized bioprocessing protocols. The aim of the present work was to achieve developments for the mentioned areas. As a model application, the high-level production of chiral dicarboxylic acids from the substrate methanol was chosen. Enantiomerically pure chiral compounds are of great interest, e.g., as building blocks for chiral drugs. The ethylmalonyl CoA metabolic pathway (EMCP) which is part of the primary metabolism of M. extorquens, harbors unique chiral CoA-ester intermediates. Their acid derivatives can be released by cleavage of the CoA-moiety using heterologous enzymes. The dicarboxylic acids 2 methylsuccinic acid and mesaconic acid were produced in a previous study by introducing the heterologous thioesterase YciA into M. extorquens. In the said study, a combined product titer of 0.65 g/L was obtained in shake flask experiments. These results serve as the basis for the developments in the present work.
First, the previously described reuptake of products was thoroughly investigated and dctA2, a gene encoding for an acid transporter, was identified as target for reducing the product reuptake. In addition, reuptake of mesaconic acid was prevented by converting it to (S)-citramalic acid, a product not metabolizable by M. extorquens, by the introduction of a heterologous mesaconase. Together with 2-methylsuccinic acid, for which a high enantiomeric excess of (S)-2-methylsuccinic acid was determined, a second chiral molecule was thus added to the product spectrum. For the release of dicarboxylic acid products, YciA, a broad-range thioesterase that accepts a variety of CoA-esters with different chain lengths as substrates, was chosen. The enzyme should theoretically be able to hydrolyze all CoA-esters of interest present in the EMCP. However, in culture supernatants of M. extorquens strains that were overexpressing the corresponding yciA gene, only mesaconic acid and 2 methylsuccinic acid could be detected. To expand the substrate spectrum of YciA thioesterase with respect to other EMCP intermediates, semi-rational enzyme engineering was attempted. Screening of the corresponding strains carrying the respective YciA variants did not result in strains capable of producing new dicarboxylic acid products. However, the experiments revealed an amino acid position that strongly affected the production of mesaconic acid and 2-methylsuccinic acid in vivo. By substituting the according amino acid in YciA, the maximum titers of mesaconic acid and 2-methylsuccinic acid could be increased substantially. Application of an improved thioesterase variant in a second E. coli-based process confirmed the enhanced activity of the enzyme. The desired extension of the product spectrum by another chiral molecule (2-hydroxy-3-methylsuccinic acid, presumably the (2S,3R)-form) was finally achieved by using an alternative thioesterase. Tailored fermentation strategies were developed for the high-level production of the above-mentioned products.
As second part of the work, two novel genetic tools for M. extorquens were developed and characterized. The pBBR1-derived plasmid pMis1_1B was shown to be stably maintained in M. extorquens cells. In addition, its suitability for co-transformations with other plasmids was demonstrated. The second tool, the cumate-inducible promoter Ps6, is tailored for expression of pathways with toxic products, as the transcription of genes controlled by Ps6 is strongly repressed in the absence of an inducer.
Overall, the present work demonstrates the enormous potential of using M. extorquens as a methylotrophic cell factory. In the applications shown, the biotechnological production of high-priced chiral molecules is combined with the use of an attractive alternative substrate. In addition, new achievements and approaches are presented to facilitate the development of future M. extorquens production strains.
In this thesis, we use lattice QCD to study a part of the QCD phase diagram, specifically the QCD phase transition at mu=0, where the QCD matter changes from hadron gas to quark-gluon plasma (QGP) with increasing temperature.
This phase transition takes place as a crossover, but when theoretically changing the masses of the quarks, the order of the phase transition changes as well.
We focus on the region of heavy quark masses with Nf=2 flavours, where we investigate the critical quark mass at the second order phase transition in the form of a Z2 point between the first-order and the crossover region.
The first-order region is positioned at infinitely heavy quarks. As the quark masses decrease, the associated Z3 centre symmetry breaks explicitly, causing the first-order phase transition to weaken until it turns into the Z2 point and finally into a crossover.
We study this Z2 point using simulations at Nf=2 and lattices of the sizes Nt = {6, 8, 10, 12}, partially building on previous work, in which the simulations for Nt = {6, 8, 10} were started.
The simulations for Nt=12 are not finished yet though, but we were able to draw some preliminary conclusions. These simulations are run on GPUs and CPUs, using the codes Cl2QCD and open-QCD-FASTSUM, respectively. Afterwards, the data goes through a first analysis step in the form of the Python program PLASMA, preparing it for the two techniques we use to analyse the nature of the phase transition.
As a first, reliable analysis method, we perform a finite size scaling analysis of the data to find the location of the Z2 point. Since we are using lattice QCD, performing a continuum extrapolation is necessary to reach the continuum result.
In regard to this, the finite size scaling analysis method is hampered by the excessive amount of simulated data that is needed regarding statistics and the total number of simulations, which is why this thesis is only an intermediate step towards the continuum limit.
This also leads to the second analysis technique we explore in this thesis.
We start to design a Landau theory which describes the phase boundary for heavy masses at Nf=2 based on the simulated data.
We develop a Landau functional for every Nt we have simulation data for.
Albeit the results are not at the same precision as the ones from the finite size scaling analysis, we are able to reproduce the position of the Z2 point for every Nt.
Even though we are not able to take a continuum extrapolation right now, after more development takes place in future works, this approach might, in the long run, lead to a continuum result that won't need as many simulations as the finite size scaling analysis.
Die rechtsmedizinische Begutachtung von Knochenfunden : eine hessenweite retrospektive Studie
(2023)
Einleitung: Zufällige Funde von Knochen(fragmenten) können von großem Interesse für z. B. Strafverfolgungs- und Denkmalbehörden oder Bauträger sein. Zur Beurteilung einer etwaigen strafrechtlichen oder historischen Relevanz tragen forensisch-osteologische Untersuchungen in einem hohen Maße bei. Die vorliegende Arbeit soll einen Überblick über die forensisch-osteologische Arbeit der beiden hessischen Institute für Rechtsmedizin geben und durch die Interpretation der Ergebnisse im (inter-)nationalen Vergleich regionale Besonderheiten und die Rolle der Rechtsmedizin bei der Begutachtung aufzeigen. Der daraus entstandene Erkenntnisgewinn soll ein Problembewusstsein schaffen sowie Fallarbeit und Lehre verbessern.
Material und Methoden: Zunächst wurden für den Zeitraum von 2005 bis 2019 die im Institut für Rechtsmedizin Gießen archivierten osteologischen Gutachten deskriptiv statistisch ausgewertet. Es wurden Daten zu Fundort, -umständen, Humanspezifität, postmortalem Intervall, Spuren von Gewalt und die Ergebnisse weiterführender Untersuchungen erhoben.
In einer zweiten Studie wurde die Auswertung auf archivierte forensisch- osteologische Gutachten des Instituts für Rechtsmedizin Frankfurt am Main ausgeweitet und der Auswertungszeitraum auf die Jahre 2011 bis einschließlich 2020 angepasst, um eine hessenweite Datengrundlage zu generieren.
Ergebnisse: In der ersten Studie wurden von den in dem 15-Jahres-Zeitraum begutachteten 172 Knochenfunden aus dem Institut für Rechtsmedizin Gießen 40 % in Wald- und Wiesengebieten aufgefunden. In 58 % enthielten die Funde menschliche Knochen, davon wurde in 32 % eine forensisch relevante Liegezeit von 50 Jahren oder weniger nicht ausgeschlossen, und 6% wiesen Zeichen perimortaler Gewalteinwirkung auf. Bei den Fällen, in denen eine Humanspezifität ausgeschlossen wurde, handelte es sich am häufigsten um Knochen von Hirsch bzw. Reh (32 %), Schwein (29 %) und Rind (14 %). In 20 % aller Fälle wurden
ergänzende DNA-Untersuchungen durchgeführt; in 62 % verlief die Typisierung humaner STR-Systeme erfolgreich und davon gelang in 41 % die Zuordnung zu einem antemortalen Profil einer vermissten Person.
In der zweiten, hessenweiten Studie, wurden 288 Knochenfunde eines 10-Jahres-Zeitraums ausgewertet. Mit 38,2 % wurden die meisten Funde in Wäldern, Wiesen und großen Parks getätigt. In 50,7 % der Fälle enthielten die Funde menschliche Knochen, davon wurde in 37,0 % eine forensisch relevante Liegezeit angenommen. Zeichen einer Gewalteinwirkung wurden in 77,4 % der Fälle mit menschlichen Knochen beschrieben, dabei handelte es sich mit 78,8 % am häufigsten um postmortale Beschädigungen, in 9,7 % um perimortale und in 11,5 % um antemortale Verletzungen. In 40,4 % der als human klassifizierten Knochenfunde wurden DNA-Untersuchungen durchgeführt. Dabei konnte in 81,3 % ein STR-Profil erstellt werden, das in 35,4% zu einer sicheren Identifizierung führte. Bei den zur Untersuchung überstellten nicht-menschlichen Knochen handelte es sich am häufigsten um Knochen vom Schwein (23,4 %), Hirsch (18,1 %), Rind (16,4 %), Reh (11,7 %) und Schaf (11,7 %).
Diskussion: Die Begutachtung von Knochen und Knochenfragmenten ist ein fester Bestandteil der rechtsmedizinischen Fallarbeit und zwingend erforderlich, um Fälle von forensischem Interesse zu identifizieren. Die makroskopische Befundung durch einen geschulten Untersucher erlaubt in der Regel bereits, Aussagen über die forensische Relevanz eines Fundes zu treffen und so die Weichen für das weitere Vorgehen zu stellen. Hilfreich bei der makroskopischen Beurteilung ist eine gute Kenntnis der regionalen Besonderheiten in dem Gebiet, in dem die Knochen gefunden wurden. Die makroskopische forensisch-osteologische Begutachtung stellt trotz der sich ständig weiterentwickelnden technischen Möglichkeiten ein unverzichtbares Werkzeug in der Bearbeitung von Knochenfunden dar. In Deutschland ist es Aufgabe der Rechtsmedizin, diese Expertise zu pflegen und vorzuhalten, mit dem Ziel, zur Aufklärung von Vermisstenfällen beizutragen und unentdeckte nichtnatürliche Todesfälle aufzuklären.
Der Einfluss von Trauma-aktiviertem platelet-rich fibrin auf mesenchymale Stammzellen in vitro
(2023)
Ziel dieser Arbeit war es, die Wechselwirkung zwischen MSC und PRF von Traumapatienten herauszuarbeiten und zu überprüfen, ob ein therapeutischer Einsatz der Kombination von MSC und Trauma-aktiviertem PRF in Frakturen sinnvoll erscheint.
Hierfür wurden MSC mit PRF über einen Zeitraum von 24 oder 120 Stunden co-inkubiert und die metabolische Aktivität, definierte Faktoren im Überstand (IL-6, CXCL10, VEGF und IDO-2) und die Genexpression ausgewählter Faktoren (MAPK8, MAPK14, IL-6, CXCL10,IDO-1, TNFAIP6, VEGFA, RUNX2 und COL1A) in bis zu drei Messzeitpunkten überprüft. Die Versuche erfolgten vergleichend mit Traumapatienten und gesunden Probanden.
Es konnte gezeigt werden, dass Trauma-aktiviertes PRF verglichen mit PRF von gesunden Probanden die metabolische Aktivität von MSC nach 120 Stunden erhöhen kann. Zudem stellten sich erhöhte Werte des inflammatorischen Faktors IL-6 im Überstand bei Traumapatienten nach 24 und 72 Stunden dar, welche bis zum dritten Messzeitpunkt nach 120 Stunden wieder abfielen. Ein ähnlicher Verlauf zeigte sich bei den Messwerten von VEGFA, einem Faktor, welcher eine große Rolle bei der Angiogenese spielt.
Über alle Messzeitpunkte hinweg konnten niedrigere Werte in der Genexpression von COL1A und RUNX2 im Vergleich zu den Kontrollmessungen erfasst werden.
Die Ergebnisse zeigen, dass im Vergleich zu PRF gesunder Probanden Trauma-aktiviertes PRF die Möglichkeit besitzt, die Proliferation von MSC zu stimulieren. Außerdem wurde beobachtet, dass Trauma-aktiviertes PRF ein inflammatorisches und angiogenetisches Potenzial nach 72 Stunden besitzt, welches nach 120 Stunden allerdings wieder abfällt. Möglicherweise kann durch den Einfluss von MSC der Inflammation entgegengewirkt werden. Ein signifikantes osteogenes Potenzial des Trauma-aktivierten PRFs konnte zu keinem Messzeitpunkt nachgewiesen werden.
Inwiefern der Einsatz von MSC in Kombination mit Trauma-aktiviertem PRF die Frakturheilung verbessern kann, konnte in der vorliegenden Studie nicht eindeutig geklärt werden. Es kann allerdings davon ausgegangen werden, dass die Implantation von Trauma-aktiviertem PRF und MSC in den Defekt erst nach Verstreichen einer bestimmten Zeitperiode nach dem Trauma durchgeführt werden sollte. Die Gründe für diese Annahme sind das erhöhte proliferative und verringerte inflammatorische Potenzial im Verlauf. Eine Ursache für das Fehlen der osteogenen Differenzierung der MSC kann der kurze Messzeitraum sein.
Weitere Studien sollten folgen, um das Potenzial der Kombination von MSC und Trauma-aktiviertem PRF als therapeutisches Verfahren zu überprüfen.
Einleitung: Im Jahr 2016 wurde eine neue, individuelle Lehrform, das „Lernzentrum für ein individualisiertes medizinisches Tätigkeitstraining und Entwicklung“ („Limette“), an der Westfälischen Wilhelms-Universität Münster entwickelt. Das Ziel dieser Lernform ist und war es, nicht nur die theoretische Lehre, sondern vor allem die praktische Lehre und praktische Szenarien in einem geschütztem Lernumfeld in der medizinischen Lehrdidaktik in den Vordergrund zu stellen.
Die Studierenden nehmen an verschiedenen Fächern der Limette teil. In dieser Promotionsarbeit liegt der Fokus auf der Limette Patient Blood Management (PBM) und Transfusionsmedizin.
Vor Kursbeginn wird den Studierenden Zugang zu verschiedenen Vorbereitungsvideos sowie weiteren theoretischen Materialien über PBM und Transfusionsmedizin zur Verfügung gestellt. Bei der Limette durchläuft jeder Studierende sechs verschiedene Stationen. Hierbei beobachten Dozenten die Fertigkeiten und die Umsetzung der Aufgabenlösung durch halbverspiegelte Scheiben, im Umgang mit echten Blutprodukten oder die Kommunikation mit Patienten, die von Schauspielern dargestellt werden. Die Beobachtungen werden den Dozenten des Seminars, welches im Anschluss zur Nachbesprechung stattfindet, mitgeteilt. Hier teilen die Studierenden untereinander ihr Wissen, können den Dozenten Fragen stellen und werden ihnen weitere theoretisch-praktische Kenntnisse vermittelt.
Ziel der Arbeit: Die Promotionsarbeit hat die Auswertung der Selbsteinschätzungsbögen vor und nach der Limette mit anschließender Interpretation der Ergebnisse zum Ziel. Es soll eruiert werden, ob diese neue Lehrmethodik effektiv in der Umsetzung des Lehrerfolgs ist.
Methodik: Die Selbsteinschätzungsbögen hinsichtlich medizinischer Fertigkeiten und Tätigkeiten werden vor und nach der Limette von den Studierenden ausgefüllt. Die Aufgabenstellungen fokussieren sich jeweils auf medizinische Tätigkeiten, bei denen aus 13 verschiedenen Entrustable Professional Activities (EPAs) diejenigen hinterlegt werden, die bei dieser Aufgabe gelehrt werden. Die Differenz von post- zu prä- Selbsteinschätzung zeigt den Lehrerfolg. Die EPAs werden alle analysiert und mit Hilfe der sogenannten Cohen-Zahl interpretiert. Die Cohen Zahl ist definiert als die Differenz zwischen den Mittelwerten zweier Gruppen dividiert durch die gemeinsame Standardabweichung der beiden Populationen. Nach dem Autor Hattie wurde die Skalierung von Cohen für die Lehre angepasst und dabei folgende Einteilung definiert: d = 0,2 (klein), d = 0,4 (mittel) und d = 0,6 (groß). Alle Methoden mit d > 0,4 wurden als „Zone der gewünschten Effekte“ eingestuft.
Ergebnisse: Im Wintersemester 2021/2022 nahmen n=122 Studierende teil, von welchen n=50 beide Fragebögen komplettierten. Eine signifikante Zahl der dargestellten EPAs (50%) hat gute Ergebnisse erzielt, weist mithin einen Cohen´s Wert von d > 0,40 auf. Im Sommersemester 2022 nahmen n=99 Studierende teil, wobei nur n=29 beide Selbsterhebungsbögen komplettierten. Aufgrund des niedrigen Rücklaufs war die Zahl der ausgefüllten Selbsteinschätzungsbögen deutlich geringer und zugleich die Ergebnisse geringer ausgeprägt. In jenem Semester weist die Mehrheit der Ergebnisse einen Cohen´s d-Wert zwischen 0,15 und 0,4 auf, was als durchschnittlicher Lehrerfolg beurteilt wird.
Schlussfolgerung: Die Lehrform der Limette ist eine neue Form der praktischen Lehrvermittlung, die kontinuierlichen Anpassungen unterliegt. Eine hohe Zahl an ausgefüllten Selbsteinschätzungsbögen ist erstrebenswert, um den Lehrerfolg positiv und statistisch signifikant interpretieren zu können. Hierbei ist es nötig, die Lehre in der Limette auszuwerten und gegebenenfalls weitere Anpassungen durchzuführen.
Die Limette ist eine neue Lehrmethode mit einem guten Lehrerfolg hinsichtlich der Vermittlung praktischer Fähigkeiten und sozialer Kompetenz, welche auch an anderen Institutionen angewandt und umgesetzt werden könnte.
Herzkreislauferkrankungen führen weltweit weiterhin die Liste der häufigsten Todesursachen an. Dem frühzeitigen Erkennen kardialer Veränderungen kommt daher eine besondere Bedeutung zu. Das Erkennen subklinischer Veränderungen des Myokards mit Hilfe des myokardialen T1 Mappings und der Strain Analyse in der kardialen MRT mit der Bestimmung der Korrelation von T1 Mapping und Veränderung des myokardialen Strains war das primäre Ziel der vorliegenden Arbeit. Das native T1 Mapping sollte dabei diffuse kardiale Fibrose erkennen, während die Strainparameter zur Analyse der subtilen kardialen Funktion dienten. Wenn eine vermehrte diffuse Fibrose eine Einschränkung der myokardialen Funktion bedeutet, so müssten sich das native T1 Mapping und die Strainparameter gleichsinnig verändern.
Eingeschlossen in die Untersuchung wurden Patienten, die im Rahmen ihres Klinikaufenthaltes an der Kerckhoff-Klinik Bad Nauheim ein kardiales MRT erhielten und ihre Zustimmung zur Aufnahme in das geführte Register gaben. Alle durchgeführten MRT-Untersuchungen besaßen dabei eine medizinische Indikation. Die Untersuchung umfasste eine Blutentnahme sowie die Bildakquisition und das Ausfüllen eines Fragebogens. In der anschließenden Bildauswertung wurden das native T1 Mapping, eine Featuretrackinganalyse, sowie die reguläre diagnostische Beurteilung durch einen Facharzt durchgeführt. Die Patienten wurden anschließend nach ihren Diagnosen in Gruppen eingeteilt. Ein Jahr nach ihrer Untersuchung wurden die Patienten kontaktiert und erneut befragt, um den Anteil an „major adverse cerebro- and cardiovasculare events“ (MACCE) und der Gesamtsterblichkeit am Gesamtkollektiv festzustellen.
Es zeigten sich signifikante Zusammenhänge zwischen nativem T1 Mapping und den Strainparametern, ebenso wie signifikante Zusammenhänge von schwächerer Effektstärke zwischen ECV und den Strainparametern. Das erhöhte native T1 Mapping ging mit verringerten Strainparametern einher, was auf eine vermehrte Fibrose schließen lässt. In der Überlebensanalyse bezüglich des allgemeinen Überlebens zeigte sich nur das native T1 Mapping als unabhängiger Prädiktor, während bei den MACCE zusätzlich auch die Anzahl der betroffenen Segmente im „late gardolinium enhancement“ (LGE) einen unabhängigen Prädiktor darstellten. Der globale longitudinale Strain (GLS) verfehlte bezüglich der MACCE knapp das Signifikanzniveau, zeigte aber eine Tendenz zur Signifikanz.
Natives T1 Mapping und, in begrenztem Maße, möglicherweise auch der Strain haben eine besondere Rolle in der Diagnostik und können bereits früh kardiale Veränderungen detektieren. Da die erhöhten T1 Zeiten als Marker für morphologische Veränderungen mit den Strains als funktionelle Parameter korrelierten, lässt sich spekulieren, dass Fibrose eine Einschränkung der Funktion bedingt.
Hintergrund: Anämie gehört zu den häufigsten Erkrankungen weltweit und stellt daher ein zentrales globales Gesundheitsproblem dar. Etwa ein Drittel aller chirurgischen Patienten weisen präoperativ eine Anämie auf. Dies wird als unabhängiger Risikofaktor für eine erhöhte Morbidität und Mortalität sowie für das vermehrte Auftreten postoperativer Komplikationen angesehen. Vor diesem Hintergrund wurde von der Weltgesundheitsorganisation (World Health Organization, WHO) ein patientenzentriertes Behandlungskonzept namens Patient Blood Management (PBM) gefordert, um unter anderem Anämien frühzeitig zu diagnostizieren und einen rationalen Einsatz von Fremdblutprodukten zu fördern. Trotz der Tatsache, dass PBM vor etwa 10 Jahren eingeführt wurde, scheint Deutschland im internationalen Vergleich eine überdurchschnittlich hohe Menge an Erythrozytenkonzentrat-(EK)Einheiten pro Kopf zu transfundieren. Die Ursachen dafür sind bislang unklar und könnten möglicherweise durch eine erhöhte Anämie- Prävalenz bei chirurgischen Patienten und dem damit verbundenen erhöhten Bedarf an Transfusionen einhergehen.
Zielsetzung: Ziel dieser Arbeit ist die multizentrische Erfassung der präoperativen Anämie-Prävalenz innerhalb des Zeitraums 2007-2019 in Deutschland.
Methoden: In dieser retrospektiven, multizentrischen Beobachtungsstudie wurden alle Patienten jeden Alters, die im Monat März der Jahre 2007, 2012, 2015, 2017 und 2019 in acht teilnehmenden Krankenhäusern operiert wurden, erfasst. Patientencharakteristika und klinische Daten wurden aus den Krankenhausinformationssystemen der teilnehmenden Krankenhäuser entnommen. Primäres Ziel war die Prävalenz der Anämie bei Krankenhausaufnahme. Sekundäre Endpunkte waren der Zusammenhang zwischen Anämie und Anzahl der transfundierten EKs, Dauer des Krankenhausaufenthalts und Sterblichkeit im Krankenhaus.
Ergebnisse: Von insgesamt 30.763 Patienten konnten 23.836 Patienten aus acht Krankenhäusern in die Analyse eingeschlossen werden. Im untersuchten Zeitraum zeigte sich eine Reduktion der präoperativen Anämie-Prävalenz erwachsener Patienten von 37% auf 32,2%. Die Zahl, der mit Erythrozytenkonzentraten -5- transfundierten Patienten, ging signifikant von 16,5 % im Jahr 2007 auf 7,8 % im Jahr 2019 zurück, wobei Patienten mit präoperativer Anämie im Vergleich zu Patienten ohne Anämie sechsmal mehr EKs erhielten. Insgesamt verkürzte sich die Krankenhausverweildauer seit 2007 deutlich, zeigte jedoch eine signifikante Verlängerung bei Vorliegen einer präoperativen Anämie. Die Sterblichkeitsrate war über die Jahre hinweg konstant, dennoch signifikant höher bei anämischen Patienten. Eine multivariate Regressionsanalyse mit festen Effekten ergab, dass präoperative Anämie und EK-Transfusion Prädiktoren für die Sterblichkeitsrate waren.
Diskussion: Die Prävalenz der präoperativen Anämie lag in unserer Studienpopulation im Jahr 2019 bei 32,2 %, was der weltweiten Prävalenz entspricht. Das Implementieren von PBM-Strategien, um präoperative Anämien frühzeitig zu identifizieren und zu therapieren sowie Blutprodukte rational einzusetzen, nimmt daher weiterhin einen großen Stellenwert ein. Diese perioperativen Maßnahmen sind für alle chirurgischen Patienten von zentraler Bedeutung, da eine präoperative Anämie den Bedarf an EK-Transfusionen erhöhen, die Liegezeit verlängern und mit einer erhöhten Sterblichkeitsrate assoziiert sein kann.
Einleitung: Das Pseudoaneurysma (PSA) stellt eine der häufigsten Komplikationen nach arteriellen Punktionen dar. Dabei unterscheiden sich die Komplikationsraten kathetergestützter Verfahren bei diagnostischen Eingriffen deutlich von jenen bei therapeutischen Eingriffen. Zur Behandlung des Pseudoaneurysmas steht eine große Bandbreite an Therapieoptionen zur Verfügung, unter anderem die ultraschallgestützte Thrombininjektion (TI) sowie die Therapie mittels konventionellem Druckverband (DV). Jedoch werden venöse Thrombosen nach der Behandlung des Pseudoaneurysmas beschrieben. Der Einfluss von Antikoagulantien (AK) und Thrombozytenaggregationshemmern (TAH) sowohl auf die Erfolgsraten der Pseudoaneurysmatherapie als auch die anschließende Entstehung venöser Thrombosen wurde bisher noch nicht analysiert.
Fragestellung: Die Effektivität des Druckverbands und der Thrombininjektion bei Patienten mit Pseudoaneurysma und damit assoziierten venösen Thrombosen wurde geprüft. Außerdem wurden die Auswirkungen von Antikoagulantien und Thrombozytenaggregationshemmern auf die Erfolgsraten der Pseudoaneurysmatherapie und die damit assoziierten venösen Thrombosen untersucht.
Methoden: Es wurden von Januar 2010 bis Dezember 2018 insgesamt 468 Patienten mit Pseudoaneurysma untersucht, wovon 238 Patienten in die retrospektive Studie eingeschlossen wurden. Die Behandlung des Pseudoaneurysmas erfolgte mittels Thrombininjektion oder Druckverband. Nach Ablauf von 24 Stunden wurde der Therapieerfolg sonographisch kontrolliert, wobei auch auf das Neuauftreten venöser Beinvenenthrombosen geachtet wurde. Bei allen Patienten wurde die Medikation mit Antikoagulantien und Thrombozytenaggregationshemmern zum Zeitpunkt der Pseudoaneurysmatherapie erhoben.
Ergebnisse: Die Thrombininjektion war dem Druckverband sowohl hinsichtlich des größeren Therapieerfolgs (TI 86% vs. DV 52%, p<0,001) als auch der geringeren Thromboseinzidenz (TI 7,7% vs. DV 21,3%, p=0,039) signifikant überlegen.
Insgesamt erlitten 40 der 238 Patienten eine neu aufgetretene venöse Thrombose der unteren Extremität. Auch bei Betrachtung des Einflusses von Antikoagulantien und Thrombozytenaggregationshemmern erwies sich die 5 Thrombininjektion als dem Druckverband signifikant überlegen. Jedoch wurde bei der Thrombininjektion eine um 18% niedrigere Erfolgsrate unter Antikoagulation festgestellt (TIoAK 97% vs. TImAK 79%, p=0,22), wohingegen bei Druckverbandanlage unter Antikoagulation die Erfolgsrate nur um 6% geringer war (DVoAK 57% vs. DVmAK 51%, p=0,38). In Bezug auf die Thromboseraten nach Thrombininjektion bzw. Druckverband unter Antikoagulation oder Thrombozytenaggregationshemmern konnten keine signifikanten Unterschiede beobachtet werden.
Fazit: Es konnte nachgewiesen werden, dass die Thrombininjektion eine sichere Methode zur Behandlung des Pseudoaneurysmas darstellt und nach Ansicht der Autoren, bei vorhandener Expertise, primär angewandt werden sollte.
Denn die Thrombininjektion ist dem Druckverband in Bezug auf Erfolgs- und Thromboseraten signifikant überlegen. Antikoagulantien beeinträchtigen den Erfolg der Thrombininjektion stärker als den des Druckverbands, weshalb bei Notwendigkeit einer Pseudoaneurysmatherapie die Pausierung der Antikoagulantien im Rahmen einer patientenspezifischen Risiko-Nutzen-Abwägung in Betracht gezogen werden sollte.
Hintergrund: Die kardiale Magnetresonanztomographie (CMR) gilt als Referenzstandard für die Beurteilung der linksventrikulären Funktion und des Volumens des linken Ventrikels (LV). Neuartige Echtzeittechniken versprechen eine schnelle Bildgebung bei freier Atmung mit ähnlicher Qualität. Ziel dieser Studie war es, die Genauigkeit der standardmäßigen Steady-State-Free-Precession (SSFP)-Cine-Bildgebung bei angehaltenem Atem mit der gleichen Sequenz unter Verwendung von drei Signalmittelungen, während freier Atmung sowie mit einer Compressed-Sensing (Cs)- Echtzeittechnik während der freien Atmung zur Beurteilung von LV-Volumen und Masse zu vergleichen.
Methoden: 24 Probanden wurden mit einer Standard-SSFP-Technik bei angehaltenem Atem (BH), mit derselben Technik bei freier Atmung unter Verwendung von drei durchschnittlichen Herzzyklen (SA-FB) sowie mit einem CS-Echtzeitprotokoll bei freier Atmung (CS-FB) untersucht. Verglichen wurden die Erfassungsdauer, die Genauigkeit sowie die Inter- und Intraobserver-Variabilität von LV-Funktion, Volumen und Masse.
Ergebnisse: Die Echtzeit-Bildgebung war erheblich schneller als die freie Atmung mit drei Signalmittelwerten (p<0.001). Die Korrelation zwischen dem Referenzstandard (BH) und den beiden anderen Techniken war ausgezeichnet mit einem r2 für SA-FB vs. BH zwischen 0.74 - 0.89 und einem r2 für CS-FB vs. BH zwischen 0.81 und 0.94. SA-FB ergab mittlere Fehler zwischen 5.9% und 15% für verschiedene LV-Parameter, während CS-FB zu mittleren Fehlern von 6.5%bis 13% führte. Die Inter- und Intraobserver-Variabilität war bei der Echtzeit-Bildgebung ausgezeichnet und bei der SSFP-Bildgebung (SA-FB und BH) gut.
Schlussfolgerung: Sowohl ein Standardprotokoll mit 3 Signalmittelungen, während der freien Atmung als auch die Compressed Sensing liefern genaue und reproduzierbare Messungen des LV, während die Echtzeit-Bildgebung wesentlich schneller ist.
Das Prostatakarzinom ist in Europa die häufigste Krebserkrankung des Mannes. Im metastasierten, kastrationsresistenten Zustand gibt es wenige Therapieoptionen. Als neuere Therapiemöglichkeit hat sich in den letzten Jahren die Radioligandentherapie (RLT) mit 177Lu-PSMA-617 hervorgetan. Die Myelosuppression ist allerdings ein potentiell dosis-limitierender Faktor bei der Radioligandentherapie.
Ziel der vorliegenden Arbeit war es, das Auftreten, den Schweregrad und die Reversibilität von hämatotoxischen Nebenwirkungen in einer großen Patientenkohorte zu unter-suchen, die sich einer RLT mit 177Lu-PSMA-617 bei metastasiertem kastrationsresistentem Prostatakarzinom (mCRPC) unterzogen. Nach deskriptiver Analyse des behandelten Patientenkollektivs erfolgte die Identifikation von prädisponierenden Faktoren für das Eintreten von hämatologischen Nebenwirkungen. Dabei wurden insbesondere der Beitrag von Vortherapien, Behandlungsaktivität, Ausmaß der Knochentumorlast sowie eine prätherapeutisch bestehende Zytopenie berücksichtigt.
Die RLT wurde bei 140 Patienten durchgeführt, die insgesamt 497 Zyklen erhielten. Eine mittlere Aktivität von 6.9±1.3 GBq 177Lu-PSMA-617 pro Zyklus wurde in einem Median von 3 Behandlungszyklen verabreicht. Die mittlere kumulative Aktivität betrug 24.6±15.9 GBq. Hämatologische Parameter wurden bei Studienbeginn, vor jeder Behandlung, 2 bis 4 Wochen danach und während der gesamten Nachbeobachtung gemessen. Die Toxizität wurde anhand der Common Terminology Criteria for Adverse Events v5.0 eingestuft.
Dabei zeigten sich signifikante (Grad ≥3) hämatologische unerwünschte Ereignisse bei 13 Patienten (9.3%). Davon 10 mit Anämie (7.1%), 5 mit Leukopenie (3.6%) und 6 mit Thrombozytopenie (4.3%). Die Hämatotoxizität war bis zu einem medianen Follow-up von 8 Monaten bei allen bis auf zwei Patienten, die innerhalb von weniger als 3 Monaten nach der RLT an einer Krankheitsprogression starben, reversibel auf Grad ≤2. Die Myelosuppression war signifikant häufiger bei Patienten mit vorbestehender Zytopenie Grad ≥2 oder hoher Knochentumorlast (disseminiert oder diffus). Eine vorangegangene taxan-basierte Chemotherapie war ebenfalls mit einer erhöhten Inzidenz signifikanter Hämatotoxizität assoziiert, während die Behandlung mit 223Ra-Dichlorid, die kumulative RLT-Behandlungsaktivität und die Aktivität pro Zyklus nicht signifikant korreliert waren.
Die vorliegenden Ergebnisse zeigen somit, dass hämatologische Nebenwirkungen nach RLT eine akzeptable Gesamtinzidenz besitzen und häufig reversibel sind. Eine hohe Knochentumorlast, eine vorangegangene taxan-basierte Chemotherapie und eine Zyto-penie vor der Behandlung vom Grad ≥2 können als Risikofaktoren für die Entwicklung einer klinisch relevanten Myelosuppression angesehen werden, während die kumulative RLT-Aktivität und eine vorangegangene 223Ra-Dichlorid-Behandlung keinen signifikanten Beitrag zur Inzidenzrate zeigen. Die Fragestellung ist von unmittelbarer Relevanz, da die Erkenntnisse entscheidend für die individuelle Risikoeinschätzung von Patienten mit mCRPC bezüglich der 177Lu-PSMA-617 beitragen.
Aktivierende Mutationen der Fms-like tyrosine kinase (FLT3) treten bei 25 % der Patienten mit akuter myeloischer Leukämie (AML) auf und begünstigen die unkontrollierte Proliferation maligner Blasten. Autophagie ist ein intrazellulärer Prozess, durch den zytoplasmatische Bestandteile lysosomal abgebaut werden und fungiert als intrazellulärer Homöostase-Mechanismus unter Stress-Bedingungen.
Ziel dieser Arbeit war es, herauszufinden, ob FLT3-ITD+-AML-Zellen vulnerabel gegenüber Autophagie-Hemmung sind.
Hierzu wurde zunächst untersucht, wie sich FLT3-ITD-Signaling und Autophagie unter basalen Wachstumsbedingungen gegenseitig beeinflussen. In einem genetischen Modell zeigte sich, dass FLT3-ITD-transformierte wachstumsfaktorunabhängige Zellen während ihrer fortgesetzten Proliferation vermehrt Autophagie betreiben. Lysosomale Autophagie-Inhibitoren zeigten jedoch unter diesen Bedingungen keine erhöhte Wirksamkeit gegenüber FLT3-ITD-positiven Zellen. Humane FLT3-ITD-positive AML-Zellen zeigten nach genetischer Deletion von ULK1 ebenfalls nur transiente und milde Proliferationsdefizite. Unter basalen Wachstumsbedingungen zeigte sich also keine erhöhte Vulnerabilität FLT3-ITD-exprimierender Zellen gegenüber Autophagie-Inhibition.
Daraufhin wurde die Bedeutung von Autophagie während pharmakologischer Hemmung von FLT3 untersucht. FLT3-Inhibition mittels AC220, einem FLT3-spezifischer Tyrosinkinase-Inhibitor, induzierte bzw. steigerte die autophagische Aktivität ähnlich stark wie eine direkte mTOR-Inhibition. Dies ließ sich im Zellmodell therapeutisch ausnutzen: eine Kombinationsbehandlung mit AC220 und einem lysosomalen Autophagie-Inhibitor zeigte eine synergistische antiproliferative Wirkung. Dies stellt möglicherweise einen neuen rationalen Kombinationsbehandlungsansatz für die Therapie FLT3-ITD-positiver AML-Patienten dar.
Ziel dieser Arbeit ist die Identifikation des Einflusses klassischer Labormaterialien und alternativer Experimentiermaterialien auf fachdidaktische Anforderungen an ein gelungenes Experiment im Chemieunterricht. Dabei umfassen alternative Experimentiermaterialien sowohl Materialien aus der alltäglichen Lebenswelt von Schülerinnen und Schülern als auch Materialien aus dem Bereich der Medizintechnik, die anstelle von Materialien des gängigen Laborbetriebs im Chemieunterricht eingesetzt werden. Um den Einfluss des Experimentiermaterials auf entsprechende Anforderungen untersuchen zu können, wurden im Rahmen eines Mixed-Method-Designs zwei aufeinander aufbauende Studien durchgeführt. Bei Studie I handelt es sich um eine qualitative Interviewstudie unter N = 13 Chemielehrkräften, mit denen vor dem theoretischen Hintergrund fachdidaktischer Anforderungen an ein gelungenes Schulexperiment problemorientierte, leit-fadengestützte Interviews zu Vor- und Nachteilen beim Einsatz alternativer Experimentiermaterialien und klassischer Labormaterialien im Chemieunterricht geführt wurden. Anhand des gewonnenen Interviewmaterials wurden anschließend zunächst Eigenschaften identifiziert, in denen sich beide Materialpools voneinander unterscheiden, um davon ausgehend ein Kategoriensystem aufstellen zu können, das in Form einer Matrix den Einfluss dieser Materialeigenschaften auf organisatorische, experimentelle und affektive Anforderungen an ein Schulexperiment im Chemieunterricht darstellt. Dabei konnte in Bezug auf organisatorische Anforderungen insbesondere ein Einfluss des Experimentiermaterials auf zeitliche und finanzielle Rahmenbedingungen sowie auf Anforderungen zur Sicherheit beim Experimentieren im Chemieunterricht festgestellt werden. Ergebnisse zum Einfluss des Experimentiermaterials auf affektive und experimentelle Anforderungen an ein Schulexperiment wurden wiederum genutzt, um anschließend Hypothesen zum Einfluss des Experimentiermaterials auf entsprechende Anforderungen an gelungene Experimente im Chemieunterricht zu generieren, dabei an gelungene Schülerexperimente im Speziellen. Diese Hypothesen wurden in einer zweiten Studie quantitativ getestet. Innerhalb eines experimentellen Untersuchungsdesigns führten dazu insgesamt N = 293 Schülerinnen und Schüler eines von insgesamt fünf betrachteten Schülerexperimenten mit jeweils klassischem Labormaterial oder in einer jeweiligen Variante aus alternativem Experimentiermaterial durch. Im Anschluss beurteilten N = 237 Schülerinnen und Schüler im Rahmen einer Fragebogenerhebung ihre subjektive Wahrnehmung der Experimentiersituation bezüglich der Variablen Grad der Herausforderung, Beobachtbarkeit, Autonomieerleben, Anspannung/ Druck, Kompetenzerleben und Interesse/ Vergnügen. Mit Ausnahme des Kompetenzerlebens und der Beobachtbarkeit konnte zu allen betrachteten Variablen ein signifikanter Einfluss des Experimentiermaterials festgestellt werden. Um diese Ergebnisse der Hypothesentests näher beschreiben und differenzierter erläutern zu können, beantworteten die 237 Schülerinnen und Schüler zusätzlich offene Fragen zu den von ihnen verwendeten Experimentiermaterialien; mit N = 56 weiteren Schülerinnen und Schülern wurden aus diesem Grund außerdem leitfadengestützte Gruppeninterviews geführt. Um folglich auch aus Schülerperspektive möglichst allgemeingültige Einflüsse beider Materialpools auf fachdidaktische Anforderungen an ein gelungenes Schulexperiment zusammenfassen zu können, werden die Ergebnisse dieser qualitativen Datenerhebung ebenfalls in Form einer entsprechenden Matrix dargestellt und dabei von den konkret durchgeführten Experimenten abstrahiert. Neben dem bereits genannten Einfluss des Experimentiermaterials auf den von Schülerinnen und Schülern wahrgenommenen Grad der Herausforderung, das wahrgenommene Autonomieerleben, die/ den wahrgenommene/n Anspannung/ Druck beim Experimentieren sowie das wahrgenommene Interesse/ Vergnügen an der Experimentiersituation konnte dadurch insbesondere ein Materialeinfluss auf die Durchschaubarkeit eines Versuchsaufbaus und deren einzelner Bestandteile sowie auf die wahrgenommene Authentizität einer Experimentiersituation identifiziert werden. Dadurch zeigt die Gesamtuntersuchung auf theoretischer Ebene die Bedeutsamkeit des konkreten Experimentiermaterials als Qualitätsmerkmal des Chemieunterrichts und gibt Lehrkräften auf unterrichtspraktischer Ebene einen Überblick zu Potentialen und Grenzen alternativer Experimentiermaterialien im Vergleich zu etabliertem klassischem Labormaterial.
Die kongenitale Zytomegalievirus Infektion (cCMV-Infektion) ist die häufigste kongenitale Infektionskrankheit weltweit und ist der häufigste Grund für angeborene nicht-genetische Hörstörungen und eine häufige Ursache neurologische Entwicklungsstörungen. Die Inzidenz der cCMV-Infektion liegt in Deutschland zwischen 0,2 % – 0,5 %. Bei retroviral-exponierten Neugeborenen wird die Inzidenz mit 2,7 % – 11,4 % angegeben. Mit der erhöhten Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen ergibt sich für diese Kinder ebenfalls ein erhöhtes Risiko für Langzeitfolgen. Die genaue Inzidenz der cCMV-Infektion variiert je nach untersuchter Population. Für Deutschland existiert eine retrospektive Studie, welche eine Inzidenz von 2,7 % für cCMV-Infektionen bei retroviral-exponierten Neugeborenen ermittelte. In der vorliegenden Studie wurde diese Inzidenz in einem prospektiven multizentrischem Studiendesign in Deutschland ermittelt.
Zur Ermittlung der Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen und Beurteilung der Umsetzbarkeit eines cCMV-Neugeborenen-Screenings wurde ein selektives cCMV-Neugeborenen-Screening für retroviral-exponierte Neugeborene mittels PCR-Untersuchung auf CMV aus einem Mundschleimhautabstrich innerhalb der ersten 21 Lebenstage an drei Studienstandorten innerhalb Deutschlands, Mannheim, München und Frankfurt am Main, durchgeführt. Bei positivem Ergebnis der PCR auf CMV-DNA erfolgte eine Bestätigungsdiagnostik mittels erweiterter Urin- und Blutuntersuchung auf CMV. Zur Diagnostik von cCMV-assoziierten Symptomen erfolgte eine Sonographie des Abdomens und des Schädels sowie eine ausführliche körperliche Untersuchung, eine augenärztliche Evaluation und erweiterte Testungen der Gehörfunktion. Nachuntersuchungen und Therapien wurden den betroffenen Familien außerhalb der Studie angeboten.
122 / 184 (66,3 %) HIV-exponierte Neugeborene von 111 Müttern wurden im Studienzeitraum zwischen dem 24.11.2017 und dem 31.03.2021 eingeschlossen. Eine cCMV-Infektion wurde bei einem Neugeborenen nachgewiesen, sodass die Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen in dieser Studie 0,8 % beträgt. Eine HIV-Mutter-Kind-Transmission wurde nicht detektiert. Die Seroprävalenz für CMV bei den HIV-positiven Frauen lag in diesem Kollektiv bei 96,1 %.
Das Neugeborene mit nachgewiesener cCMV-Infektion zeigte eine zerebrale Beteiligung mit ependymalen Zysten und einer thalamostriatalen Vaskulopathie und erhielt außerhalb der Studie eine zeitgerechte antivirale Therapie mit Beginn in der Neonatalper-ode. Im Verlauf zeigten sich trotz der antiviralen Therapie Entwicklungsstörungen mit autistischen Verhaltensweisen. Die cCMV-Infektion wäre ohne ein routinemäßiges Screening mit großer Wahrscheinlichkeit nicht nachgewiesen worden.
Die frühzeitige Untersuchung der Probanden auf eine cCMV-Infektion hat sich in dieser Studie als vorteilhaft gezeigt, da bei Nachweis einer cCMV-Infektion zeitnah weiterführende Diagnostik und Therapien angeboten werden konnten. Auch die relativ große Anzahl an rekrutierten retroviral-exponierten Neugeborenen im prospektiven Studiendesign in Zusammenarbeit mit mehreren Studienzentren in Deutschland spricht für die Validität dieser Studie. Als Limitation ist zu nennen, dass ein statistisch signifikantes Ergebnis nicht erzielt werden konnte. Aufgrund der Corona-Pandemie kam es organisationbedingt zu einer relativ hohen Anzahl an nicht eingeschlossenen Patienten. Auch die geplante Rekrutierung einer Vergleichsgruppe in Südafrika konnte aufgrund der Pandemie nicht umgesetzt werden. Falsch negative Befunde wurden im Sinne der Familie nicht mittels Goldstandardmethode überprüft, sodass eine Unterschätzung der Rate an cCMV-Infektionen möglich ist.
Insgesamt konnte diese Studie neben der Ermittlung der cCMV-Inzidenz bei retroviral-exponierten Neugeborenen in Deutschland von 0,8 % aufgezeigt werden, dass selbst symptomatische cCMV-Infektionen ohne ein systematisches cCMV-Neugeborenen-Screening nicht sicher nachgewiesen werden konnte. Zudem konnte gezeigt werden, dass ein systematisches cCMV-Neugeborenen-Screening mittels Mundschleimhautabstrich in Deutschland praktikabel ist und bei den Sorgeberechtigten Akzeptanz findet. Den erhobenen Daten zur Folge könnte ein Screening aller Neugeborener oder zumindest ein risikoadaptiertes Screening auf das Vorliegen einer cCMV-Infektion dazu beitragen, dass mehr Kinder mit asymptomatischer oder unentdeckter symptomatischer cCMV-Infektion diagnostiziert werden und so eine entsprechende Behandlung ermöglicht sowie ggf. Langzeitfolgen möglichst verringert werden.
Weitere Studien zum Effekt der verfügbaren antiviralen Therapie bei cCMV-Infektionen und regelmäßiger Kontrolluntersuchungen nach stattgehabter cCMV-Infektion sind zu empfehlen, um die Auswirkungen dieser Maßnahmen auf den Krankheitsverlauf zu evaluieren.
S100A12 ist ein Entzündungsmarker, der inflammatorische Prozesse präzise anzeigt. Entzündungsprozesse mit erhöhten S100A12 Konzentrationen spielen vor allem bei Autoimmunerkrankungen wie der der rheumatischen Arthritis (RA), autoinflammatorischen Erkrankungen wie der juvenilen idiopathische Arthritis (JIA) oder weiteren Erkrankungen wie dem familiären Mittelmeerfieber (FMF) eine wichtige Rolle. Das S100A12 Protein besitzt drei verschiedene Konformationen: das Dimer, das Tetramer und das Hexamer. In verschiedenen Studien konnte gezeigt werde, dass das Hexamer an proinflammatorische Rezeptoren wie dem Toll-like Rezeptor-4 (TLR-4) und dem „receptor for the advanced glycation end products“ (RAGE) bindet und so die Produktion von weiteren Entzündungsmediatoren stimuliert. Daher besitzt die S100A12 Hexamerkonformation eine entscheidende Rolle in Entzündungsprozessen. Das Ziel bestand somit in der Selektion von Peptiden oder „single chain variable fragment“ (scFv)-Konstrukten, die exklusiv an die hexamere Konformation von S100A12 binden.
Mittels Biopanning von Peptid- und scFv-Phagen Bibliotheken konnten Peptide und scFvs selektiert werden. Die selektierten Peptide und die selektierten scFvs wurden in ELISAs weiter auf ihre Bindungseigenschaften charakterisiert. Durch Umklonierung in einen Fc-Konstrukt Vektor konnten die scFvs als vollständige scFv-Fc-Konstrukte exprimiert werden. Die Bindung der selektierten Peptide bestätigte sich als Biotin-Fusion im anschließenden ELISA. Es zeigte sich eine sehr hohe Bindungsspezifität der Peptide und der produzierten scFv-Fc-Konstrukte an das S100A12 Hexamer.
Mit den selektierten Liganden ist es gelungen einen Test zu entwickeln: an Streptavidin immobilisierte Peptide binden spezifisch das S100A12 Hexamer aus dem Testmedium und mittels selektiertem scFv-Fc-Konstrukten lassen sich die gebundenen S100A12 Proteine detektieren. Ein Detektionsantikörper ermöglichte die Visualisierung der gebundenen scFv-Fc-Konstrukte mittels Farbreaktion. Das S100A12 Hexamer konnte durch den Testaufbau auch im Plasma spezifisch detekiert werden.
Dieser Test könnte es ermöglichen, die exakte Diagnose und vor allem das Überwachung von Patienten mit steigenden Entzündungsmarkern, wie im Rahmen der autoinflammtorischen Erkrankung JIA oder einer Erkrankung wie dem FMF, zu verbessern. Mit einem verbessertem Krankheitsmonitoring könnte ebenfalls die Therapie im frühen Stadium optimiert werden.
Zusätzlich könnte ein mögliches therapeutische Potential der S100A12 Hexamer Liganden getestet werden. Sollten die hexamerspezifischen Liganden die Interaktion von S100A12 mit ihren Rezeptoren wie TLR-4 oder RAGE blockieren, ist eine therapeutische Verwendung in der Behandlung von Autoimmun- und autoinflammatorischen Erkrankungen möglich.
Auf Grund einer hohen Inzidenz und Mortalität, welche in den nächsten Jahren voraussichtlich eine deutliche Zunahme erfahren wird, stellt die Behandlung eines HCC an alle beteiligten Fächer der Medizin, sowie an den Patienten und die Patientin, eine enorme Herausforderung dar. In der klinischen Routine hat sich die TACE, nicht nur bei Patienten im intermediären Stadium der Erkrankung, etabliert, sodass im Laufe der Erkrankung nahezu jeder zweite Patient mindestens eine TACE-Behandlung bekommt.
Der mit Radiomics betitelte, im medizinischen Bereich relativ junge, Forschungszweig beschäftigt sich mit der Idee, dass in den Schnittbildern eine für das menschliche Auge nicht sichtbare Ebene von Informationen vorliegt, welche mit den richtigen Mitteln extrahiert, relevante Daten und Informationen zur Genetik, Phänotypie und Pathophysiologie des Tumors liefern kann.
Hier greift der Ansatz dieser Arbeit an. In dieser Arbeit wird die Hypothese postuliert, dass durch die Auswertung und Integration von Lipiodolablagerungen in der Zielläsion nach der ersten durchgeführten TACE eine zuverlässigere Prognose zum Therapieansprechen und Gesamtüberleben mit Hilfe von Radiomics möglich ist, als dies klinische Scores alleine erlauben.
Dazu wurde in dieser Arbeit ein Patientenstamm von 61 Patienten untersucht. Alle Patienten litten an einem histologisch gesicherten HCC. Bei allen Patienten wurden innerhalb eines Zeitintervalls von 6 Monaten drei TACE durchgeführt mit einer nachfolgenden Verlaufskontrolle mittels kontrastmittelgestützter MRT oder CT.
In einem dezidierten, mehrstufigen Verfahren wurden aus der nativen 24 Stunden postinterventionellen CT-Kontrolle die Lipiodol anreichernden HCC-Herde segmentiert. Aus diesem segmentierten 3-D Bilddatensatz wurde eine Vielzahl von bildgebenden Biomarkern, Features, extrahiert. Die Features wurden im weiteren Prozess selektiert, redundante und nicht reproduzierbare Features wurden für das weitere Vorgehen verworfen.
Aus den vorliegenden Daten der Patienten wurden Informationen selektiert, mit welchen insgesamt 5 klinische Scores berechnet wurden, diese Scores wurden im weiteren Verfahren ebenfalls als Features angesehen.
Mehrere Machine Learning-Algorithmen wurden mit der Zielvariable: Größenregredienz des Tumors nach TACE als Folge eines annehmbaren Therapieansprechens, angelernt.
Das beste Ergebnis lieferte ein ML-Algorithmus mit einem Random Forrest Klassifikator auf der Grundlage des kombinierten, aus Radiomics-Features und klinischem Score-Features bestehendem Featuresets.
Um die initial aufgestellte Hypothese zu überprüfen wurde die Zielvariable von Größenregredienz der TL auf OS verändert. Die Performance des ML-Algorithmus in Bezug auf die neu definierte Zielvariable OS wurde hierbei mit dem C-index bewertet. Im Test-Set liegt ein C-Index von 0,67 vor. Das kombinierte Modell aus klinischem Score und Radiomics zeigt hierbei eine Überlegenheit gegenüber dem klinischen Score allein (C-Index 0,58) und dem Radiomics score (C-Index 0,60). Dies bestätigt die aufgestellte Hypothese. Das kombinierte Modell hat die Fähigkeit, anhand der Lipiodolanreicherung in der 24 Stunden postinterventionell durchgeführten CT, zur Prädiktion eines Gesamtüberlebens von HCC-Patienten nach einer TACE.
Die Patienten mit der kürzesten und längsten Überlebenszeit innerhalb der Studienpopulation dienten als Grundlage für eine Kaplan-Meier-Schätzung und Berechnung eines Risiko-Scores (siehe Abbildung 37). Dabei zeigt sich eine signifikante Differenz zwischen den Risiko-Scores. Eine Kurve dieser Art könnte zukünftig theoretisch als Schätzung zur Überprüfung der Indikation einer TACE- Wiederholung für einzelne Patienten dienen. Für eine entsprechende Generalisierbarkeit sind weiterführende Studien zur Validierung nötig. Unsere Studie liefert hier erste vielversprechende Hinweise, wobei unsere Limitationen nicht zu vernachlässigen sind, wie im Detail diskutiert.
Zusammenfassend zeigt unsere Arbeit, dass ein von uns definierter kombinierter Score, bestehend aus bildgebenden Biomarkern (Radiomics) und einem klinischen Score (m- HAP-II-Score), eine Prognose zum Gesamtüberleben nach der ersten TACE- Behandlung liefern kann. Mit Hilfe dieses kombinierten Scores war es in unserer Studienkohorte möglich abzuschätzen, ob ein Patient von weiteren TACE-Prozeduren profitieren würde. Der Behandlungsalgorithmus könnte auf dieser Basis individuell angepasst werden.
Der kombinierte Score hätte somit nicht nur das Potenzial Nebenwirkungen zu verhindern und Kosten im System einzusparen, sondern ebenfalls den Patienten potentiell individuell effektiveren Therapiealternativen zuzuführen.
The Nodular lymphocyte-predominant Hodgkin lymphoma (NLPHL) as well as the T-cell/histiocyte-rich large B-cell lymphoma (THRLBCL) are rare types of malignant lymphomas. Both NLPHL and THRLBCL are frequently observed in middle-aged men with THRLBCL presenting frequently with an advanced Ann-Arbor stage with B-symptoms and associated with more aggressive courses.3 However, due to the limited number of tumor cells in the tissue of both NLPHL and THRLBCL, limited numbers of studies have been conducted on these lymphomas and current results are mainly based on general molecular genetic studies.
In order to obtain a better understanding for these disease forms as well as possible changes in their nuclear and cytoplasmatic sizes, the following study relied on the comparison of the different NLPHL forms and THRLBCL in terms of nuclear size and nuclear volume. This was carried out using both 2D and 3D analysis. During the 2D analysis of nuclear size and nuclear volume no significant differences could be presented between those groups. However, the 3D analysis of NLPHL and THRLBCL pointed out a slightly enlarged nuclear volume in THRLBCL. Furthermore, the analysis indicated a significantly increased cytoplasmatic size of THRLBCL compared to NLPHL forms. Nevertheless, differences occurred not only between the tumor cells of both disease forms, but also the T cells presented a larger nuclear volume in THRLBCL. B cells, which were considered as the control group, did not demonstrate any significant differences between the different groups. The presented results suggest an increased activity of T cells in THRLBCL, which is most likely to be interpreted as a response against the surrounding tumor cells and probably limits the proliferation of the tumor cells. Based on these results, the importance of 3D analysis is also evident due to the fact that it is clearly superior to 2D analysis. For a better understanding of both disease forms, it is therefore recommended to use the 3D technique in combination with molecular genetic analysis in future research.
Mechanistic characterization of photoisomerization reactions in organic molecules and photoreceptors
(2023)
In dieser Arbeit wurden verschiedene Einflüsse auf die Dynamik von Photoisomerisierungen in Phytochromen und indigoiden Photoschaltern untersucht. Beide Forschungsgebiete teilen wesentliche Aspekte wie die Kontrolle durch sterische Wechselwirkungen und den starken Einfluss der Polarität oder der ionischen Umgebung.
Auf dem Gebiet der Phytochrome wurde die relative Positionierung der knotenlosen Phytochrome innerhalb der Superfamilie der Phytochrome in Bezug auf ihre Photodynamik und den Effekt von Grundzustandsheterogenität herausgearbeitet. Es wurde anhand von ultraschnellen, zeitaufgelösten Anrege-Abtast-Experimenten der einzelnen GAF-Domäne All2699g1 im Vergleich mit dem vollständigen knotenlosen Phytochrom All2699g1g2 und dem strukturell ähnlichen knotenlosen Phytochrom SynCph2 gezeigt, dass knotenlose Phytochrome in ihrer Vorwärtsdynamik eine komplexe mehrphasige Kinetik mit einem langlebigen angeregten Zustand (~100 ps) aufweisen. Die beobachtete mehrphasige Kinetik konnte einer initialen Chromophordynamik sowie einer nicht exponentiellen Reorganisation der chromophor-umgebenden Proteinmatrix zugeordnet werden. Dies steht im starken Kontrast zur im Gebiet der Phytochrome etablierten Beschreibung derartiger mehrphasiger Kinetiken mittels heterogener Grundzustände. Stattdessen wurde ein konserviertes kinetisches Muster identifiziert, welches die mehrphasige Dynamik beschreibt und in allen in dieser Arbeit untersuchten Phytochrome beobachtet wurde. Zudem konnte dieses Muster in einem Phytochrom der Gruppe I und einem Phytochrom der Gruppe III, die einen ähnlichen Pr Dunkelzustand aufweisen, gezeigt werden, was eine breite Anwendbarkeit des damit verbundenen Mechanismus vermuten lässt. Weiterhin konnte die zentrale Rolle eines konservierten Tyrosins in der Photoisomerisierung anhand von Mutationsstudien in All2699g1 herausgearbeitet werden. Diese konservierte Aminosäure muss im Rahmen der Reorganisation der Proteinmatrix vom Chromophor weggezogen werden, damit die sterische Blockade abgebaut werden kann, die die Isomerisierung des Chromophors zunächst verhindert. Da diese Bewegung von diversen Faktoren in der den Chromophor umgebenden Proteinmatrix abhängt, weist sie eine nicht exponentielle Kinetik auf, die je nach Phytochrom, der spezifischen Flexibilität und dem vorhandenen Raum in der Bindetasche unterschiedliche Lebenszeiten aufweist.
Die Rückreaktion knotenloser Phytochrome konnte ebenfalls im Rahmen dieser Arbeit charakterisiert werden, welche im Pikosekundenbereich abläuft, und damit signifikant schneller ist als die Vorwärtsreaktion. Im Gegensatz zur Vorwärtsreaktion nimmt Grundzustandsheterogenität in der Rückreaktion eine weitaus bedeutendere Rolle ein. Hier weisen die in All2699g1 vorhandenen heterogenen Grundzustandspopulationen jeweils eine eigene Kinetik ihres angeregten Zustands auf, während die homogenen Grundzustände von All2699g1g2 und SynCph2 jeweils nur einen Zerfall des angeregten Zustands zeigen. Der Ursprung dieser Heterogenität konnte im Wasserstoffbrückennetzwerk des Chromophors lokalisiert und mit dem konservierten Tyrosin und einem konservierten Serin in der PHY-Domäne verknüpft werden. Die Anwesenheit der PHY-Domäne sorgt demnach für eine Verringerung der Grundzustandsheterogenität und des vorhandenen Raums in der Bindetasche, wodurch die Effizienz der Photoreaktion optimiert wird.
Zuletzt konnte die Millisekundendynamik knotenloser Phytochrome und der Einfluss der PHY-Domäne auf diese aufgeklärt werden. Die PHY-Domäne sorgt hierbei durch den verringerten Raum in der Bindetasche dafür, dass die zunächst stattfindende thermische Relaxation des Chromophors signifikant verlangsamt wird, während spätere Änderungen im Photozyklus nur wenig beeinflusst werden.
Auf dem Gebiet der indigoiden Photoschalter konnte, anhand eines sterisch überladenen Hemithioindigo Photoschalters, der Photoisomerisierungsmechanismus des Hula-Twists beobachtet und eine starke Lösungsmittelabhängigkeit der entsprechenden Kinetik aufgezeigt werden. Aus den durchgeführten zeitaufgelösten Anrege-Abtast-Experimenten in verschiedenen Lösungsmitteln konnte ein Modell für die Photodynamik des verwendeten Hemithioindigo Photoschalters entwickelt werden. In unpolaren Lösungsmitteln muss eine hohe Barriere zur produktiven konischen Durchschneidung überwunden werden, was zu Lebenszeiten des angeregten Zustands im Nanosekundenbereich führt. Der Weg zur produktiven konischen Durchschneidung folgt dabei dem Hula-Twist Mechanismus. Dieser Pfad ist in polaren Lösungsmitteln unerreichbar, weshalb eine schnelle Relaxation über eine unproduktive konische Durchschneidung stattfindet.
Im zweiten Projekt auf dem Gebiet der indigoiden Photoschalter wurde anhand der neuartigen Klasse der Iminothioindoxyl Photoschalter ein Schwingungsenergiedonor für Schwingungsenergietransferstudien entwickelt. Das daraus entwickelte Modellsystem, bestehend aus einer künstlichen Aminosäure auf Basis des Iminothioindoxyl Photoschalters und einem daran gekoppelten Schwingungsenergiesensor, wurde charakterisiert und die primäre Photoreaktion untersucht. Es konnte gezeigt werden, dass der angeregte Zustand des Modellsystems kurzlebig ist und unter Abgabe von großen Mengen an Schwingungsenergie zerfällt, unabhängig von der Anregungswellenlänge und dem verwendeten Lösungsmittel. Somit zeigt das entwickelte System vorteilhafte Eigenschaften für Schwingungsenergietransferstudien.
Insgesamt konnten somit die Mechanismen der Photoisomerisierungsreaktionen in knotenlosen Phytochromen und indigoiden Photoschaltern aufgeklärt und daraus die Relevanz der Umgebung für derartige Reaktionen herausgearbeitet werden.
Seed dispersal is a key ecosystem function for plant regeneration, as it involves the movement of seeds away from the parental plants to particular habitats where they can germinate and transition to seedlings and ultimately adult plants. Seed dispersal is shaped by a diversity of abiotic and biotic factors, particularly by associations between plants and climate and between plants and other species. Due to the ongoing loss of biodiversity and changing global conditions, such interactions are prone to change and pose a severe threat to plant regeneration. One way to address this challenge is to study associations between plant traits and abiotic and biotic factors to understand the potential impacts of global change on plant regeneration. Plant communities have long been analyzed through the lens of vegetative traits, mainly ignoring how other traits interact and respond to the environment. For instance, while associations between vegetative traits (e.g., specific leaf area, leaf nitrogen content) and climate are well studied, there are few case studies of reproductive traits in relation to trait-environment associations in the context of global change.
Thus, the overarching aim of this dissertation is to explore how trait-environment associations, with a special focus on reproductive traits, can improve our understanding of the effect that global change may have on seed dispersal, and ultimately on plant regeneration. To this end, my research focuses on studying associations between plant traits and abiotic and biotic factors along an elevational gradient in both forests and deforested areas of tropical mountains. This dissertation addresses three principal research objectives.
First, I investigate the extent to which reproductive (seed and fruit traits) and vegetative traits (leaf traits) are related to abiotic and biotic factors for communities of fleshy-fruited plants in the Ecuadorian Andes. I used multivariate analyses to test associations between four (a)biotic factors and seven reproductive traits and five vegetative traits measured on 18 and 33 fleshy fruited plant species respectively. My analyses demonstrate that climate and soil conditions are strongly associated with the distribution of both reproductive and vegetative traits in tropical tree communities. The production of “costly” vs. “cheap” seeds, fruits and leaves, i.e., the production of few rewarding fruits and acquisitive leaves versus the production of many less-rewarding fruits and conservative leaves, is primarily limited by temperature, whereas the size of plant organs is more related to variation in precipitation and soil conditions. My findings suggest that associations between reproductive and vegetative traits and the abiotic environment follow similar principles in tropical tree communities.
Second, I assess how climate and microhabitat conditions affect the prevalence of endozoochorous plant species in the seed rain of tropical montane forests in southern Ecuador. I analyzed seed rain data for an entire year from 162 traps located across an elevational gradient spanning of 2000 m. I documented the microhabitat conditions (leaf area index and soil moisture next to each seed trap) at small spatial scale as well as the climatic conditions (mean annual temperature and rainfall in each plot) at large spatial scale. After a one-year of sampling, I counted 331,838 seeds of 323 species/morphospecies. My analyses demonstrate that the prevalence of endozoochorous plant species in the seed rain increases with temperature across elevations and with leaf area index within elevations. These results show that the prevalence of endozoochory is shaped by the interplay of both abiotic and biotic factors at large and small spatial scales.
Third, I examine the potential of seed rain to restore deforested tropical areas along an elevational gradient in southern Ecuador. For this chapter, I collected seed rain using 324 seed traps installed in 18 1-ha plots in forests (nine forest plots) and in pastures (nine deforested plots) along an elevational gradient of 2000 m. After a sampling period of three months, I collected a total of 123,039 seeds of 255 species/morphospecies from both forests and pastures along the elevational gradient. I did not find a consistent decrease in the amount and richness of seed rain between forests and pastures, but I detected a systematic change in the type of dispersed seeds, as heavier seeds and a higher proportion of endozoochorous species were found in forests compared to pastures at all elevations. This finding suggests that deforestation acts as a strong filter selecting seed traits that are vital for plant regeneration.
Understanding the role that trait-environment associations play in how plant communities regenerate today could serve as a basis for predicting changes in regeneration processes of plant communities under changing global conditions in the near future. Here, I show how informative the measurement of reproductive traits and trait environment associations are in facilitating the conservation of forest habitats and the restoration of deforested areas in the context of global change.
"Autonomy is the condition under which what one does reflects who one is" (Weinrib, 2019, p.8). This quote encapsulates the core idea of autonomy, namely the correspondence of one’s inner values with one’s actions. This is a beautiful idea. After all, who wants their actions to be determined or controlled from the outside?
The classical definition of autonomy is precisely about this independence from external circumstances, which Murray (1938) primarily coined. Among other things, Murray characterizes autonomy as resistance to influence and defiance of authority. Similarly, Piaget (1983) describes individuals as autonomous, independent of external influences, in their thinking and actions, and foremost, adult authority. Subsequent work criticized this equation of autonomy with separation or independence (Bekker, 1993; Chirkov et al., 2003; Hmel & Pincus, 2002). In lieu thereof, autonomy is defined as an ability (Chirkov, 2011; Rössler, 2017) and as an essential human need (Ryan & Deci, 2006). Focus is now
on self-governing while relying on rationally determined values to pursue a happy life (Chirkov, 2011). According to Social Determination Theory (SDT), autonomy is about a sense of initiative and responsibility for one’s own actions. The experience of interest and appreciation can strengthen autonomy, whereas experiences of external control, e.g., through rewards or punishments, limit autonomy (Ryan & Deci, 2020). In the psychological discourse of autonomy, SDT is strongly represented (Chirkov et al., 2003; Koestner & Losier, 1996; Weinstein et al., 2012). Notably, SDT distinguishes between autonomy and independence as follows. While a person can autonomously ask for help or rely on others, a person can also be involuntarily alone and independent. Interestingly, these definitions are again closer to its etymological meaning as self-governing, originating from Greek αυτòνoμζ (autonomous).
The two strands of autonomy as independence and autonomy as self-determination are also reflected in the vital differentiation into reactive and reflective autonomy by Koestner and Losier (1996). Resisting external influence, particularly interpersonal in fluence, is what reactive autonomy entails. This interpretation is closely related to the classical concept of autonomy as separation and independence from others (Murray, 1938). On the other hand, reflective autonomy concerns intrapersonal processes, such as self-governing or self-regulation, as defined in Self-Determination Theory (Ryan et al., 2021). In this dissertation, we investigated the concept in three different approaches while focusing on its assessment and operationalization: To begin, in Article 1, we compared the layperson’s and the scientific perspective to each other to gain insight into the characteristics of autonomy. Then, in Articles 2 and 3, we experimentally tested behavioral autonomy as resistance to external influences. Simultaneously, we investigated the link between various autonomy trait measures and autonomous behavior. As a result, in Article 2, we looked at how people reacted to the effects of message framing and sender authority on social distancing behavior during the early COVID-19 pandemic. Finally, in Article 3 we investigated the resistance to a descriptive norm in answering factual questions, in the context of autonomous personality. In our first article, we used a semi-qualitative bottom-up approach to gain insights into the laypersons’ perspective on autonomy and compare it to the scientific notion. We followed a design proposed by Kraft-Todd and Rand (2019) on the term heroism. We derived five components from philosophical and psychological literature: dignity, independence from others, morality, self-awareness, and unconventionality. In three preregistered online studies, we compared these scientific components to the laypersons’ understanding of autonomy. In Study 1, participants (N = 222) listed at least three and up to ten examples of autonomous (self-determined) behaviors. Here, the participants named 807 meaningful examples, which we systematically categorized into 34 representative items for Study 2. Next, new participants (N = 114) rated these regarding their autonomy. Finally, we transferred the five highest-rated autonomy and the five lowest-rated autonomy items to Study 3 (N = 175). We asked participants to rate how strongly the items represented dignity, independence from others, morality, self-awareness, and unconventionality. We found all components to distinguish between high and low autonomy items but not for unconventionality. Thus, we conclude that laypersons’ view corresponds with the scientific characteristics of dignity, independence from others, self-awareness, and morality. A qualitative analysis of the examples also showed that both reactive and reflective definitions of autonomy are prevalent.
This cumulative dissertation examines learning in chemistry laboratories, focusing on the challenges and benefits of problem-based learning (PBL) for novices in the lab. It addresses the lack of consistent understanding about what should be learned in labs and why it's important. The research aims to understand what students learn, how they learn, and how lab learning can be improved.
A central concept in PBL labs is Information Literacy, defined as a sociocultural practice enabling learners to identify and use information sources within a specific context as legitimized by the practice community.
The first publication, Wellhöfer and Lühken (2022a), investigates the relationship between PBL and learner motivation. It identifies factors that can foster students' intrinsic motivation in a PBL lab. Autonomy is found to be a key factor, increasing student motivation and presenting a model of the autonomous scientific process. This model involves four steps: information acquisition, designing and applying experimental procedures, experimental feedback, and autonomous process optimization. The results suggest that intrinsic motivation in PBL labs can be enhanced by enabling students to independently execute these steps.
The second publication, Wellhöfer and Lühken (2022b), examines the information process students undergo during their first PBL lab. Using a sociocultural framework, it explores Information Literacy to understand students' handling of information and their perceptions of the information process. The findings reveal that in PBL labs, developing a practical, applicable experimental procedure is crucial for problem-solving and significantly shapes the information-acquisition process. This process is iterative, influenced by new information, leading to more precise information needs. Students assess information quality based on its usefulness for their problem, implementability (considering cognitive understanding, available equipment, and psychomotor skills), and safety.
Furthermore, the role of privileged knowledge forms in evaluating the quality of text sources is explored. Students viewed non-scientific sources as "poor" and scientific sources as "good," yet used both for information gathering. There were discrepancies between their assessment of source quality and actual use, indicating that perception of source quality doesn't always affect their practical decisions.
The third publication, Wellhöfer, Machleid, and Lühken (2023), investigates students' information practices in the lab, focusing on discourse between novice learners and experienced assistants. It shows that theoretical knowledge isn't sufficient for independent practical action, and students need actionable social information from experienced community members. The results highlight that information literacy in the lab for newcomers to a community of practice has distinctive features, and physical experience and tacit knowledge are crucial for learning the methods and group-specific knowledge of the practice community. The article demonstrates how learning information literacy in a practice community requires a social and physical experience and provides insights on how educators can support this process.
In the last twenty years, a variety of unexpected resonances had been observed within the charmonium mass region. Although the existence of unconventional states has been predicted by the quantum chromodynamics (QCD), a quantum field theory describing the strong force, a clear evidence was missing. The Y(4260) is such an unexpected and supernummerary state, first observed at BaBar in 2005, and aroused great interest, because it couples much stronger to hidden charm decays (charm-anticharm states like J/Psi or h_c) instead of open charm decays (D meson pairs). This is unusual for states with masses above the D anti-D threshold. Furthermore, it decays into a charged exotic state Y(4260)->Z_c(3900)^+- pi^-+. The charge of the Z_c(3900)^+- is an indication that it comprises of two more quarks than the charm-anticharm pair, and could therefore be assumed to be a four-quark state. Due to these still not understood properties of these QCD-allowed states, they are referred to as exotic XYZ states to emphasize their particularity.
In 2017, the collaboration of the Beijing Spectrometer III (BESIII) investigated the production reaction of the Y(4260) resonance based on a high-luminosity data set. This significantly improved precision of the measurement of the cross-section sigma(e+e- -> J/Psi pi^+ pi^-) permitted a resolution into two resonances, the Y(4230) and the Y(4360). The Z_c(3900)^+- had been discovered by the BESIII collaboration in 2013, thus this experiment at the Beijing Electron-Positron Collider II (BEPCII) is a top-performing facililty to study exotic charmonium-like states.
In this work, an inclusive reconstruction of the strange hyperon Lambda in the charmonium mass region is performed to study possible decays of Y states in order to provide further insight into their nature. Finding more states or new decay channels may provide crucial hints to understand the strong interaction beyond nonperturbative approaches.
Three resonances are observed in the energy dependent cross-section: the first with a mass of (4222.01 +- 5.68) MeV and a width of (154.26 +- 28.16) MeV, the second with a mass of (4358.88 +- 4.97) MeV and a width of (49.58 +- 13.54) MeV and the third with a mass of (4416.41 +- 2.37) MeV and a width of (23.88 +- 7.18) MeV. These resonances, with a statistical significance Z > 5sigma, can be interpreted as the states Y(4230), Y(4360) and psi(4415).
Additionally, a proton momentum-dependent analysis strategy has been used in terms of the inclusiveness of the reconstruction and to address the momentum discrepancies between generic MC and measured data.
In this dissertation, different aspects of turbulent transport and thermally driven flows over complex terrain are investigated. Two publications concentrate on the vertical heat and moisture exchange in the convective boundary layer over mountainous terrain. To study this, Large-Eddy Simulation (LES) is used. Both turbulent and advective transport mechanisms are evaluated over the simple orography of a quasi-two-dimensional, periodic valley with prescribed surface fluxes. Here, terrain elevation varies along only one of the horizontal coordinate axes. Even a relatively shallow orography, possibly unresolved in existing numerical weather prediction models, modifies the domain-averaged moisture and temperature profiles. For the analysis, the flow is decomposed into a local turbulent part, a local mean circulation, and a large-scale part. An analysis of the turbulent kinetic energy and turbulent heat and moisture flux budgets shows that the thermal circulation significantly contributes to the vertical transport. It is found that thermal upslope winds are important for the moisture transport from the valley to the mountain tops. In total, moisture export out of the valley is mostly accomplished by the mean circulation. On the temperature distribution, which is horizontally relatively homogeneous, the thermal circulation has a weaker impact. If an upper-level wind is present, it interacts with the thermal circulation. This weakens the vertical transport of moisture and thus reduces its export out of the valley. The heat transport is less affected by the upper-level wind because of its weaker dependence on the thermal circulation. These findings were corroborated in a more realistic experiment simulating the full diurnal cycle using radiation forcing and an interactive land surface model.
Based on these results, coherent turbulent structures in the convective boundary layer over non-flat terrain are studied in further detail. A conditional sampling method based on the concentration of a decaying passive tracer is implemented in order to identify the boundary-layer plumes objectively. Conditional sampling allows to quantify the contribution of plume structures to the vertical transport of heat and moisture. In case of the idealized valley, vertical transport by coherent structures is the dominant contribution to the turbulent components of both heat and moisture flux. It is comparable in magnitude to the advective transport by the mean slope-wind circulation, although it is more important for heat than for moisture transport. A set of less idealized simulations considers the flow over three-dimensional terrain. In this case, conditional sampling is carried out by using a simple domain-decomposition approach. We demonstrate that thermal updrafts are generally more frequent on hill tops than over the surroundings, but they are less persistent on the windward sides when large-scale winds are present in the free atmosphere.
The tools for flow decomposition and budget analysis are also applied in another idealized case with a quasi-two-dimensional valley featuring the stable boundary layer. Here, the formation of a low stratus cloud is investigated. The main driver for the cloud formation is radiative cooling due to outgoing longwave radiation. Despite a purely horizontal flow, the advection terms in the prognostic equations for heat and moisture produce vertical mixing across the upper cloud edge leading to a loss of cloud water content. However, this behavior is not due to any kind of thermally-driven circulation. Instead, this spurious mixing is caused by the diffusive error of the advection scheme in regions where the sloping surfaces of the terrain-following vertical coordinate intersect the cloud top. It is shown that the intensity of the (spurious) numerical diffusion strongly depends on the horizontal resolution, the order of advection, and the choice of the scalar advection scheme. A LES with 4 m horizontal resolution serves as a reference. For horizontal resolutions of a few hundred meters, carried out with a model setup as it is used in Numerical Weather Prediction, a strong reduction of the simulated liquid-water path is observed. In order to keep the (spurious) numerical diffusion at coarser resolutions small, at least a fifth-order advection scheme should be used. In the present case, a WENO scalar advection scheme turns out to increase the numerical diffusion along a sharp cloud edge compared to an upwind scheme. Furthermore, the choice of the vertical coordinate has a strong impact on the simulated liquid-water path over orography. With a modified definition of the terrain-following sigma coordinate, it is possible to produce cloud water where the classical sigma coordinate does not allow any cloud formation.
Subject of this thesis was the investigation of the actin-interacting and glucocorticoid-sensitive Protein DRR1 (or Fam107a) and its role in promoting stress resilience in the murine hippocampus.
We proposed the hypothesis that DRR1 through its actin-binding properties specifically modulates neuronal actin dynamics and promotes resilience through synaptic plasticity leading to subsequently improvement of cognitive performance and social behavior. The accompanied AMPA-receptor transport could create an efficient way regulating neural function and complex behavior during stress episodes.
By utilizing fluorescent immunohistochemistry, we showed basal expression of DRR1 primarily in the murine cerebellum and hippocampal CA3 and CA1 area. Co-staining with different cell marker proteins showed DRR1 expression in neurons, microglia and especially in astrocytic end-feet, which create contact to the brain vasculature.
To test whether DRR1 and AMPA receptor function correlate to modulate stress-associated consequences, primary hippocampal neuron cultures were transduced with adeno-associated virus (AAV) for overexpression or suppression of the protein. Western Blot analysis showed a positive correlation between the AMPA-receptor subunit GluR2 and DRR1 amounts. Further the application of the proximity ligation assay (PLA) in untreated neural cultures indicated interaction between DRR1 and the AMPA receptor subunit GluR2. To address whether DRR1 even affects AMPAR trafficking we performed the “newly inserted assay” after AAV-treatment of primary hippocampal neuron cultures. Suppression of DRR1 revealed less newly inserted GluR2 subunits as compared to controls. Inconclusive were the results upon DRR1 overexpression, however they point to no changes.
In the second part we correlated behavioral phenotypes originating from in vivo overexpression and suppression of DRR1 in the murine hippocampus with potential alterations in neuronal morphology. Therefore, in vitro analysis was performed utilizing AAV transduced primary hippocampal cultures overexpressing or suppressing DRR1. Synchronously the viral vector included a green fluorescent protein (GFP) being expressed throughout the complete neural cell. GFP staining was used to verify successful transfection and for reconstruction of dendritic arbors and dendritic stretches for spine classification. DRR1 suppression showed reduced total spine numbers especially evoked by reduced numbers of immature spine classes – namely long thin spines and filopodia. Whereas mature mushroom spines and stubby spines were unaffected. By overexpressing DRR1, tendencies inclined against higher total dendritic lengths, branch points and increased dendritic arbors in comparison to controls. In regard of spines, total numbers were unaffected. However, mature mushroom spines were significantly declined in numbers, but compensated by increased numbers of immature long thin spines and filopodia.
Chronic social defeat stress (CSDS) is widely used in mouse models to study the effects of stress and resilience. We exposed C57Bl/6J mice expressing GFP under the Thy1 promoter CSDS and categorized them into resilient (R+/-), susceptible (R-/-) and non-learning (R+/+) mice following a modified social interaction test (MSIT). We found alterations in CA1 spine compositions with resilient animals resembling the untreated phenotype. Stress susceptible and non-learning animals displayed reduced numbers in stubby spines with simultaneous increases in mature mushroom spines. In addition, we could detect a tendency towards more immature spines in susceptible animals and non-learners, mirroring our in vitro results.
Finally, we present a different investigative approach in this thesis. Sequenced acute stress was previously found to compromise cognition including spine loss.
We aimed to investigate the implication of acute stress on DRR1 levels and its occurrence in diverse cell types of the brain. We subjected one group of C57Bl/6J mice to acute stress and injected another group with the artificial glucocorticoid DEX. Six hours post stress, animals were perfused and brains were subsequently immunobiologically analyzed. We found DRR1 protein levels elevated in the hippocampus of stressed and DEX-treated animals compared to controls. Interestingly, DRR1 seemed was especially elevated in endothelial cells. This coincides with our investigations finding DRR1 present in astrocytic end-feet under basal conditions and might claim a participation of DRR1 in the blood-brain-barrier integrity.
Our results show DRR1 as actin-interacting and glucocorticoid-sensitive gene affecting structural plasticity of hippocampal spines. Moreover, DRR1 directly interacts with AMPA glutamate receptors and presumably is involved in AMPA trafficking to the postsynaptic membrane. In addition, this study could demonstrate that DRR1 is expressed by other cell types of the brain. Of special interest is DRR1’s occurrence in astrocytic end-feet and endothelial cells suggesting a role as integrator of cell-cell communication and to this end also acting as modifier of stress-induced consequences at the neurovascular unit.
In vivo data of chronically stressed mice displayed no phenotypic differences in hippocampal pyramidal neurons of resilient animals as compared to unstressed mice. Morphological alterations of spine structures were particularly visible in stress susceptible and non-learning animals. Integrating our findings with existing behavioral data, we can conclude that DRR1 plays a role in stress resilience whereby it needs to be expressed in a tightly managed homeostatic equilibrium.
Der erste Teil der vorliegenden Arbeit beinhaltet die funktionelle Analyse von fünf Oberflächenproteinen von B. recurrentis die die Fähigkeit besitzen, die Aktivierung von humanen Komplement zu inhibieren und Borrelien vor Bakteriolyse zu schützen. Im zweiten Teil der Arbeit wurden zwei immunologische Testverfahren mit hoher Sensitivität sowie Spezifität entwickelt und mit zahlreichen Patientenseren evaluiert. Die entwickelten Tests könnten in Zukunft als zuverlässige Instrumente für eine gesicherte Diagnose von LRF eingesetzt werden.
Eine Sequenzanalyse führte zur Identifizierung eines neuen Proteinclusters, welches die fünf untersuchten Komplement-inhibierenden Proteine als „Cluster of Complement-targeting and Host-interacting Proteins“ oder „Chi-Gencluster“, zusammenfasst. Diese Oberflächenproteine wurden als ChiA, ChiB, ChiC, ChiD und ChiE bezeichnet. Weiterführende Sequenzanalysen ergaben, dass das Chi-Gencluster extrem hoch konserviert ist und sowohl in den ersten B. recurrentis-Isolaten aus den 1990er Jahren als auch in B. recurrentis-Stämmen nachgewiesen werden konnte, die 2015 aus Patienten isoliert wurden.
Durch funktionelle Analysen konnte gezeigt werden, dass alle fünf Chi-Proteine in der Lage sind den alternativen und terminalen Komplementweg zu inhibieren. Ebenfalls konnte für die Proteine ChiB, ChiD sowie ChiE nachgewiesen werden, dass die Interaktion mit der Komplementkomponente C5 dosisabhängig verläuft.
Die strukturelle Aufklärung des Proteins ChiB ermöglichte es Aminosäuren zu identifizieren, von denen angenommen wurde, dass sie für die Interaktion mit Komplement eine Rolle spielen könnten. Durch in vitro Mutagenese konnten insgesamt fünf verschiedene Varianten von ChiB generiert werden, die jedoch keine Veränderungen in ihrem Komplement-inhibierenden Potential gegenüber dem unveränderten ChiB-Protein aufwiesen. Weder in der Inhibition des alternativen oder des terminalen Komplementweges, noch in der Interaktion mit den untersuchten Komplementkomponenten C3b, C5 und C9.
Weiter konnte gezeigt werden, dass die lytische Aktivität von Humanserum durch Vorinkubation mit ChiB, ChiC, ChiD und ChiE drastisch reduziert werden konnte, sodass Serum-sensible Borrelienzellen in Gegenwart von Komplement überlebten. „Gain-of-function“ B. garinii-Transformanten, welche mit dem entsprechendem Chi-kodierenden Gen transformiert wurden, bestätigten die mit den gereinigten Proteinen erhobenen Ergebnisse.So konnte nachgewiesen werden, dass ChiB-, ChiC- oder ChiD-produzierende „Gain-of-function“ B. garinii Transformanten, nicht jedoch ChiE- produzierende Zellen, in der Lage waren einen Serum-resistenten Phänotypen auszubilden. Für Transformanten, die zwei-, drei- oder vier Chi-Proteine in verschiedenen Kombinationen gleichzeitig produzierten, konnte allerdings die Fähigkeit in Gegenwart von Humanserum zu überleben nicht bestätigt werden.
Molekulare Analysen mit verschiedenen RF-Borrelienstämmen führten zum Nachweis, dass die fünf Chi-kodierenden Gene bei allen Isolaten vorhanden sind und unter in vitro Bedingungen exprimiert werden. Im Gegensatz zu B. recurrentis PAbJ, ließ sich das HcpA kodierende Gen in B. duttonii LAI nicht nachweisen, jedoch alle dem Chi-Cluster zugehörigen Gene. Bei B. duttoni V fehlte das gesamte Chi-Cluster sowie die für CihC- und HcpA-kodierenden Gene. Durch eine Western Blot-Analyse konnte mit spezifischen Antikörpern bestätigt werden, dass die Proteine CihC, HcpA und ChiB in B. recurrentis A17 unter in vitro Bedingungen produziert wurden.
Im zweiten Teil der vorliegenden Arbeit wurden durch die Analyse der IgM- und IgG-Immunreaktivitäten der LRF-Patientenseren zwei Proteine identifiziert, CihC und GlpQ, die als potenzielle Antigene für die Serodiagnostik des LRF evaluiert wurden. Eine initiale Evaluierung des IgM Lineblot-Immmunoassays zeigte jedoch nur eine geringe Sensitivität für die beiden Antigene, während der IgG Lineblot-Immunoassay eine sehr hohe Sensitivität aufwies. Der ELISA hingegen zeigte bei einer Kombination beider Antigene sehr gute Sensitivitäten und Spezifitäten. Um die starke Hintergrundfärbung bei den Lineblot-Immunoassays, welche eine korrekte Bewertung der Reaktivitäten gegenüber CihC erheblich erschwerten, zu minimieren, wurde ein „Epitop-Mapping“ durchgeführt, um immunogene Regionen innerhalb des CihC-Proteins zu lokalisieren. Eine zweite Evaluierung mit dem immunreaktiven N-terminalen CihC-Fragment CihC-N führte zu einer deutlichen Verbesserung der IgG Lineblot-Immunoassays mit einer Sensitivität von 100 % und einer starken Reduktion der Hintergrundfärbung. Zusätzlich konnte die Sensitivität der IgM-ELISA deutlich verbessert werden. Die Verwendung von CihC-N führte beim IgG-ELISA zur Herabsetzung des Cut-off-Wertes und zu einer besseren Unterscheidung zwischen den positiven LRF-Seren und den verwendeten Kontrollseren. Im Rahmen dieser Arbeit konnten somit zwei serologische in vitro Diagnostika entwickelt werden, die als zuverlässige Point-of-Care-Diagnostik in klinischen Studien eingesetzt werden könnten. Zur Steigerung der Sensitivität des IgM-Lineblot-Immunoassays sollten allerdings weiterführende Untersuchungen mit weiteren immunreaktiven Antigenen, wie z.B. den Vmp-Proteinen von B. recurrentis, angestrebt werden.
The functional and molecular role of transglutaminase 2 in hematopoietic stem and progenitor cells
(2023)
Long-term repopulating hematopoietic stem cells (LT-HSCs) that reside in the bone marrow (BM) give rise to all blood cell types including erythrocytes, leukocytes and platelets. LT-HSCs are mainly quiescent during steady state hematopoiesis. LT-HSCs can process self-renewal to expand and maintain stemness, or commit to differentiation into short-term (ST) repopulating HSC and multipotent progenitors (MPPs). MPPs differentiate into oligopotent lineagerestricted progenitors which eventually produce all mature blood cell lineages, and thereby regenerate hematopoietic system.
Previous studies have shown in transcription profiles and quantitative PCR (qPCR) analysis that transglutaminase 2 (Tgm2) is one of the most upregulated genes in quiescent LT-HSCs in comparison to active HSCs, mobilized HSCs, ST-HSCs, MPPs, as well as leukemic stem cells (LSC). However, the reason why Tgm2 is strongly upregulated in dormant mouse LTHSCs and what the role of Tgm2 is in LT-HSCs has not been investigated yet.
Tgm2, encoded by the Tgm2 gene, is a multi-functional protein within the transglutaminase family. It has been found to be widely expressed inside and outside the cells. It consists of four domains and two functionally exclusive forms that are regulated by the Ca2+ and GTP concentration. Besides the most well-known transglutaminase enzymatic activity for transamidation, deamidation and crosslinking, Tgm2 acts also as a GTPase/ATPase, kinase, adhesion/scaffold protein, as well as disulfide isomerase. The role of Tgm2 in hematopoiesis remains elusive. Accordingly, the aim of this dissertation is to investigate the role of Tgm2 in murine hematopoiesis, especially in murine LT-HSCs.
Firstly, the expression of Tgm2 was analyzed in highly purified murine hematopoietic stem and progenitor cell (HSPC) populations. Low input label-free mass spectrometric proteomics and WES protein analysis confirmed the highly specific expression of Tgm2 in LT-HSCs at protein level. Already at the state of MPPs, Tgm2 protein was almost absent with further decline towards oligopotent progenitors. These results indicated Tgm2 as a specific protein marker for LT-HSCs, justifying the future generation of a fluorescent reporter mouse line based on endogenous Tgm2 tagging.
To delineate the functional and molecular role of Tgm2 in LT-HSCs, a conditional Tgm2 knockout mouse model was generated using the Mx1-Cre/loxP system, with the loxP sites flanking the coding exons of the catalytic domain of Tgm2. After PolyIC-mediated induction, a more than 95% knockout efficiency was observed in purified LT-HSCs and the protein expression of Tgm2 was confirmed to be vanished in the purified LT-HSCs from conditional Tgm2-KO mice. Conditional knockout mice are viable and show no aberrant organ functions.
In steady state condition, the distribution of mature blood cell lineages and immunophenotypically-defined HSPC populations within the BM, the mitochondrial potential of HSPCs reflected by the non-invasive cationic dye JC-1, as well as the cell cycle status of HSPCs mirrored by the intracellular Ki67 staining did not show any significant variations upon loss of Tgm2. However, the in vitro continuous observation of prospectivly isolated LT-HSCs by time-lapse microscopy-based cell tracking revealed a delayed entry into cell cycle with a two fold increased apoptosis rate after knocking out Tgm2, indicating Tgm2 expression might be essential for survival of LT-HSCs. Moreover, while the absence of Tgm2 in LT-HSCs did not influence differentiation and lineage choice in vitro, overexpression of Tgm2 in LT-HSCs resulted in an increase of the most immature subpopulation upon cultivation. All these features were not observed in Tgm2-deleted MPPs, suggesting Tgm2 playing a specific function at the level of LT-HSCs. Upon stress hematopoiesis, induced by the administration of 5-fluorouracil (5-FU), there was a trend towards delayed recovery of LT-HSCs lacking Tgm2. Although Tgm2 express specificly in LT-HSCs, two rounds of competitive BM serial transplantation displayed an equal overall engraftment and multi-lineage reconstitution of LT-HSCs from Tgm2-WT and Tgm2-KO mice in peripheral blood (PB), BM and spleens. Interestingly, LT-HSCs from Tgm2-KO mice reconstituted to more myeloid cells and fewer B cells in the first four weeks after primary transplantation, which disappeared at later time points.
Gene expression profiling and simultaneous single cell proteo-genomic profiling indicated that HSPCs and LT-HSCs from Tgm2-KO mice were transcriptionally more active. A heterogeneity of Tgm2 expression within Tgm2-WT LT-HSCs was revealed by single cell data. Commonly up-regulated genes in Tgm2-KO LT-HSCs and MPPs were significantly involved in regulation of transcription from RNA polymerase II promoter in response to stress, positive regulation of cell death as well as negative regulation of mitogen-activated protein kinase (MAPK) signaling pathways. In Tgm2-KO LT-HSCs, 136 up-regulated genes demonstrated an enrichment of genes involved in apoptosis, as well as negative regulation of MAPK signaling pathway.
Taken together, this dissertation shows that Tgm2 protein is highly specifically expressed in LT-HSCs, but not in subsequent progenitor populations. However, Tgm2 is not essential for differentiation and maturation of myeloid lineages, the proliferation and the long-term multilineage reconstitution potential of LT-HSCs after transplantation. Tgm2 might be involved in accurate stress response of LT-HSCs and the transition from LT-HSCs into MPPs, meaning that the absence of Tgm2 results in poor survival, myeloid bias upon transplantation, as well as slower recovery upon chemotherapeutic treatment.
Nanoarzneimittel haben in den letzten Jahren in der Therapie verschiedener Erkrankungen immer mehr an Bedeutung gewonnen. Dadurch hat auch die Anzahl zugelassener Arzneimittel mit an Arzneistoffträgern wie Liposomen gebundenen Wirkstoffen zugenommen. Weil für die Zulassung, neben der Wirksamkeit und Unbedenklichkeit, auch die Qualität der neuen Arzneimittel gewährleistet sein muss, spielen die verschiedenen Eigenschaften der Arzneistoffträger eine wichtige Rolle in der Qualitätskontrolle. Neben der Partikelgröße, der Partikelgrößenverteilung und der Oberflächenladung spielt die (Rest-)Kristallinität des Wirkstoffs und die Wirkstofffreisetzung eine wesentliche Rolle für die erfolgreiche in vivo-Performance von Nanoarzneimitteln. Zur Bestimmung der Wirkstofffreisetzung aus kolloidalen Arzneistoffträgern wie Liposomen, Nanopartikeln oder Mizellen gibt es bis heute keine Standardmethoden. In der Forschung und der pharmazeutischen Industrie werden folglich verschiedene Methoden wie Filtration, Zentrifugation oder Dialyse verwendet, um den freigesetzten Wirkstoff zu bestimmen. Dabei ist die Wahl der Separationsmethode auf die Eigenschaften der Arzneistoffträger abzustimmen.
In der vorliegenden Arbeit wurde eine dialysebasierte Apparatur, der Dispersion Releaser (DR), zur Untersuchung der in vitro Wirkstofffreisetzung aus kolloidalen Trägersystemen eingesetzt. Diese kann direkt mit den Apparaturen I/II der Arzneibücher der Europäischen Union (Ph. Eur.) und der Vereinigten Staaten (USP) gekoppelt werden. Zur Untersuchung der Wirkstofffreisetzung wird die Formulierung in das Donorkompartiment gegeben, sodass der freigesetzte Wirkstoff infolge über die Dialysemembran in das Akzeptorkompartiment permeiert. Dort kann dieser mittels HPLC analysiert werden. Besonders hervorzuheben ist das synchrone Rühren in beiden Kompartimenten des DR, worüber andere dialysebasierte Apparaturen nicht verfügen.
Die Entwicklung und Patentierung eines funktionsfähigen Prototyps des DR erfolgte an der Goethe Universität, Frankfurt am Main und wurde im Rahmen dieser Arbeit gemeinsam mit der Pharma Test Apparatebau AG (Hainburg, Deutschland) zu einer kommerziell erwerbbaren Apparatur (Pharma Test Dispersion Releaser, PTDR) weiterentwickelt. Innerhalb dieser Kollaboration wurde der Prototyp des DR unter Einbezug der Anforderungen der pharmazeutischen Industrie rekonstruiert. Eine erleichterte Anwendung für den Nutzer wurde dabei mitberücksichtigt.
Die finale Apparatur wurde zuletzt einer ausgiebigen Validierung unterzogen, bei der Diclofenac und Hydrocortison als Modellarzneistoffe dienten. Neben Untersuchungen zur Hydrodynamik und dem Einfluss der Umdrehungszahl auf die Membranpermeationsrate kM wurde eine Methode mit Gold-Nanopartikeln zur Bestimmung der Dichtigkeit des Systems entwickelt. Hierbei wurden Messungen mit einer UV/Vis-Methode und mit dynamischer Lichtstreuung durchgeführt, um die Abwesenheit der Goldpartikel im Akzeptorkompartiment nachzuweisen. Der Einfluss von Proteinen im Freisetzungsmedium auf die Membran-permeation wurde ebenfalls untersucht.
Der DR wurde ursprünglich zur Untersuchung von parenteralen Nanoformulierungen entwickelt. Aufgrund der bisher noch nicht erfolgten Untersuchung von halbfesten Zubereitungen im DR, wurde die Apparatur im Rahmen dieser Forschungsarbeit für zwei verschiedene Diclofenac-Gele (Voltaren® Emulgel, Olfen® Gel) unter verschiedenen Bedingungen evaluiert. Dabei konnte unter non-sink-Bedingungen der Einfluss der lipophilen Phase des Voltaren® Emulgels (GlaxoSmithKline Consumer Healthcare GmbH & Co. KG, München, Deutschland) gezeigt werden. Im Vergleich zum fettfreien Olfen® Gel (Mepha Pharma AG, Basel, Schweiz) zeigte Voltaren® Emulgel eine vollständige Freisetzung unter den erschwerten Löslichkeitsbedingungen.
Mit Hydrocortison als Modellsubstanz wurden vier verschiedene Proliposomen zur vaginalen An¬wendung formuliert. Neben der Charakterisierung der Partikelgröße und der Verkapselungs¬effizienz wurden Messungen mit dynamischer Differenzkalorimetrie durch-geführt und Aufnahmen zur morphologischen Charakterisierung mittels Transmissions-elektronen¬mikroskopie der Liposomen erstellt. Die Wirkstofffreisetzung des Hydrocortisons aus dem rekonstituierten liposomalen Gel sowie die Permeabilität über eine Zellmonoschicht wurde vergleichend untersucht. Dabei wurden Zelllinien aus humanem Cervixkarzinom beziehungsweise Endometriumkarzinom eingesetzt. Die Unterschiede der Formulierungen konnten vom DR sensitiver erfasst werden und die Verkapselungseffizienz als relevanter Faktor für die in vivo-Performance festgelegt werden.
Weil die tatsächliche Wirkstofffreisetzung durch die Permeation über die Dialysemembran überlagert werden kann, wurde neben der Standardisierung der Konstruktion die Auswertung mit Hilfe eines neuen mathematischen Modells, das auf dem Fick’schen Diffusionsgesetz basiert, verbessert. Das Normalisieren des Freisetzungsprofils mit Hilfe des mathematischen Modells dient dazu, die tatsächliche Wirkstofffreisetzung zu berechnen und den Vergleich verschiedener Freisetzungen ohne den Einfluss der Membranpermeation zu ermöglichen. Im Zuge der Validierung des DR wurde das mathematische Modell ebenfalls erfolgreich validiert.
In der vorliegenden Forschungsarbeit wurde eine neue Konstruktion des DR für die kommerzielle Anwendung entwickelt und validiert. Nebenbei wurde der Auswerteprozess zur Berechnung der diffusionsbereinigten Wirkstofffreisetzung vereinheitlicht und validiert. Zuletzt wurde das Anwendungsgebiet des DR von parenteralen Nanoformulierungen auf halbfeste Arzneiformen erweitert.
Sphingolipids are not only structural components of cell membranes but can also act as signalling molecules in different pathways. Sphingolipid precursors, Ceramides (Cer), are synthesized de novo by six different synthases (CerS1-6) which generate Cer of different chain lengths. Cer can be further synthesized to glycosphingolipids and sphingomyelin. Cell membrane parts that are enriched in glycosphingolipids are so-called lipid rafts and can function as signalling platforms for different receptors, such like the T cell receptor (TCR). CD4+ T cells play a crucial role in the development of ulcerative colitis, a chronic inflammatory disease of the colon. As CerS3 expression was increased in the white blood cells of human colitis patients, the role of CerS3 in the TCR signalling and colitis was investigated in this dissertation. By lenti-viral transduction of a CerS3-shRNA into a CD4+ Jurkat cell line, it was shown that CerS3 has an impact on activated T cells. A decrease of different sphingolipids after T cell activation via CD2/3/28 activation beads and IL2 treatment was observed that was accompanied by an inhibition of Zap70 phosphorylation, an important protein of the TCR signalling. The impaired TCR signalling led to a diminished NFAT1 translocation into the nucleus which subsequently led to a reduced NFAT1- dependent TNFα release. Downregulation of CerS3 in primary CD4+ T cells, obtained from the blood of healthy volunteers, also showed a reduced release of pro-inflammatory cytokines after activation. This dissertation demonstrates a pivotal role for CerS3 in T cell function and highlights CerS3 as potential new target for T cell driven colitis.
Bislang sind die strukturellen Voraussetzungen für die Selektivität von Agonisten an den Retinoid Rezeptor Subtypen RXRα, RXRβ und RXRγ kaum erforscht, obwohl RXR-Modulatoren, die eine Subtypen-Präferenz aufweisen, aufgrund der unterschiedlichen Expressionsmuster der Subtypen Gewebe-spezifische Effekte vermitteln und somit Nebenwirkungen verringern könnten. Der Grund dieser Forschungslücke liegt teilweise darin, dass die Entwicklung Subtypen-selektiver RXR-Agonisten aufgrund der enormen strukturellen Ähnlichkeit der Ligandbindestellen in den RXR-Subtypen - alle Aminosäuren, die die Bindungsstellen bilden sind identisch - als unerreichbar angesehen wurde. Die Entdeckung des Naturstoffs Valerensäure als RXR-Agonist mit ausgeprägter Präferenz für den RXRβ-Subtyp hat jedoch gezeigt, dass Subtypen-selektive RXR-Modulation möglich ist249 und SAR-Studien an unterschiedlichen RXR-Ligand-Chemotypen haben in der Folge bestätigt, dass die Entwicklung von RXR-Liganden mit Subtypen-Präferenz erreicht werden kann.
Auf der Basis von Valerensäure und der in früheren Arbeiten entwickelten RXR-Agonisten wurden in dieser Arbeit Strukturmodifikationen identifiziert, die zu einer RXR-Subtypen-Präferenz beitragen. Durch die Verschmelzung dieser Strukturelemente ist es gelungen, einen neuen RXR-Agonist-Chemotyp (A) zu entwerfen, der durch strategische Methylierung und weitere Strukturmodifikationen zur Präferenz für jeden Subtyp optimiert werden konnte.
In einem Adipozyten-Differenzierungsexperiment konnte gezeigt werden, dass RXRα der wichtigste Heterodimer-Partner von PPARγ während der Adipogenese ist. Ferner unterstrich diese biologische Untersuchung das Potenzial von 99, 103 und 105 als Subtyp-präferentielle RXR-Agonisten in vitro Experimenten zu dienen.
Auf der Grundlage dieser Ergebnisse wurde eine mögliche Rolle von Acrylsäurepartialstrukturen natürlicher RXR-Liganden basierend auf dem zuvor entwickelten Chemotyp untersucht. Hierzu wurden das α-Methylacrylsäuremotiv des Naturstoffs Valerensäure (18) und das β-Methylacrylsäuremotiv des endogenen RXR-Agonisten 9-cis-Retinsäure in den Chemotyp A integriert (Chemotyp B), um die Rolle dieser Acrylsäuregruppen bei der Vermittlung der RXR-Subtypen-Selektivität zu untersuchen. Die Strukturmodifikationen an B zeigten, dass nur die α-Methyl-substituierte Acrylsäurekette toleriert bzw. von RXRβ präferiert wurde, was die RXR-Präferenz der Valerensäure (18) unterstützte.
In dieser Arbeit konnte gezeigt werden, dass RXR-Liganden mit Subtypen-Präferenz realisierbar sind und durch gezielte Strukturmodifikationen in ihrer Präferenz gesteuert werden können. Die Erkenntnisse zu den Struktur-Wirkungs-Beziehungen der neuen RXR-Agonist-Chemotypen A und B erweitern den Wissenstand über die strukturellen Voraussetzungen von RXR-Liganden für die Subtypen-Präferenz deutlich.
Eine überlebenswichtige Eigenschaft von Mensch und Tier ist es, sich bei Gefahr durch eine Schreckreaktion in Sicherheit zu bringen. Doch woran erkennt ein Organismus, in welcher Situation es „sinnvoll“ wäre, sich zu erschrecken und welche Eigenschaften sensorischer Stimuli tragen zu dem Gefahreneindruck bei? Bei plötzlich eintretenden, lauten auditorischen Reizen kann es zur Auslösung der akustischen Schreckreaktion kommen. Dies führt bei Menschen, aber auch bei kleineren Säugetieren zu einer reflexartigen Kontraktion der Nacken-, Gesichts- und Skelettmuskulatur. Die Erforschung der akustisch evozierten Schreckreaktion (ASR) dient dem besseren Verständnis der neurobiologischen Grundlagen sensorischer Verarbeitung. Modulationen der ASR mithilfe von Präpulsen (Präpulsinhibition) ermöglichen Einblicke in die Funktion der Kochlea, des Hörnervs, der Hirnstammstrukturen und anderer beteiligter Gehirnregionen.
In dieser Arbeit wurden kurzzeitige Änderungen von Frequenz oder Intensität des akustischen Hintergrundes als neuartige Präpulse untersucht. Die Bedeutung verschiedener Reizparameter dieser Präpulse wurde in der vorliegenden Arbeit zum ersten Mal systematisch erforscht. Um zu prüfen, welche Präpulsstimulationen eine Inhibition der ASR auslösen können, wurde eine Reihe von Parametern umfassend getestet. In einem weiteren Schritt wurde analysiert, ob es mithilfe von gezielten Änderungen von Frequenz oder Intensität möglich sein könnte, Unterscheidungsschwellen, oder gar Hörschwellen von Versuchstieren zu bestimmen.
Die Experimente zur Modulation der ASR wurden mit weiblichen Sprague Dawley-Ratten durchgeführt. Dabei wurde eine Vielzahl von Verhaltensparadigmen untersucht. Dazu zählten Präpulse mit unterschiedlichem Frequenzgehalt und variabler Dauer. Zusätzlich wurden neuartige Paradigmen etabliert, um die Fähigkeit zur Frequenz- und Intensitätsdiskriminierung zu untersuchen. Hierbei wurde der Frequenzgehalt oder die Intensität einer kontinuierlichen Hintergrundstimulation verändert, um eine Präpulswirkung zu erzeugen. Um die Möglichkeiten der Bestimmung von Hörschwellen mittels der Präpulsinhibition (PPI) zu ergründen, wurde die Intensität von Präpulsen systematisch verändert. Die so generierten Schwellenwerte wurden durch die Messung früher akustisch evozierter Hirnstammpotenziale verifiziert. Schließlich sollten, unter Zuhilfenahme der Signaldetektionstheorie, aus den erhobenen Daten diverse Schwellen bestimmt werden: Für die Intensitätsänderungen der Präpulse in Stille wurden Hörschwellen bestimmt, während bei Änderungen der Frequenz und Intensität Unterscheidungsschwellen bestimmt werden sollten.
Mit steigender Größe eines Frequenzsprungs in einer kontinuierlichen Hintergrundstimulation war eine stärkere Inhibition der ASR feststellbar; ein Effekt, der stark von der Hintergrundfrequenz abhängig war. Bei einer Stimulation mit 8 kHz konnten signifikant höhere Inhibitionswerte erzielt werden als mit 16 kHz. Bei der Untersuchung des Zeitablaufs der Stimulation ergab sich, dass eine abgesetzte Stimulation mit einer Abweichung von 80 ms Dauer bis 50 ms vor dem Schreckreiz für die höchsten Inhibitionen sorgte.
Die durch eine Intensitätsänderung einer kontinuierlichen Hintergrundstimulation ausgelöste PPI hing primär von der Größe und Richtung des Intensitätssprungs ab. Mit zunehmender Sprunggröße stiegen die Inhibitionswerte an. Eine Erhöhung der Hintergrundintensität um 10 dB hatte einen signifikanten Einfluss auf die Inhibitionswerte. Auch hier zeigte sich eine höhere Sensitivität in Form von höheren Inhibitionen für Stimuli mit einer Hintergrundfrequenz von 8 kHz als für alle anderen getesteten Hintergrundfrequenzen.
Die Bestimmung von Hörschwellen mittels intensitätsabhängiger PPI wies im Vergleich mit den elektrophysiologisch bestimmten Hörschwellen ein heterogenes Bild mit starken individuellen Schwankungen auf: Bei etwa der Hälfte der Tiere waren die Hörschwellen beider Messungen sehr vergleichbar, bei den übrigen Tieren konnten mittels PPI für eine oder mehrere Frequenzen keine aussagekräftigen Hörschwellen erzielt werden. Die elektrophysiologisch bestimmten Hörschwellen waren am sensitivsten, während PPI-Stimulationen signifikant höher waren. Außerdem bewirkten PPI-Stimulationen mit Reintönen signifikant sensitivere Hörschwellen im Vergleich zu einem Schmalbandrauschen.
Für die Bestimmung der Unterscheidungsschwellen von Frequenzänderungen konnte beobachtet werden, dass die Tiere auf Frequenzsprünge hin zu niedrigeren Frequenzen signifikant sensibler reagierten, als hin zu Aufwärtssprüngen (-1.2 bzw. +4.5%). Bei der Intensitätsunterscheidung hingegen konnte beobachtet werden, dass die Tiere signifikant sensitiver auf Intensitätserhöhungen als auf Erniedrigungen reagierten (-5.9 bzw. +2.7 dB).
Zusammenfassend konnte in der vorliegenden Arbeit festgestellt werden, dass die PPI zur Bestimmung von absoluten Hörschwellen starken Schwankungen unterlag, sodass diese Methode nur eingeschränkt als Alternative zu operanter Konditionierung oder elektrophysiologischen Ableitungen in Frage kommt. Des Weiteren erzeugten bereits kleine Änderungen des Frequenzgehalts oder der Intensität einer Hintergrundstimulation eine robuste PPI. Somit können reflexbasierte Messungen mit überschwelligen Stimuli genutzt werden, um Unterscheidungsschwellen in Versuchstieren zu bestimmen. Diese Herangehensweise stellt also eine vielversprechende Methode dar, um Hörstörungen zu untersuchen, die nach einem Schalltrauma auftreten können. In einem nächsten Schritt könnte sie zur weiteren Charakterisierung von verstecktem Hörverlust beitragen.
Die nachfolgende Dissertation wurde an der Goethe-Universität Frankfurt am Institut für Geowissenschaften (FB 11) in der Arbeitsgruppe Kristallographie und Mineralogie (AG Winkler) verfasst. Die Betreuung der hier durchgeführten Arbeiten erfolgte hauptsächlich durch Prof. B. Winkler in Zusammenarbeit mit Dr. L. Bayarjargal, PD Dr. E. Haussühl und PD Dr. V. Vinograd. Bei dem vorliegenden Manuskript handelt es sich um eine kumulative bzw. publikationsbasierte Dissertation, welche die Forschungsergebnisse verschiedener bereits veröffentlichter wissenschaftlicher Fachartikel zusammenfasst.
Die Arbeit beschreibt verschiedene Synthesen und Untersuchungen an Carbonaten und teilt sich im Wesentlichen in zwei Abschnitte. Zum einen wurden Experimente mit Carbonaten bei Extrembedingungen bzw. unter hohen Drücken und hohen Temperaturen durchgeführt, wie sie auch im Inneren der Erde zu finden sind. Im zweiten Teil wurden Carbonate bei Raumbedingungen synthetisiert und der Einbau von Seltenerdelementen untersucht. Grundsätzlich werden jedoch in beiden Teilen dieser Arbeit die Strukturen und Eigenschaften verschiedener Carbonate und eine mögliche Kationensubstitution bzw. die Synthese isostruktureller Verbindungen erforscht.
For thousands of years, S. cerevisiae has been employed by humans in brewing and baking. Nowadays, this budding yeast is more than that: it is a well investigated model organism and an established workhorse in biotechnology. S. cerevisiae serves as a production host for various applications such as i) bioethanol production ii) the biosynthesis of hormones including insulin or iii) cannabinoid biosynthesis. Hereby, the robustness of S. cerevisiae and its high tolerances regarding pH and salt concentrations qualifies it for a wide range of industrial applications. Moreover, products of S. cerevisiae are generally recognised as safe (GRAS), enabling diverse biotechnological applications. Various mechanisms for genetic engineering of S. cerevisiae are applicable and the engineering process itself is straightforward since methods are established and widely known. Due to the wide range of industrial applications of S. cerevisiae, this organism is an ideal candidate for applied research and implementation of the recombinant biosynthesis of tocochromanols in this study.
Tocochromanols encompass tocotrienols and tocopherols, which are lipid-soluble compounds that are commonly associated with vitamin E activity. Hereby, α-tocopherol is the most prevalent form, as it is an essential nutrient in the diet of humans and animals. Naturally, tocochromanols are almost exclusively synthesised by photoautotrophic organisms such as plants or cyanobacteria. They consist of an aromatic head group and a polyprenyl side chain which is saturated in tocopherols and 3-fold unsaturated in tocotrienols. The methylation status of the chromanol ring distinguishes α-, β-, γ- and δ-tocochromanol. All forms of tocochromanols represent a group of powerful antioxidants, scavenging reactive oxygen species (ROS) and preventing the propagation of lipid oxidation in lipophilic environments. Recently, attention has been drawn to tocotrienols, due to their benefits in neuroprotection as well as cholesterol-lowering and anti-cancer properties. Consequently, tocochromanols are valuable additives in the food, feed, cosmetic and pharmaceutical industries.
The metabolic engineering strategy of S. cerevisiae to enable tocochromanol biosynthesis was started in a preceding master thesis with the provision of the aromatic moiety, homogentisic acid (HGA), from the aromatic amino acid biosynthesis. Hereby, the upregulation and redirection of the native pathway was essential. Therefore, a strain with an engineered aromatic amino acid pathway for improved 4 hydroxyphenylpyruvate (HPP) production (MRY33) was utilised from Reifenrath and Boles (2018). Furthermore, a heterologous hydroxyphenylpyruvate dioxygenase (HPPD) was required to convert HPP into HGA. Thus, several heterologous HPPDs were expressed and characterised regarding their HGA production within the previous study. The best variant originated from Yarrowia lipolytica, YlHPPD, and was integrated into the genome of MRY33. The resulting strain JBY2, produced 435 mg/L HGA in a shake flask fermentation.
This work was started with the genetically highly modified strain JBY2, whose genome already contained a large number of genes artificially expressed behind strong promoters. For further strain development, it was advantageous to maintain a high degree of sequence variability in order to prevent genomic instabilities due to sequence homologies. Thus, 17 artificial promoters (AP1-AP17) were characterised regarding their strength of expression by the yellow fluorescent protein (YFP). These sequences were also part of a patent that was filed during this work (WO2023094429A1).
The key point of this study was the development of a metabolic engineering strategy for the strain JBY2. First, the sufficient supply of the second precursor, the polyprenyl side chain, was investigated. Natively, S. cerevisiae produces the precursor, geranylgeranyl diphosphate (GGPP), from the isopentenyl diphosphate pathway. However, without further engineering, GGPP was barely detectable in JBY2 (< 0.1 mg/L). Thus, engineering of the isopentenyl diphosphate biosynthesis was necessary. The limiting enzyme of the mevalonate pathway was the 3-hydroxy-3-methylglutaryl coenzyme A reductase (HMGCR), which is encoded by HMG1. Therefore, a truncation for feedback-resistance and its overexpression by a promoter exchange was performed. Furthermore, the promoter of the gene for the squalene synthase (pERG9) was exchanged by the ergosterol sensitive promoter pERG1 to limit the metabolic flux of the mevalonate pathway into the ergosterol pathway. The native GGPP synthase (BTS1) was another limitation that was observed throughout this study. To overcome this bottleneck, plasmid-based and integrative overexpression of the native BTS1 and a codon optimised BTS1 were investigated. Other strategies to improve GGPP production were the deletion of the gene for the diacylglycerol pyrophosphate phosphatase (DPP1) to prevent excessive dephosphorylation of GGPP to geranylgeraniol (GGOH), and the overexpression of the farnesyl pyrophosphate synthetase, encoded by ERG20. However, the best improvements of the GGPP biosynthesis, inferred through GGOH measurements, were achieved from the screening of several heterologous GGPP synthases in S. cerevisiae. The best performing strain was JBY61 (JBY2, hmg1Δ::pTDH3-HMG1tr[1573–3165], pERG9Δ::pERG1, ChrIV-49293-49345Δ::pTDH3-XdcrtE-tSSA1_LEU2), bearing the heterologous GGPP synthase crtE of Xanthophyllomyces dendrorhous and produced 64.23 mg/L GGOH. Consequently, this engineering strategy improved the GGOH production by a factor of 642 compared to the parent strain JBY2.
In our rapidly changing world, land use has been recognized as having one of the strongest impacts on species and genetic diversity. The present state of temperate forests in Europe is a product of decisions made by former and current management and policy actions, rather than natural factors. Alterations of crown projection areas, structural complexity of the forest stand caused by thinning and cuttings, and changes in tree species composition caused by regeneration or plantings not only affect forest interior buffering against warming, but also the understorey light environment and nutrient availability. Ultimately, current silvicultural management practices have deep impact on the forest ecosystems, microenvironmental changes and forest floor understorey herbs. In response to environmental changes, plants rely on genetically heritable phenotypic variation, an important level of variation in the population, as it is prerequisite for adaptation. However, until now most studies on plant adaptation to land use focus on grassland management. Yet, studies on the adaptation of forest understorey herbs to forest management have been absent so far. This is important because understanding adaptation of understorey herbs is crucial for biodiversity conservation, forest restoration, and climate change mitigation. Studying current adaptation of understorey herbs to forest management yields insights into the evolutionary consequences of management practices, which could be employed to improve sustainable use of forest habitat.
In sum, my conducted experiments complement each other well and managed to fill in research gaps on the topic of genetically heritable phenotypic variation in understorey herbs and how it is affected by forest management and related microenvironmental variables. I showed that forest management has direct evolutionary consequences on the genetic basis of understorey herbs, but also indirectly through the microenvironment. Furthermore, I revealed that local adaptation and phenotypic plasticity of understorey herbs to forest structural attributes act along continuous gradients. And lastly, I highlighted the important role of intra-individual variation by revealing plastic responses to drought and shading, urging researchers to not ignore this important level of trait variation. Ultimately, understorey herbs in temperate forests employ phenotypic plasticity as a flexible strategy to adapt to varying environmental conditions. By adjusting their leaf characteristics, reproductive investment, and phenology, they can optimize their fitness and survival in response to changes in light availability, resource availability, and seasonal cues. The anthropogenic impact on temperate forests and understorey herbs will continue and likely increase in the future. This should urge foresters to adapt their silvicultural management decisions towards the long-term preservation of genetic diversity and, through this, the evolvability and adaptability of forest understorey herbs and associated organisms. Based on the results shown in my dissertation, variation in forest management regimes and types could be beneficial for promoting genetic diversity within several species of forest understorey herbs. Lastly, in the face of future climatic changes, the mechanisms by which plants can cope with increasing stressful environmental conditions might very well rely heavily on intra-individual variation, providing the necessary rapid plastic adjustment to changing microclimatic conditions within populations and thus increase climate change resilience.
Our mind has the function of representing the physical and social world we are in, so that we can efficiently interact with it. This results in a constant and dynamic interaction between mind and world that produces a balance when representations are at the same time accurate with respect to what the world is communicating to our organism, but also compatible with how our mind works.
A paradigmatic case of this interaction is offered by perception, which is the mental function that represents contingent aspects of the world built from what is captured by our senses. Indeed, the dominant philosophical view in cognitive science is that our perceptual states are representations of the world and not direct access to that world. These representational perceptual states therefor include the aspects of the world they represent and that initiate the perception by stimulating our sensory organs.
Perceptual representations are built using information from the sensory system, i.e., bottom-up information, but are also integrated with information previously acquired, i.e., top-down information, so that perception interacts with memory through language and other mental functions. Such organization is believed to reflect a general mechanism of our mind/brain, which is to acquire and use information to make efficient predictions about the future, continuously updating older information with present information.
This predictive processing works because the world is not random, but shows a regular structure from which reliable expectations can be built. One way that our minds make these predictions is by adapting to the structure of the world in an implicit, automatic and unconscious way, a process that has been called Implicit Statistical Learning (ISL). ISL is a learning process that does not require awareness and happens in an incidental and spontaneous way, with mere exposure to statistical regularities of the world. It is what happens when we learn a language during early childhood, and that allows us to be implicitly sensitive to the phonological structure of speech, or to associate speech patterns with objects and events to learn word meaning.
A specific case of ISL is the learning of spatial configuration in the visual world, which we apply to abstract arrays of items, but most importantly, also to more ecological settings such as the visual scenes we are immersed in during our everyday life. The knowledge we acquire about the structure of visual scenes has been called “Scene Grammar”, because it informs about presence and position of objects in a similar way to what linguistic grammar tells us about the presence and position of words. So, we implicitly acquire the semantics of scenes, learning which objects are consistent with a certain scene, as well as the syntax of scenes, learning where objects are positioned in a consistent way within a certain scene.
More recent developments have proposed that scene grammar knowledge might be organized based on a hierarchical system: objects are arranged in the scene, which offers the more general context, but within a scene we can identify different spatial and functional clusters of objects, called “phrases”, that offer a second level of context; within every phrase, then, objects have different status, with usually one object (“anchor object”) offering strong prediction of where and which are the other objects within the phrase (“local objects”). However, these further aspects of the organization of objects In scenes remain poorly understood.
Another problem relates to the way we measure the structure of scenes to compare the organization of the visual world with the organization in the mind. Typically, to decide if an object appears or not in a certain scene, and whether or not it appears in a certain position within a scene, researchers based their decision on intuition and common-sense, maybe validating those decisions with independent raters. But it has been shown that often these decisions can be limited and more complex information about objects’ arrangement in scenes can be lost.
A potential solution to this problem might be using large set of real-world images, that have annotations and segmentations of objects, to measures statistics about how objects are arranged in the environment. This idea exploits the nowadays larger availability of this kind of datasets due to increasing developments of computer vision algorithms, and also parallels with the established usage of large text corpora in language research.
The goals of the current investigation were to extract object statistics from this image datasets and test if they reliably predict behavioural responses during object processing, as well as to use these statistics to investigate more complex aspects of scene grammar, such as its hierarchical organization, to see if this organization is reflected in the organization of objects in our mind.
This study examines the political contestation among Malay Professional Satirists (MPS) through their selected political satire works between 2011-2018. Political satire challenges those in power and is often regarded as fake news and libel. Therefore, political satirists tend to be frequently subject to legal action and are accused of disrupting national harmony. However, there is another group within the social and cultural community, which I call Social and Cultural Professionals (SCP), who also use satire but are supported by the government. This group frequently received financial benefits from the state and are at lower risk of suffering legal consequences. These contrasting conditions raise several important questions: who are the Malaysian Professional Satirists? Who are the targets of MPS in their satirical work? Why do MPS satirise them? And why do the MPS still produce political satire despite the potential legal consequences? Therefore, this study attempts to identify the characters, themes, and issues the MPS highlight; it also considers the reasons and motivations that political satirists have for creating such allegedly controversial works. Malaysia’s Reformasi movement and the booming use of the internet in 1998 mobilised multiple alternative social movements, mainly through art-related activities. Art workers, NGOs, as well as musical and cultural groups, protested creatively against the UMNO-BN ruling regime. Creative protests that employed satire and humour somehow succeeded in attracting a significant proportion of the public to follow political and current issues, especially youths in universities who had been depoliticised with the inception of the University and University College Act (AUKU 1979). This study establishes a point of view that political satire is a fun, loose, free form of resistance, contrasting with formal procedural democracy. The previous literature proposes that the study of Malaysia’s political system should focus on formal political procedures, especially election and representation. However, the study of political satire vis-à-vis democratisation is often neglected and thus such studies are scarce, which might have resulted from how satire is strictly discussed in terms of language and media. There has been a growing interest in how satirist and satirical works are regarded; hence, this study attempts to fill a gap in research on political satire in Malaysia. In contrast, democratisation is often discussed in terms of history, politics, anthropology, sociology, and economics. This qualitative study presents a comprehensive account of interviews with four (4) art workers identified as MPS, as based on appropriate criteria. Each informant had either partaken in alternative social movements or faced legal action from authorities or, indeed, both. In this study, the Theory of Contestation and Two-Social Reality serves as a primary framework to lead to an understanding of the contestation of power in Malaysia through political satire. This study further intends to broaden the knowledge of political satire and humour in the study of democratisation, adding to the existing literature, particularly outside formal political procedures.
Baleen whales (Mysticeti) are a clade of highly adapted carnivorous marine mammals that can reach extremely large body sizes and feature characteristic keratinaceous baleen plates used for obligate filter feeding. From a conservation perspective, nearly all baleen whale species were hunted extensively over a roughly 100 years lasting time period that depleted many of the respective whale stocks with so far unknown consequences for e.g. their molecular viability. From an evolutionary perspective, the lack of fossil records together with conflicting molecular patterns resulted in a still unclear and debated phylogeny of modern baleen whales, particularly in rorquals (Balaenopteridae). In this dissertation, I will demonstrate the application of baleen whale genomes to tackle these open questions by using modern approaches of conservation and evolutionary genomics.
Conservation genomic aspects of baleen whales were addressed in two projects, both using whole genome data of either an Icelandic fin whale (Balaenoptera physalus) population or multiple blue whale (Balaenoptera musculus) populations to evaluate the impact of the industrial whaling era on their molecular viability. The results suggest a substantial drop in effective population size of both species but also a lack of manifestation in genotypes of the fin whale population when compared to the blue whale populations. Especially the rare and short runs of homozygosity (ROH), usually indicative for inbreeding, suggest frequent outcrossing in fin whales while all analyzed blue whale populations featured long and frequent ROH. In addition to these analyses, genome data of blue whale populations was further used to evaluate if northern hemisphere blue whales diverged into different subspecies. Population genetic and gene flow analyses showed clearly separated and well isolated populations in accordance with their assumed geographical distance. In contrast, the genome-wide divergence between all blue whale populations was low compared to other cetacean populations and to the next closely related sei whale species. Because this includes the morphologically different and well recognized pygmy blue whale subspecies, a proposal was made to equally categorize the two northern-hemisphere blue whale populations as subspecies.
Evolutionary aspects were addressed in a third project, by constructing the genome of the pygmy right whale (Caperea marginata) and testing its potential in phylogenetics and cancer research. Phylogenomic analyses using fragments of a whole-genome alignment featuring nearly all extant baleen whales, allowed the revision of the complex evolutionary relationships of rorquals by quantifying and characterizing the amounts of conflicts in early diverging branches. These relationships were further used to identify phylogenetically independent pairs of baleen whales with a maximum of diverging body size differences to compare rates of positive selection between their genomes. The results suggest nearly evenly distributed frequencies of alternative topologies which supports the representation of the early divergence of rorquals as a hard polytomy with high amounts of introgression and incomplete lineage sorting. Within the set of available genomic data, three independent pairs of baleen whales with diverging body sizes were found and comparisons of positive selection rates resulted in many potentially body size and cancer related genes. The lack of conserved selection patterns, however, suggest a more convergent evolution of size and cancer resistance like previously discussed in paleontology.
In conclusion, the application of whole genome data using methods of conservation genetics allowed for a comprehensive estimation about the molecular viability of blue and fin whales as well as an assessment of the taxonomic status of northern-hemisphere blue whale populations. The rather different results between blue and fin whales underlines the importance of genomic monitoring of baleen whales because different species show rather different molecular consequences of their potentially varying depletions. Furthermore, as showcased for the northern-hemisphere blue whale, many important isolated populations of baleen whales may still be unknown to conservation management and genome-wide comparisons will most likely contribute to overcome this under-classification problem. The application of whole genome data in evolutionary research allowed the characterization of the complex patterns of molecular conflicts within baleen whales and especially rorquals that will contribute to the still rather unclear understanding of their evolution. The here found molecular support for the idea of convergent evolution of gigantism in whales will further guide the search for molecular patterns responsible for Peto’s paradox.
Chronisch-entzündliche Dermatosen sind in Deutschland weit verbreitet und haben einen enormen Einfluss auf die Lebensqualität der Erkrankten. Das umfassende Verständnis der molekularen Prozesse und Signalwege bildet die Basis, um mögliche Beziehungen zwischen den Hauterkrankungen aufzudecken. Der Nachweis von Ähnlichkeit und Übereinstimmung in den Signalwegen bietet die Aussicht, dass etablierte Therapien auch bei anderen Erkrankungen helfen können.
Der Zweck dieser Arbeit ist der Nachweis der Expression von IL-1β, IL-17A, IL-22, IL-23 und TNF-α in drei chronisch-entzündlichen Dermatosen: Acne inversa (AI), Sinus pilondalis (SP) und Perifolliculitis capitis abscedens et suffodiens (PCAS). Bei allen untersuchten Diagnosen handelt es sich um potentiell verwandte Erkrankungen der Haarfollikel, die durch Verlegung der Ausführungsgänge zu ausgedehnten Entzündungsreaktionen mit Bildung von Knoten, Abszessen und Fisteln führen. Bereits nachgewiesen ist, dass IL-1β, IL-17A, IL-22, IL-23 und TNF-α eine wichtige Rolle in der Pathogenese von Acne inversa spielen und Antikörpertherapien an einigen dieser Zielproteine spezifisch angreifen, um den Verlauf der Erkrankung zu verbessern.
Die Expression der Proteine wurde in Läsionen von Patienten mit den drei Indikationen immunhistochemisch an paraffiniertem Gewebe untersucht. Wie erwartet, zeigten sich in der überwiegenden Anzahl der Proben große entzündliche Infiltrate und hier wurde die Expression aller untersuchten Zytokine in unterschiedlicher Intensität nachgewiesen. Vielversprechend war insbesondere die Expression von IL-17A und IL-23 in SP und PCAS. Die Expression von IL-1β war insgesamt eher gering ausgeprägt; bei AI noch etwas höher als in SP und PCAS. Die Färbungen auf IL-22 zeigten sich kräftig in allen untersuchten Dermatosen. Allerdings gibt es bisher keine zugelassene Therapie zur Modulation dieses speziellen Zytokins. IL-22 scheint eine zentrale Rolle in
der Pathogenese der AI zu spielen. Mit TNF-α-Blockern wurden schon gute therapeutische Ergebnisse bei AI und PCAS erzielt. Deshalb ist der Nachweis von TNF-α in den entzündlichen Läsionen zu erwarten gewesen. Auch bei den SP-Proben fanden sich deutlich erhöhte Protein-Level, sodass auch hier eine gezielte Therapie von Vorteil sein könnte. Wegen des geringen Probenumfangs und der Methodik sind weitere gezielte Untersuchungen notwendig. Dennoch konnten viele Gemeinsamkeiten der Zytokinexpression ausgemacht werden, was vielversprechende Hinweise auf mögliche Behandlungsansätze bei AI, SP und PCAS zulässt. Diese Arbeit bietet einen ersten Blick auf den immunologischen Phänotyp der verwandten Dermatosen.
Chromosomal translocations (CTs) are a genetic hallmark of cancer. They could be identified as recurrent genetic aberrations in hemato-malignancies and solid tumors. More than 40% of all "cancer genes" were identified in recurrent CTs. Most of these CTs result in the production of oncofusion proteins of which many have been studied over the past decades. They influence signaling pathways and/or alter gene expression. However, a precise mechanism for how these CTs arise and occur in a nearly identical fashion in individuals remains to be elucidated. Here, we performed experiments that explain the onset of CTs: proximity of genes able to produce prematurely terminated transcripts, which leads to the production of transspliced fusion RNAs, and finally, the induction of DNA double-strand breaks which are subsequently repaired via EJ repair pathways. Under these conditions, balanced chromosomal translocations could be specifically induced.
The Compressed Baryonic Matter (CBM) is one of the core experiments at the future Facility for Anti-proton and Ion Research (FAIR), Darmstadt, Germany. Its goal is to investigate nuclear matter characteristics at high net-baryon densities and moderate temperatures. The Silicon Tracking System (STS) is a central detector system of CBM.
It is placed inside a 1Tm magnet and operated at a temperature of about −10 °C to keep radiation-induced bulk current in the 300μm double-sided microstrip silicon sensors low. The design of the STS aims to minimize the material budget in the detector acceptance (2.5° < θ < 25°). In order to do so, the readout electronics is placed outside the active area, and the analog signals are transported via ultra-thin micro-cables. The STS comprises eight tracking stations with 876 modules. Each module is assembled on a carbon fiber ladder, which is subsequently mounted in the C-shaped aluminum frame.
The scope of the thesis focused on developing a modular control system framework that can be implemented for different sizes of experimental setups. The developed framework was used for setups that required a remote operation, like the irradiation of the powering modules for the front-end electronics (FEE), but also in laboratory-based setups where the automation and archiving were needed (thermal cycling of the STS electronics).
The low voltage powering modules will be placed in the vicinity of the experiment, therefore they will experience a total dose of up to 40mGy over the 10 years of STS lifetime.
To estimate the effects of the radiation on the low-voltage module performance, a dedicated irradiation campaign took place. It aimed at estimating the rate of radiation induced soft errors, that lead to the switch off of the FEE.
Regular power cycles of multiple front-end boards (FEBs) pose a risk to the experiment operation. Firstly, such behavior could negatively influence the physics performance but also have deteriorating effects on the hardware. It was further assessed what are the limitations of the FEBs with respect to the thermal cycling and the mechanical stress. The results served as an indication of possible failure modes of the FEB at the end of STS lifetime. Failure modes after repeated cycles and potential reasons were determined (e.g., Coefficient of Thermal Expansion (CTE) difference between the materials).
Due to the conditions inside the STS efficient temperature and humidity monitoring and control are required to avoid icing or water condensation on the electronics or silicon sensors. The most important properties of a suitable sensor candidate are resilience to the magnetic field, ionizing radiation tolerance, and fairly small size.
A general strategy for ambient parameters monitoring inside the STS was developed, and potential sensor candidates were chosen. To characterize the chosen relative humidity sensors the developed control framework was introduced. A sampling system with a ceramic sensor and Fiber Optic Sensors (FOS) were identified as reliable solutions for the distributed sensing system. Additionally, the industrial capacitive sensors will be used as a reference during the commissioning.
Two different designs of FOS were tested: a hygrometer and 5 sensors multiplexed in an array. The FOS hygrometer turned out to be a more reliable solution. One of the possible reasons for a worse performance is a relatively low distance between the subsequent sensors (15 cm) and a thicker coating. The results obtained from the time response study pointed out that the thinner coating of about 15μm should be a good compromise between the humidity sensitivity and the time response.
The implementation of the containerized-based control system framework for the mSTS is described in detail. The deployed EPICS-based framework proved to be a reliable solution and ensured the safety of the detector for almost 1.5 years. Moreover, the data related to the performance of the detector modules were analyzed and significant progress in the quality of modules was noted. Obtained data was also used to estimate the total fluence, which was based on the leakage current changes.
The developed framework provided a unique opportunity to automate and control different experimental setups which provided crucial data for the STS. Furthermore, the work underlines the importance of such a system and outlines the next steps toward the realization of a reliable Detector Control System for STS.
Auszubildende sollen durch die Berufsausbildung u.a. die Kompetenz erlangen, berufliche Probleme zu lösen. Abschlussprüfungen dienen der Kompetenzerfassung, schriftlich-kaufmännische Prüfungsaufgaben bilden allerdings noch unzureichend Problemsituationen ab, deren Lösung Problemlösekompetenz erfordert. An der Erstellung von Prüfungsaufgaben sind auch Lehrkräfte kaufmännisch-beruflicher Schulen beteiligt. In der Arbeit wird untersucht, wie sie in der ersten und zweiten Phase der Lehrer*innenbildung auf das Erstellen problemhaltiger Aufgaben zu summativ-diagnostischen Zwecken vorbereitet werden. Hierfür werden Dokumentenanalysen zu beiden Phasen der Lehrer*innenbildung durchgeführt. Die Ergebnisse werden mittels einer Fragebogenstudie mit Studiengangsleiter*innen sowie Interviews mit Fachleiter*innen der Studienseminare gesichert. Um die Wahrnehmung angehender Lehrkräfte zu erfahren, werden Interviews mit Masterstudierenden der Wirtschaftspädagogik sowie Lehrkräfte im Vorbereitungsdienst (LiV) an kaufmännisch-beruflichen Schulen durchgeführt.
Durch die Vorstudien gelingt es, Optimierungsbedarfe in der Ausbildung von Lehrkräften kaufmännisch-beruflicher Schulen festzuhalten. Davon ausgehend wird ein Trainingskonzept begründet ausgewählt. Die Evaluation dessen erfolgt mittels einer quasi-experimentellen Studie mit Masterstudierende und LiV. Zur qualitativen Evaluation werden Interviews mit Teilnehmenden der Interventionsgruppe durchgeführt. Die Ergebnisse zeigen, dass die Teilnehmenden das Training als Intervention überwiegend positiv wahrnehmen und dieser, zumindest mit Blick auf das Erstellen von problemhaltigen Aufgaben, zu einem Lernzuwachs führt. Durch die bedarfsorientierte Intervention und dessen Evaluationsergebnisse wird ein Konzept vorgeschlagen, welches eine Lösung zur Deckung bestehender Optimierungsbedarfe bietet. Die Ergebnisse der Arbeit haben das Potential, langfristig einen Beitrag zur Verbesserung der Lehrer*innenbildung zu leisten und somit u.a. Assessmentaufgaben valider zu gestalten.
Im Rahmen dieser Arbeit wurde ein verbessertes Buncher-System für Hochfrequenzbeschleuniger mit niedrigem und mittlerem Ionenstrom entwickelt. Die entwickelte Methodik hat ermöglicht, ein effektives, vereinfachtes Buncher-System für die Injektion in HF-Beschleuniger wie RFQs, Zyklotrons, DTLs usw. zu entwerfen, welches kleine Ausgangsemittanzen und beträchtliche Strahltransmissionen erzielt. Um einen mono-energetischen und kontinuierlichen Strahl aus einer Ionenquelle für den Einschuss in eine Hochfrequenz-Beschleunigerstruktur anzupassen, wird eine Energiemodulation benötigt, die im weiteren Verlauf (Driftstrecke) zur Längsfokussierung des Strahls führt. Durch eine Sägezahnwellenform wird die ideale Energiemodulation aufgrund der linearen Abhängigkeit zwischen der Energie der Teilchen und ihren relativen Phasen erreicht. Dies ist jedoch technologisch nicht möglich, da Teilchenbeschleuniger Spannungsniveaus im Bereich kV bis 100 kV benötigen. Dagegen ist für eine solche Zielsetzung eine räumliche Trennung der sinusförmigen Anregung mit der Grundfrequenz und höheren Harmonischen möglich.
Daher wurde in dieser Arbeit ein verbesserter harmonischer Buncher, der sogenannte „Double Drift Harmonic Buncher - DDHB“ entwickelt, welcher zahlreiche Vorteile hat. Eine geringe longitudinale Emittanz sowie finanzielle Aspekte sprechen für diesen Lösungsansatz. Die Hauptelemente eines DDHB Systems sind zwei Kavitäten, die durch eine Driftlänge L1 getrennt sind, wobei der erste Resonator mit der Grundfrequenz bei -90° synchroner Phase und angelegter Spannung V1 und der zweite Resonator bei der zweiten harmonischen Frequenz mit +90 synchroner Phase und angelegter Spannung V2 betrieben werden. Schließlich ist eine zweite Drift L2 am Ende des Arrays für eine longitudinale Strahlfokussierung am Hauptbeschleunigereingang erforderlich. Somit erfüllt ein solcher Aufbau das angestrebte Ziel einer hohen Einfangseffizienz und einer kleinen longitudinalen Emittanz durch Anpassen der vier Designparameter V1, L1, V2 und L2.
Das Verständnis der Fokussierung, ausgehend von einem Gleichstromstrahl, einschließlich der Raumladungskräfte, ist einer der wesentlichen Bestandteile der Strahlphysik. Viele kommerzielle Codes bieten Simulationsmöglichkeiten in diesem Anwendungsbereich. Ihre Ansätze bleiben jedoch dem Anwender meist verborgen, oder es fehlen wichtige Details zur genauen Abbildung des vorliegenden Konzepts. Daher bestand eine Hauptaufgabe dieser Arbeit darin, einen speziellen Multi-Particle-Tracking-Beam-Dynamics-Code (BCDC) zu entwickeln, bei dem der Raumladungseffekt während des Bunch-Vorgangs, ausgehend von einem DC-Strahl berechnet wird. Der BCDC - Code enthält elementare Routinen wie Drift und Beschleunigungsspalt oder magnetische Linse für die transversale Strahlfokussierung und Raumladungsberechnungen unter Berücksichtigung der Auswirkungen der nächsten Nachbar-Bunche (NNB). Der Raumladungsalgorithmus in BCDC basiert auf einer direkten Coulomb- Gitter-Gitter-Wechselwirkung und Berechnungen des elektrischen Feldes durch Lokalisierung der Ladungsdichte auf einem kartesischen Gitter. Um Genauigkeit zu erreichen, werden die Feldberechnungen in Längsrichtung symmetrisch um das zentrale Bucket (βλ-Größe) erweitert, so dass das Simulationsfeld dreimal so groß ist. Die zentrale Teilchenverteilung wird dann nach jedem Schritt in die benachbarten Buckets kopiert. Anschließend werden die resultierenden Felder im Hauptgitterfeld neu berechnet, indem die elektrischen Felder im Hauptgitterfeld mit denen aus den benachbarten Regionen überlagert werden. Ohne diese Methode würde z. B. ein kontinuierlicher Strahl, welcher jedoch in der Simulation nur innerhalb einer Zelle der Länge βλ definiert ist, zu einer resultierenden Raumladungsfeldkomponente Ez an beiden Rändern der Zelle führen. Ein solches unphysikalisches Ergebnis konnte durch die Anwendung der NNB-Technik bereits weitgehend eliminiert werden. Zusätzlich zum NNB-Feature verfügt das BCDC über eine weitere Besonderheit nämlich die sogenannte Raumladungskompensation (SCC). Aufgrund der Ionisierung des Restgases kommt es entlang des Niederenergiestrahltransports zu einer teilweisen Raumladungskompensation, und zwar am und hinter dem Bunchersystem mit unterschiedlichen Prozentsätzen. Eines der Hauptziele des DDHB-Konzepts besteht darin, es für Hochstromstrahlanwendungen zu entwickeln. Dabei ermöglicht die teilweise Raumladungskompensation, dass das Design in der Praxis höhere Stromniveaus erreicht. Dadurch ist das BCDC-Programm ein leistungsstarkes Werkzeug für Simulationen in künftigen, stromstarken Projekten. Proof-of-Principle-Designs wurden in dieser Arbeit entwickelt.
Gravitropism is a fundamental process in plants that allows shoots to grow upward and roots to grow downward. Protein phosphorylation has been postulated to participate in the intricate signaling cascade of gravitropism. In order to elucidate the underlying mechanisms governing the gravitropic signaling and unearth novel protein constituents, an exhaustive investigation employing microgravity-induced phosphoproteomics was undertaken. The significantly phosphorylated proteins unraveled in this study can be effectively divided into two groups through clustering analysis. Furthermore, the elucidation of Gene Ontology (GO) enrichment analysis disclosed the conspicuous overrepresentation of these clustered phosphoproteins in cytoskeletal organization and in hormone-mediated responses intimately intertwined with the intricate phenomenon of gravitropism. Motif enrichment analysis unveiled the overrepresentation of [-pS-P-] and [-R-x-x-pS-] motifs. Notably, the [-pS-P-] motif has been suggested as the substrate for the Casein kinase II (CK II) and Cyclin-dependent kinase (CDK). Kinase-inhibitor assays confirmed the pivotal role played by CK II and CDK in root gravitropism. Mutant gravitropism assays validated the functional significance of identified phosphoproteins, with some mutants exhibiting altered bending kinetics using a custom-developed platform. The study also compared phosphoproteomics data from different platforms, revealing variations in the detected phosphopeptides and highlighting the impact of treatment differences. Furthermore, the involvement of TOR signaling in microgravity-induced phosphorylation changes was uncovered, expanding the understanding of plant gravitropism responses.
To fulfill the large-scale verification of interesting candidates from the phosphoproteomics study, a novel root and hypocotyl gravitropism phenotyping platform was developed. This platform integrated cost-effective hardware, including Raspberry Pi, a high-quality camera, an Arduino board, a rotation stage (obtained from Prof. Dr. Maik Böhmer), and programmable green light (modified by Sven Plath). In addition, through collaboration with a software developer, machine-learning-based software was developed for data analysis. This platform tested the gravitropic response of candidate mutants identified in the phosphoproteomics study. Furthermore, the capabilities of this platform were expanded to investigate tropisms in other species and organs. To find novel proteins that might act as partners of a key protein that is involved in gravitropism signaling, ALTERED RESPONSE TO GRAVITY 1 (ARG1), immunoprecipitation coupled with Mass Spectrometry (IP-MS) was performed and identified ARG1-LIKE1 (ARL1) as a potential interacting protein with ARG1. This interaction was further confirmed through in vivo pull-down assays and bimolecular fluorescence complementation assays. In addition, the interaction between ARG1 and HSP70-1 was also validated.
Overall, this thesis sheds light on the molecular components and signaling events involved in plant gravitropism. It contributes to existing knowledge and opens up new ways to investigate this fascinating area of plant biology.