Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (5640) (entfernen)
Sprache
- Deutsch (3586)
- Englisch (2025)
- Französisch (9)
- Latein (5)
- Spanisch (5)
- Portugiesisch (4)
- Italienisch (3)
- Mehrsprachig (2)
- mis (1)
Volltext vorhanden
- ja (5640) (entfernen)
Gehört zur Bibliographie
- nein (5640)
Schlagworte
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Genexpression (9)
- Immunologie (9)
Institut
- Medizin (1483)
- Biowissenschaften (824)
- Biochemie und Chemie (723)
- Physik (587)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (295)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
This thesis contains three theoretical works about certain aspects of the interplay of electronic correlations and topology in the Hubbard model.
In the first part of this thesis, the applicability of elementary band representations (EBRs) to diagnose interacting topological phases, that are protected by spatial symmetries and time-reversal-symmetry, in terms of their single-particle Matsubara Green’s functions is investigated. EBRs for the Matsubara Green’s function in the zero-temperature limit can be defined via the topological Hamiltonian. It is found that the Green’s function EBR classification can only change by (i) a gap closing in the spectral function at zero frequency, (ii) the Green’s function becoming singular i.e. having a zero eigenvalue at zero frequency or (iii) the Green’s function breaking a protecting symmetry. As an example, the use of the EBRs for Matsubara Green’s functions is demonstrated on the Su-Schriefer-Heeger model with exact diagonalization.
In the second part the Two-Particle Self-Consistent approach (TPSC) is extended to include spin-orbit coupling (SOC). Time-reversal symmetry, that is preserved in the presence of SOC, is used to derive new TPSC self-consistency equations including SOC. SOC breaks spin rotation symmetry which leads to a coupling of spin and charge channel. The local and constant TPSC vertex then consists of three spin vertices and one charge vertex. As a test case to study the interplay of Hubbard interaction and SOC, the Kane-Mele-Hubbard model is studied. The antiferromagnetic spin fluctuations are the leading instability which confirms that the Kane-Mele-Hubbard model is an XY antiferromagnet at zero temperature. Mixed spin-charge fluctuations are found to be small. Moreover, it is found that the transversal spin vertices are more strongly renormalized than the longitudinal spin vertex, SOC leads to a decrease of antiferromagnetic spin fluctuations and the self-energy shows dispersion and sharp features in momentum space close to the phase transition.
In the third part TPSC with SOC is used to calculate the spin Hall conductivity in the Kane-Mele-Hubbard model at finite temperature. The spin Hall conductivity is calculated once using the conductivity bubble and once including vertex corrections. Vertex corrections for the spin Hall conductivity within TPSC corresponds to the analogues of the Maki-Thompson contributions which physically correspond to the excitation and reabsorption of a spin, a charge or a mixed spin-charge excitation by an electron. At all temperatures, the vertex corrections show a large contribution in the vicinity of the phase transition to the XY antiferromagnet where antiferromagnetic spin fluctuations are large. It is found that vertex corrections are crucial to recover the quantized value of −2e^2/h in the zero-temperature limit. Further, at non-zero temperature, increasing the Hubbard interaction leads to a decrease of the spin Hall conductivity. The results indicate that scattering of electrons off antiferromagnetic spin fluctuations renormalize the band gap. Decreasing the gap can be interpreted as an effective increase of temperature leading to a decrease of the spin Hall conductivity.
Trait-dependent effects of biotic and abiotic filters on plant regeneration in Southern Ecuador
(2024)
Tropical forests have always fascinated scientists due to their unique biodiversity. However, our understanding of ecological processes shaping the complexity of tropical rainforests is still relatively poor. Plant regeneration is one of the processes that remain understudied in the tropics although this is a key process defining the structure, diversity and assembly of tropical plant communities. In my dissertation, I combine experimental, observational and trait-based approaches to identify processes shaping the assembly of seedling communities and compare associations between environmental conditions and plant traits across plant life stages. By working along a steep environmental gradient in the tropical mountains of Southern Ecuador, I was able to investigate how processes of plant regeneration vary in response to biotic and abiotic factors in tropical montane forests.
My dissertation comprises three complementary chapters, each addressing an individual research question. First, I studied how trait composition in plant communities varies in relation to the broad- and local-scale environmental conditions and across the plant life cycle. I measured key traits reflecting different ecological strategies of plants that correspond to three stages of the plant life cycle (i.e., adult trees, seed rain and recruiting seedlings). I worked on 81 subplots along an elevational gradient covering a large climatic gradient at three different elevations (1000, 2000 and 3000 m a.s.l.). In addition, I measured soil and light conditions at the local spatial scale within each subplot. My findings show that the trait composition of leaves, seeds and seedlings changed similarly across the elevational gradient, but that the different life stages responded differently to the local gradients in soil nutrients and light availability. Consequently, my findings highlight that trait-environment associations in plant communities differ between large and small spatial scales and across plant life stages.
Second, I investigated how seed size affects seedling recruitment in natural forests and in pastures in relation to abiotic and biotic factors. I set up a seed sowing experiment in both habitat types and sowed over 8,000 seeds belonging to seven tree species differing in seed size. I found that large-seeded species had higher proportions of recruitment in the forests compared to small-seeded species. However, small-seeded species tended to recruit better in pastures compared to large-seeded species. I showed that high surface temperature was the main driver of differences in seedling recruitment between habitats, because it limited seedling recruitment of large-seeded species. The results from this experiment show that pasture restoration requires seed addition of large-seeded species and active protection of recruiting seedlings in order to mitigate harmful conditions associated with high temperatures in deforested areas.
Third, I examined the associations between seedling beta-diversity and different abiotic and biotic factors between and within elevations. I applied beta-diversity partitioning to obtain two components of beta-diversity: species turnover and species richness differences. I associated these components of beta-diversity with biotic pressures by herbivores and fungal pathogens and environmental heterogeneity in light and soil conditions. I found that species turnover in seedling communities was positively associated with the dissimilarity in biotic pressures within elevations and with environmental heterogeneity between elevations. Further, I found that species richness differences increased primarily with increasing environmental heterogeneity within elevations. My findings show that the associations between beta-diversity of seedling communities and abiotic and biotic factors are scale-dependent, most likely due to differences in species sorting in response to biotic pressures and species coexistence in response to environmental heterogeneity.
My dissertation reveals that studying processes of community assembly at different plant life stages and spatial scales can yield new insights into patterns and processes of plant regeneration in tropical forests. I investigated how community assembly processes are governed by abiotic and biotic filtering across and within elevations. I also experimentally explored how the process of seedling recruitment depends on seed size-dependent interactions, and verified how these effects are associated with abiotic and biotic filtering. Identifying such processes is crucial to inform predictive models of environmental change on plant regeneration and successful forest restoration. Further exploration of plant functional traits and their associations with local-scale environmental conditions could effectively support local conservation efforts needed to enhance forest cover in the future and halt the accelerating loss of biodiversity.
Im Rahmen dieser publikationsbasierten Dissertation wurden drei wissenschaftliche Arbeiten veröffentlicht. Als Erstautorenschaft wurde 2022 die Arbeit “Effectiveness of High-intensity Focused Ultrasound (HIFU) Therapy of Solid and Complex Benign Thyroid Nodules - A Long-term Follow up Two-center Study.” im Journal “Experimental and Clinical Endocrinology & Diabetes” veröffentlicht. Im Folgenden wird der Inhalt dieser Arbeit dargelegt. Ein kurzer Überblick über die Ergebnisse der anderen beiden mitpublizierten Arbeiten findet sich im Kapitel „Weitere Ergebnisse der Arbeitsgruppe“.
Durch die hohe Prävalenz benigner Schilddrüsenknoten sind deren Behandlungsalternativen von großem wissenschaftlichem Interesse. Dabei bildet die nebenwirkungsarme, minimalinvasive Thermoablation mittels high-intensity focused ultrasound (HIFU) eine attraktive Alternative zu herkömmlichen Verfahren wie der Schilddrüsenchirurgie oder der Radioiodtherapie. Bei der HIFU-Echotherapie werden die Schilddrüsenknoten auf 80 - 90 Grad Celsius erhitzt, sodass eine irreversible Koagulationsnekrose entsteht. Um den Therapieprozess und die Indikationsstellung von HIFU bei benignen Schilddrüsenknoten zu optimieren, ist es notwendig, genaue Studien durchzuführen.
Ziel der vorliegenden bizentrischen Langzeitstudie war, die Effektivität von HIFU-Echotherapien bei benignen Schilddrüsenknoten zu evaluieren und erstmalig den Einfluss der Knotenmorphologie auf den Therapieerfolg zu untersuchen. Vor der Therapie und in regelmäßigen Intervallen nach der Therapie wurden die Größe und die Morphologie der Schilddrüsenknoten mittels Ultraschall dokumentiert. In der retrospektiven Studie wurden Daten von 58 Patienten ausgewertet. Dabei wurde die Gesamtpopulation in eine Gruppe mit soliden und in eine Gruppe mit komplexen Knoten eingeteilt. Die durchschnittliche prozentuale Volumenreduktion in jeder Gruppe wurde mit dem Wilcoxon-Signed-Rank Test statistisch analysiert.
Die Gesamtpopulation zeigte eine Volumenreduktion der zuvor abladierten Knoten von 38.86 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p < 0.0001, n = 25), 42.7 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p < 0.0001, n = 18), 62.21 % nach 9 Monaten (Spannweite: 12.88 % - 93.2 %, p = 0.0078, n = 8) und 61.42 % nach 12 Monaten (Spannweite: 39.39 % - 93.2 %, p > 0.05, n = 4). Die soliden Knoten hatten eine Volumenreduktion von 49.98 % nach 3 Monaten (Spannweite: 4.03 % - 91.16 %, p = 0.0001, n = 15), 46.40 % nach 6 Monaten (Spannweite: 7.36 % - 93.2 %, p = 0.001, n = 11), 65.77 % nach 9 Monaten (Spannweite: 39.39 % - 93.2 %, p = 0.0156, n = 7) und 63.88 % nach 12 Monaten (Spannweite: 39.39 % - 93.2%, p > 0.05, n = 2). Komplexe Knoten hatten eine Volumenreduktion von 35.2 % nach 3 Monaten (Spannweite: 5.85 % - 68.63 %, p = 0.002, n = 10), 36.89 % nach 6 Monaten (Spannweite: 12.23 % - 68.63 %, p = 0.0156, n = 7) und 63.64 % nach 12 Monaten (Spannweite: 52,38 % - 73.91 %, p > 0.05, n = 2).
In der vorliegenden bizentrischen Langzeitstudie wurde deutlich, dass HIFU-Echotherapie eine effektive Behandlungsoption benigner Schilddrüsenknoten ist. Erstmalig gezeigt wurde der Trend, dass solide Knoten besser auf HIFU-Echotherapie ansprechen als komplexe Knoten.
Anhand der gewonnenen Ergebnisse und der neuen Erkenntnisse zum Einfluss der Knotenmorphologie auf die HIFU-Echotherapie benigner Schilddrüsenknoten kann HIFU als Therapieoption besser bewertet werden. Eine differenziertere Indikationsstellung in Bezug auf solide und komplexe Knoten wird ermöglicht und die HIFU-Echotherapie kann gegen andere thermoablative Verfahren abgewogen werden.
This thesis develops a naturalist theory of phenomenal consciousness. In a first step, it is argued on phenomenological grounds that consciousness is a representational state and that explaining consciousness requires a study of the brain’s representational capacities. In a second step, Bayesian cognitive science and predictive processing are introduced as the most promising attempts to understand mental representation to date. Finally, in a third step, the thesis argues that the so-called “hard problem of consciousness” can be resolved if one adopts a form of metaphysical anti-realism that can be motivated in terms of core principles of Bayesian cognitive science.
Thomas Bowrey, who was an employee of the British colonial government, visited the Malay-speaking region at the end of the 17th century and published a dictionary of Malay (1701) which consists of 12,683 headwords. It is one of the oldest and largest collections of data on this language, which was the first language of the people he came into contact with while travelling through the Malay Peninsula, spending most of his time in harbours along its west coast. Malay, which was spoken in the various trading centres of this area (e.g. Penang, Malacca), had long previously begun to develop into a form of lingua franca during Bowrey’s stay there due to the fact that traders, especially those from Arabic countries (beginning in the 12th century), China (from the 15th century onwards), Portugal (since 1511), the Netherlands (since 1641), and less so from England, came into contact with Malays speaking their local dialects in the various trading posts in Malaya and probably began to become acquainted with the trade-language variant. Thus, Bowrey must have observed and recorded elements of both.
The data he collected is not limited to Malay variants spoken in coastal areas, but includes material from dialects which he encountered during his travels throughout the Malay Peninsula, though without, however, describing the locations in which he took notes on the lexicon and clauses. Not all of his material was written into manuscript form during his stay in Southeast Asia. A large part of his notes taken in situ were prepared for publication during his long journey home. His notes, which were used to print his dictionary, are in part kept in British libraries. Most of the material accessible to the public was studied during the preparation of this thesis.
Earlier works on this dictionary are quite limited in scope. They deal with very specific aspects such as the meanings of headwords found between the letters A and C (Rahim Aman, 1997 & 1998), and the work of Nor Azizah, who deals with the lexical change found in Bowrey’s dictionary between D and F, and syntactic and sociolinguistic aspects (Mashudi Kader, 2009), and collective nouns by Tarmizi Hasrah (2010). This study will discuss Bowrey’s dictionary as a whole in order to describe its contribution to our knowledge of linguistic and non-linguistic facts in 17th century Malaya. Besides analysing Malay synchronically, this thesis also deals with historical-comparative questions and asks whether Bowrey contributes to our knowledge of the changes to the Malay language between the 17th and 21st centuries.
In order to answer the research questions, this study not only relies on the dictionary in its entirety, but also on the notes found in British libraries as well as other material on early Malay, such as the Pigafetta list (1523), Houtman (1598–1603), and the Wilkinson dictionary (1901) as a complement to Bowrey’s dictionary; at the same time, the Malay Concordance Project (online), the SEAlang Project (online), Kamus Besar Bahasa Indonesia (online), and Kamus Dewan Edisi Keempat (2007) will represent modern Malay. It should be borne in mind that in contrast to the Thomas Bowrey dictionary (TBD), Kamus Dewan Edisi Keempat (KDE4) does not hold information on colloquial forms of Malay, many of which reflect features of lingua franca Malay. This study is divided into two different branches, namely the consideration of synchronic aspects and historical comparative aspects.
Finally, this study concludes that the Malay language in Thomas Bowrey’s dictionary is heavily influenced by both external and internal factors prevalent to the 17th century. The Malay language recorded in the Thomas Bowrey dictionary is very similar to modern Malay. The similarities between the Malay language of the 17th century and the Malay language of today are considerable, even though there are, of course, still some notable variances.
Die vorliegende Dissertation bietet eine eingehende Analyse der Entstehung und Evolution der rechtlichen Rahmenbedingungen der Arbeitnehmerüberlassung in der Volksrepublik China. Ursprünglich in den 1980er Jahren als Instrument zur Reduzierung der Arbeitslosigkeit eingeführt, hat sich die Funktion der Arbeitnehmerüberlassung im Laufe der Zeit gewandelt. Diese Entwicklung wird in der Arbeit sorgfältig nachgezeichnet.
Die Studie skizziert die legislative Entwicklung von der anfänglichen Konzeption bis zur formellen Legalisierung im Jahr 2007 und untersucht die geltenden gesetzlichen Bestimmungen zur Arbeitnehmerüberlassung. Dabei werden die spezifischen Aspekte der chinesischen Gesetzgebung herausgestellt, bei der die Arbeitnehmerüberlassung vornehmlich als komplementäre Beschäftigungsform angesehen wird. Die Arbeit beleuchtet die Rechte und Pflichten aller Akteure. Obwohl nicht umfassend rechtsvergleichend angelegt, wird doch immer wieder ein Blick auf die Rechtslage in Deutschland geworfen, sodass die unterschiedlichen regulatorischen Ansätze deutlich hervortreten. Zugleich werden die besonderen Herausforderungen behandelt, denen diese Beschäftigungsform im chinesischen Kontext begegnet.
A powerful technique to distinguish the enantiomers of a chiral molecule is the Coulomb Explosion Imaging (CEI). This technique allows us to determine the handedness of a single molecule. In CEI, the molecule becomes charged by losing many electrons in a very short period of time by interacting with the light. The repulsion forces between the positive charged particles of the molecule leads the molecule to break into parts-fragments. By measuring the three vector momentum of (at least) four fragments, the handedness observable can be determined. In this thesis, CEI is induced by absorption of a single high energy photon, which creates an inner-shell hole (K shell) of the molecule. The subsequent cascade of Auger decays lead to fragmentation. We decided to work with the formic acid molecule in this thesis. Two different experiments were conducted. The first experiment focused on exciting electrons to different energy states, while the second experiment focused on extracting directly a photoelectron to the continuum and measure the angular distribution of the photoelectron in the molecular frame. The primary goal was to search for chiral signal in a pure achiral planar molecule under the previous electron processes. The results of these findings were further implemented to two more molecules.
Therapierefraktärer Schmerz ist ein weit verbreitetes, äußerst belastendes Leitsymptom rheumatischer Erkrankungen. Viele Betroffene weichen daher bei Versagen der Standardmedikation selbstständig auf Cannabis oder die strukturell verwandte Substanz Palmitoylethanolamid (PEA) als Add-On- oder Alternativtherapie aus, obwohl dies in Deutschland bisher nur eingeschränkt zulässig ist. Die deutsche Gesetzgebung ist diesbezüglich nicht eindeutig, weshalb Ärzt:innen in ihrer Entscheidung, Cannabis zu verschreiben, auf Leitlinien, Fallberichte und Expert:innenmeinungen zurückgreifen müssen. Dies führt zu schwierigen Einzelfallentscheidungen, da sich die derzeitige Datenlage zu Cannabis-based Medicine (CBM) bzw. PEA und Rheuma als mangelhaft darstellt und die Leitlinien dementsprechend keine klaren Empfehlungen enthalten. Ziel der vorliegenden Arbeit ist es, die vorhandene Evidenz zusammenzufassen, zu ordnen und anhand der Hill-Kriterien den möglichen kausalen Zusammenhang zwischen der Einnahme von CBM bzw. PEA und der analgetischen Wirkung bei Rheumaschmerzen zu prüfen.
"Mir ist so digk vor gesait" : Studien zur erzählerischen Gestaltung des "Meleranz" von dem Pleier
(2024)
In der germanistischen Mediävistik richtet sich das Forschungsinteresse vornehmlich auf die höfische Literatur und dabei insbesondere auf die frühen und späten Artusromane. Vor allem die Werke von Hartmann von Aue und Wolfram von Eschenbach sind zentrale Forschungsobjekte, während Texte wie Pleiers ‚Meleranz‘ bisher nur begrenzt Beachtung fanden.
Die Forschungslücke, die die vorliegende Arbeit adressiert, liegt in der detaillierten Analyse der spezifischen Erzähltechniken des pleierschen Textes, die sich sowohl durch die Verwendung traditioneller arthurischer Motive als auch durch innovative narrative Ansätze auszeichnen. Ausgehend von dem Befund eines stark zurückgenommenen Erzählers wird untersucht, welche narrativen Strategien und Verfahren der Pleier im ‚Meleranz‘ anwendet, um trotz dieser Abkehr von der implizierten poetischen Regelhaftigkeit einer dominanten Erzählerfigur das Erzählen vom Ritter ‚Meleranz‘ gelingen und zugleich an einigen Stellen ausgesprochen konventionell wirken zu lassen.
Um aufzudecken, wie der Text ohne die Stimme eines deutlich hervortretenden Erzählers vermittelt wird, nutze ich im Verlauf der Arbeit eine Typologie der Stoffvermittlung durch (arthurische) Erzähler. In den Einzelstudien zum ‚Meleranz‘ werden seine Motive, Erzählmuster und Figurenkonstellationen in einem close reading erarbeitet und mit der Typologie abgeglichen, um bestimmen zu können, welche Vermittlungsformen im pleierschen Text genutzt werden. Mit Hilfe dieses Vergleichs kann das Erzählverfahren im ‚Meleranz‘ extrapoliert und gleichzeitig offengelegt werden. Mittels dieses Vorgehens wird verdeutlicht werden, dass es sich beim ‚Meleranz‘ um einen Text handelt, der arthurische Konventionen lediglich anders inszeniert, um die vermittelnde Funktion der Stimme des Erzählers zu substituieren oder ihr Fehler auszugleichen.
While high-quality climate reconstructions of some past warm periods in the Cenozoic era now exist, the geological processes responsible for driving the observed longterm changes in atmospheric CO2 are not sufficiently well understood. The long-term change in atmospheric CO2 across the Cenozoic has been proposed to be driven by processes such as terrestrial weathering, organic carbon production and burial, reverse weathering, and volcanic degassing. One way of constraining the relative importance of the various driving forces proposed so far is to better understand the degree to which ocean chemistry has changed because the chemistry of seawater responds to geologic processes that drive atmospheric CO2. In addition, knowledge of the concentration of the major elements in seawater is crucial for accurately applying proxies such as those based on the boron isotopic composition and Mg/Ca of marine carbonates (a proxy for palaeo pH/CO2 and palaeotemperature, respectively). Previously reported records of seawater composition are primarily derived from fluid inclusions in marine evaporites; however, the results are sparse due to the limited availability of such deposits. In this thesis, changes in the Eocene seawater chemistry were reconstructed using trace element (elements/Ca) and isotopic (δ26Mg) proxies in a Larger Benthic Foraminifera (LBFs), i.e., Nummulites sp., to constrain the driving processes of long-term changes in seawater chemistry.
To achieve the objective of this thesis, first, a measurement protocol was established using LA-ICPMS to measure the K/Ca ratio simultaneously with other element/calcium ratios, which is challenging due to the interference of ArH+ on K+. Utilising this newly established measurement protocol, laboratory-cultured Operculina ammonoides grown at different seawater calcium concentrations ([Ca2+]), repeated at different temperatures, as well as modern O. ammonoides collected from different regions exhibiting a range of seawater parameters, were investigated. A significant correlation was observed between K/Casw and K/CaLBF, allowing K/CaLBF to potentially be used as a proxy for seawater major ion reconstructions. In addition, modern O. ammonoides demonstrated no significant influence of most seawater parameters (temperature, salinity, pH, or [CO32-]) on K/CaLBF. Modern O.
ammonoides were also assessed for their Mg isotopic composition (δ26Mg), revealing no significant effect of temperature or salinity on δ26MgLBF. Furthermore, the Mg isotopic fractionation in O. ammonoides was found to be close to that of inorganic calcite, indicating minimal vital effects in these large benthic foraminifera.
Operculina ammonoides is the nearest living relative of the abundant Eocene genus Nummulites, enabling the reconstruction of seawater chemistry using the calibration based on O. ammonoides. The trace elemental/calcium proxies, including Na/Ca, K/Ca, and Mg/Ca, as well as the δ26Mg proxy, were investigated in Eocene Nummulites. The result showed that during the Eocene, [Ca2+]sw was 1.6-2 times higher, while [K+]sw was ~2 times lower than the modern seawater composition. Furthermore, [Mg2+]sw decreased from the early Eocene (54.3− +9 7..69 mmol kg-1 at ~55 Ma) to Late Eocene (37.8− +4 4..3 4 mmol kg-1 at ~31 Ma), followed by
an increase toward modern seawater [Mg]. In contrast, the variability in δ26Mgsw values remained within a narrow range of ~0.3 ‰ throughout the Cenozoic. The reconstructed [Ca2+]sw agrees with the suggestion that Cenozoic seawater chemistry changes can be explained via a change in the seafloor spreading rate. When combined with existing records, the observed minimal change in δ26Mgsw with an increase in [Mg2+]sw suggests an additional possible role of a decrease in the formation of authigenic clay minerals coincident with the Cenozoic decline in deep ocean temperature, which is also supported by the increase in the [K+]sw reconstructed here for the first time. This finding highlights that the reduction in seafloor-spreading rate and decline in reverse weathering during the Cenozoic era has played a significant role in the evolution of seawater chemistry, emphasizing the importance of these processes in driving long-term changes in the carbon cycle.
The strong force is one of the four fundamental interactions, and the theory of it is called Quantum Chromodynamics (QCD). A many-body system of strongly interacting particles (QCD matter) can exist in different phases depending on temperature (T) and baryonic chemical potential (µB). The phases and transitions between them can be visualized as µB−T phase diagram. Extraction of the properties of the QCD matter, such as compressibility, viscosity and various susceptibilities, and its Equation of State (EoS) is an important aspect of the QCD matter study. In the region of near-zero baryonic chemical potential and low temperatures the QCD matter degrees of freedom are hadrons, in which quarks and gluons are confined, while at higher temperatures partonic (quarks and gluons) degrees of freedom dominate. This partonic (deconfined) state is called quark-gluon plasma (QGP) and is intensively studied at CERN and BNL. According to lattice QCD calculations at µB=0 the transition to QGP is smooth (cross-over) and takes place at T≈156 MeV. The region of the QCD phase diagram, where matter is compressed to densities of a few times normal nuclear density (µB of several hundreds MeV), is not accessible for the current lattice QCD calculations, and is a subject of intensive research. Some phenomenological models predict a first order phase transition between hadronic and partonic phases in the region of T≲100 MeV and µB≳500 MeV. Search for signs of a possible phase transition and a critical point or clarifying whether the smooth cross-over is continuing in this region are the main goals of the near future explorations of the QCD phase diagram.
In the laboratory a scan of the QCD phase diagram can be performed via heavy-ion collisions. The region of the QCD phase diagram at T≳150 MeV and µB≈0 is accessible in collisions at LHC energies (√sNN of several TeV), while the region of T≲100 MeV and µB≳500 MeV can be studied with collisions at √sNN of a few GeV. The QCD matter created in the overlap region of colliding nuclei (fireball) is rapidly expanding during the collision evolution. In the fireball there are strong temperature and pressure gradients, extreme electromagnetic fields and an exchange of angular momentum and spin between the system constituents. These effects result in various collective phenomena. Pressure gradients and the scattering of particles, together with the initial spatial anisotropy of the density distribution in the fireball, form an anisotropic flow - a momentum (azimuthal) anisotropy in the emission of produced particles. The correlation of particle spin with the angular momentum of colliding nuclei leads to a global polarization of particles. A strong initial magnetic field in the fireball results in a charge dependence and particle-antiparticle difference of flow and polarization.
Anisotropic flow is quantified by the coefficients vₙ from a Fourier decomposition of the azimuthal angle distribution of emitted particles relative to the reaction plane spanned by beam axis and impact parameter direction. The first harmonic coefficient v₁ quantifies the directed flow - preferential particle emission either along or opposite to the impact parameter direction. The v₁ is driven by pressure gradients in the fireball and thus probes the compressibility of the QCD matter. The change of the sign of v₁ at √sNN of several GeV is attributed to a softening of the EoS during the expansion, and thus can be an evidence of the first order phase transition. The global polarization coefficient PH is an average value of the hyperon’s spin projection on the direction of the angular momentum of the colliding system. It probes the dynamics of the QCD matter, such as vorticity, and can shed light on the mechanism of orbital momentum transfer into the spin of produced particles.
In collisions at √sNN of several GeV, which probe the region of the QCD phase diagram at T≲100 MeV and µB≳500 MeV, hadron production is dominated by u and d quarks. Hadrons with strange quarks are produced near the threshold, what makes their yields and dynamics sensitive to the density of the fireball. Thus measurement of flow and polarization, in particular of (multi-)strange particles, provides experimental constraints on the EoS, that allows to extract transport coefficients of the QCD matter from comparison of data with theoretical model calculations of heavy-ion collisions.
For continuation of the annotation see the PDF of thesis
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Der Hirntumor Glioblastom (GBM) ist aufgrund seines infiltrativen Wachstums, der hohen intra- und intertumoralen Heterogenität, der hohen Therapieresistenz als auch aufgrund der sogenannten gliomartigen Stammzellen sehr schwer zu behandeln und führt fast immer zu Rezidiven. Da es in den letzten Jahrzehnten kaum Fortschritte in der Behandlung des GBMs gab, bis auf die Therapie mit Tumortherapiefeldern, wird weiterhin nach alternativen Zelltodtherapien geforscht, wie zum Beispiel dem Autophagie-abhängigen Zelltod. Der Autophagie-abhängige Zelltod ist durch einen erhöhten autophagischen Flux gekennzeichnet und obwohl die Autophagie, als auch selektive Formen wie die Lysophagie und Mitophagie, normalerweise als überlebensfördernde Mechanismen gelten, konnten viele Studien eine duale Rolle in der Tumorentstehung, -progression und -behandlung aufzeigen, die vor allem vom Tumortyp und stadium abhängt. Um die zugrunde liegenden Mechanismen des durch Medikamente induzierten Autophagie-abhängigen Zelltods im GBM weiter zu entschlüsseln, habe ich in meiner Dissertation verschiedene Substanzen untersucht, die einen Autophagie-abhängigen Zelltod induzieren.
In einer zuvor in unserem Labor durchgeführten Studie konnte gezeigt werden, dass das Antipsychotikum Pimozid (PIMO) und der Opioidrezeptor-Antagonist Loperamid (LOP) einen Autophagie-abhängigen Zelltod in GBM Zellen induzieren können. Darauf aufbauend habe ich die Fähigkeit zur Induktion des Autophagie-abhängigen Zelltods in weiteren Zellmodellen validiert. Dies bestätigte einen erhöhten autophagischen Flux nach PIMO und LOP Behandlung, während der Zelltod als auch der autophagische Flux in Autophagie-defizienten Zellen reduziert war. In weiteren Versuchen konnte ich die Involvierung der LC3-assoziierten Phagozytose (LAP), ein Signalweg der auf die Funktion einiger autophagischer Proteine angewiesen ist, ausschließen. Weiterhin konnte ich eine massive Störung des Cholesterin- und Lipidstoffwechsels beobachten. Unter anderem akkumulierte Cholesterin in den Lysosomen gefolgt von massiven Schäden des lysosomalen Kompartiments und der Permeabiliserung der lysosomalen Membran. Dies trug einerseits zur Aktivierung überlebensfördernder Lysophagie als auch der Zell-schädigenden „Bulk“-Autophagie bei. Letztendlich konnte aber die erhöhte Lysophagie die Zellen nicht vor dem Zelltod retten und die Zellen starben einen Autophagie-abhängigen lysosomalen Zelltod. Da die Eignung von LOP als Therapie für das GBM aufgrund der fehlenden Blut-Hirn-Schranken Permeabilität und von dem Antipsychotikum PIMO aufgrund teils schwerer Nebenwirkungen eingeschränkt ist, habe ich mich im weiteren Verlauf meiner Dissertation mit einer Substanz mit einem anderen Wirkmechanismus beschäftigt.
Der Eisenchelator und oxidative Phosphorylierungs (OXPHOS) Inhibitor VLX600 wurde zuvor berichtet mitochondriale Dysfunktion und Zelltod in Kolonkarzinomzellen zu induzieren. Allerdings hat meines Wissens nach bisher noch keine Studie die therapeutische Eignung von VLX600 für das GBM untersucht. Hier zeige ich eine neuartige Autophagie-abhängige Zelltod-induzierende Fähigkeit von VLX600 für GBM Zellen, da der Zelltod signifikant in Autophagie-defizienten Zellen aber nicht durch Caspase-Inhibitoren gehemmt wurde und der autophagische Flux erhöht war. Darüber hinaus konnte ich die Hemmung der OXPHOS und die Induktion von mitochondrialem Stress in GBM Zellen bestätigen und weiterhin aufzeigen, dass VLX600 nicht nur die mitochondriale Homöostase stört, sondern auch zu einer BNIP3-BNIP3L-abhängigen Mitophagie führt, die wahrscheinlich durch HIF1A reguliert wird aber keinen erkennbaren Nettoeffekt auf den von VLX600 induzierten Zelltod hat. Demnach induziert VLX600 letale „Bulk“-Autophagie in den hier verwendeten Zellmodellen. Darüber hinaus konnte ich zeigen, dass die Eisenchelatierung durch VLX600 eine große Rolle für den von VLX600-induzierten Zelltod spielt aber auch für die Mitophagie Induktion, Histon Lysin Methylierung und den ribosomalen Stress. Letztendlich ist es wahrscheinlich ein Zusammenspiel all dieser Faktoren, die zur Zelltodinduktion durch VLX600 führen und interessanterweise werden Eisenchelatoren bereits in präklinischen und klinischen Studien für Krebstherapien untersucht. Dabei könnten gewisse metabolische Eigenschaften verschiedener Tumorzellen die Sensitivität von Wirkstoffen, die auf den Metabolismus wirken wie VLX600, beeinflussen was in zukünftigen Studien beachtet werden sollte um den bestmöglichsten Therapieerfolg zu erzielen. Zusammenfassend unterstützt meine Dissertation die duale Rolle der Autophagie, die stark vom jeweiligen Kontext abhängt und befürwortet die weitere Forschung von Substanzen, die einen Autophagie-abhängigen Zelltod induzieren, für das GBM.
This research attempts to provide for an overview of the state of co-operation between the United Nations and regional organizations like the CoE, OSCE, EU and NATO during the last Yugoslav wars, considering the 1991-2008 period. In this case, the "reconstruction" of what the organisations did in each of the countries involved in the conflicts, the country-by-country approach used in writing the research and the consideration of both headquarters and field level should facilitate the understanding of the state of things at that time. The research further includes an analysis of the co-operative trends developed by the considered international organisations since the beginning of the 1990s and is concluded by a reflection on the normative relevance of the issue of "international cooperation". In this case, the intention of the author was to go beyond the general policy level approach used for the description of UN-regional organizations interaction and propose a re-consideration of the concept of "international co-operation" as a possible normative tool in guiding the so far nebulous division of tasks of international actors in conflict-related scenarios. In this case, the concise description of the general framework for co-operation under Chapter VIII of the UN Charter, already matter of wide debate by academics and practitioners, sets the frame for a more elaborate, and hopefully innovative, consideration of the notion of "international cooperation". This, of course, is to be contextualized to the lessons learned extrapolated from the case study.
Restructuration des répertoires langagiers de migrant·e·s de la République du Congo en Lorraine
(2023)
Cette thèse étudie la complexité du plurilinguisme des migrant·e·s d’origine de la République du Congo en Lorraine à travers le prisme de la restructuration des répertoires langagiers. En affûtant la conceptualisation de la restructuration des répertoires langagiers par l’étude du plurilinguisme des migrant·e·s d’origine congolaise, cette recherche ouvre de nouvelles perspectives pour les recherches portant sur le plurilinguisme, notamment concernant les mobilités transgénérationnelles et la diversité des processus de restructuration façonnant les répertoires langagiers. En se focalisant sur les biographies langagières et migratoires de 15 individus migrants, sur leurs réseaux sociaux et sur leurs ressources langagières, cette étude révèle la diversité des processus et des facteurs au cœur des restructurations des répertoires langagiers à travers une étude ethnographique multi-située en Lorraine et au Congo. La compréhension de la diversité des dynamiques restructurant les connaissances langagières des enquêté·e·s passe par l’étude des situations de socialisation langagière au Congo dans leur historicité, des itinéraires de migration et des restructurations des réseaux sociaux ainsi que des répertoires langagiers dans l’installation en Lorraine. Les participations à la société lorraine et ses groupes sociaux imprègnent les identifications, les orientations sociales et les positionnements dans les réseaux sociaux et vice-versa.
Les répertoires langagiers apparaissent comme des enregistrements de la mobilité des individus et de celle des générations antérieures ainsi que de leur entourage. Les restructurations concernent entre autres les ressources associées au français, aux langues congolaises et à d’autres langues appropriées par la migration. Les ressources du français sont restructurées par les migrant·e·s en s’appropriant les ressources courantes dans différentes situations sociales en Lorraine, en marquant et/ou en dissimulant les ressources appropriées ailleurs et inappropriées dans ces situations. En même temps, un savoir de différenciation des ressources, dont font aussi partie les schémas de catégorisation et les stratégies communicatives, est développé et une (in)sécurité langagière se manifeste. Les ressources associées aux langues congolaises, leurs fonctions sociales et leurs représentations sont restructurées dans des processus d’attrition, d’actualisation, de transformation et d’élaboration langagière. Les ressources associées à d’autres langues européennes appropriées par la migration sont reléguées au second plan et se perdent lentement par manque d’usage. Enfin, les connaissances liées à la gestion du plurilinguisme, de la diversité culturelle et de l’altérité, appropriées dans les mêmes situations de diversité, aident au traitement interne des expériences des mobilités spatiales et sociales ainsi que des restructurations des répertoires langagiers.
Terahertz (THz) radiation lies between the micro and far-infrared range in the electromagnetic spectrum. Compared with microwave and millimeter waves, it has a larger signal bandwidth and extremely narrow antenna beam. Thus, it is easier to achieve high-resolution for imaging and detection applications. The unique properties, such as penetration for majority non-polar materials, non-ionizing characteristic and the spectral fingerprint of materials, makes THz imaging an appealing artifice in the military, biomedical, astronomical communications, and other areas. However, THz radiation’s current low power level and detection sensitivity block THz imaging system from including fewer optical elements than the visible or infrared range. This leads to imaging resolution, contrast, and imaging field of view degenerate and makes the aberration more serious. THz imaging based on the space Fourier spectrum detection is developed in this thesis to achieve high-quality imaging. The main concept of Fourier imaging is by recording the field distribution in the Fourier plane (focal plane) of the imaging system; the information of the target is obtained. The numerical processing method is needed to extract the amplitude and phase information of the imaged target. With additional process, three-dimensional (3D) information can be obtained based on the phase information. The novel recording and reconstructing ways of the Fourier imaging system enables it to have a higher resolution, better contrast, and broader field of view than conventional imaging systems such as microscopy and plane to plane telescopic imaging system.
The work presented in this thesis consists of two imaging systems, one is working at 300 GHz based on the fundamental heterodyne detection of the THz radiation, the other is operated at 600 GHz by utilizing the sub harmonic heterodyne detection technique. The realization and test of the heterodyne detection are based on the THz antenna-coupled field-effect transistor (TeraFET) detector developed by Dr. Alvydas Lisauskas. Both systems use two synchronized electronic multiplier chains to radiate the THz waves. One radiation works as the local oscillator (LO), the other works as illumination with a slight frequency shift, the radiations are mixed on the detector scanning in the Fourier plane to record the complex Fourier spectrum of the imaged target. The LO has the same frequency range as the illuminating radiation for fundamental heterodyne detection but half the frequency range for the sub-harmonic heterodyne detection. The 2-mm resolution, 60-dB contrast, and 5.5-cm diameter imaging area at 300 GHz and the of 500-μm resolution, 40-dB contrast, and 3.5-cm diameter imaging area at 600 GHz are achieved (the 300-GHz illuminating radiation has the approximate power of 600 μW , the 600-GHz illuminating radiation has the approximate power of 60 μW ).
The thesis consists of 6 parts. After the introduction, the second chapter expands on the topic of Fourier optics from a theoretical point of view and the simulations of the Fourier imaging system. First, the theory of the electromagnetic field propagation in free space and through an optical system are investigated to elicit the Fourier transform function of the imaging system. The simulation is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on reconstruction. The preliminary imaging field of view and resolution are also demonstrated. The third chapter describes the Fourier imaging system at 300 GHz based on the fundamental heterodyne detection, including the experimental setup, the 2D, and 3D imaging results. The following fourth chapter reports the integration of the TeraFET detector with two substrate lenses (one is a Si lens on the back-side Si substrate, the other is a wax/PTFE lens on the front side containing the bonding wires) for sub-harmonic heterodyne detection at 600 GHz. The characteristic of the wax/PTFE lens at THz range is presented. After that, the compared imaging results between the detector with and without the wax/PTFE lens are shown. The fifth chapter extends the demonstration on the lateral and depth resolution of the Fourier imaging system in detail and uses the experimental results at 600 GHz to validate the analytical predictions. The comparison of the resolution between the Fourier imaging system and the conventional microscopy system proves that the Fourier imaging system has better imaging quality under the same system configuration. The last chapter in this thesis concludes on the findings of the THz Fourier imaging and gives an outlook for the enhancement of the Fourier imaging system at THz range.
This dissertation investigates a special class of anaphoric form, yè, in Ewe known as the logophoric pronoun. This research makes a number of novel observations.
In the first chapter, I introduce the reader to the phenomenon under investigation as well as provide information on Ewe and its dialects and, methodology. In Chapter 2, I present the pronominal system of Ewe which is categorised into strong and weak forms following Cardinaletti & Starke (1994) and Agbedor (1996). The distribution of pronouns is outlined which sets the tone for an overview of logophoric marking. In this respect, I present variations in logophoric marking strategies cross linguistically and show that Ewe differs significantly from other pronouns in this category. In an effort to explain the deviant case of yè, I entertain the idea that yè is a pure logophoric pronoun in the sense of Clements (1975) and thus, its additional de re and strict interpretation does not imply non-logophoricity.
Chapter 3 demonstrates that yè is sensitive to contexts which portray the intention of an individual. Following Sells (1987), the antecedent of yè must have an intention to communicate. I broadly categorize logophoric contexts into reportative (direct-indirect speech) or non-reportative (speaker’s mental attitude, reporter’s observation or background knowledge of a situation). Based on this categorization, indirect speech report (Clements 1975), dis- course units such as a paragraph or an episode (Clements 1975), and sentential adjuncts such as purpose, causal and consequence clauses (Culy 1994a) are reviewed. The logophoric pro- noun occurs in the complement of attitude verbs (Clements 1975), also termed logocentric (à la (Stirling 1994)) or logophoric predicates (à la (Culy 1994a)) as well as with non-attitudinal verbs (e.g. va ‘come’ or wO ‘do’ as in sentential adjuncts). I argue contra Clements (1975) and Culy (1994a) that yè can occur with perception predicates. I further provide three new instances of non-reportative contexts which are compatible with yè namely, as-if clauses, benefactive na clauses and alesi ‘how’ clauses. I show, corroborating previous studies that contexts which are necessary for the licensing of yè include all of the aforementioned except causal clauses. Among these contexts, the complementizer be or regarding cases where there is no be, an element in C (due to the Doubly-Filled-Comp Filter (DFCF) c.f. Chomsky & Lasnik (1977)), is sufficient to license yè. Following Bimpeh & Sode (2021), yè is licensed by feature checking (in the spirit of von Stechow (2004)): be bears the interpretatble [log] feature which checks the uninterpretable [log] feature of yè. I include a redefinition of logophoricity as pertaining to Ewe.
Given the disparity found in the literature concerning the interpretation of yè: Ewedome (pronounce EVedome) has only de se readings (Bimpeh 2019); while ‘pure’ Ewe, Mina (variety of Ewe spoken in Togo) Pearson (2015), Danyi (O’Neill 2015) and Anlo (pronounced ANlO) (Satık 2019) has de re readings; chapter 4 aims at lending empirical support to the ungoing discussion by verifying the interpretation of yè. Two acceptability judgment tasks were conducted namely, truth value judgment task and binary forced choice task. The results corroborates Pearson (2012, 2015) and others’ discovery that yè has a de re interpretation in the Ewedome (contra Bimpeh (2019); Bimpeh et al. (2022)), Anlo and Tonu (pronounced TONu) dialects of Ewe.
In chapter 5, I discuss the relation between logophoricity (yè, yè a) and Control (PRO). I show that yè may be restricted to a set of verbs which obligatorily require the morpheme a ‘potential marker’ (Essegbey 2008), in subject position. This set of verbs are those that are known as control verbs c.f. (Landau 1999) in English. As a result of this restriction, research such as Satık (2019) claims that yè a is the overt instantiation of PRO in English. According to the Ewe facts, it appears as though on one hand, yè and PRO share similar properties in logophoric contexts and on the other hand, yè in combination with the potential marker, a also share properties with PRO in subject control environments. Against this background, I discuss the relation between yè, yè a and PRO and show that neither yè in isolation nor yè in combination with a, contrary to Satık (2019), is the overt instantiation of PRO. I clarify that the potential morpheme a is not cliticised or combined with the logophoric yè. The two forms are seperate morphemes. The potential marker a only shows up in control environments because a sub-class of verbs require it for grammaticality purposes. As such, the property of de se-ness does not come from yè by itself, yè a or a but rather from the sub-class of verbs which require the potential marker a...
The capacity of pathogenic bacteria to adhere to host cells and to avoid subsequent clearance by the host´s immune response is the initial and most decisive step leading to infections. Human pathogenic bacteria circulating in the bloodstream need to find ways to interact with endothelial cells (ECs) lining the blood vessels to infect and colonise the host. The extracellular matrix (ECM) of ECs might represent an attractive initial target for bacterial interaction, as many bacterial adhesins have reported affinities to ECM proteins, particularly fibronectin (Fn). Trimeric autotransporter adhesins (TAA) have been described as important pathogenicity factors of Gram-negative bacteria. The TAA from human pathogenic Bartonella henselae, Bartonella adhesin A (BadA), is one of the longest and best characterised adhesin and represents a prototypic TAA due to its domain architecture. B. henselae, the causative agent of cat scratch disease, endocarditis, and bacillary angiomatosis, adheres to ECs and ECM proteins via BadA interaction.
In this research, it was determined that the interaction between BadA and Fn is essential for B. henselae host cell adhesion. BadA interactions were identified within the heparin-binding domains of Fn, and the exact binding sites were revealed by mass spectrometry analysis of chemically crosslinked whole-cell bacteria and Fn. It turned out that specific BadA interactions with defined Fn regions represent the molecular basis for bacterial adhesion to ECs. These data were confirmed by using BadA-deficient bacteria and CRISPR-Cas FN1 knockout ECs. It was also identified that BadA binds to Fn from both cellular and plasma origin, suggesting that B. henselae binding to Fn might possibly take part in other infection processes apart from bacterial adherence, e.g. evasion from the host cell immune system.
Interactions between TAAs and Fn represent a key step for adherence of B. henselae to ECs. Still, Fn-mediated binding is of more significant importance for pathogenic bacteria than broadly recognised. Fn removal from the ECM environment of ECs, also reduced adherence of Staphylococcus aureus, Borrelia burgdorferi, and Acinetobacter baumannii to host cells Interactions between adhesins and Fn might therefore represent a crucial step for the adhesion of human-pathogenic Gram-negative and Gram-positive bacteria targeting the ECs as a niche of infection or as means for persistence.
This research demonstrated that combining large-scale analysis approaches to describe protein-protein interactions with supportive functional readouts (binding assays) allows for the discrimination of crucial interactions involved in bacterial adhesion to the host. The herein-described experimental approaches and tools might guide future research for other pathogenic bacteria and represent an initial point for the future generation of anti-virulence strategies to inhibit bacterial binding to host cells.
Die Krebsstammzellforschung gelangte in den letzten Jahren vermehrt in den Fokus der Tumorforschung. Im Tumor bilden Krebsstammzellen eine kleine Population an Zellen mit Stammzelleigenschaften, wodurch sie eine große Rolle bei der Entstehung von Rezidiven, Metastasen, sowie der Entwicklung von Chemotherapieresistenzen spielen. Um eine gezielte Bekämpfung von Krebsstammzellen zu ermöglichen, müssen diese im
Tumor zunächst zuverlässig durch Krebsstammzellmarker detektiert werden können.
Gerade bei soliden pädiatrischen Tumoren, wie dem Hepatoblastom, ergeben sich hierbei Schwierigkeiten dadurch, dass im sehr heterogenen Tumorgewebe viele Zellen aufgrund der embryonalen Natur des Tumors bereits Stammzellmarker exprimieren, ohne dass es sich bei diesen Zellen um Krebsstammzellen handelt. Das Hepatoblastom ist mit 2/3 der Lebertumore des Kindes die häufigste maligne Leberneoplasie im Kindesalter.
Auch wenn es bereits Hinweise auf das Vorliegen von Krebsstammzellen im Hepatoblastom gibt, so konnten diese bisher nicht genauer durch fest definierte Krebsstammzellmarker identifiziert werden.
Um dies zu erreichen, wurden in dieser Arbeit die beiden Hepatoblastomzelllinien HuH6 und HepG2 auf die Expression der bereits bekannten Krebsstammzellmarker CD90, CD34 und CXCR4 überprüft. Zusätzlich wurde auf eine Bindung des „oval cell“ Antikörpers, OV-6, untersucht. Mittels Durchflusszytometrie-Analysen konnte eine Zellpopulation gefunden werden, welche die Oberflächenmarker CD34 und CD90 koexprimiert und gleichzeitig den OV-6 Antikörper bindet. Im nächsten Schritt wurden die Zellen auf einige Krebsstammzelleigenschaften überprüft. Zur weiteren Untersuchung dieser Subpopulation erfolgte mittels MACS (magnetic activated cell sorting) eine Anreicherung der CD90 exprimierenden Zellen. Diese wurde mittels qPCR auf die Expression der Pluripotenzmarker Oct4 und Nanog, sowie der Zytidindeaminase AID untersucht. Es konnte eine signifikant erhöhte Expression von AID und Oct4 detektiert werden. Im Gegensatz hierzu zeigte sich die Expression von EpCAM, c-myc und Albumin, welche als Kontrollgene untersucht wurden, nicht signifikant erhöht. Um auf das Metastasierungspotential der CD90 angereicherten Zellen rückzuschließen, wurde ein Migrationsassay mit angereicherten und depletierten Zellen durchgeführt. Hier wiesen die CD90 angereicherten Zellen, im Vergleich zu den depletierten Zellen eine erhöhte Migration auf. Im Tumorsphäroid-Assay war die HepG2 Zelllinie in der Lage Tumor-61 -sphäroide auszubilden. Nach der Passagierung zeigten diese eine erhöhte Expression der Krebsstammzellmarker CD90 und CD34, sowie der Pluripotenzmarker Oct4 und Nanog.
Zusammengefasst kann mit den Krebsstammzellmarkern CD90, CD34 und OV-6 eine Subpopulation im Hepatoblastom identifiziert werden, die nach unseren Analysen Krebsstammzelleigenschaften aufweisen. Mithilfe dieses Markersets können nun neue Therapieansätze auf ihre Effektivität, Krebsstammzellen gezielt zu eliminieren, getestet werden.
The EMT-transcription factor ZEB1 has been intensively studied in solid cancers, where it is expressed at the invasive front and in cancer-associated fibroblasts (CAFs). In tumour cells, ZEB1 has been involved in multiple steps of cancer progression including stemness, metastasis and therapy resistance, yet its role in the tumour-microenvironment is largely unknown. Here, the role of Zeb1 in CAFs was investigated using mouse models reflecting different tumour stages in immunocompetent fibroblast specific Zeb1 KO mice. Fibroblast-specific depletion of Zeb1 accelerated tumour growth in the inflammation driven AOM/DSS tumour initiation model, reduced tumour growth and invasion in the sporadic AOM/P53 model and reduced liver metastasis in a progressed orthotopic transplantation model. Immunohistochemical and single cell RNA-sequencing analysis showed that Zeb1 ablation resulted in attenuated expression of the myofibroblast marker aSMA and reduced ECM deposition, indicating a shift among fibroblast subpopulations. Modulation of CAFs was furthermore associated with increased inflammatory signaling in fibroblasts resulting in immune infiltration into primary tumours and exaggerated inflammatory signaling in T cells, B cells and macrophages. These changes in the tumour microenvironment were associated with increased efficacy of immune checkpoint inhibition therapy. In summary, Zeb1 expression in CAFs was identified as a potential target to block immunosuppression and metastatic dissemination in colon cancer.
This thesis presents the experimental and numerical analysis of seismic waves that are produced by wind farms. With the aim to develop renewable energies rapidly, the number of wind turbines has been increased in recent years. Ground motions induced by their operation can be observed by seismometers several kilometers away. Hence, the seismic noise level can be significantly increased at the seismic station. Therefore, this study combines long-term experiments and numerical simulations to improve the understanding of the seismic wavefields emitted by complete wind farms and to advance the prediction of signal amplitudes.
Firstly, wind-turbine induced signals that are measured at a small wind farm close to Würzburg (Germany) are correlated with the operational data of the turbines. The frequency-dependent decay of signal amplitudes with distance from the wind farm is modeled using an analytical method including the complex effects of interferences of the wavefields produced by the multiple wind turbines. Specific interference patterns significantly affect the wave propagation and therefore the signal amplitude in the far field of a wind farm. Since measurements inside the wind turbines show that the assumption of in-phase vibrating wind turbines is inappropriate, an approach to calculate representative seismic radiation patterns from multiple wind turbines, which allows the prediction of amplitudes in the far field of a complete wind farm, is proposed.
In a second study, signals with a frequency of 1.15 Hz, produced by the Weilrod wind farm (north of Frankfurt, Germany) are observed at the seismological observatory TNS (Taunus), which is located at a distance of 11 km from the wind farm. The propagation of the wavefield emitted by the wind farm is numerically modeled in 3D, using the spectral element method. It is shown that topographic effects can cause local signal amplitude reductions, but also signal amplification along the travel path of the seismic wave. The comparison of simulations with and without topography reveals that the reduction and amplification are spatially linked to the shape of the topography, which could be an explanation for the relatively high signal amplitude observed at TNS.
Finally, the reduction of the impact of wind turbines on seismic measurements using borehole installations is studied using 2D numerical models. Possible effects of the seismic velocity, attenuation, and layering of the subsurface are demonstrated. Results show that a borehole can be very effective in reducing the observed high-frequency signals emitted by wind turbines. However, a borehole might not be beneficial if signals with frequencies of about 1 Hz (or lower) are of interest, due significant wavelength-dependent effects. The estimations of depth-dependent amplitudes with a layered subsurface are validated with existing data from wind-turbine-induced signals measured at the top and bottom of two boreholes.
The experimental analysis of measurements conducted at wind farms and the advances of modeling such signals improve the understanding of the propagation of wind-farm induced seismic wave fields. Furthermore, the methods developed in this work have a high potential of universal application to the prediction of signal amplitudes at seismometers close to wind farms with arbitrary layout and geographic location.
Das Glioblastom ist eine tödliche maligne Erkrankung des zentralen Nervensystems. Etablierte Therapiekonzepte resultieren in einer Fünfjahresüberlebensrate von fünf Prozent. Die derart infauste Prognose wird unter anderem bedingt durch die Heterogenität des Tumors. Insbesondere einer Population stammzellartiger Zellen wird die Verantwortung für Resistenz und Rekurrenz des Glioblastoms zugesprochen. Die genuine Plastizität des Glioblastoms mit entsprechender Fähigkeit zur Änderungen tumorweiter Expressionsprofile und Ausbildung einzigartiger funktioneller Fähigkeiten kann ohne gezielte Beeinträchtigung von stammzellartigen Zellen womöglich nicht ausreichend überwunden werden. Als Urheber kritischer Eigenschaften erscheint die erfolgreiche Elimination dieser Population innerhalb des Glioblastoms notwendig um nachhaltige Therapieerfolge zu erzielen. Mögliche Strategien der Elimination stammzellartiger Zellen setzen an Differenzierung und Ausbeutung stammzelltypischer Signalwege zur Modulation dieser Zellen an. Hierdurch sollen zentrale Fähigkeiten der Population stammzellartiger Zellen, wie Selbsterneuerung, Resistenz gegenüber Strahlen- und Chemotherapie und erneute Formation heterogener Tumore, überwunden werden.
Zentrale zelluläre Prozesse, welche zum Erhalt des stammzellartigen Zustandes dieser Zellen beitragen, sind unter anderem der Hedgehog- und Notch-Signalweg. Einer Beeinträchtigung dieser Signalwege wohnt womöglich die Fähigkeit der effektiven Modulation zentraler Eigenschaften stammzellartiger Zellen inne. Neben diesen Signalwegen gibt es eine Reihe weiterer Prozesse, welchen eine Urheberschaft an der Resistenz der Zellen zugesprochen wird. Hierzu zählt beispielweise der Prozess der Autophagie. Die Autophagie ist ein hochkonservierter zellulärer Mechanismus zur Selbsterneuerung durch Selbstdegradation fehlerhafter zellulärer Komponenten. Gleichzeitig kann die Autophagie durch eine Überaktivität zu einem spezifischen, autophagischen Zelltod beitragen. Die Modulation dieses Dualismus kann in einer Vielzahl von Tumoren, so auch im Glioblastom, das Schicksal einer tumorfördernden Autophagie in eine antitumorale Autophagie ändern.
Im Rahmen dieser Arbeit wurde erstmalig eine Modulation zentraler Eigenschaften stammzellartiger Zellen durch die Beeinflussung ihrer zellulären Prozesse mittels kombinierter Therapie durch Arsentrioxid oder GANT und (-)-Gossypol gezeigt. Arsentrioxid wirkt unspezifisch unter anderem als Inhibitor von Notch- und Hedgehog-Signalweg. Diese Inhibition wurde auch in den untersuchten Zellen nachgewiesen und führte zu einer Reduktion von stammzelltypischen Markerproteinen und Fähigkeiten der Tumorgenese in -vitro und ex -vivo, sowie zur Sensitivierung gegenüber strahleninduzierten Schäden. Gegenüber einer spezifischen Hedgehog-Inhibition durch eine GANT-vermittelte Bindung an Gli-Transkriptionsfaktoren zeigten sich deutliche Vorteile der dualen Inhibition durch Arsentrioxid hinsichtlich der genannten Eigenschaften. Die Kombination der Substanzen mit dem pan-Bcl-Inhibitor (-)-Gossypol führte zu einer synergistischen Steigerung der antitumoralen Effekte. (-)-Gossypol wird in Gliomzellen insbesondere mit der Modulation der autophagischen Maschinerie und Auslösung eines autophagischen Zelltodes in Verbindung gebracht. Die Ergebnisse weisen parallele Signalweginteraktionen mit effektiver Modulation des DNA-Damage-Response-Systems durch die Reduktion des Proteins CHEK als kausalen Mechanismus des Synergismus der Substanzen aus.
Die beobachteten Änderungen der typischen Eigenschaften stammzellartiger Zellen durch die Therapie mit Arsentrioxid und (-)-Gossypol implizieren lohnende Folgeuntersuchungen zur weiteren Evaluation dieser Effekte in -vivo, um zukünftig translationale Ableitungen zu erlauben. Die Heterogenität des Glioblastoms und seine genuine Plastizität lassen sich womöglich erfolgreich durch multiple Eingriffe in unterschiedliche zelluläre Prozesse, hierunter Notch- und Hedgehog-Signaling, modulieren. Hierdurch könnten zentrale Eigenschaften des Glioblastoms eventuell effektiv verändert und Resistenz sowie Rekurrenz überwunden werden.
Brain development is a complex and highly organized process that relies on the coordinated interaction between neurons and vessels. These cell systems form a neurovascular link that involves the exchange of oxygen, ions, and other physiological components necessary for proper neuronal and vascular function. This physiologically coupled process is executed through analogous structural and molecular signaling mechanisms shared by both cell types. At the neurovascular interface, the cellular crosstalk via these shared signaling mechanisms allows for the synchronized expansion and integration of neurons and vessels into complex cellular networks. This study investigated the role of VEGFR2, a receptor for vascular endothelial growth factor (VEGF), during postnatal neuronal development in the mouse hippocampus. Prior studies have revealed physiological roles of VEGF, a pro-angiogenic morphogen, in nervous system development. However, it was unclear if VEGF signaling had a direct effect on neuronal physiology and function through neuronal-expressing receptors. In this investigative work, we identified a previously unknown function of VEGFR2, whereby VEGF-induced signaling coordinates the development and circuitry integration of CA3 pyramidal neurons in the early postnatal mouse hippocampus. Mechanistically, we found that VEGFR2 signaling requires receptor endocytosis, a process mediated by ephrinB2. We also found that VEGF-induced cooperative signaling between VEGFR2 and ephrinB2 is functionally required for the dendritic arborization and spine maturation of developing CA3 neurons during the first few postnatal weeks. Moreover, in a collaborative effort with the research group of Carmen Ruiz de Almodovar, formerly at the University of Heidelberg, we simultaneously studied VEGF-induced VEGFR2 signaling in CA3 axonal development. Together, we aimed to gain a comprehensive understanding of the complex interplay between VEGF and VEGFR2 signaling during the early postnatal development of CA3 neurons. Ruiz de Almodovar’s research group found that, unlike the branch and spine development of CA3 dendrites, VEGF-VEGFR2 signaling promotes axonal development through mechanisms that are independent of ephrinB2 function. Our findings on CA3 dendritic development are reported in the published manuscript, Harde et al. (2019), and the complementary work on CA3 axonal development from Ruiz de Almodovar's group is presented in the co-published manuscript, Luck et al. (2019). Although the totality of Ruiz de Almodovar's group's work on CA3 axons is not fully discussed here, it is referenced where noted to provide biological context for our findings on CA3 dendritic development.
VEGFR2 signaling within neurovascular niches is known to play a role in the neurogenesis of neural progenitor cells during embryonic development and within the adult brain. However, the precise localization of neuronal VEGFR2 expression and functional role within the nervous system during postnatal brain development was unknown. To investigate this, we used immunohistochemistry to identify the spatial expression of VEGFR2 within the mouse hippocampus during the first few weeks after birth. Our results showed that VEGFR2 was predominantly expressed within the hippocampal vasculature, consistent with prior studies. However, we also observed localized VEGFR2 expression in pyramidal cell neurons of the hippocampal CA3 region by postnatal day 10 (P10). This spatially restricted postnatal expression of VEGFR2 in CA3 neurons suggested a potential role in the development of these neurons during this developmental stage.
The first two weeks after birth in the mouse hippocampus is a critical period for the development of neuronal circuits, as neurons undergo extensive dendritic arborization and spine formation. To explore the role of VEGFR2 in the postnatal nervous system, we used a Nes-cre VEGFR2lox/- mouse line to target the deletion of VEGFR2 expression within the nervous system while preserving normal receptor expression in all other cell types. We also generated corresponding control mice that were negative for Nes-cre. By breeding these mice with Thy1-GFP reporter mice, we could analyze the functional consequences of VEGFR2 by assessing the morphologies of CA3 dendritic trees and spine density and maturation at P10 and P15, respectively. Our analysis showed that CA3 neurons in Nes-cre VEGFR2lox/- mice had less complex dendritic arbors compared to control mice. There were significant reductions in total length and branch points, particularly in areas located 100-250 μm from the cell soma within the stratum radiatum layer. Additionally, Nes-cre VEGFR2lox/- mice exhibited a significant decrease in spine density accompanied by an increased proportion of immature spines. These findings suggest that VEGFR2 plays a crucial role in the proper development of CA3 dendrites and spines during the early postnatal weeks.
Cyber Physical Systems (CPS) are growing more and more complex due to the availability of cheap hardware, sensors, actuators and communication links. A network of cooperating CPSs (CPN) additionally increases the complexity. This poses challenges as well as it offers chances: the increasing complexity makes it harder to design, operate, optimize and maintain such CPNs. However, on the other side an appropriate use of the increasing resources in computational nodes, sensors, actuators can significantly improve the system performance, reliability and flexibility. Therefore, self-X features like self-organization, self-adaptation and self-healing are key principles for such systems.
Additionally, CPNs are often deployed in dynamic, unpredictable environments and safety-critical domains, such as transportation, energy, and healthcare. In such domains, usually applications of different criticality level exist. In an automotive environment for example, the brake has a higher criticality level regarding safety as the infotainment. As a result of mixed-criticality, applications requiring hard real-time guarantees compete with those requiring soft real-time guarantees and best-effort application for the given resources within the overall system. This leads to the need to accommodate multiple levels of criticality while ensuring safety and reliability, which increases the already high complexity even more.
This thesis deals with the question on how to conveniently, effectively and efficiently handle the management and complexity of mixed-critical CPNs (MC-CPNs). Since this cannot be done by the system developer without the assistance of the system itself any longer, it is essential to develop new approaches and techniques to ensure that such systems can operate under a range of conditions while meeting stringent requirements.
Based on five research hypothesis, this thesis introduces a comprehensive adaptive mixed-criticality supporting middleware for Cyber-Physical Networks (Chameleon), which efficiently and autonomously takes care of the management and complexity of CPNs with regard to the mixed-criticality aspect.
Chameleon contributes to the state-of-art by introducing and combining the following concepts:
- A comprehensive self-adaption mechanism on all levels of the system model is provided.
- This mechanism allows a flexible combination of parametric and structural adaptation actions (relocation, scheduling, tuning, ...) to modify the behavior of the system.
- Real-time constraints of mixed-critical applications (hard real-time, soft real-time, best-effort) are considered in all possible adaptation conditions and actions by the use of the importance parameter.
- CPNs are supported by the introduction of different scopes (local, system, global) for the adaptation conditions and actions. This also enables the combination of different scopes for conditions and actions.
- The realization of the adaptation with a MAPE-K loop instantiated by a distributed LCS allows for real-time capable reasoning of adaptation actions which also works on resource-spare systems.
- The developed rule language Rango offers an intuitive way to specify an initial rule set for LCS in the context of CPS/CPNs and supports the system administrators in the process of rule set generation.
Artificial intelligence in heavy-ion collisions : bridging the gap between theory and experiments
(2023)
Artificial Intelligence (AI) methods are employed to study heavy-ion collisions at intermediate collision energies, where high baryon density and moderate temperature QCD matter is produced. The experimental measurements of various conventional observables such as collective flow, particle number fluctuations, etc. are usually compared with expensive model calculations to infer the physics governing the evolution of the matter produced in the collisions. Various experimental effects and processing algorithms can greatly affect the sensitivity of these observables. AI methods are used to bridge this gap between theory and experiments of heavy-ion collisions. The problems with conventional methods of analyzing experimental data are illustrated in a comparative study of the Glauber MC model and the UrQMD transport model. It is found that the centrality determination and the estimated fluctuations of the number of participant nucleons suffer from strong model dependencies for Au-Au collisions at 1.23 AGeV. This can bias the results of the experimental analysis if the number of participant nucleons used is not consistent throughout the analysis and in the final model-to-data comparison. The measurable consequences of this model dependence of the number of participant nucleons are also discussed. In this context, PointNet-based AI models are developed to accurately reconstruct the impact parameter or the number of participant nucleons in a collision event from the hits and/or reconstructed track of particles in 10 AGeV Au-Au collisions at the CBM experiment. In the last part of the thesis, different AI methods to study the equation of state (EoS) at high baryon densities are discussed. First, a Bayesian inference is performed to constrain the density dependence of the EoS from the available experimental measurements of elliptical flow and mean transverse kinetic energy of mid rapidity protons in intermediate energy collisions. The UrQMD model was augmented to include arbitrary potentials (or equivalently the EoSs) in the QMD part to provide a consistent treatment of the EoS throughout the evolution of the system. The experimental data constrain the posterior constructed for the EoS for densities up to four times saturation density. However, beyond three times saturation density, the shape of the posterior depends on the choice of observables used. There is a tension in the measurements at a collision energy of about 4 GeV. This could indicate large uncertainties in the measurements, or alternatively the inability of the underlying model to describe the observables with a given input EoS. Tighter constraints and fully conclusive statements on the EoS require accurate, high statistics data in the whole beam energy range of 2-10 GeV, which will hopefully be provided by the beam energy scan programme of STAR-FXT at RHIC, the upcoming CBM experiment at FAIR, and future experiments at HIAF and NICA. Finally, it is shown that the PointNet-based models can also be used to identify the equation of state in the CBM experiment. Despite the uncertainties due to limited detector acceptance and biases in the reconstruction algorithms, the PointNet-based models are able to learn the features that can accurately identify the underlying physics of the collision. The PointNet-based models are an ideal AI tool to study heavy-ion collisions, not only to identify the geometric event features, such as the impact parameter or the number of participant nucleons, but also to extract abstract physical features, such as the EoS, directly from the detector outputs.
The single-source shortest-path problem is a fundamental problem in computer science. We consider a generalization of the shortest-path problem, the $k$-shortest path problem. Let $G$ be a directed edge-weighted graph with $n$ nodes and $m$ edges and $s,t$ be two fixed nodes. The goal is to compute $k$ paths $P_1,\dots,P_k$ between two fixed nodes $s$ and $t$ in non-decreasing order of their length such that all other paths between $s$ and $t$ are at least as long as the $k$\nth path $P_k$. We focus on the version of the $k$-shortest path problem where the paths are not allowed to visit nodes multiple times, sometime referred to as $k$-shortest simple path problem.
The probably best known $k$-shortest path algorithm is Yen's algorithm. It has a worst-case time complexity of O(kn\cdot scp(n,m)), where scp(n,m) is the complexity of the single-source shortest-path algorithm used as a subroutine. In case of Dijkstra's algorithm scp(n,m) is O(m + n\log n). One of the more recent improvements of Yen's algorithm is by Feng.
Even though Feng's algorithm is much faster in practice, it has the same worst-case complexity as Yen's algorithm.
The main results presented in this thesis are upper bounds on the average-case of Yen's and Feng's algorithm, as well as practical improvements and a parallel implementation of Yen's and Feng's algorithms including these improvements. The implementation is publicly available under GPLv3 open source license.
We show in our analysis that Yen's algorithm has an average-case complexity of O(k \log(n)\cdot scp(n,m)) on G(n,p) graphs with at least logarithmic average-degree and random edge weights following a distribution with certain properties.
On G(n,p) graphs with constant to logarithmic average-degree and uniform random edge-weights over $[0;1]$, we show an average-case complexity of O(k\cdot\frac{\log^2 n}{np}\cdot scp(n,m)). Feng's algorithm has an even better average-case complexity of O(k\cdot scp(n,m)) on unweighted G(n,p) graphs with logarithmic average-degree and for constant values of $k$. We further provide evidence that the same holds true for G(n,p) graphs with uniform random edge-weights over $[0;1]$.
On the practical side, we suggest new heuristics to prune even more single-source shortest-path computations than Feng's algorithm and evaluate all presented algorithms on G(n,p) and Grid graphs with up to 256 million nodes. We demonstrate speedups by a factor of up to 40 compared to Feng's algorithm.
Finally we discuss two ways to parallelize the suggested algorithms and evaluate them on grid graphs showing speedups by a factor of 2 using 4 threads and by a factor of up to 8 using 16 threads, respectively.
A synchrotron is a particular type of cyclic particle accelerator and the first accelerator concept to enable the construction of large-scale facilities [10], such as the largest particle accelerator in the world, the 27-kilometre-circumference Large Hadron Collider (LHC) by CERN near Geneva, Switzerland, the European Synchrotron Radiation Facility (ESRF) in Grenoble, France for the synchrotron radiation, the superconducting, heavy ion synchrotron SIS100 under construction for the FAIR facility at GSI, Darmstadt, Germany and so on. Unlike a cyclotron, which can accelerate particles starting at low kinetic energy, a synchrotron needs a pre-acceleration facility to accelerate particles to an appropriate initial value before synchrotron injection. A pre-acceleration can be realized by a chain of other accelerator structures like a linac, a microtron in case of electrons, for example, Proton and ion injectors Linac 4 and Linac 3 for the LHC, UNLAC as the injector for the SIS18 in GSI and in future the SIS18 as injector for the SIS100. The linac is a commonly used injector for the ion synchrotron and consists of some key components. The three main parts of a linac are: An ion source creating the particles, a buncher system or an RFQ followed by the main drift tube accelerator DTL. In order to meet the energy and the beam current requirement of a synchrotron injector linac, its cost is a remarkable percentage of the total facility costs.
However, the normal conducting linac operation at cryogenic temperatures can be a promising solution in improving the efficiency and reducing the costs of a linac. Synchrotron injectors operate at very low duty factor with beam pulse lengths in 1 micros to 100 micros range, as most of the time is needed to perform the synchrotron cycle. Superconducting linacs are not convenient, as they cannot efficiently operate at low duty factor and high beam currents.
The cryogenic operation of ion linacs is discussed and investigated at IAP in Frankfurt since around 2012 [1, 37]. The motivation was to develop very compact synchrotron injectors at reduced overall linac costs per MV of acceleration voltage. As the needed beam currents for new facilities are increasing as well, the new technology will also allow an efficient realization of higher injector linac energies, which is needed in that case. Operating normal conducting structures at cryogenic temperature exploits the significantly higher conductivity of copper at temperatures of liquid nitrogen and below. On the other hand, the anomalous skin effect reduces the gain in shunt impedance quite a bit[25, 31, 9]. Some intense studies and experiments were performed recently, which are encouraging with respect to increased field levels at linac operation temperatures between 30 K and 70 K [17, 24, 4, 23, 5, 8]. While these studies are motivated by applications in electron acceleration at GHz-frequencies, the aim of this paper is to find applications in the 100 to 700 MHz range, typical for proton and ion acceleration. At these frequencies, a higher impact in saving RF power is expected due to the larger skin depth, which is proportional to the frequency to the power of negative half with respect to the normal skin effect. On the other hand, it is assumed that the improvement in maximum surface field levels will be similar to what was demonstrated already for electron accelerator cavities. This should allow to find a good compromise between reduced RF power needs for achieving a given accelerator voltage and a reduced total linac length to save building costs.
A very important point is the temperature stability of the cavity surface during the RF pulse. This is of increasing importance the lower the operating temperature is chosen: the temperature dependence of the electric conductivity in copper gets rather strong below 80 K, as long as the RRR - value of the copper is adequate. It is very clear, that this technology is suited for low duty cycle operated cavities only - with RF pulse lengths below one millisecond. At longer pulses the cavity surface will be heated within the pulse to temperatures, where the conductivity advantage is reduced substantially. These conditions fit very well to synchrotron injectors or to pulsed beam power applications.
H – Mode structures of the IH – and of the CH – type are well-known to have rather small cavity diameters at a given operating frequency. Moreover, they can achieve effective acceleration voltage gains above 10 MV/m even at low beam energies, and already at room temperature operation[29]. With the new techniques of 3d – printing of stainless steel and copper components one can reduce cavity sizes even further – making the realization of complex cooling channels much easier.
Another topic are copper components in superconducting cavities – like power couplers. It is of great importance to know exactly the thermal losses at these surfaces, which can’t be cooled efficiently in an easy way.
In view of a growing world population and the finite nature of fossil resources, the development of eco-friendly production processes is essential for the transition towards a sustainable industry. Methanol, which can be produced both petrochemically and from renewable resources, offers itself as bridging technology and attractive alternative raw material for biotechnological processes. This work describes developments for the progress of the well-studied methylotrophic α proteobacterium Methylorubrum extorquens AM1 towards an efficient methylotrophic cell factory. Although many homologous and heterologous production routes have already been described and realized for M. extorquens in a laboratory scale, no industrial process has yet been realized. Three major reasons can be identified for this: (1) A limited choice of tools for genetic modifications, (2) a lack of understanding of carbon fluxes and side reactions occurring in modified strains, such as product reimports, and (3) the lack of tailored production strains for profitable target products and optimized bioprocessing protocols. The aim of the present work was to achieve developments for the mentioned areas. As a model application, the high-level production of chiral dicarboxylic acids from the substrate methanol was chosen. Enantiomerically pure chiral compounds are of great interest, e.g., as building blocks for chiral drugs. The ethylmalonyl CoA metabolic pathway (EMCP) which is part of the primary metabolism of M. extorquens, harbors unique chiral CoA-ester intermediates. Their acid derivatives can be released by cleavage of the CoA-moiety using heterologous enzymes. The dicarboxylic acids 2 methylsuccinic acid and mesaconic acid were produced in a previous study by introducing the heterologous thioesterase YciA into M. extorquens. In the said study, a combined product titer of 0.65 g/L was obtained in shake flask experiments. These results serve as the basis for the developments in the present work.
First, the previously described reuptake of products was thoroughly investigated and dctA2, a gene encoding for an acid transporter, was identified as target for reducing the product reuptake. In addition, reuptake of mesaconic acid was prevented by converting it to (S)-citramalic acid, a product not metabolizable by M. extorquens, by the introduction of a heterologous mesaconase. Together with 2-methylsuccinic acid, for which a high enantiomeric excess of (S)-2-methylsuccinic acid was determined, a second chiral molecule was thus added to the product spectrum. For the release of dicarboxylic acid products, YciA, a broad-range thioesterase that accepts a variety of CoA-esters with different chain lengths as substrates, was chosen. The enzyme should theoretically be able to hydrolyze all CoA-esters of interest present in the EMCP. However, in culture supernatants of M. extorquens strains that were overexpressing the corresponding yciA gene, only mesaconic acid and 2 methylsuccinic acid could be detected. To expand the substrate spectrum of YciA thioesterase with respect to other EMCP intermediates, semi-rational enzyme engineering was attempted. Screening of the corresponding strains carrying the respective YciA variants did not result in strains capable of producing new dicarboxylic acid products. However, the experiments revealed an amino acid position that strongly affected the production of mesaconic acid and 2-methylsuccinic acid in vivo. By substituting the according amino acid in YciA, the maximum titers of mesaconic acid and 2-methylsuccinic acid could be increased substantially. Application of an improved thioesterase variant in a second E. coli-based process confirmed the enhanced activity of the enzyme. The desired extension of the product spectrum by another chiral molecule (2-hydroxy-3-methylsuccinic acid, presumably the (2S,3R)-form) was finally achieved by using an alternative thioesterase. Tailored fermentation strategies were developed for the high-level production of the above-mentioned products.
As second part of the work, two novel genetic tools for M. extorquens were developed and characterized. The pBBR1-derived plasmid pMis1_1B was shown to be stably maintained in M. extorquens cells. In addition, its suitability for co-transformations with other plasmids was demonstrated. The second tool, the cumate-inducible promoter Ps6, is tailored for expression of pathways with toxic products, as the transcription of genes controlled by Ps6 is strongly repressed in the absence of an inducer.
Overall, the present work demonstrates the enormous potential of using M. extorquens as a methylotrophic cell factory. In the applications shown, the biotechnological production of high-priced chiral molecules is combined with the use of an attractive alternative substrate. In addition, new achievements and approaches are presented to facilitate the development of future M. extorquens production strains.
In this thesis, we use lattice QCD to study a part of the QCD phase diagram, specifically the QCD phase transition at mu=0, where the QCD matter changes from hadron gas to quark-gluon plasma (QGP) with increasing temperature.
This phase transition takes place as a crossover, but when theoretically changing the masses of the quarks, the order of the phase transition changes as well.
We focus on the region of heavy quark masses with Nf=2 flavours, where we investigate the critical quark mass at the second order phase transition in the form of a Z2 point between the first-order and the crossover region.
The first-order region is positioned at infinitely heavy quarks. As the quark masses decrease, the associated Z3 centre symmetry breaks explicitly, causing the first-order phase transition to weaken until it turns into the Z2 point and finally into a crossover.
We study this Z2 point using simulations at Nf=2 and lattices of the sizes Nt = {6, 8, 10, 12}, partially building on previous work, in which the simulations for Nt = {6, 8, 10} were started.
The simulations for Nt=12 are not finished yet though, but we were able to draw some preliminary conclusions. These simulations are run on GPUs and CPUs, using the codes Cl2QCD and open-QCD-FASTSUM, respectively. Afterwards, the data goes through a first analysis step in the form of the Python program PLASMA, preparing it for the two techniques we use to analyse the nature of the phase transition.
As a first, reliable analysis method, we perform a finite size scaling analysis of the data to find the location of the Z2 point. Since we are using lattice QCD, performing a continuum extrapolation is necessary to reach the continuum result.
In regard to this, the finite size scaling analysis method is hampered by the excessive amount of simulated data that is needed regarding statistics and the total number of simulations, which is why this thesis is only an intermediate step towards the continuum limit.
This also leads to the second analysis technique we explore in this thesis.
We start to design a Landau theory which describes the phase boundary for heavy masses at Nf=2 based on the simulated data.
We develop a Landau functional for every Nt we have simulation data for.
Albeit the results are not at the same precision as the ones from the finite size scaling analysis, we are able to reproduce the position of the Z2 point for every Nt.
Even though we are not able to take a continuum extrapolation right now, after more development takes place in future works, this approach might, in the long run, lead to a continuum result that won't need as many simulations as the finite size scaling analysis.
Die rechtsmedizinische Begutachtung von Knochenfunden : eine hessenweite retrospektive Studie
(2023)
Einleitung: Zufällige Funde von Knochen(fragmenten) können von großem Interesse für z. B. Strafverfolgungs- und Denkmalbehörden oder Bauträger sein. Zur Beurteilung einer etwaigen strafrechtlichen oder historischen Relevanz tragen forensisch-osteologische Untersuchungen in einem hohen Maße bei. Die vorliegende Arbeit soll einen Überblick über die forensisch-osteologische Arbeit der beiden hessischen Institute für Rechtsmedizin geben und durch die Interpretation der Ergebnisse im (inter-)nationalen Vergleich regionale Besonderheiten und die Rolle der Rechtsmedizin bei der Begutachtung aufzeigen. Der daraus entstandene Erkenntnisgewinn soll ein Problembewusstsein schaffen sowie Fallarbeit und Lehre verbessern.
Material und Methoden: Zunächst wurden für den Zeitraum von 2005 bis 2019 die im Institut für Rechtsmedizin Gießen archivierten osteologischen Gutachten deskriptiv statistisch ausgewertet. Es wurden Daten zu Fundort, -umständen, Humanspezifität, postmortalem Intervall, Spuren von Gewalt und die Ergebnisse weiterführender Untersuchungen erhoben.
In einer zweiten Studie wurde die Auswertung auf archivierte forensisch- osteologische Gutachten des Instituts für Rechtsmedizin Frankfurt am Main ausgeweitet und der Auswertungszeitraum auf die Jahre 2011 bis einschließlich 2020 angepasst, um eine hessenweite Datengrundlage zu generieren.
Ergebnisse: In der ersten Studie wurden von den in dem 15-Jahres-Zeitraum begutachteten 172 Knochenfunden aus dem Institut für Rechtsmedizin Gießen 40 % in Wald- und Wiesengebieten aufgefunden. In 58 % enthielten die Funde menschliche Knochen, davon wurde in 32 % eine forensisch relevante Liegezeit von 50 Jahren oder weniger nicht ausgeschlossen, und 6% wiesen Zeichen perimortaler Gewalteinwirkung auf. Bei den Fällen, in denen eine Humanspezifität ausgeschlossen wurde, handelte es sich am häufigsten um Knochen von Hirsch bzw. Reh (32 %), Schwein (29 %) und Rind (14 %). In 20 % aller Fälle wurden
ergänzende DNA-Untersuchungen durchgeführt; in 62 % verlief die Typisierung humaner STR-Systeme erfolgreich und davon gelang in 41 % die Zuordnung zu einem antemortalen Profil einer vermissten Person.
In der zweiten, hessenweiten Studie, wurden 288 Knochenfunde eines 10-Jahres-Zeitraums ausgewertet. Mit 38,2 % wurden die meisten Funde in Wäldern, Wiesen und großen Parks getätigt. In 50,7 % der Fälle enthielten die Funde menschliche Knochen, davon wurde in 37,0 % eine forensisch relevante Liegezeit angenommen. Zeichen einer Gewalteinwirkung wurden in 77,4 % der Fälle mit menschlichen Knochen beschrieben, dabei handelte es sich mit 78,8 % am häufigsten um postmortale Beschädigungen, in 9,7 % um perimortale und in 11,5 % um antemortale Verletzungen. In 40,4 % der als human klassifizierten Knochenfunde wurden DNA-Untersuchungen durchgeführt. Dabei konnte in 81,3 % ein STR-Profil erstellt werden, das in 35,4% zu einer sicheren Identifizierung führte. Bei den zur Untersuchung überstellten nicht-menschlichen Knochen handelte es sich am häufigsten um Knochen vom Schwein (23,4 %), Hirsch (18,1 %), Rind (16,4 %), Reh (11,7 %) und Schaf (11,7 %).
Diskussion: Die Begutachtung von Knochen und Knochenfragmenten ist ein fester Bestandteil der rechtsmedizinischen Fallarbeit und zwingend erforderlich, um Fälle von forensischem Interesse zu identifizieren. Die makroskopische Befundung durch einen geschulten Untersucher erlaubt in der Regel bereits, Aussagen über die forensische Relevanz eines Fundes zu treffen und so die Weichen für das weitere Vorgehen zu stellen. Hilfreich bei der makroskopischen Beurteilung ist eine gute Kenntnis der regionalen Besonderheiten in dem Gebiet, in dem die Knochen gefunden wurden. Die makroskopische forensisch-osteologische Begutachtung stellt trotz der sich ständig weiterentwickelnden technischen Möglichkeiten ein unverzichtbares Werkzeug in der Bearbeitung von Knochenfunden dar. In Deutschland ist es Aufgabe der Rechtsmedizin, diese Expertise zu pflegen und vorzuhalten, mit dem Ziel, zur Aufklärung von Vermisstenfällen beizutragen und unentdeckte nichtnatürliche Todesfälle aufzuklären.
Der Einfluss von Trauma-aktiviertem platelet-rich fibrin auf mesenchymale Stammzellen in vitro
(2023)
Ziel dieser Arbeit war es, die Wechselwirkung zwischen MSC und PRF von Traumapatienten herauszuarbeiten und zu überprüfen, ob ein therapeutischer Einsatz der Kombination von MSC und Trauma-aktiviertem PRF in Frakturen sinnvoll erscheint.
Hierfür wurden MSC mit PRF über einen Zeitraum von 24 oder 120 Stunden co-inkubiert und die metabolische Aktivität, definierte Faktoren im Überstand (IL-6, CXCL10, VEGF und IDO-2) und die Genexpression ausgewählter Faktoren (MAPK8, MAPK14, IL-6, CXCL10,IDO-1, TNFAIP6, VEGFA, RUNX2 und COL1A) in bis zu drei Messzeitpunkten überprüft. Die Versuche erfolgten vergleichend mit Traumapatienten und gesunden Probanden.
Es konnte gezeigt werden, dass Trauma-aktiviertes PRF verglichen mit PRF von gesunden Probanden die metabolische Aktivität von MSC nach 120 Stunden erhöhen kann. Zudem stellten sich erhöhte Werte des inflammatorischen Faktors IL-6 im Überstand bei Traumapatienten nach 24 und 72 Stunden dar, welche bis zum dritten Messzeitpunkt nach 120 Stunden wieder abfielen. Ein ähnlicher Verlauf zeigte sich bei den Messwerten von VEGFA, einem Faktor, welcher eine große Rolle bei der Angiogenese spielt.
Über alle Messzeitpunkte hinweg konnten niedrigere Werte in der Genexpression von COL1A und RUNX2 im Vergleich zu den Kontrollmessungen erfasst werden.
Die Ergebnisse zeigen, dass im Vergleich zu PRF gesunder Probanden Trauma-aktiviertes PRF die Möglichkeit besitzt, die Proliferation von MSC zu stimulieren. Außerdem wurde beobachtet, dass Trauma-aktiviertes PRF ein inflammatorisches und angiogenetisches Potenzial nach 72 Stunden besitzt, welches nach 120 Stunden allerdings wieder abfällt. Möglicherweise kann durch den Einfluss von MSC der Inflammation entgegengewirkt werden. Ein signifikantes osteogenes Potenzial des Trauma-aktivierten PRFs konnte zu keinem Messzeitpunkt nachgewiesen werden.
Inwiefern der Einsatz von MSC in Kombination mit Trauma-aktiviertem PRF die Frakturheilung verbessern kann, konnte in der vorliegenden Studie nicht eindeutig geklärt werden. Es kann allerdings davon ausgegangen werden, dass die Implantation von Trauma-aktiviertem PRF und MSC in den Defekt erst nach Verstreichen einer bestimmten Zeitperiode nach dem Trauma durchgeführt werden sollte. Die Gründe für diese Annahme sind das erhöhte proliferative und verringerte inflammatorische Potenzial im Verlauf. Eine Ursache für das Fehlen der osteogenen Differenzierung der MSC kann der kurze Messzeitraum sein.
Weitere Studien sollten folgen, um das Potenzial der Kombination von MSC und Trauma-aktiviertem PRF als therapeutisches Verfahren zu überprüfen.
Einleitung: Im Jahr 2016 wurde eine neue, individuelle Lehrform, das „Lernzentrum für ein individualisiertes medizinisches Tätigkeitstraining und Entwicklung“ („Limette“), an der Westfälischen Wilhelms-Universität Münster entwickelt. Das Ziel dieser Lernform ist und war es, nicht nur die theoretische Lehre, sondern vor allem die praktische Lehre und praktische Szenarien in einem geschütztem Lernumfeld in der medizinischen Lehrdidaktik in den Vordergrund zu stellen.
Die Studierenden nehmen an verschiedenen Fächern der Limette teil. In dieser Promotionsarbeit liegt der Fokus auf der Limette Patient Blood Management (PBM) und Transfusionsmedizin.
Vor Kursbeginn wird den Studierenden Zugang zu verschiedenen Vorbereitungsvideos sowie weiteren theoretischen Materialien über PBM und Transfusionsmedizin zur Verfügung gestellt. Bei der Limette durchläuft jeder Studierende sechs verschiedene Stationen. Hierbei beobachten Dozenten die Fertigkeiten und die Umsetzung der Aufgabenlösung durch halbverspiegelte Scheiben, im Umgang mit echten Blutprodukten oder die Kommunikation mit Patienten, die von Schauspielern dargestellt werden. Die Beobachtungen werden den Dozenten des Seminars, welches im Anschluss zur Nachbesprechung stattfindet, mitgeteilt. Hier teilen die Studierenden untereinander ihr Wissen, können den Dozenten Fragen stellen und werden ihnen weitere theoretisch-praktische Kenntnisse vermittelt.
Ziel der Arbeit: Die Promotionsarbeit hat die Auswertung der Selbsteinschätzungsbögen vor und nach der Limette mit anschließender Interpretation der Ergebnisse zum Ziel. Es soll eruiert werden, ob diese neue Lehrmethodik effektiv in der Umsetzung des Lehrerfolgs ist.
Methodik: Die Selbsteinschätzungsbögen hinsichtlich medizinischer Fertigkeiten und Tätigkeiten werden vor und nach der Limette von den Studierenden ausgefüllt. Die Aufgabenstellungen fokussieren sich jeweils auf medizinische Tätigkeiten, bei denen aus 13 verschiedenen Entrustable Professional Activities (EPAs) diejenigen hinterlegt werden, die bei dieser Aufgabe gelehrt werden. Die Differenz von post- zu prä- Selbsteinschätzung zeigt den Lehrerfolg. Die EPAs werden alle analysiert und mit Hilfe der sogenannten Cohen-Zahl interpretiert. Die Cohen Zahl ist definiert als die Differenz zwischen den Mittelwerten zweier Gruppen dividiert durch die gemeinsame Standardabweichung der beiden Populationen. Nach dem Autor Hattie wurde die Skalierung von Cohen für die Lehre angepasst und dabei folgende Einteilung definiert: d = 0,2 (klein), d = 0,4 (mittel) und d = 0,6 (groß). Alle Methoden mit d > 0,4 wurden als „Zone der gewünschten Effekte“ eingestuft.
Ergebnisse: Im Wintersemester 2021/2022 nahmen n=122 Studierende teil, von welchen n=50 beide Fragebögen komplettierten. Eine signifikante Zahl der dargestellten EPAs (50%) hat gute Ergebnisse erzielt, weist mithin einen Cohen´s Wert von d > 0,40 auf. Im Sommersemester 2022 nahmen n=99 Studierende teil, wobei nur n=29 beide Selbsterhebungsbögen komplettierten. Aufgrund des niedrigen Rücklaufs war die Zahl der ausgefüllten Selbsteinschätzungsbögen deutlich geringer und zugleich die Ergebnisse geringer ausgeprägt. In jenem Semester weist die Mehrheit der Ergebnisse einen Cohen´s d-Wert zwischen 0,15 und 0,4 auf, was als durchschnittlicher Lehrerfolg beurteilt wird.
Schlussfolgerung: Die Lehrform der Limette ist eine neue Form der praktischen Lehrvermittlung, die kontinuierlichen Anpassungen unterliegt. Eine hohe Zahl an ausgefüllten Selbsteinschätzungsbögen ist erstrebenswert, um den Lehrerfolg positiv und statistisch signifikant interpretieren zu können. Hierbei ist es nötig, die Lehre in der Limette auszuwerten und gegebenenfalls weitere Anpassungen durchzuführen.
Die Limette ist eine neue Lehrmethode mit einem guten Lehrerfolg hinsichtlich der Vermittlung praktischer Fähigkeiten und sozialer Kompetenz, welche auch an anderen Institutionen angewandt und umgesetzt werden könnte.
Herzkreislauferkrankungen führen weltweit weiterhin die Liste der häufigsten Todesursachen an. Dem frühzeitigen Erkennen kardialer Veränderungen kommt daher eine besondere Bedeutung zu. Das Erkennen subklinischer Veränderungen des Myokards mit Hilfe des myokardialen T1 Mappings und der Strain Analyse in der kardialen MRT mit der Bestimmung der Korrelation von T1 Mapping und Veränderung des myokardialen Strains war das primäre Ziel der vorliegenden Arbeit. Das native T1 Mapping sollte dabei diffuse kardiale Fibrose erkennen, während die Strainparameter zur Analyse der subtilen kardialen Funktion dienten. Wenn eine vermehrte diffuse Fibrose eine Einschränkung der myokardialen Funktion bedeutet, so müssten sich das native T1 Mapping und die Strainparameter gleichsinnig verändern.
Eingeschlossen in die Untersuchung wurden Patienten, die im Rahmen ihres Klinikaufenthaltes an der Kerckhoff-Klinik Bad Nauheim ein kardiales MRT erhielten und ihre Zustimmung zur Aufnahme in das geführte Register gaben. Alle durchgeführten MRT-Untersuchungen besaßen dabei eine medizinische Indikation. Die Untersuchung umfasste eine Blutentnahme sowie die Bildakquisition und das Ausfüllen eines Fragebogens. In der anschließenden Bildauswertung wurden das native T1 Mapping, eine Featuretrackinganalyse, sowie die reguläre diagnostische Beurteilung durch einen Facharzt durchgeführt. Die Patienten wurden anschließend nach ihren Diagnosen in Gruppen eingeteilt. Ein Jahr nach ihrer Untersuchung wurden die Patienten kontaktiert und erneut befragt, um den Anteil an „major adverse cerebro- and cardiovasculare events“ (MACCE) und der Gesamtsterblichkeit am Gesamtkollektiv festzustellen.
Es zeigten sich signifikante Zusammenhänge zwischen nativem T1 Mapping und den Strainparametern, ebenso wie signifikante Zusammenhänge von schwächerer Effektstärke zwischen ECV und den Strainparametern. Das erhöhte native T1 Mapping ging mit verringerten Strainparametern einher, was auf eine vermehrte Fibrose schließen lässt. In der Überlebensanalyse bezüglich des allgemeinen Überlebens zeigte sich nur das native T1 Mapping als unabhängiger Prädiktor, während bei den MACCE zusätzlich auch die Anzahl der betroffenen Segmente im „late gardolinium enhancement“ (LGE) einen unabhängigen Prädiktor darstellten. Der globale longitudinale Strain (GLS) verfehlte bezüglich der MACCE knapp das Signifikanzniveau, zeigte aber eine Tendenz zur Signifikanz.
Natives T1 Mapping und, in begrenztem Maße, möglicherweise auch der Strain haben eine besondere Rolle in der Diagnostik und können bereits früh kardiale Veränderungen detektieren. Da die erhöhten T1 Zeiten als Marker für morphologische Veränderungen mit den Strains als funktionelle Parameter korrelierten, lässt sich spekulieren, dass Fibrose eine Einschränkung der Funktion bedingt.
Hintergrund: Anämie gehört zu den häufigsten Erkrankungen weltweit und stellt daher ein zentrales globales Gesundheitsproblem dar. Etwa ein Drittel aller chirurgischen Patienten weisen präoperativ eine Anämie auf. Dies wird als unabhängiger Risikofaktor für eine erhöhte Morbidität und Mortalität sowie für das vermehrte Auftreten postoperativer Komplikationen angesehen. Vor diesem Hintergrund wurde von der Weltgesundheitsorganisation (World Health Organization, WHO) ein patientenzentriertes Behandlungskonzept namens Patient Blood Management (PBM) gefordert, um unter anderem Anämien frühzeitig zu diagnostizieren und einen rationalen Einsatz von Fremdblutprodukten zu fördern. Trotz der Tatsache, dass PBM vor etwa 10 Jahren eingeführt wurde, scheint Deutschland im internationalen Vergleich eine überdurchschnittlich hohe Menge an Erythrozytenkonzentrat-(EK)Einheiten pro Kopf zu transfundieren. Die Ursachen dafür sind bislang unklar und könnten möglicherweise durch eine erhöhte Anämie- Prävalenz bei chirurgischen Patienten und dem damit verbundenen erhöhten Bedarf an Transfusionen einhergehen.
Zielsetzung: Ziel dieser Arbeit ist die multizentrische Erfassung der präoperativen Anämie-Prävalenz innerhalb des Zeitraums 2007-2019 in Deutschland.
Methoden: In dieser retrospektiven, multizentrischen Beobachtungsstudie wurden alle Patienten jeden Alters, die im Monat März der Jahre 2007, 2012, 2015, 2017 und 2019 in acht teilnehmenden Krankenhäusern operiert wurden, erfasst. Patientencharakteristika und klinische Daten wurden aus den Krankenhausinformationssystemen der teilnehmenden Krankenhäuser entnommen. Primäres Ziel war die Prävalenz der Anämie bei Krankenhausaufnahme. Sekundäre Endpunkte waren der Zusammenhang zwischen Anämie und Anzahl der transfundierten EKs, Dauer des Krankenhausaufenthalts und Sterblichkeit im Krankenhaus.
Ergebnisse: Von insgesamt 30.763 Patienten konnten 23.836 Patienten aus acht Krankenhäusern in die Analyse eingeschlossen werden. Im untersuchten Zeitraum zeigte sich eine Reduktion der präoperativen Anämie-Prävalenz erwachsener Patienten von 37% auf 32,2%. Die Zahl, der mit Erythrozytenkonzentraten -5- transfundierten Patienten, ging signifikant von 16,5 % im Jahr 2007 auf 7,8 % im Jahr 2019 zurück, wobei Patienten mit präoperativer Anämie im Vergleich zu Patienten ohne Anämie sechsmal mehr EKs erhielten. Insgesamt verkürzte sich die Krankenhausverweildauer seit 2007 deutlich, zeigte jedoch eine signifikante Verlängerung bei Vorliegen einer präoperativen Anämie. Die Sterblichkeitsrate war über die Jahre hinweg konstant, dennoch signifikant höher bei anämischen Patienten. Eine multivariate Regressionsanalyse mit festen Effekten ergab, dass präoperative Anämie und EK-Transfusion Prädiktoren für die Sterblichkeitsrate waren.
Diskussion: Die Prävalenz der präoperativen Anämie lag in unserer Studienpopulation im Jahr 2019 bei 32,2 %, was der weltweiten Prävalenz entspricht. Das Implementieren von PBM-Strategien, um präoperative Anämien frühzeitig zu identifizieren und zu therapieren sowie Blutprodukte rational einzusetzen, nimmt daher weiterhin einen großen Stellenwert ein. Diese perioperativen Maßnahmen sind für alle chirurgischen Patienten von zentraler Bedeutung, da eine präoperative Anämie den Bedarf an EK-Transfusionen erhöhen, die Liegezeit verlängern und mit einer erhöhten Sterblichkeitsrate assoziiert sein kann.
Einleitung: Das Pseudoaneurysma (PSA) stellt eine der häufigsten Komplikationen nach arteriellen Punktionen dar. Dabei unterscheiden sich die Komplikationsraten kathetergestützter Verfahren bei diagnostischen Eingriffen deutlich von jenen bei therapeutischen Eingriffen. Zur Behandlung des Pseudoaneurysmas steht eine große Bandbreite an Therapieoptionen zur Verfügung, unter anderem die ultraschallgestützte Thrombininjektion (TI) sowie die Therapie mittels konventionellem Druckverband (DV). Jedoch werden venöse Thrombosen nach der Behandlung des Pseudoaneurysmas beschrieben. Der Einfluss von Antikoagulantien (AK) und Thrombozytenaggregationshemmern (TAH) sowohl auf die Erfolgsraten der Pseudoaneurysmatherapie als auch die anschließende Entstehung venöser Thrombosen wurde bisher noch nicht analysiert.
Fragestellung: Die Effektivität des Druckverbands und der Thrombininjektion bei Patienten mit Pseudoaneurysma und damit assoziierten venösen Thrombosen wurde geprüft. Außerdem wurden die Auswirkungen von Antikoagulantien und Thrombozytenaggregationshemmern auf die Erfolgsraten der Pseudoaneurysmatherapie und die damit assoziierten venösen Thrombosen untersucht.
Methoden: Es wurden von Januar 2010 bis Dezember 2018 insgesamt 468 Patienten mit Pseudoaneurysma untersucht, wovon 238 Patienten in die retrospektive Studie eingeschlossen wurden. Die Behandlung des Pseudoaneurysmas erfolgte mittels Thrombininjektion oder Druckverband. Nach Ablauf von 24 Stunden wurde der Therapieerfolg sonographisch kontrolliert, wobei auch auf das Neuauftreten venöser Beinvenenthrombosen geachtet wurde. Bei allen Patienten wurde die Medikation mit Antikoagulantien und Thrombozytenaggregationshemmern zum Zeitpunkt der Pseudoaneurysmatherapie erhoben.
Ergebnisse: Die Thrombininjektion war dem Druckverband sowohl hinsichtlich des größeren Therapieerfolgs (TI 86% vs. DV 52%, p<0,001) als auch der geringeren Thromboseinzidenz (TI 7,7% vs. DV 21,3%, p=0,039) signifikant überlegen.
Insgesamt erlitten 40 der 238 Patienten eine neu aufgetretene venöse Thrombose der unteren Extremität. Auch bei Betrachtung des Einflusses von Antikoagulantien und Thrombozytenaggregationshemmern erwies sich die 5 Thrombininjektion als dem Druckverband signifikant überlegen. Jedoch wurde bei der Thrombininjektion eine um 18% niedrigere Erfolgsrate unter Antikoagulation festgestellt (TIoAK 97% vs. TImAK 79%, p=0,22), wohingegen bei Druckverbandanlage unter Antikoagulation die Erfolgsrate nur um 6% geringer war (DVoAK 57% vs. DVmAK 51%, p=0,38). In Bezug auf die Thromboseraten nach Thrombininjektion bzw. Druckverband unter Antikoagulation oder Thrombozytenaggregationshemmern konnten keine signifikanten Unterschiede beobachtet werden.
Fazit: Es konnte nachgewiesen werden, dass die Thrombininjektion eine sichere Methode zur Behandlung des Pseudoaneurysmas darstellt und nach Ansicht der Autoren, bei vorhandener Expertise, primär angewandt werden sollte.
Denn die Thrombininjektion ist dem Druckverband in Bezug auf Erfolgs- und Thromboseraten signifikant überlegen. Antikoagulantien beeinträchtigen den Erfolg der Thrombininjektion stärker als den des Druckverbands, weshalb bei Notwendigkeit einer Pseudoaneurysmatherapie die Pausierung der Antikoagulantien im Rahmen einer patientenspezifischen Risiko-Nutzen-Abwägung in Betracht gezogen werden sollte.
Hintergrund: Die kardiale Magnetresonanztomographie (CMR) gilt als Referenzstandard für die Beurteilung der linksventrikulären Funktion und des Volumens des linken Ventrikels (LV). Neuartige Echtzeittechniken versprechen eine schnelle Bildgebung bei freier Atmung mit ähnlicher Qualität. Ziel dieser Studie war es, die Genauigkeit der standardmäßigen Steady-State-Free-Precession (SSFP)-Cine-Bildgebung bei angehaltenem Atem mit der gleichen Sequenz unter Verwendung von drei Signalmittelungen, während freier Atmung sowie mit einer Compressed-Sensing (Cs)- Echtzeittechnik während der freien Atmung zur Beurteilung von LV-Volumen und Masse zu vergleichen.
Methoden: 24 Probanden wurden mit einer Standard-SSFP-Technik bei angehaltenem Atem (BH), mit derselben Technik bei freier Atmung unter Verwendung von drei durchschnittlichen Herzzyklen (SA-FB) sowie mit einem CS-Echtzeitprotokoll bei freier Atmung (CS-FB) untersucht. Verglichen wurden die Erfassungsdauer, die Genauigkeit sowie die Inter- und Intraobserver-Variabilität von LV-Funktion, Volumen und Masse.
Ergebnisse: Die Echtzeit-Bildgebung war erheblich schneller als die freie Atmung mit drei Signalmittelwerten (p<0.001). Die Korrelation zwischen dem Referenzstandard (BH) und den beiden anderen Techniken war ausgezeichnet mit einem r2 für SA-FB vs. BH zwischen 0.74 - 0.89 und einem r2 für CS-FB vs. BH zwischen 0.81 und 0.94. SA-FB ergab mittlere Fehler zwischen 5.9% und 15% für verschiedene LV-Parameter, während CS-FB zu mittleren Fehlern von 6.5%bis 13% führte. Die Inter- und Intraobserver-Variabilität war bei der Echtzeit-Bildgebung ausgezeichnet und bei der SSFP-Bildgebung (SA-FB und BH) gut.
Schlussfolgerung: Sowohl ein Standardprotokoll mit 3 Signalmittelungen, während der freien Atmung als auch die Compressed Sensing liefern genaue und reproduzierbare Messungen des LV, während die Echtzeit-Bildgebung wesentlich schneller ist.
Das Prostatakarzinom ist in Europa die häufigste Krebserkrankung des Mannes. Im metastasierten, kastrationsresistenten Zustand gibt es wenige Therapieoptionen. Als neuere Therapiemöglichkeit hat sich in den letzten Jahren die Radioligandentherapie (RLT) mit 177Lu-PSMA-617 hervorgetan. Die Myelosuppression ist allerdings ein potentiell dosis-limitierender Faktor bei der Radioligandentherapie.
Ziel der vorliegenden Arbeit war es, das Auftreten, den Schweregrad und die Reversibilität von hämatotoxischen Nebenwirkungen in einer großen Patientenkohorte zu unter-suchen, die sich einer RLT mit 177Lu-PSMA-617 bei metastasiertem kastrationsresistentem Prostatakarzinom (mCRPC) unterzogen. Nach deskriptiver Analyse des behandelten Patientenkollektivs erfolgte die Identifikation von prädisponierenden Faktoren für das Eintreten von hämatologischen Nebenwirkungen. Dabei wurden insbesondere der Beitrag von Vortherapien, Behandlungsaktivität, Ausmaß der Knochentumorlast sowie eine prätherapeutisch bestehende Zytopenie berücksichtigt.
Die RLT wurde bei 140 Patienten durchgeführt, die insgesamt 497 Zyklen erhielten. Eine mittlere Aktivität von 6.9±1.3 GBq 177Lu-PSMA-617 pro Zyklus wurde in einem Median von 3 Behandlungszyklen verabreicht. Die mittlere kumulative Aktivität betrug 24.6±15.9 GBq. Hämatologische Parameter wurden bei Studienbeginn, vor jeder Behandlung, 2 bis 4 Wochen danach und während der gesamten Nachbeobachtung gemessen. Die Toxizität wurde anhand der Common Terminology Criteria for Adverse Events v5.0 eingestuft.
Dabei zeigten sich signifikante (Grad ≥3) hämatologische unerwünschte Ereignisse bei 13 Patienten (9.3%). Davon 10 mit Anämie (7.1%), 5 mit Leukopenie (3.6%) und 6 mit Thrombozytopenie (4.3%). Die Hämatotoxizität war bis zu einem medianen Follow-up von 8 Monaten bei allen bis auf zwei Patienten, die innerhalb von weniger als 3 Monaten nach der RLT an einer Krankheitsprogression starben, reversibel auf Grad ≤2. Die Myelosuppression war signifikant häufiger bei Patienten mit vorbestehender Zytopenie Grad ≥2 oder hoher Knochentumorlast (disseminiert oder diffus). Eine vorangegangene taxan-basierte Chemotherapie war ebenfalls mit einer erhöhten Inzidenz signifikanter Hämatotoxizität assoziiert, während die Behandlung mit 223Ra-Dichlorid, die kumulative RLT-Behandlungsaktivität und die Aktivität pro Zyklus nicht signifikant korreliert waren.
Die vorliegenden Ergebnisse zeigen somit, dass hämatologische Nebenwirkungen nach RLT eine akzeptable Gesamtinzidenz besitzen und häufig reversibel sind. Eine hohe Knochentumorlast, eine vorangegangene taxan-basierte Chemotherapie und eine Zyto-penie vor der Behandlung vom Grad ≥2 können als Risikofaktoren für die Entwicklung einer klinisch relevanten Myelosuppression angesehen werden, während die kumulative RLT-Aktivität und eine vorangegangene 223Ra-Dichlorid-Behandlung keinen signifikanten Beitrag zur Inzidenzrate zeigen. Die Fragestellung ist von unmittelbarer Relevanz, da die Erkenntnisse entscheidend für die individuelle Risikoeinschätzung von Patienten mit mCRPC bezüglich der 177Lu-PSMA-617 beitragen.
Aktivierende Mutationen der Fms-like tyrosine kinase (FLT3) treten bei 25 % der Patienten mit akuter myeloischer Leukämie (AML) auf und begünstigen die unkontrollierte Proliferation maligner Blasten. Autophagie ist ein intrazellulärer Prozess, durch den zytoplasmatische Bestandteile lysosomal abgebaut werden und fungiert als intrazellulärer Homöostase-Mechanismus unter Stress-Bedingungen.
Ziel dieser Arbeit war es, herauszufinden, ob FLT3-ITD+-AML-Zellen vulnerabel gegenüber Autophagie-Hemmung sind.
Hierzu wurde zunächst untersucht, wie sich FLT3-ITD-Signaling und Autophagie unter basalen Wachstumsbedingungen gegenseitig beeinflussen. In einem genetischen Modell zeigte sich, dass FLT3-ITD-transformierte wachstumsfaktorunabhängige Zellen während ihrer fortgesetzten Proliferation vermehrt Autophagie betreiben. Lysosomale Autophagie-Inhibitoren zeigten jedoch unter diesen Bedingungen keine erhöhte Wirksamkeit gegenüber FLT3-ITD-positiven Zellen. Humane FLT3-ITD-positive AML-Zellen zeigten nach genetischer Deletion von ULK1 ebenfalls nur transiente und milde Proliferationsdefizite. Unter basalen Wachstumsbedingungen zeigte sich also keine erhöhte Vulnerabilität FLT3-ITD-exprimierender Zellen gegenüber Autophagie-Inhibition.
Daraufhin wurde die Bedeutung von Autophagie während pharmakologischer Hemmung von FLT3 untersucht. FLT3-Inhibition mittels AC220, einem FLT3-spezifischer Tyrosinkinase-Inhibitor, induzierte bzw. steigerte die autophagische Aktivität ähnlich stark wie eine direkte mTOR-Inhibition. Dies ließ sich im Zellmodell therapeutisch ausnutzen: eine Kombinationsbehandlung mit AC220 und einem lysosomalen Autophagie-Inhibitor zeigte eine synergistische antiproliferative Wirkung. Dies stellt möglicherweise einen neuen rationalen Kombinationsbehandlungsansatz für die Therapie FLT3-ITD-positiver AML-Patienten dar.
Ziel dieser Arbeit ist die Identifikation des Einflusses klassischer Labormaterialien und alternativer Experimentiermaterialien auf fachdidaktische Anforderungen an ein gelungenes Experiment im Chemieunterricht. Dabei umfassen alternative Experimentiermaterialien sowohl Materialien aus der alltäglichen Lebenswelt von Schülerinnen und Schülern als auch Materialien aus dem Bereich der Medizintechnik, die anstelle von Materialien des gängigen Laborbetriebs im Chemieunterricht eingesetzt werden. Um den Einfluss des Experimentiermaterials auf entsprechende Anforderungen untersuchen zu können, wurden im Rahmen eines Mixed-Method-Designs zwei aufeinander aufbauende Studien durchgeführt. Bei Studie I handelt es sich um eine qualitative Interviewstudie unter N = 13 Chemielehrkräften, mit denen vor dem theoretischen Hintergrund fachdidaktischer Anforderungen an ein gelungenes Schulexperiment problemorientierte, leit-fadengestützte Interviews zu Vor- und Nachteilen beim Einsatz alternativer Experimentiermaterialien und klassischer Labormaterialien im Chemieunterricht geführt wurden. Anhand des gewonnenen Interviewmaterials wurden anschließend zunächst Eigenschaften identifiziert, in denen sich beide Materialpools voneinander unterscheiden, um davon ausgehend ein Kategoriensystem aufstellen zu können, das in Form einer Matrix den Einfluss dieser Materialeigenschaften auf organisatorische, experimentelle und affektive Anforderungen an ein Schulexperiment im Chemieunterricht darstellt. Dabei konnte in Bezug auf organisatorische Anforderungen insbesondere ein Einfluss des Experimentiermaterials auf zeitliche und finanzielle Rahmenbedingungen sowie auf Anforderungen zur Sicherheit beim Experimentieren im Chemieunterricht festgestellt werden. Ergebnisse zum Einfluss des Experimentiermaterials auf affektive und experimentelle Anforderungen an ein Schulexperiment wurden wiederum genutzt, um anschließend Hypothesen zum Einfluss des Experimentiermaterials auf entsprechende Anforderungen an gelungene Experimente im Chemieunterricht zu generieren, dabei an gelungene Schülerexperimente im Speziellen. Diese Hypothesen wurden in einer zweiten Studie quantitativ getestet. Innerhalb eines experimentellen Untersuchungsdesigns führten dazu insgesamt N = 293 Schülerinnen und Schüler eines von insgesamt fünf betrachteten Schülerexperimenten mit jeweils klassischem Labormaterial oder in einer jeweiligen Variante aus alternativem Experimentiermaterial durch. Im Anschluss beurteilten N = 237 Schülerinnen und Schüler im Rahmen einer Fragebogenerhebung ihre subjektive Wahrnehmung der Experimentiersituation bezüglich der Variablen Grad der Herausforderung, Beobachtbarkeit, Autonomieerleben, Anspannung/ Druck, Kompetenzerleben und Interesse/ Vergnügen. Mit Ausnahme des Kompetenzerlebens und der Beobachtbarkeit konnte zu allen betrachteten Variablen ein signifikanter Einfluss des Experimentiermaterials festgestellt werden. Um diese Ergebnisse der Hypothesentests näher beschreiben und differenzierter erläutern zu können, beantworteten die 237 Schülerinnen und Schüler zusätzlich offene Fragen zu den von ihnen verwendeten Experimentiermaterialien; mit N = 56 weiteren Schülerinnen und Schülern wurden aus diesem Grund außerdem leitfadengestützte Gruppeninterviews geführt. Um folglich auch aus Schülerperspektive möglichst allgemeingültige Einflüsse beider Materialpools auf fachdidaktische Anforderungen an ein gelungenes Schulexperiment zusammenfassen zu können, werden die Ergebnisse dieser qualitativen Datenerhebung ebenfalls in Form einer entsprechenden Matrix dargestellt und dabei von den konkret durchgeführten Experimenten abstrahiert. Neben dem bereits genannten Einfluss des Experimentiermaterials auf den von Schülerinnen und Schülern wahrgenommenen Grad der Herausforderung, das wahrgenommene Autonomieerleben, die/ den wahrgenommene/n Anspannung/ Druck beim Experimentieren sowie das wahrgenommene Interesse/ Vergnügen an der Experimentiersituation konnte dadurch insbesondere ein Materialeinfluss auf die Durchschaubarkeit eines Versuchsaufbaus und deren einzelner Bestandteile sowie auf die wahrgenommene Authentizität einer Experimentiersituation identifiziert werden. Dadurch zeigt die Gesamtuntersuchung auf theoretischer Ebene die Bedeutsamkeit des konkreten Experimentiermaterials als Qualitätsmerkmal des Chemieunterrichts und gibt Lehrkräften auf unterrichtspraktischer Ebene einen Überblick zu Potentialen und Grenzen alternativer Experimentiermaterialien im Vergleich zu etabliertem klassischem Labormaterial.
Die kongenitale Zytomegalievirus Infektion (cCMV-Infektion) ist die häufigste kongenitale Infektionskrankheit weltweit und ist der häufigste Grund für angeborene nicht-genetische Hörstörungen und eine häufige Ursache neurologische Entwicklungsstörungen. Die Inzidenz der cCMV-Infektion liegt in Deutschland zwischen 0,2 % – 0,5 %. Bei retroviral-exponierten Neugeborenen wird die Inzidenz mit 2,7 % – 11,4 % angegeben. Mit der erhöhten Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen ergibt sich für diese Kinder ebenfalls ein erhöhtes Risiko für Langzeitfolgen. Die genaue Inzidenz der cCMV-Infektion variiert je nach untersuchter Population. Für Deutschland existiert eine retrospektive Studie, welche eine Inzidenz von 2,7 % für cCMV-Infektionen bei retroviral-exponierten Neugeborenen ermittelte. In der vorliegenden Studie wurde diese Inzidenz in einem prospektiven multizentrischem Studiendesign in Deutschland ermittelt.
Zur Ermittlung der Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen und Beurteilung der Umsetzbarkeit eines cCMV-Neugeborenen-Screenings wurde ein selektives cCMV-Neugeborenen-Screening für retroviral-exponierte Neugeborene mittels PCR-Untersuchung auf CMV aus einem Mundschleimhautabstrich innerhalb der ersten 21 Lebenstage an drei Studienstandorten innerhalb Deutschlands, Mannheim, München und Frankfurt am Main, durchgeführt. Bei positivem Ergebnis der PCR auf CMV-DNA erfolgte eine Bestätigungsdiagnostik mittels erweiterter Urin- und Blutuntersuchung auf CMV. Zur Diagnostik von cCMV-assoziierten Symptomen erfolgte eine Sonographie des Abdomens und des Schädels sowie eine ausführliche körperliche Untersuchung, eine augenärztliche Evaluation und erweiterte Testungen der Gehörfunktion. Nachuntersuchungen und Therapien wurden den betroffenen Familien außerhalb der Studie angeboten.
122 / 184 (66,3 %) HIV-exponierte Neugeborene von 111 Müttern wurden im Studienzeitraum zwischen dem 24.11.2017 und dem 31.03.2021 eingeschlossen. Eine cCMV-Infektion wurde bei einem Neugeborenen nachgewiesen, sodass die Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen in dieser Studie 0,8 % beträgt. Eine HIV-Mutter-Kind-Transmission wurde nicht detektiert. Die Seroprävalenz für CMV bei den HIV-positiven Frauen lag in diesem Kollektiv bei 96,1 %.
Das Neugeborene mit nachgewiesener cCMV-Infektion zeigte eine zerebrale Beteiligung mit ependymalen Zysten und einer thalamostriatalen Vaskulopathie und erhielt außerhalb der Studie eine zeitgerechte antivirale Therapie mit Beginn in der Neonatalper-ode. Im Verlauf zeigten sich trotz der antiviralen Therapie Entwicklungsstörungen mit autistischen Verhaltensweisen. Die cCMV-Infektion wäre ohne ein routinemäßiges Screening mit großer Wahrscheinlichkeit nicht nachgewiesen worden.
Die frühzeitige Untersuchung der Probanden auf eine cCMV-Infektion hat sich in dieser Studie als vorteilhaft gezeigt, da bei Nachweis einer cCMV-Infektion zeitnah weiterführende Diagnostik und Therapien angeboten werden konnten. Auch die relativ große Anzahl an rekrutierten retroviral-exponierten Neugeborenen im prospektiven Studiendesign in Zusammenarbeit mit mehreren Studienzentren in Deutschland spricht für die Validität dieser Studie. Als Limitation ist zu nennen, dass ein statistisch signifikantes Ergebnis nicht erzielt werden konnte. Aufgrund der Corona-Pandemie kam es organisationbedingt zu einer relativ hohen Anzahl an nicht eingeschlossenen Patienten. Auch die geplante Rekrutierung einer Vergleichsgruppe in Südafrika konnte aufgrund der Pandemie nicht umgesetzt werden. Falsch negative Befunde wurden im Sinne der Familie nicht mittels Goldstandardmethode überprüft, sodass eine Unterschätzung der Rate an cCMV-Infektionen möglich ist.
Insgesamt konnte diese Studie neben der Ermittlung der cCMV-Inzidenz bei retroviral-exponierten Neugeborenen in Deutschland von 0,8 % aufgezeigt werden, dass selbst symptomatische cCMV-Infektionen ohne ein systematisches cCMV-Neugeborenen-Screening nicht sicher nachgewiesen werden konnte. Zudem konnte gezeigt werden, dass ein systematisches cCMV-Neugeborenen-Screening mittels Mundschleimhautabstrich in Deutschland praktikabel ist und bei den Sorgeberechtigten Akzeptanz findet. Den erhobenen Daten zur Folge könnte ein Screening aller Neugeborener oder zumindest ein risikoadaptiertes Screening auf das Vorliegen einer cCMV-Infektion dazu beitragen, dass mehr Kinder mit asymptomatischer oder unentdeckter symptomatischer cCMV-Infektion diagnostiziert werden und so eine entsprechende Behandlung ermöglicht sowie ggf. Langzeitfolgen möglichst verringert werden.
Weitere Studien zum Effekt der verfügbaren antiviralen Therapie bei cCMV-Infektionen und regelmäßiger Kontrolluntersuchungen nach stattgehabter cCMV-Infektion sind zu empfehlen, um die Auswirkungen dieser Maßnahmen auf den Krankheitsverlauf zu evaluieren.
S100A12 ist ein Entzündungsmarker, der inflammatorische Prozesse präzise anzeigt. Entzündungsprozesse mit erhöhten S100A12 Konzentrationen spielen vor allem bei Autoimmunerkrankungen wie der der rheumatischen Arthritis (RA), autoinflammatorischen Erkrankungen wie der juvenilen idiopathische Arthritis (JIA) oder weiteren Erkrankungen wie dem familiären Mittelmeerfieber (FMF) eine wichtige Rolle. Das S100A12 Protein besitzt drei verschiedene Konformationen: das Dimer, das Tetramer und das Hexamer. In verschiedenen Studien konnte gezeigt werde, dass das Hexamer an proinflammatorische Rezeptoren wie dem Toll-like Rezeptor-4 (TLR-4) und dem „receptor for the advanced glycation end products“ (RAGE) bindet und so die Produktion von weiteren Entzündungsmediatoren stimuliert. Daher besitzt die S100A12 Hexamerkonformation eine entscheidende Rolle in Entzündungsprozessen. Das Ziel bestand somit in der Selektion von Peptiden oder „single chain variable fragment“ (scFv)-Konstrukten, die exklusiv an die hexamere Konformation von S100A12 binden.
Mittels Biopanning von Peptid- und scFv-Phagen Bibliotheken konnten Peptide und scFvs selektiert werden. Die selektierten Peptide und die selektierten scFvs wurden in ELISAs weiter auf ihre Bindungseigenschaften charakterisiert. Durch Umklonierung in einen Fc-Konstrukt Vektor konnten die scFvs als vollständige scFv-Fc-Konstrukte exprimiert werden. Die Bindung der selektierten Peptide bestätigte sich als Biotin-Fusion im anschließenden ELISA. Es zeigte sich eine sehr hohe Bindungsspezifität der Peptide und der produzierten scFv-Fc-Konstrukte an das S100A12 Hexamer.
Mit den selektierten Liganden ist es gelungen einen Test zu entwickeln: an Streptavidin immobilisierte Peptide binden spezifisch das S100A12 Hexamer aus dem Testmedium und mittels selektiertem scFv-Fc-Konstrukten lassen sich die gebundenen S100A12 Proteine detektieren. Ein Detektionsantikörper ermöglichte die Visualisierung der gebundenen scFv-Fc-Konstrukte mittels Farbreaktion. Das S100A12 Hexamer konnte durch den Testaufbau auch im Plasma spezifisch detekiert werden.
Dieser Test könnte es ermöglichen, die exakte Diagnose und vor allem das Überwachung von Patienten mit steigenden Entzündungsmarkern, wie im Rahmen der autoinflammtorischen Erkrankung JIA oder einer Erkrankung wie dem FMF, zu verbessern. Mit einem verbessertem Krankheitsmonitoring könnte ebenfalls die Therapie im frühen Stadium optimiert werden.
Zusätzlich könnte ein mögliches therapeutische Potential der S100A12 Hexamer Liganden getestet werden. Sollten die hexamerspezifischen Liganden die Interaktion von S100A12 mit ihren Rezeptoren wie TLR-4 oder RAGE blockieren, ist eine therapeutische Verwendung in der Behandlung von Autoimmun- und autoinflammatorischen Erkrankungen möglich.
Auf Grund einer hohen Inzidenz und Mortalität, welche in den nächsten Jahren voraussichtlich eine deutliche Zunahme erfahren wird, stellt die Behandlung eines HCC an alle beteiligten Fächer der Medizin, sowie an den Patienten und die Patientin, eine enorme Herausforderung dar. In der klinischen Routine hat sich die TACE, nicht nur bei Patienten im intermediären Stadium der Erkrankung, etabliert, sodass im Laufe der Erkrankung nahezu jeder zweite Patient mindestens eine TACE-Behandlung bekommt.
Der mit Radiomics betitelte, im medizinischen Bereich relativ junge, Forschungszweig beschäftigt sich mit der Idee, dass in den Schnittbildern eine für das menschliche Auge nicht sichtbare Ebene von Informationen vorliegt, welche mit den richtigen Mitteln extrahiert, relevante Daten und Informationen zur Genetik, Phänotypie und Pathophysiologie des Tumors liefern kann.
Hier greift der Ansatz dieser Arbeit an. In dieser Arbeit wird die Hypothese postuliert, dass durch die Auswertung und Integration von Lipiodolablagerungen in der Zielläsion nach der ersten durchgeführten TACE eine zuverlässigere Prognose zum Therapieansprechen und Gesamtüberleben mit Hilfe von Radiomics möglich ist, als dies klinische Scores alleine erlauben.
Dazu wurde in dieser Arbeit ein Patientenstamm von 61 Patienten untersucht. Alle Patienten litten an einem histologisch gesicherten HCC. Bei allen Patienten wurden innerhalb eines Zeitintervalls von 6 Monaten drei TACE durchgeführt mit einer nachfolgenden Verlaufskontrolle mittels kontrastmittelgestützter MRT oder CT.
In einem dezidierten, mehrstufigen Verfahren wurden aus der nativen 24 Stunden postinterventionellen CT-Kontrolle die Lipiodol anreichernden HCC-Herde segmentiert. Aus diesem segmentierten 3-D Bilddatensatz wurde eine Vielzahl von bildgebenden Biomarkern, Features, extrahiert. Die Features wurden im weiteren Prozess selektiert, redundante und nicht reproduzierbare Features wurden für das weitere Vorgehen verworfen.
Aus den vorliegenden Daten der Patienten wurden Informationen selektiert, mit welchen insgesamt 5 klinische Scores berechnet wurden, diese Scores wurden im weiteren Verfahren ebenfalls als Features angesehen.
Mehrere Machine Learning-Algorithmen wurden mit der Zielvariable: Größenregredienz des Tumors nach TACE als Folge eines annehmbaren Therapieansprechens, angelernt.
Das beste Ergebnis lieferte ein ML-Algorithmus mit einem Random Forrest Klassifikator auf der Grundlage des kombinierten, aus Radiomics-Features und klinischem Score-Features bestehendem Featuresets.
Um die initial aufgestellte Hypothese zu überprüfen wurde die Zielvariable von Größenregredienz der TL auf OS verändert. Die Performance des ML-Algorithmus in Bezug auf die neu definierte Zielvariable OS wurde hierbei mit dem C-index bewertet. Im Test-Set liegt ein C-Index von 0,67 vor. Das kombinierte Modell aus klinischem Score und Radiomics zeigt hierbei eine Überlegenheit gegenüber dem klinischen Score allein (C-Index 0,58) und dem Radiomics score (C-Index 0,60). Dies bestätigt die aufgestellte Hypothese. Das kombinierte Modell hat die Fähigkeit, anhand der Lipiodolanreicherung in der 24 Stunden postinterventionell durchgeführten CT, zur Prädiktion eines Gesamtüberlebens von HCC-Patienten nach einer TACE.
Die Patienten mit der kürzesten und längsten Überlebenszeit innerhalb der Studienpopulation dienten als Grundlage für eine Kaplan-Meier-Schätzung und Berechnung eines Risiko-Scores (siehe Abbildung 37). Dabei zeigt sich eine signifikante Differenz zwischen den Risiko-Scores. Eine Kurve dieser Art könnte zukünftig theoretisch als Schätzung zur Überprüfung der Indikation einer TACE- Wiederholung für einzelne Patienten dienen. Für eine entsprechende Generalisierbarkeit sind weiterführende Studien zur Validierung nötig. Unsere Studie liefert hier erste vielversprechende Hinweise, wobei unsere Limitationen nicht zu vernachlässigen sind, wie im Detail diskutiert.
Zusammenfassend zeigt unsere Arbeit, dass ein von uns definierter kombinierter Score, bestehend aus bildgebenden Biomarkern (Radiomics) und einem klinischen Score (m- HAP-II-Score), eine Prognose zum Gesamtüberleben nach der ersten TACE- Behandlung liefern kann. Mit Hilfe dieses kombinierten Scores war es in unserer Studienkohorte möglich abzuschätzen, ob ein Patient von weiteren TACE-Prozeduren profitieren würde. Der Behandlungsalgorithmus könnte auf dieser Basis individuell angepasst werden.
Der kombinierte Score hätte somit nicht nur das Potenzial Nebenwirkungen zu verhindern und Kosten im System einzusparen, sondern ebenfalls den Patienten potentiell individuell effektiveren Therapiealternativen zuzuführen.
The Nodular lymphocyte-predominant Hodgkin lymphoma (NLPHL) as well as the T-cell/histiocyte-rich large B-cell lymphoma (THRLBCL) are rare types of malignant lymphomas. Both NLPHL and THRLBCL are frequently observed in middle-aged men with THRLBCL presenting frequently with an advanced Ann-Arbor stage with B-symptoms and associated with more aggressive courses.3 However, due to the limited number of tumor cells in the tissue of both NLPHL and THRLBCL, limited numbers of studies have been conducted on these lymphomas and current results are mainly based on general molecular genetic studies.
In order to obtain a better understanding for these disease forms as well as possible changes in their nuclear and cytoplasmatic sizes, the following study relied on the comparison of the different NLPHL forms and THRLBCL in terms of nuclear size and nuclear volume. This was carried out using both 2D and 3D analysis. During the 2D analysis of nuclear size and nuclear volume no significant differences could be presented between those groups. However, the 3D analysis of NLPHL and THRLBCL pointed out a slightly enlarged nuclear volume in THRLBCL. Furthermore, the analysis indicated a significantly increased cytoplasmatic size of THRLBCL compared to NLPHL forms. Nevertheless, differences occurred not only between the tumor cells of both disease forms, but also the T cells presented a larger nuclear volume in THRLBCL. B cells, which were considered as the control group, did not demonstrate any significant differences between the different groups. The presented results suggest an increased activity of T cells in THRLBCL, which is most likely to be interpreted as a response against the surrounding tumor cells and probably limits the proliferation of the tumor cells. Based on these results, the importance of 3D analysis is also evident due to the fact that it is clearly superior to 2D analysis. For a better understanding of both disease forms, it is therefore recommended to use the 3D technique in combination with molecular genetic analysis in future research.
Mechanistic characterization of photoisomerization reactions in organic molecules and photoreceptors
(2023)
In dieser Arbeit wurden verschiedene Einflüsse auf die Dynamik von Photoisomerisierungen in Phytochromen und indigoiden Photoschaltern untersucht. Beide Forschungsgebiete teilen wesentliche Aspekte wie die Kontrolle durch sterische Wechselwirkungen und den starken Einfluss der Polarität oder der ionischen Umgebung.
Auf dem Gebiet der Phytochrome wurde die relative Positionierung der knotenlosen Phytochrome innerhalb der Superfamilie der Phytochrome in Bezug auf ihre Photodynamik und den Effekt von Grundzustandsheterogenität herausgearbeitet. Es wurde anhand von ultraschnellen, zeitaufgelösten Anrege-Abtast-Experimenten der einzelnen GAF-Domäne All2699g1 im Vergleich mit dem vollständigen knotenlosen Phytochrom All2699g1g2 und dem strukturell ähnlichen knotenlosen Phytochrom SynCph2 gezeigt, dass knotenlose Phytochrome in ihrer Vorwärtsdynamik eine komplexe mehrphasige Kinetik mit einem langlebigen angeregten Zustand (~100 ps) aufweisen. Die beobachtete mehrphasige Kinetik konnte einer initialen Chromophordynamik sowie einer nicht exponentiellen Reorganisation der chromophor-umgebenden Proteinmatrix zugeordnet werden. Dies steht im starken Kontrast zur im Gebiet der Phytochrome etablierten Beschreibung derartiger mehrphasiger Kinetiken mittels heterogener Grundzustände. Stattdessen wurde ein konserviertes kinetisches Muster identifiziert, welches die mehrphasige Dynamik beschreibt und in allen in dieser Arbeit untersuchten Phytochrome beobachtet wurde. Zudem konnte dieses Muster in einem Phytochrom der Gruppe I und einem Phytochrom der Gruppe III, die einen ähnlichen Pr Dunkelzustand aufweisen, gezeigt werden, was eine breite Anwendbarkeit des damit verbundenen Mechanismus vermuten lässt. Weiterhin konnte die zentrale Rolle eines konservierten Tyrosins in der Photoisomerisierung anhand von Mutationsstudien in All2699g1 herausgearbeitet werden. Diese konservierte Aminosäure muss im Rahmen der Reorganisation der Proteinmatrix vom Chromophor weggezogen werden, damit die sterische Blockade abgebaut werden kann, die die Isomerisierung des Chromophors zunächst verhindert. Da diese Bewegung von diversen Faktoren in der den Chromophor umgebenden Proteinmatrix abhängt, weist sie eine nicht exponentielle Kinetik auf, die je nach Phytochrom, der spezifischen Flexibilität und dem vorhandenen Raum in der Bindetasche unterschiedliche Lebenszeiten aufweist.
Die Rückreaktion knotenloser Phytochrome konnte ebenfalls im Rahmen dieser Arbeit charakterisiert werden, welche im Pikosekundenbereich abläuft, und damit signifikant schneller ist als die Vorwärtsreaktion. Im Gegensatz zur Vorwärtsreaktion nimmt Grundzustandsheterogenität in der Rückreaktion eine weitaus bedeutendere Rolle ein. Hier weisen die in All2699g1 vorhandenen heterogenen Grundzustandspopulationen jeweils eine eigene Kinetik ihres angeregten Zustands auf, während die homogenen Grundzustände von All2699g1g2 und SynCph2 jeweils nur einen Zerfall des angeregten Zustands zeigen. Der Ursprung dieser Heterogenität konnte im Wasserstoffbrückennetzwerk des Chromophors lokalisiert und mit dem konservierten Tyrosin und einem konservierten Serin in der PHY-Domäne verknüpft werden. Die Anwesenheit der PHY-Domäne sorgt demnach für eine Verringerung der Grundzustandsheterogenität und des vorhandenen Raums in der Bindetasche, wodurch die Effizienz der Photoreaktion optimiert wird.
Zuletzt konnte die Millisekundendynamik knotenloser Phytochrome und der Einfluss der PHY-Domäne auf diese aufgeklärt werden. Die PHY-Domäne sorgt hierbei durch den verringerten Raum in der Bindetasche dafür, dass die zunächst stattfindende thermische Relaxation des Chromophors signifikant verlangsamt wird, während spätere Änderungen im Photozyklus nur wenig beeinflusst werden.
Auf dem Gebiet der indigoiden Photoschalter konnte, anhand eines sterisch überladenen Hemithioindigo Photoschalters, der Photoisomerisierungsmechanismus des Hula-Twists beobachtet und eine starke Lösungsmittelabhängigkeit der entsprechenden Kinetik aufgezeigt werden. Aus den durchgeführten zeitaufgelösten Anrege-Abtast-Experimenten in verschiedenen Lösungsmitteln konnte ein Modell für die Photodynamik des verwendeten Hemithioindigo Photoschalters entwickelt werden. In unpolaren Lösungsmitteln muss eine hohe Barriere zur produktiven konischen Durchschneidung überwunden werden, was zu Lebenszeiten des angeregten Zustands im Nanosekundenbereich führt. Der Weg zur produktiven konischen Durchschneidung folgt dabei dem Hula-Twist Mechanismus. Dieser Pfad ist in polaren Lösungsmitteln unerreichbar, weshalb eine schnelle Relaxation über eine unproduktive konische Durchschneidung stattfindet.
Im zweiten Projekt auf dem Gebiet der indigoiden Photoschalter wurde anhand der neuartigen Klasse der Iminothioindoxyl Photoschalter ein Schwingungsenergiedonor für Schwingungsenergietransferstudien entwickelt. Das daraus entwickelte Modellsystem, bestehend aus einer künstlichen Aminosäure auf Basis des Iminothioindoxyl Photoschalters und einem daran gekoppelten Schwingungsenergiesensor, wurde charakterisiert und die primäre Photoreaktion untersucht. Es konnte gezeigt werden, dass der angeregte Zustand des Modellsystems kurzlebig ist und unter Abgabe von großen Mengen an Schwingungsenergie zerfällt, unabhängig von der Anregungswellenlänge und dem verwendeten Lösungsmittel. Somit zeigt das entwickelte System vorteilhafte Eigenschaften für Schwingungsenergietransferstudien.
Insgesamt konnten somit die Mechanismen der Photoisomerisierungsreaktionen in knotenlosen Phytochromen und indigoiden Photoschaltern aufgeklärt und daraus die Relevanz der Umgebung für derartige Reaktionen herausgearbeitet werden.
Seed dispersal is a key ecosystem function for plant regeneration, as it involves the movement of seeds away from the parental plants to particular habitats where they can germinate and transition to seedlings and ultimately adult plants. Seed dispersal is shaped by a diversity of abiotic and biotic factors, particularly by associations between plants and climate and between plants and other species. Due to the ongoing loss of biodiversity and changing global conditions, such interactions are prone to change and pose a severe threat to plant regeneration. One way to address this challenge is to study associations between plant traits and abiotic and biotic factors to understand the potential impacts of global change on plant regeneration. Plant communities have long been analyzed through the lens of vegetative traits, mainly ignoring how other traits interact and respond to the environment. For instance, while associations between vegetative traits (e.g., specific leaf area, leaf nitrogen content) and climate are well studied, there are few case studies of reproductive traits in relation to trait-environment associations in the context of global change.
Thus, the overarching aim of this dissertation is to explore how trait-environment associations, with a special focus on reproductive traits, can improve our understanding of the effect that global change may have on seed dispersal, and ultimately on plant regeneration. To this end, my research focuses on studying associations between plant traits and abiotic and biotic factors along an elevational gradient in both forests and deforested areas of tropical mountains. This dissertation addresses three principal research objectives.
First, I investigate the extent to which reproductive (seed and fruit traits) and vegetative traits (leaf traits) are related to abiotic and biotic factors for communities of fleshy-fruited plants in the Ecuadorian Andes. I used multivariate analyses to test associations between four (a)biotic factors and seven reproductive traits and five vegetative traits measured on 18 and 33 fleshy fruited plant species respectively. My analyses demonstrate that climate and soil conditions are strongly associated with the distribution of both reproductive and vegetative traits in tropical tree communities. The production of “costly” vs. “cheap” seeds, fruits and leaves, i.e., the production of few rewarding fruits and acquisitive leaves versus the production of many less-rewarding fruits and conservative leaves, is primarily limited by temperature, whereas the size of plant organs is more related to variation in precipitation and soil conditions. My findings suggest that associations between reproductive and vegetative traits and the abiotic environment follow similar principles in tropical tree communities.
Second, I assess how climate and microhabitat conditions affect the prevalence of endozoochorous plant species in the seed rain of tropical montane forests in southern Ecuador. I analyzed seed rain data for an entire year from 162 traps located across an elevational gradient spanning of 2000 m. I documented the microhabitat conditions (leaf area index and soil moisture next to each seed trap) at small spatial scale as well as the climatic conditions (mean annual temperature and rainfall in each plot) at large spatial scale. After a one-year of sampling, I counted 331,838 seeds of 323 species/morphospecies. My analyses demonstrate that the prevalence of endozoochorous plant species in the seed rain increases with temperature across elevations and with leaf area index within elevations. These results show that the prevalence of endozoochory is shaped by the interplay of both abiotic and biotic factors at large and small spatial scales.
Third, I examine the potential of seed rain to restore deforested tropical areas along an elevational gradient in southern Ecuador. For this chapter, I collected seed rain using 324 seed traps installed in 18 1-ha plots in forests (nine forest plots) and in pastures (nine deforested plots) along an elevational gradient of 2000 m. After a sampling period of three months, I collected a total of 123,039 seeds of 255 species/morphospecies from both forests and pastures along the elevational gradient. I did not find a consistent decrease in the amount and richness of seed rain between forests and pastures, but I detected a systematic change in the type of dispersed seeds, as heavier seeds and a higher proportion of endozoochorous species were found in forests compared to pastures at all elevations. This finding suggests that deforestation acts as a strong filter selecting seed traits that are vital for plant regeneration.
Understanding the role that trait-environment associations play in how plant communities regenerate today could serve as a basis for predicting changes in regeneration processes of plant communities under changing global conditions in the near future. Here, I show how informative the measurement of reproductive traits and trait environment associations are in facilitating the conservation of forest habitats and the restoration of deforested areas in the context of global change.
"Autonomy is the condition under which what one does reflects who one is" (Weinrib, 2019, p.8). This quote encapsulates the core idea of autonomy, namely the correspondence of one’s inner values with one’s actions. This is a beautiful idea. After all, who wants their actions to be determined or controlled from the outside?
The classical definition of autonomy is precisely about this independence from external circumstances, which Murray (1938) primarily coined. Among other things, Murray characterizes autonomy as resistance to influence and defiance of authority. Similarly, Piaget (1983) describes individuals as autonomous, independent of external influences, in their thinking and actions, and foremost, adult authority. Subsequent work criticized this equation of autonomy with separation or independence (Bekker, 1993; Chirkov et al., 2003; Hmel & Pincus, 2002). In lieu thereof, autonomy is defined as an ability (Chirkov, 2011; Rössler, 2017) and as an essential human need (Ryan & Deci, 2006). Focus is now
on self-governing while relying on rationally determined values to pursue a happy life (Chirkov, 2011). According to Social Determination Theory (SDT), autonomy is about a sense of initiative and responsibility for one’s own actions. The experience of interest and appreciation can strengthen autonomy, whereas experiences of external control, e.g., through rewards or punishments, limit autonomy (Ryan & Deci, 2020). In the psychological discourse of autonomy, SDT is strongly represented (Chirkov et al., 2003; Koestner & Losier, 1996; Weinstein et al., 2012). Notably, SDT distinguishes between autonomy and independence as follows. While a person can autonomously ask for help or rely on others, a person can also be involuntarily alone and independent. Interestingly, these definitions are again closer to its etymological meaning as self-governing, originating from Greek αυτòνoμζ (autonomous).
The two strands of autonomy as independence and autonomy as self-determination are also reflected in the vital differentiation into reactive and reflective autonomy by Koestner and Losier (1996). Resisting external influence, particularly interpersonal in fluence, is what reactive autonomy entails. This interpretation is closely related to the classical concept of autonomy as separation and independence from others (Murray, 1938). On the other hand, reflective autonomy concerns intrapersonal processes, such as self-governing or self-regulation, as defined in Self-Determination Theory (Ryan et al., 2021). In this dissertation, we investigated the concept in three different approaches while focusing on its assessment and operationalization: To begin, in Article 1, we compared the layperson’s and the scientific perspective to each other to gain insight into the characteristics of autonomy. Then, in Articles 2 and 3, we experimentally tested behavioral autonomy as resistance to external influences. Simultaneously, we investigated the link between various autonomy trait measures and autonomous behavior. As a result, in Article 2, we looked at how people reacted to the effects of message framing and sender authority on social distancing behavior during the early COVID-19 pandemic. Finally, in Article 3 we investigated the resistance to a descriptive norm in answering factual questions, in the context of autonomous personality. In our first article, we used a semi-qualitative bottom-up approach to gain insights into the laypersons’ perspective on autonomy and compare it to the scientific notion. We followed a design proposed by Kraft-Todd and Rand (2019) on the term heroism. We derived five components from philosophical and psychological literature: dignity, independence from others, morality, self-awareness, and unconventionality. In three preregistered online studies, we compared these scientific components to the laypersons’ understanding of autonomy. In Study 1, participants (N = 222) listed at least three and up to ten examples of autonomous (self-determined) behaviors. Here, the participants named 807 meaningful examples, which we systematically categorized into 34 representative items for Study 2. Next, new participants (N = 114) rated these regarding their autonomy. Finally, we transferred the five highest-rated autonomy and the five lowest-rated autonomy items to Study 3 (N = 175). We asked participants to rate how strongly the items represented dignity, independence from others, morality, self-awareness, and unconventionality. We found all components to distinguish between high and low autonomy items but not for unconventionality. Thus, we conclude that laypersons’ view corresponds with the scientific characteristics of dignity, independence from others, self-awareness, and morality. A qualitative analysis of the examples also showed that both reactive and reflective definitions of autonomy are prevalent.
This cumulative dissertation examines learning in chemistry laboratories, focusing on the challenges and benefits of problem-based learning (PBL) for novices in the lab. It addresses the lack of consistent understanding about what should be learned in labs and why it's important. The research aims to understand what students learn, how they learn, and how lab learning can be improved.
A central concept in PBL labs is Information Literacy, defined as a sociocultural practice enabling learners to identify and use information sources within a specific context as legitimized by the practice community.
The first publication, Wellhöfer and Lühken (2022a), investigates the relationship between PBL and learner motivation. It identifies factors that can foster students' intrinsic motivation in a PBL lab. Autonomy is found to be a key factor, increasing student motivation and presenting a model of the autonomous scientific process. This model involves four steps: information acquisition, designing and applying experimental procedures, experimental feedback, and autonomous process optimization. The results suggest that intrinsic motivation in PBL labs can be enhanced by enabling students to independently execute these steps.
The second publication, Wellhöfer and Lühken (2022b), examines the information process students undergo during their first PBL lab. Using a sociocultural framework, it explores Information Literacy to understand students' handling of information and their perceptions of the information process. The findings reveal that in PBL labs, developing a practical, applicable experimental procedure is crucial for problem-solving and significantly shapes the information-acquisition process. This process is iterative, influenced by new information, leading to more precise information needs. Students assess information quality based on its usefulness for their problem, implementability (considering cognitive understanding, available equipment, and psychomotor skills), and safety.
Furthermore, the role of privileged knowledge forms in evaluating the quality of text sources is explored. Students viewed non-scientific sources as "poor" and scientific sources as "good," yet used both for information gathering. There were discrepancies between their assessment of source quality and actual use, indicating that perception of source quality doesn't always affect their practical decisions.
The third publication, Wellhöfer, Machleid, and Lühken (2023), investigates students' information practices in the lab, focusing on discourse between novice learners and experienced assistants. It shows that theoretical knowledge isn't sufficient for independent practical action, and students need actionable social information from experienced community members. The results highlight that information literacy in the lab for newcomers to a community of practice has distinctive features, and physical experience and tacit knowledge are crucial for learning the methods and group-specific knowledge of the practice community. The article demonstrates how learning information literacy in a practice community requires a social and physical experience and provides insights on how educators can support this process.
In the last twenty years, a variety of unexpected resonances had been observed within the charmonium mass region. Although the existence of unconventional states has been predicted by the quantum chromodynamics (QCD), a quantum field theory describing the strong force, a clear evidence was missing. The Y(4260) is such an unexpected and supernummerary state, first observed at BaBar in 2005, and aroused great interest, because it couples much stronger to hidden charm decays (charm-anticharm states like J/Psi or h_c) instead of open charm decays (D meson pairs). This is unusual for states with masses above the D anti-D threshold. Furthermore, it decays into a charged exotic state Y(4260)->Z_c(3900)^+- pi^-+. The charge of the Z_c(3900)^+- is an indication that it comprises of two more quarks than the charm-anticharm pair, and could therefore be assumed to be a four-quark state. Due to these still not understood properties of these QCD-allowed states, they are referred to as exotic XYZ states to emphasize their particularity.
In 2017, the collaboration of the Beijing Spectrometer III (BESIII) investigated the production reaction of the Y(4260) resonance based on a high-luminosity data set. This significantly improved precision of the measurement of the cross-section sigma(e+e- -> J/Psi pi^+ pi^-) permitted a resolution into two resonances, the Y(4230) and the Y(4360). The Z_c(3900)^+- had been discovered by the BESIII collaboration in 2013, thus this experiment at the Beijing Electron-Positron Collider II (BEPCII) is a top-performing facililty to study exotic charmonium-like states.
In this work, an inclusive reconstruction of the strange hyperon Lambda in the charmonium mass region is performed to study possible decays of Y states in order to provide further insight into their nature. Finding more states or new decay channels may provide crucial hints to understand the strong interaction beyond nonperturbative approaches.
Three resonances are observed in the energy dependent cross-section: the first with a mass of (4222.01 +- 5.68) MeV and a width of (154.26 +- 28.16) MeV, the second with a mass of (4358.88 +- 4.97) MeV and a width of (49.58 +- 13.54) MeV and the third with a mass of (4416.41 +- 2.37) MeV and a width of (23.88 +- 7.18) MeV. These resonances, with a statistical significance Z > 5sigma, can be interpreted as the states Y(4230), Y(4360) and psi(4415).
Additionally, a proton momentum-dependent analysis strategy has been used in terms of the inclusiveness of the reconstruction and to address the momentum discrepancies between generic MC and measured data.
In this dissertation, different aspects of turbulent transport and thermally driven flows over complex terrain are investigated. Two publications concentrate on the vertical heat and moisture exchange in the convective boundary layer over mountainous terrain. To study this, Large-Eddy Simulation (LES) is used. Both turbulent and advective transport mechanisms are evaluated over the simple orography of a quasi-two-dimensional, periodic valley with prescribed surface fluxes. Here, terrain elevation varies along only one of the horizontal coordinate axes. Even a relatively shallow orography, possibly unresolved in existing numerical weather prediction models, modifies the domain-averaged moisture and temperature profiles. For the analysis, the flow is decomposed into a local turbulent part, a local mean circulation, and a large-scale part. An analysis of the turbulent kinetic energy and turbulent heat and moisture flux budgets shows that the thermal circulation significantly contributes to the vertical transport. It is found that thermal upslope winds are important for the moisture transport from the valley to the mountain tops. In total, moisture export out of the valley is mostly accomplished by the mean circulation. On the temperature distribution, which is horizontally relatively homogeneous, the thermal circulation has a weaker impact. If an upper-level wind is present, it interacts with the thermal circulation. This weakens the vertical transport of moisture and thus reduces its export out of the valley. The heat transport is less affected by the upper-level wind because of its weaker dependence on the thermal circulation. These findings were corroborated in a more realistic experiment simulating the full diurnal cycle using radiation forcing and an interactive land surface model.
Based on these results, coherent turbulent structures in the convective boundary layer over non-flat terrain are studied in further detail. A conditional sampling method based on the concentration of a decaying passive tracer is implemented in order to identify the boundary-layer plumes objectively. Conditional sampling allows to quantify the contribution of plume structures to the vertical transport of heat and moisture. In case of the idealized valley, vertical transport by coherent structures is the dominant contribution to the turbulent components of both heat and moisture flux. It is comparable in magnitude to the advective transport by the mean slope-wind circulation, although it is more important for heat than for moisture transport. A set of less idealized simulations considers the flow over three-dimensional terrain. In this case, conditional sampling is carried out by using a simple domain-decomposition approach. We demonstrate that thermal updrafts are generally more frequent on hill tops than over the surroundings, but they are less persistent on the windward sides when large-scale winds are present in the free atmosphere.
The tools for flow decomposition and budget analysis are also applied in another idealized case with a quasi-two-dimensional valley featuring the stable boundary layer. Here, the formation of a low stratus cloud is investigated. The main driver for the cloud formation is radiative cooling due to outgoing longwave radiation. Despite a purely horizontal flow, the advection terms in the prognostic equations for heat and moisture produce vertical mixing across the upper cloud edge leading to a loss of cloud water content. However, this behavior is not due to any kind of thermally-driven circulation. Instead, this spurious mixing is caused by the diffusive error of the advection scheme in regions where the sloping surfaces of the terrain-following vertical coordinate intersect the cloud top. It is shown that the intensity of the (spurious) numerical diffusion strongly depends on the horizontal resolution, the order of advection, and the choice of the scalar advection scheme. A LES with 4 m horizontal resolution serves as a reference. For horizontal resolutions of a few hundred meters, carried out with a model setup as it is used in Numerical Weather Prediction, a strong reduction of the simulated liquid-water path is observed. In order to keep the (spurious) numerical diffusion at coarser resolutions small, at least a fifth-order advection scheme should be used. In the present case, a WENO scalar advection scheme turns out to increase the numerical diffusion along a sharp cloud edge compared to an upwind scheme. Furthermore, the choice of the vertical coordinate has a strong impact on the simulated liquid-water path over orography. With a modified definition of the terrain-following sigma coordinate, it is possible to produce cloud water where the classical sigma coordinate does not allow any cloud formation.
Subject of this thesis was the investigation of the actin-interacting and glucocorticoid-sensitive Protein DRR1 (or Fam107a) and its role in promoting stress resilience in the murine hippocampus.
We proposed the hypothesis that DRR1 through its actin-binding properties specifically modulates neuronal actin dynamics and promotes resilience through synaptic plasticity leading to subsequently improvement of cognitive performance and social behavior. The accompanied AMPA-receptor transport could create an efficient way regulating neural function and complex behavior during stress episodes.
By utilizing fluorescent immunohistochemistry, we showed basal expression of DRR1 primarily in the murine cerebellum and hippocampal CA3 and CA1 area. Co-staining with different cell marker proteins showed DRR1 expression in neurons, microglia and especially in astrocytic end-feet, which create contact to the brain vasculature.
To test whether DRR1 and AMPA receptor function correlate to modulate stress-associated consequences, primary hippocampal neuron cultures were transduced with adeno-associated virus (AAV) for overexpression or suppression of the protein. Western Blot analysis showed a positive correlation between the AMPA-receptor subunit GluR2 and DRR1 amounts. Further the application of the proximity ligation assay (PLA) in untreated neural cultures indicated interaction between DRR1 and the AMPA receptor subunit GluR2. To address whether DRR1 even affects AMPAR trafficking we performed the “newly inserted assay” after AAV-treatment of primary hippocampal neuron cultures. Suppression of DRR1 revealed less newly inserted GluR2 subunits as compared to controls. Inconclusive were the results upon DRR1 overexpression, however they point to no changes.
In the second part we correlated behavioral phenotypes originating from in vivo overexpression and suppression of DRR1 in the murine hippocampus with potential alterations in neuronal morphology. Therefore, in vitro analysis was performed utilizing AAV transduced primary hippocampal cultures overexpressing or suppressing DRR1. Synchronously the viral vector included a green fluorescent protein (GFP) being expressed throughout the complete neural cell. GFP staining was used to verify successful transfection and for reconstruction of dendritic arbors and dendritic stretches for spine classification. DRR1 suppression showed reduced total spine numbers especially evoked by reduced numbers of immature spine classes – namely long thin spines and filopodia. Whereas mature mushroom spines and stubby spines were unaffected. By overexpressing DRR1, tendencies inclined against higher total dendritic lengths, branch points and increased dendritic arbors in comparison to controls. In regard of spines, total numbers were unaffected. However, mature mushroom spines were significantly declined in numbers, but compensated by increased numbers of immature long thin spines and filopodia.
Chronic social defeat stress (CSDS) is widely used in mouse models to study the effects of stress and resilience. We exposed C57Bl/6J mice expressing GFP under the Thy1 promoter CSDS and categorized them into resilient (R+/-), susceptible (R-/-) and non-learning (R+/+) mice following a modified social interaction test (MSIT). We found alterations in CA1 spine compositions with resilient animals resembling the untreated phenotype. Stress susceptible and non-learning animals displayed reduced numbers in stubby spines with simultaneous increases in mature mushroom spines. In addition, we could detect a tendency towards more immature spines in susceptible animals and non-learners, mirroring our in vitro results.
Finally, we present a different investigative approach in this thesis. Sequenced acute stress was previously found to compromise cognition including spine loss.
We aimed to investigate the implication of acute stress on DRR1 levels and its occurrence in diverse cell types of the brain. We subjected one group of C57Bl/6J mice to acute stress and injected another group with the artificial glucocorticoid DEX. Six hours post stress, animals were perfused and brains were subsequently immunobiologically analyzed. We found DRR1 protein levels elevated in the hippocampus of stressed and DEX-treated animals compared to controls. Interestingly, DRR1 seemed was especially elevated in endothelial cells. This coincides with our investigations finding DRR1 present in astrocytic end-feet under basal conditions and might claim a participation of DRR1 in the blood-brain-barrier integrity.
Our results show DRR1 as actin-interacting and glucocorticoid-sensitive gene affecting structural plasticity of hippocampal spines. Moreover, DRR1 directly interacts with AMPA glutamate receptors and presumably is involved in AMPA trafficking to the postsynaptic membrane. In addition, this study could demonstrate that DRR1 is expressed by other cell types of the brain. Of special interest is DRR1’s occurrence in astrocytic end-feet and endothelial cells suggesting a role as integrator of cell-cell communication and to this end also acting as modifier of stress-induced consequences at the neurovascular unit.
In vivo data of chronically stressed mice displayed no phenotypic differences in hippocampal pyramidal neurons of resilient animals as compared to unstressed mice. Morphological alterations of spine structures were particularly visible in stress susceptible and non-learning animals. Integrating our findings with existing behavioral data, we can conclude that DRR1 plays a role in stress resilience whereby it needs to be expressed in a tightly managed homeostatic equilibrium.
The functional and molecular role of transglutaminase 2 in hematopoietic stem and progenitor cells
(2023)
Long-term repopulating hematopoietic stem cells (LT-HSCs) that reside in the bone marrow (BM) give rise to all blood cell types including erythrocytes, leukocytes and platelets. LT-HSCs are mainly quiescent during steady state hematopoiesis. LT-HSCs can process self-renewal to expand and maintain stemness, or commit to differentiation into short-term (ST) repopulating HSC and multipotent progenitors (MPPs). MPPs differentiate into oligopotent lineagerestricted progenitors which eventually produce all mature blood cell lineages, and thereby regenerate hematopoietic system.
Previous studies have shown in transcription profiles and quantitative PCR (qPCR) analysis that transglutaminase 2 (Tgm2) is one of the most upregulated genes in quiescent LT-HSCs in comparison to active HSCs, mobilized HSCs, ST-HSCs, MPPs, as well as leukemic stem cells (LSC). However, the reason why Tgm2 is strongly upregulated in dormant mouse LTHSCs and what the role of Tgm2 is in LT-HSCs has not been investigated yet.
Tgm2, encoded by the Tgm2 gene, is a multi-functional protein within the transglutaminase family. It has been found to be widely expressed inside and outside the cells. It consists of four domains and two functionally exclusive forms that are regulated by the Ca2+ and GTP concentration. Besides the most well-known transglutaminase enzymatic activity for transamidation, deamidation and crosslinking, Tgm2 acts also as a GTPase/ATPase, kinase, adhesion/scaffold protein, as well as disulfide isomerase. The role of Tgm2 in hematopoiesis remains elusive. Accordingly, the aim of this dissertation is to investigate the role of Tgm2 in murine hematopoiesis, especially in murine LT-HSCs.
Firstly, the expression of Tgm2 was analyzed in highly purified murine hematopoietic stem and progenitor cell (HSPC) populations. Low input label-free mass spectrometric proteomics and WES protein analysis confirmed the highly specific expression of Tgm2 in LT-HSCs at protein level. Already at the state of MPPs, Tgm2 protein was almost absent with further decline towards oligopotent progenitors. These results indicated Tgm2 as a specific protein marker for LT-HSCs, justifying the future generation of a fluorescent reporter mouse line based on endogenous Tgm2 tagging.
To delineate the functional and molecular role of Tgm2 in LT-HSCs, a conditional Tgm2 knockout mouse model was generated using the Mx1-Cre/loxP system, with the loxP sites flanking the coding exons of the catalytic domain of Tgm2. After PolyIC-mediated induction, a more than 95% knockout efficiency was observed in purified LT-HSCs and the protein expression of Tgm2 was confirmed to be vanished in the purified LT-HSCs from conditional Tgm2-KO mice. Conditional knockout mice are viable and show no aberrant organ functions.
In steady state condition, the distribution of mature blood cell lineages and immunophenotypically-defined HSPC populations within the BM, the mitochondrial potential of HSPCs reflected by the non-invasive cationic dye JC-1, as well as the cell cycle status of HSPCs mirrored by the intracellular Ki67 staining did not show any significant variations upon loss of Tgm2. However, the in vitro continuous observation of prospectivly isolated LT-HSCs by time-lapse microscopy-based cell tracking revealed a delayed entry into cell cycle with a two fold increased apoptosis rate after knocking out Tgm2, indicating Tgm2 expression might be essential for survival of LT-HSCs. Moreover, while the absence of Tgm2 in LT-HSCs did not influence differentiation and lineage choice in vitro, overexpression of Tgm2 in LT-HSCs resulted in an increase of the most immature subpopulation upon cultivation. All these features were not observed in Tgm2-deleted MPPs, suggesting Tgm2 playing a specific function at the level of LT-HSCs. Upon stress hematopoiesis, induced by the administration of 5-fluorouracil (5-FU), there was a trend towards delayed recovery of LT-HSCs lacking Tgm2. Although Tgm2 express specificly in LT-HSCs, two rounds of competitive BM serial transplantation displayed an equal overall engraftment and multi-lineage reconstitution of LT-HSCs from Tgm2-WT and Tgm2-KO mice in peripheral blood (PB), BM and spleens. Interestingly, LT-HSCs from Tgm2-KO mice reconstituted to more myeloid cells and fewer B cells in the first four weeks after primary transplantation, which disappeared at later time points.
Gene expression profiling and simultaneous single cell proteo-genomic profiling indicated that HSPCs and LT-HSCs from Tgm2-KO mice were transcriptionally more active. A heterogeneity of Tgm2 expression within Tgm2-WT LT-HSCs was revealed by single cell data. Commonly up-regulated genes in Tgm2-KO LT-HSCs and MPPs were significantly involved in regulation of transcription from RNA polymerase II promoter in response to stress, positive regulation of cell death as well as negative regulation of mitogen-activated protein kinase (MAPK) signaling pathways. In Tgm2-KO LT-HSCs, 136 up-regulated genes demonstrated an enrichment of genes involved in apoptosis, as well as negative regulation of MAPK signaling pathway.
Taken together, this dissertation shows that Tgm2 protein is highly specifically expressed in LT-HSCs, but not in subsequent progenitor populations. However, Tgm2 is not essential for differentiation and maturation of myeloid lineages, the proliferation and the long-term multilineage reconstitution potential of LT-HSCs after transplantation. Tgm2 might be involved in accurate stress response of LT-HSCs and the transition from LT-HSCs into MPPs, meaning that the absence of Tgm2 results in poor survival, myeloid bias upon transplantation, as well as slower recovery upon chemotherapeutic treatment.
Nanoarzneimittel haben in den letzten Jahren in der Therapie verschiedener Erkrankungen immer mehr an Bedeutung gewonnen. Dadurch hat auch die Anzahl zugelassener Arzneimittel mit an Arzneistoffträgern wie Liposomen gebundenen Wirkstoffen zugenommen. Weil für die Zulassung, neben der Wirksamkeit und Unbedenklichkeit, auch die Qualität der neuen Arzneimittel gewährleistet sein muss, spielen die verschiedenen Eigenschaften der Arzneistoffträger eine wichtige Rolle in der Qualitätskontrolle. Neben der Partikelgröße, der Partikelgrößenverteilung und der Oberflächenladung spielt die (Rest-)Kristallinität des Wirkstoffs und die Wirkstofffreisetzung eine wesentliche Rolle für die erfolgreiche in vivo-Performance von Nanoarzneimitteln. Zur Bestimmung der Wirkstofffreisetzung aus kolloidalen Arzneistoffträgern wie Liposomen, Nanopartikeln oder Mizellen gibt es bis heute keine Standardmethoden. In der Forschung und der pharmazeutischen Industrie werden folglich verschiedene Methoden wie Filtration, Zentrifugation oder Dialyse verwendet, um den freigesetzten Wirkstoff zu bestimmen. Dabei ist die Wahl der Separationsmethode auf die Eigenschaften der Arzneistoffträger abzustimmen.
In der vorliegenden Arbeit wurde eine dialysebasierte Apparatur, der Dispersion Releaser (DR), zur Untersuchung der in vitro Wirkstofffreisetzung aus kolloidalen Trägersystemen eingesetzt. Diese kann direkt mit den Apparaturen I/II der Arzneibücher der Europäischen Union (Ph. Eur.) und der Vereinigten Staaten (USP) gekoppelt werden. Zur Untersuchung der Wirkstofffreisetzung wird die Formulierung in das Donorkompartiment gegeben, sodass der freigesetzte Wirkstoff infolge über die Dialysemembran in das Akzeptorkompartiment permeiert. Dort kann dieser mittels HPLC analysiert werden. Besonders hervorzuheben ist das synchrone Rühren in beiden Kompartimenten des DR, worüber andere dialysebasierte Apparaturen nicht verfügen.
Die Entwicklung und Patentierung eines funktionsfähigen Prototyps des DR erfolgte an der Goethe Universität, Frankfurt am Main und wurde im Rahmen dieser Arbeit gemeinsam mit der Pharma Test Apparatebau AG (Hainburg, Deutschland) zu einer kommerziell erwerbbaren Apparatur (Pharma Test Dispersion Releaser, PTDR) weiterentwickelt. Innerhalb dieser Kollaboration wurde der Prototyp des DR unter Einbezug der Anforderungen der pharmazeutischen Industrie rekonstruiert. Eine erleichterte Anwendung für den Nutzer wurde dabei mitberücksichtigt.
Die finale Apparatur wurde zuletzt einer ausgiebigen Validierung unterzogen, bei der Diclofenac und Hydrocortison als Modellarzneistoffe dienten. Neben Untersuchungen zur Hydrodynamik und dem Einfluss der Umdrehungszahl auf die Membranpermeationsrate kM wurde eine Methode mit Gold-Nanopartikeln zur Bestimmung der Dichtigkeit des Systems entwickelt. Hierbei wurden Messungen mit einer UV/Vis-Methode und mit dynamischer Lichtstreuung durchgeführt, um die Abwesenheit der Goldpartikel im Akzeptorkompartiment nachzuweisen. Der Einfluss von Proteinen im Freisetzungsmedium auf die Membran-permeation wurde ebenfalls untersucht.
Der DR wurde ursprünglich zur Untersuchung von parenteralen Nanoformulierungen entwickelt. Aufgrund der bisher noch nicht erfolgten Untersuchung von halbfesten Zubereitungen im DR, wurde die Apparatur im Rahmen dieser Forschungsarbeit für zwei verschiedene Diclofenac-Gele (Voltaren® Emulgel, Olfen® Gel) unter verschiedenen Bedingungen evaluiert. Dabei konnte unter non-sink-Bedingungen der Einfluss der lipophilen Phase des Voltaren® Emulgels (GlaxoSmithKline Consumer Healthcare GmbH & Co. KG, München, Deutschland) gezeigt werden. Im Vergleich zum fettfreien Olfen® Gel (Mepha Pharma AG, Basel, Schweiz) zeigte Voltaren® Emulgel eine vollständige Freisetzung unter den erschwerten Löslichkeitsbedingungen.
Mit Hydrocortison als Modellsubstanz wurden vier verschiedene Proliposomen zur vaginalen An¬wendung formuliert. Neben der Charakterisierung der Partikelgröße und der Verkapselungs¬effizienz wurden Messungen mit dynamischer Differenzkalorimetrie durch-geführt und Aufnahmen zur morphologischen Charakterisierung mittels Transmissions-elektronen¬mikroskopie der Liposomen erstellt. Die Wirkstofffreisetzung des Hydrocortisons aus dem rekonstituierten liposomalen Gel sowie die Permeabilität über eine Zellmonoschicht wurde vergleichend untersucht. Dabei wurden Zelllinien aus humanem Cervixkarzinom beziehungsweise Endometriumkarzinom eingesetzt. Die Unterschiede der Formulierungen konnten vom DR sensitiver erfasst werden und die Verkapselungseffizienz als relevanter Faktor für die in vivo-Performance festgelegt werden.
Weil die tatsächliche Wirkstofffreisetzung durch die Permeation über die Dialysemembran überlagert werden kann, wurde neben der Standardisierung der Konstruktion die Auswertung mit Hilfe eines neuen mathematischen Modells, das auf dem Fick’schen Diffusionsgesetz basiert, verbessert. Das Normalisieren des Freisetzungsprofils mit Hilfe des mathematischen Modells dient dazu, die tatsächliche Wirkstofffreisetzung zu berechnen und den Vergleich verschiedener Freisetzungen ohne den Einfluss der Membranpermeation zu ermöglichen. Im Zuge der Validierung des DR wurde das mathematische Modell ebenfalls erfolgreich validiert.
In der vorliegenden Forschungsarbeit wurde eine neue Konstruktion des DR für die kommerzielle Anwendung entwickelt und validiert. Nebenbei wurde der Auswerteprozess zur Berechnung der diffusionsbereinigten Wirkstofffreisetzung vereinheitlicht und validiert. Zuletzt wurde das Anwendungsgebiet des DR von parenteralen Nanoformulierungen auf halbfeste Arzneiformen erweitert.
Sphingolipids are not only structural components of cell membranes but can also act as signalling molecules in different pathways. Sphingolipid precursors, Ceramides (Cer), are synthesized de novo by six different synthases (CerS1-6) which generate Cer of different chain lengths. Cer can be further synthesized to glycosphingolipids and sphingomyelin. Cell membrane parts that are enriched in glycosphingolipids are so-called lipid rafts and can function as signalling platforms for different receptors, such like the T cell receptor (TCR). CD4+ T cells play a crucial role in the development of ulcerative colitis, a chronic inflammatory disease of the colon. As CerS3 expression was increased in the white blood cells of human colitis patients, the role of CerS3 in the TCR signalling and colitis was investigated in this dissertation. By lenti-viral transduction of a CerS3-shRNA into a CD4+ Jurkat cell line, it was shown that CerS3 has an impact on activated T cells. A decrease of different sphingolipids after T cell activation via CD2/3/28 activation beads and IL2 treatment was observed that was accompanied by an inhibition of Zap70 phosphorylation, an important protein of the TCR signalling. The impaired TCR signalling led to a diminished NFAT1 translocation into the nucleus which subsequently led to a reduced NFAT1- dependent TNFα release. Downregulation of CerS3 in primary CD4+ T cells, obtained from the blood of healthy volunteers, also showed a reduced release of pro-inflammatory cytokines after activation. This dissertation demonstrates a pivotal role for CerS3 in T cell function and highlights CerS3 as potential new target for T cell driven colitis.
Bislang sind die strukturellen Voraussetzungen für die Selektivität von Agonisten an den Retinoid Rezeptor Subtypen RXRα, RXRβ und RXRγ kaum erforscht, obwohl RXR-Modulatoren, die eine Subtypen-Präferenz aufweisen, aufgrund der unterschiedlichen Expressionsmuster der Subtypen Gewebe-spezifische Effekte vermitteln und somit Nebenwirkungen verringern könnten. Der Grund dieser Forschungslücke liegt teilweise darin, dass die Entwicklung Subtypen-selektiver RXR-Agonisten aufgrund der enormen strukturellen Ähnlichkeit der Ligandbindestellen in den RXR-Subtypen - alle Aminosäuren, die die Bindungsstellen bilden sind identisch - als unerreichbar angesehen wurde. Die Entdeckung des Naturstoffs Valerensäure als RXR-Agonist mit ausgeprägter Präferenz für den RXRβ-Subtyp hat jedoch gezeigt, dass Subtypen-selektive RXR-Modulation möglich ist249 und SAR-Studien an unterschiedlichen RXR-Ligand-Chemotypen haben in der Folge bestätigt, dass die Entwicklung von RXR-Liganden mit Subtypen-Präferenz erreicht werden kann.
Auf der Basis von Valerensäure und der in früheren Arbeiten entwickelten RXR-Agonisten wurden in dieser Arbeit Strukturmodifikationen identifiziert, die zu einer RXR-Subtypen-Präferenz beitragen. Durch die Verschmelzung dieser Strukturelemente ist es gelungen, einen neuen RXR-Agonist-Chemotyp (A) zu entwerfen, der durch strategische Methylierung und weitere Strukturmodifikationen zur Präferenz für jeden Subtyp optimiert werden konnte.
In einem Adipozyten-Differenzierungsexperiment konnte gezeigt werden, dass RXRα der wichtigste Heterodimer-Partner von PPARγ während der Adipogenese ist. Ferner unterstrich diese biologische Untersuchung das Potenzial von 99, 103 und 105 als Subtyp-präferentielle RXR-Agonisten in vitro Experimenten zu dienen.
Auf der Grundlage dieser Ergebnisse wurde eine mögliche Rolle von Acrylsäurepartialstrukturen natürlicher RXR-Liganden basierend auf dem zuvor entwickelten Chemotyp untersucht. Hierzu wurden das α-Methylacrylsäuremotiv des Naturstoffs Valerensäure (18) und das β-Methylacrylsäuremotiv des endogenen RXR-Agonisten 9-cis-Retinsäure in den Chemotyp A integriert (Chemotyp B), um die Rolle dieser Acrylsäuregruppen bei der Vermittlung der RXR-Subtypen-Selektivität zu untersuchen. Die Strukturmodifikationen an B zeigten, dass nur die α-Methyl-substituierte Acrylsäurekette toleriert bzw. von RXRβ präferiert wurde, was die RXR-Präferenz der Valerensäure (18) unterstützte.
In dieser Arbeit konnte gezeigt werden, dass RXR-Liganden mit Subtypen-Präferenz realisierbar sind und durch gezielte Strukturmodifikationen in ihrer Präferenz gesteuert werden können. Die Erkenntnisse zu den Struktur-Wirkungs-Beziehungen der neuen RXR-Agonist-Chemotypen A und B erweitern den Wissenstand über die strukturellen Voraussetzungen von RXR-Liganden für die Subtypen-Präferenz deutlich.
Die nachfolgende Dissertation wurde an der Goethe-Universität Frankfurt am Institut für Geowissenschaften (FB 11) in der Arbeitsgruppe Kristallographie und Mineralogie (AG Winkler) verfasst. Die Betreuung der hier durchgeführten Arbeiten erfolgte hauptsächlich durch Prof. B. Winkler in Zusammenarbeit mit Dr. L. Bayarjargal, PD Dr. E. Haussühl und PD Dr. V. Vinograd. Bei dem vorliegenden Manuskript handelt es sich um eine kumulative bzw. publikationsbasierte Dissertation, welche die Forschungsergebnisse verschiedener bereits veröffentlichter wissenschaftlicher Fachartikel zusammenfasst.
Die Arbeit beschreibt verschiedene Synthesen und Untersuchungen an Carbonaten und teilt sich im Wesentlichen in zwei Abschnitte. Zum einen wurden Experimente mit Carbonaten bei Extrembedingungen bzw. unter hohen Drücken und hohen Temperaturen durchgeführt, wie sie auch im Inneren der Erde zu finden sind. Im zweiten Teil wurden Carbonate bei Raumbedingungen synthetisiert und der Einbau von Seltenerdelementen untersucht. Grundsätzlich werden jedoch in beiden Teilen dieser Arbeit die Strukturen und Eigenschaften verschiedener Carbonate und eine mögliche Kationensubstitution bzw. die Synthese isostruktureller Verbindungen erforscht.
For thousands of years, S. cerevisiae has been employed by humans in brewing and baking. Nowadays, this budding yeast is more than that: it is a well investigated model organism and an established workhorse in biotechnology. S. cerevisiae serves as a production host for various applications such as i) bioethanol production ii) the biosynthesis of hormones including insulin or iii) cannabinoid biosynthesis. Hereby, the robustness of S. cerevisiae and its high tolerances regarding pH and salt concentrations qualifies it for a wide range of industrial applications. Moreover, products of S. cerevisiae are generally recognised as safe (GRAS), enabling diverse biotechnological applications. Various mechanisms for genetic engineering of S. cerevisiae are applicable and the engineering process itself is straightforward since methods are established and widely known. Due to the wide range of industrial applications of S. cerevisiae, this organism is an ideal candidate for applied research and implementation of the recombinant biosynthesis of tocochromanols in this study.
Tocochromanols encompass tocotrienols and tocopherols, which are lipid-soluble compounds that are commonly associated with vitamin E activity. Hereby, α-tocopherol is the most prevalent form, as it is an essential nutrient in the diet of humans and animals. Naturally, tocochromanols are almost exclusively synthesised by photoautotrophic organisms such as plants or cyanobacteria. They consist of an aromatic head group and a polyprenyl side chain which is saturated in tocopherols and 3-fold unsaturated in tocotrienols. The methylation status of the chromanol ring distinguishes α-, β-, γ- and δ-tocochromanol. All forms of tocochromanols represent a group of powerful antioxidants, scavenging reactive oxygen species (ROS) and preventing the propagation of lipid oxidation in lipophilic environments. Recently, attention has been drawn to tocotrienols, due to their benefits in neuroprotection as well as cholesterol-lowering and anti-cancer properties. Consequently, tocochromanols are valuable additives in the food, feed, cosmetic and pharmaceutical industries.
The metabolic engineering strategy of S. cerevisiae to enable tocochromanol biosynthesis was started in a preceding master thesis with the provision of the aromatic moiety, homogentisic acid (HGA), from the aromatic amino acid biosynthesis. Hereby, the upregulation and redirection of the native pathway was essential. Therefore, a strain with an engineered aromatic amino acid pathway for improved 4 hydroxyphenylpyruvate (HPP) production (MRY33) was utilised from Reifenrath and Boles (2018). Furthermore, a heterologous hydroxyphenylpyruvate dioxygenase (HPPD) was required to convert HPP into HGA. Thus, several heterologous HPPDs were expressed and characterised regarding their HGA production within the previous study. The best variant originated from Yarrowia lipolytica, YlHPPD, and was integrated into the genome of MRY33. The resulting strain JBY2, produced 435 mg/L HGA in a shake flask fermentation.
This work was started with the genetically highly modified strain JBY2, whose genome already contained a large number of genes artificially expressed behind strong promoters. For further strain development, it was advantageous to maintain a high degree of sequence variability in order to prevent genomic instabilities due to sequence homologies. Thus, 17 artificial promoters (AP1-AP17) were characterised regarding their strength of expression by the yellow fluorescent protein (YFP). These sequences were also part of a patent that was filed during this work (WO2023094429A1).
The key point of this study was the development of a metabolic engineering strategy for the strain JBY2. First, the sufficient supply of the second precursor, the polyprenyl side chain, was investigated. Natively, S. cerevisiae produces the precursor, geranylgeranyl diphosphate (GGPP), from the isopentenyl diphosphate pathway. However, without further engineering, GGPP was barely detectable in JBY2 (< 0.1 mg/L). Thus, engineering of the isopentenyl diphosphate biosynthesis was necessary. The limiting enzyme of the mevalonate pathway was the 3-hydroxy-3-methylglutaryl coenzyme A reductase (HMGCR), which is encoded by HMG1. Therefore, a truncation for feedback-resistance and its overexpression by a promoter exchange was performed. Furthermore, the promoter of the gene for the squalene synthase (pERG9) was exchanged by the ergosterol sensitive promoter pERG1 to limit the metabolic flux of the mevalonate pathway into the ergosterol pathway. The native GGPP synthase (BTS1) was another limitation that was observed throughout this study. To overcome this bottleneck, plasmid-based and integrative overexpression of the native BTS1 and a codon optimised BTS1 were investigated. Other strategies to improve GGPP production were the deletion of the gene for the diacylglycerol pyrophosphate phosphatase (DPP1) to prevent excessive dephosphorylation of GGPP to geranylgeraniol (GGOH), and the overexpression of the farnesyl pyrophosphate synthetase, encoded by ERG20. However, the best improvements of the GGPP biosynthesis, inferred through GGOH measurements, were achieved from the screening of several heterologous GGPP synthases in S. cerevisiae. The best performing strain was JBY61 (JBY2, hmg1Δ::pTDH3-HMG1tr[1573–3165], pERG9Δ::pERG1, ChrIV-49293-49345Δ::pTDH3-XdcrtE-tSSA1_LEU2), bearing the heterologous GGPP synthase crtE of Xanthophyllomyces dendrorhous and produced 64.23 mg/L GGOH. Consequently, this engineering strategy improved the GGOH production by a factor of 642 compared to the parent strain JBY2.
In our rapidly changing world, land use has been recognized as having one of the strongest impacts on species and genetic diversity. The present state of temperate forests in Europe is a product of decisions made by former and current management and policy actions, rather than natural factors. Alterations of crown projection areas, structural complexity of the forest stand caused by thinning and cuttings, and changes in tree species composition caused by regeneration or plantings not only affect forest interior buffering against warming, but also the understorey light environment and nutrient availability. Ultimately, current silvicultural management practices have deep impact on the forest ecosystems, microenvironmental changes and forest floor understorey herbs. In response to environmental changes, plants rely on genetically heritable phenotypic variation, an important level of variation in the population, as it is prerequisite for adaptation. However, until now most studies on plant adaptation to land use focus on grassland management. Yet, studies on the adaptation of forest understorey herbs to forest management have been absent so far. This is important because understanding adaptation of understorey herbs is crucial for biodiversity conservation, forest restoration, and climate change mitigation. Studying current adaptation of understorey herbs to forest management yields insights into the evolutionary consequences of management practices, which could be employed to improve sustainable use of forest habitat.
In sum, my conducted experiments complement each other well and managed to fill in research gaps on the topic of genetically heritable phenotypic variation in understorey herbs and how it is affected by forest management and related microenvironmental variables. I showed that forest management has direct evolutionary consequences on the genetic basis of understorey herbs, but also indirectly through the microenvironment. Furthermore, I revealed that local adaptation and phenotypic plasticity of understorey herbs to forest structural attributes act along continuous gradients. And lastly, I highlighted the important role of intra-individual variation by revealing plastic responses to drought and shading, urging researchers to not ignore this important level of trait variation. Ultimately, understorey herbs in temperate forests employ phenotypic plasticity as a flexible strategy to adapt to varying environmental conditions. By adjusting their leaf characteristics, reproductive investment, and phenology, they can optimize their fitness and survival in response to changes in light availability, resource availability, and seasonal cues. The anthropogenic impact on temperate forests and understorey herbs will continue and likely increase in the future. This should urge foresters to adapt their silvicultural management decisions towards the long-term preservation of genetic diversity and, through this, the evolvability and adaptability of forest understorey herbs and associated organisms. Based on the results shown in my dissertation, variation in forest management regimes and types could be beneficial for promoting genetic diversity within several species of forest understorey herbs. Lastly, in the face of future climatic changes, the mechanisms by which plants can cope with increasing stressful environmental conditions might very well rely heavily on intra-individual variation, providing the necessary rapid plastic adjustment to changing microclimatic conditions within populations and thus increase climate change resilience.
Our mind has the function of representing the physical and social world we are in, so that we can efficiently interact with it. This results in a constant and dynamic interaction between mind and world that produces a balance when representations are at the same time accurate with respect to what the world is communicating to our organism, but also compatible with how our mind works.
A paradigmatic case of this interaction is offered by perception, which is the mental function that represents contingent aspects of the world built from what is captured by our senses. Indeed, the dominant philosophical view in cognitive science is that our perceptual states are representations of the world and not direct access to that world. These representational perceptual states therefor include the aspects of the world they represent and that initiate the perception by stimulating our sensory organs.
Perceptual representations are built using information from the sensory system, i.e., bottom-up information, but are also integrated with information previously acquired, i.e., top-down information, so that perception interacts with memory through language and other mental functions. Such organization is believed to reflect a general mechanism of our mind/brain, which is to acquire and use information to make efficient predictions about the future, continuously updating older information with present information.
This predictive processing works because the world is not random, but shows a regular structure from which reliable expectations can be built. One way that our minds make these predictions is by adapting to the structure of the world in an implicit, automatic and unconscious way, a process that has been called Implicit Statistical Learning (ISL). ISL is a learning process that does not require awareness and happens in an incidental and spontaneous way, with mere exposure to statistical regularities of the world. It is what happens when we learn a language during early childhood, and that allows us to be implicitly sensitive to the phonological structure of speech, or to associate speech patterns with objects and events to learn word meaning.
A specific case of ISL is the learning of spatial configuration in the visual world, which we apply to abstract arrays of items, but most importantly, also to more ecological settings such as the visual scenes we are immersed in during our everyday life. The knowledge we acquire about the structure of visual scenes has been called “Scene Grammar”, because it informs about presence and position of objects in a similar way to what linguistic grammar tells us about the presence and position of words. So, we implicitly acquire the semantics of scenes, learning which objects are consistent with a certain scene, as well as the syntax of scenes, learning where objects are positioned in a consistent way within a certain scene.
More recent developments have proposed that scene grammar knowledge might be organized based on a hierarchical system: objects are arranged in the scene, which offers the more general context, but within a scene we can identify different spatial and functional clusters of objects, called “phrases”, that offer a second level of context; within every phrase, then, objects have different status, with usually one object (“anchor object”) offering strong prediction of where and which are the other objects within the phrase (“local objects”). However, these further aspects of the organization of objects In scenes remain poorly understood.
Another problem relates to the way we measure the structure of scenes to compare the organization of the visual world with the organization in the mind. Typically, to decide if an object appears or not in a certain scene, and whether or not it appears in a certain position within a scene, researchers based their decision on intuition and common-sense, maybe validating those decisions with independent raters. But it has been shown that often these decisions can be limited and more complex information about objects’ arrangement in scenes can be lost.
A potential solution to this problem might be using large set of real-world images, that have annotations and segmentations of objects, to measures statistics about how objects are arranged in the environment. This idea exploits the nowadays larger availability of this kind of datasets due to increasing developments of computer vision algorithms, and also parallels with the established usage of large text corpora in language research.
The goals of the current investigation were to extract object statistics from this image datasets and test if they reliably predict behavioural responses during object processing, as well as to use these statistics to investigate more complex aspects of scene grammar, such as its hierarchical organization, to see if this organization is reflected in the organization of objects in our mind.
This study examines the political contestation among Malay Professional Satirists (MPS) through their selected political satire works between 2011-2018. Political satire challenges those in power and is often regarded as fake news and libel. Therefore, political satirists tend to be frequently subject to legal action and are accused of disrupting national harmony. However, there is another group within the social and cultural community, which I call Social and Cultural Professionals (SCP), who also use satire but are supported by the government. This group frequently received financial benefits from the state and are at lower risk of suffering legal consequences. These contrasting conditions raise several important questions: who are the Malaysian Professional Satirists? Who are the targets of MPS in their satirical work? Why do MPS satirise them? And why do the MPS still produce political satire despite the potential legal consequences? Therefore, this study attempts to identify the characters, themes, and issues the MPS highlight; it also considers the reasons and motivations that political satirists have for creating such allegedly controversial works. Malaysia’s Reformasi movement and the booming use of the internet in 1998 mobilised multiple alternative social movements, mainly through art-related activities. Art workers, NGOs, as well as musical and cultural groups, protested creatively against the UMNO-BN ruling regime. Creative protests that employed satire and humour somehow succeeded in attracting a significant proportion of the public to follow political and current issues, especially youths in universities who had been depoliticised with the inception of the University and University College Act (AUKU 1979). This study establishes a point of view that political satire is a fun, loose, free form of resistance, contrasting with formal procedural democracy. The previous literature proposes that the study of Malaysia’s political system should focus on formal political procedures, especially election and representation. However, the study of political satire vis-à-vis democratisation is often neglected and thus such studies are scarce, which might have resulted from how satire is strictly discussed in terms of language and media. There has been a growing interest in how satirist and satirical works are regarded; hence, this study attempts to fill a gap in research on political satire in Malaysia. In contrast, democratisation is often discussed in terms of history, politics, anthropology, sociology, and economics. This qualitative study presents a comprehensive account of interviews with four (4) art workers identified as MPS, as based on appropriate criteria. Each informant had either partaken in alternative social movements or faced legal action from authorities or, indeed, both. In this study, the Theory of Contestation and Two-Social Reality serves as a primary framework to lead to an understanding of the contestation of power in Malaysia through political satire. This study further intends to broaden the knowledge of political satire and humour in the study of democratisation, adding to the existing literature, particularly outside formal political procedures.
Auszubildende sollen durch die Berufsausbildung u.a. die Kompetenz erlangen, berufliche Probleme zu lösen. Abschlussprüfungen dienen der Kompetenzerfassung, schriftlich-kaufmännische Prüfungsaufgaben bilden allerdings noch unzureichend Problemsituationen ab, deren Lösung Problemlösekompetenz erfordert. An der Erstellung von Prüfungsaufgaben sind auch Lehrkräfte kaufmännisch-beruflicher Schulen beteiligt. In der Arbeit wird untersucht, wie sie in der ersten und zweiten Phase der Lehrer*innenbildung auf das Erstellen problemhaltiger Aufgaben zu summativ-diagnostischen Zwecken vorbereitet werden. Hierfür werden Dokumentenanalysen zu beiden Phasen der Lehrer*innenbildung durchgeführt. Die Ergebnisse werden mittels einer Fragebogenstudie mit Studiengangsleiter*innen sowie Interviews mit Fachleiter*innen der Studienseminare gesichert. Um die Wahrnehmung angehender Lehrkräfte zu erfahren, werden Interviews mit Masterstudierenden der Wirtschaftspädagogik sowie Lehrkräfte im Vorbereitungsdienst (LiV) an kaufmännisch-beruflichen Schulen durchgeführt.
Durch die Vorstudien gelingt es, Optimierungsbedarfe in der Ausbildung von Lehrkräften kaufmännisch-beruflicher Schulen festzuhalten. Davon ausgehend wird ein Trainingskonzept begründet ausgewählt. Die Evaluation dessen erfolgt mittels einer quasi-experimentellen Studie mit Masterstudierende und LiV. Zur qualitativen Evaluation werden Interviews mit Teilnehmenden der Interventionsgruppe durchgeführt. Die Ergebnisse zeigen, dass die Teilnehmenden das Training als Intervention überwiegend positiv wahrnehmen und dieser, zumindest mit Blick auf das Erstellen von problemhaltigen Aufgaben, zu einem Lernzuwachs führt. Durch die bedarfsorientierte Intervention und dessen Evaluationsergebnisse wird ein Konzept vorgeschlagen, welches eine Lösung zur Deckung bestehender Optimierungsbedarfe bietet. Die Ergebnisse der Arbeit haben das Potential, langfristig einen Beitrag zur Verbesserung der Lehrer*innenbildung zu leisten und somit u.a. Assessmentaufgaben valider zu gestalten.
Im Rahmen dieser Arbeit wurde ein verbessertes Buncher-System für Hochfrequenzbeschleuniger mit niedrigem und mittlerem Ionenstrom entwickelt. Die entwickelte Methodik hat ermöglicht, ein effektives, vereinfachtes Buncher-System für die Injektion in HF-Beschleuniger wie RFQs, Zyklotrons, DTLs usw. zu entwerfen, welches kleine Ausgangsemittanzen und beträchtliche Strahltransmissionen erzielt. Um einen mono-energetischen und kontinuierlichen Strahl aus einer Ionenquelle für den Einschuss in eine Hochfrequenz-Beschleunigerstruktur anzupassen, wird eine Energiemodulation benötigt, die im weiteren Verlauf (Driftstrecke) zur Längsfokussierung des Strahls führt. Durch eine Sägezahnwellenform wird die ideale Energiemodulation aufgrund der linearen Abhängigkeit zwischen der Energie der Teilchen und ihren relativen Phasen erreicht. Dies ist jedoch technologisch nicht möglich, da Teilchenbeschleuniger Spannungsniveaus im Bereich kV bis 100 kV benötigen. Dagegen ist für eine solche Zielsetzung eine räumliche Trennung der sinusförmigen Anregung mit der Grundfrequenz und höheren Harmonischen möglich.
Daher wurde in dieser Arbeit ein verbesserter harmonischer Buncher, der sogenannte „Double Drift Harmonic Buncher - DDHB“ entwickelt, welcher zahlreiche Vorteile hat. Eine geringe longitudinale Emittanz sowie finanzielle Aspekte sprechen für diesen Lösungsansatz. Die Hauptelemente eines DDHB Systems sind zwei Kavitäten, die durch eine Driftlänge L1 getrennt sind, wobei der erste Resonator mit der Grundfrequenz bei -90° synchroner Phase und angelegter Spannung V1 und der zweite Resonator bei der zweiten harmonischen Frequenz mit +90 synchroner Phase und angelegter Spannung V2 betrieben werden. Schließlich ist eine zweite Drift L2 am Ende des Arrays für eine longitudinale Strahlfokussierung am Hauptbeschleunigereingang erforderlich. Somit erfüllt ein solcher Aufbau das angestrebte Ziel einer hohen Einfangseffizienz und einer kleinen longitudinalen Emittanz durch Anpassen der vier Designparameter V1, L1, V2 und L2.
Das Verständnis der Fokussierung, ausgehend von einem Gleichstromstrahl, einschließlich der Raumladungskräfte, ist einer der wesentlichen Bestandteile der Strahlphysik. Viele kommerzielle Codes bieten Simulationsmöglichkeiten in diesem Anwendungsbereich. Ihre Ansätze bleiben jedoch dem Anwender meist verborgen, oder es fehlen wichtige Details zur genauen Abbildung des vorliegenden Konzepts. Daher bestand eine Hauptaufgabe dieser Arbeit darin, einen speziellen Multi-Particle-Tracking-Beam-Dynamics-Code (BCDC) zu entwickeln, bei dem der Raumladungseffekt während des Bunch-Vorgangs, ausgehend von einem DC-Strahl berechnet wird. Der BCDC - Code enthält elementare Routinen wie Drift und Beschleunigungsspalt oder magnetische Linse für die transversale Strahlfokussierung und Raumladungsberechnungen unter Berücksichtigung der Auswirkungen der nächsten Nachbar-Bunche (NNB). Der Raumladungsalgorithmus in BCDC basiert auf einer direkten Coulomb- Gitter-Gitter-Wechselwirkung und Berechnungen des elektrischen Feldes durch Lokalisierung der Ladungsdichte auf einem kartesischen Gitter. Um Genauigkeit zu erreichen, werden die Feldberechnungen in Längsrichtung symmetrisch um das zentrale Bucket (βλ-Größe) erweitert, so dass das Simulationsfeld dreimal so groß ist. Die zentrale Teilchenverteilung wird dann nach jedem Schritt in die benachbarten Buckets kopiert. Anschließend werden die resultierenden Felder im Hauptgitterfeld neu berechnet, indem die elektrischen Felder im Hauptgitterfeld mit denen aus den benachbarten Regionen überlagert werden. Ohne diese Methode würde z. B. ein kontinuierlicher Strahl, welcher jedoch in der Simulation nur innerhalb einer Zelle der Länge βλ definiert ist, zu einer resultierenden Raumladungsfeldkomponente Ez an beiden Rändern der Zelle führen. Ein solches unphysikalisches Ergebnis konnte durch die Anwendung der NNB-Technik bereits weitgehend eliminiert werden. Zusätzlich zum NNB-Feature verfügt das BCDC über eine weitere Besonderheit nämlich die sogenannte Raumladungskompensation (SCC). Aufgrund der Ionisierung des Restgases kommt es entlang des Niederenergiestrahltransports zu einer teilweisen Raumladungskompensation, und zwar am und hinter dem Bunchersystem mit unterschiedlichen Prozentsätzen. Eines der Hauptziele des DDHB-Konzepts besteht darin, es für Hochstromstrahlanwendungen zu entwickeln. Dabei ermöglicht die teilweise Raumladungskompensation, dass das Design in der Praxis höhere Stromniveaus erreicht. Dadurch ist das BCDC-Programm ein leistungsstarkes Werkzeug für Simulationen in künftigen, stromstarken Projekten. Proof-of-Principle-Designs wurden in dieser Arbeit entwickelt.
Gravitropism is a fundamental process in plants that allows shoots to grow upward and roots to grow downward. Protein phosphorylation has been postulated to participate in the intricate signaling cascade of gravitropism. In order to elucidate the underlying mechanisms governing the gravitropic signaling and unearth novel protein constituents, an exhaustive investigation employing microgravity-induced phosphoproteomics was undertaken. The significantly phosphorylated proteins unraveled in this study can be effectively divided into two groups through clustering analysis. Furthermore, the elucidation of Gene Ontology (GO) enrichment analysis disclosed the conspicuous overrepresentation of these clustered phosphoproteins in cytoskeletal organization and in hormone-mediated responses intimately intertwined with the intricate phenomenon of gravitropism. Motif enrichment analysis unveiled the overrepresentation of [-pS-P-] and [-R-x-x-pS-] motifs. Notably, the [-pS-P-] motif has been suggested as the substrate for the Casein kinase II (CK II) and Cyclin-dependent kinase (CDK). Kinase-inhibitor assays confirmed the pivotal role played by CK II and CDK in root gravitropism. Mutant gravitropism assays validated the functional significance of identified phosphoproteins, with some mutants exhibiting altered bending kinetics using a custom-developed platform. The study also compared phosphoproteomics data from different platforms, revealing variations in the detected phosphopeptides and highlighting the impact of treatment differences. Furthermore, the involvement of TOR signaling in microgravity-induced phosphorylation changes was uncovered, expanding the understanding of plant gravitropism responses.
To fulfill the large-scale verification of interesting candidates from the phosphoproteomics study, a novel root and hypocotyl gravitropism phenotyping platform was developed. This platform integrated cost-effective hardware, including Raspberry Pi, a high-quality camera, an Arduino board, a rotation stage (obtained from Prof. Dr. Maik Böhmer), and programmable green light (modified by Sven Plath). In addition, through collaboration with a software developer, machine-learning-based software was developed for data analysis. This platform tested the gravitropic response of candidate mutants identified in the phosphoproteomics study. Furthermore, the capabilities of this platform were expanded to investigate tropisms in other species and organs. To find novel proteins that might act as partners of a key protein that is involved in gravitropism signaling, ALTERED RESPONSE TO GRAVITY 1 (ARG1), immunoprecipitation coupled with Mass Spectrometry (IP-MS) was performed and identified ARG1-LIKE1 (ARL1) as a potential interacting protein with ARG1. This interaction was further confirmed through in vivo pull-down assays and bimolecular fluorescence complementation assays. In addition, the interaction between ARG1 and HSP70-1 was also validated.
Overall, this thesis sheds light on the molecular components and signaling events involved in plant gravitropism. It contributes to existing knowledge and opens up new ways to investigate this fascinating area of plant biology.
IL-38 is the latest discovered cytokine of the IL-1 family and has been added to the IL-36 subfamily. Since its discovery in 2001, increasing evidence suggests predominantly anti-inflammatory properties of IL-38, which are most likely exerted through three potential receptors, the IL-1 Receptor 1 (IL-1R1), IL-36 Receptor (IL-36R) and the IL-1 Receptor Accessory Protein Like 1 (IL-1RAPL1). However, to this date detailed knowledge of IL-38 functioning remains to be examined. Importantly, how IL-38 is processed, secreted from cells and the exact mechanisms of target receptor binding and intracellular signaling are not fully understood. Further, IL-38 has been associated with regulatory functions in autoimmune diseases like systemic lupus erythematosus (SLE) and psoriasis. At the same time however, connections between B cells as indispensable part of immunity and IL-38 remain rare.
In this study we examined the influence of IL-38 in peripheral human blood B cells differentiating into antibody secreting cells using a three-step in vitro differentiation process. We first show that all potential IL-38 binding receptors are present on peripheral blood B cells on a gene expression level and remain detectable throughout B cell differentiation. Next, while B cells treated with exogenous IL-38 depict no differences in early B cell activation markers, the process of B cell differentiation revealed significant alterations in B cell phenotype created by IL-38 treatment. Predominantly on day 7 of the differentiation process, IL-38 treated B cells showed significantly reduced CD38 expression which depicts an important step in development towards plasma cells. We hypothesize that IL-38 acts antagonistically on the IL-1R1 pathway reducing Nuclear factor kappa B (NFκB) expression and consequently decreasing CD38 expression. Further IL-38 reduced early antibody production while increasing IgM secretion at the end stages of differentiation. Next, we repeated the differentiation assays under the influence of additional IL-21 stimulation to further enhance plasma cell development. In these experiments, the impact of IL-38 on B cell differentiation and immunoglobulin production were reduced, indicating a comparatively moderate relevance of IL-38 for B cell differentiation. We then examined how proliferation and cell death were impacted by exogenous IL-38 during B cell differentiation. IL-38 treatment alone significantly reduced B cell survival which was further augmented by IL-21 stimulation. We conclude that IL-38 and IL-21 act synergistically in promoting B cell apoptosis, also depicting an anti-inflammatory property of IL-38. Finally, using a siRNA we successfully performed an IL-38 knockdown experiment of human blood B cells reducing IL-38 expression to 44% measured on day 4 of B cell differentiation. In these experiments we observed reversed tendencies of CD38 expression compared to exogenous IL-38 treatment. Here, IL-38 knockdown cells showed increased CD38 expression indicating endogenous regulatory properties of IL-38 in B cell differentiation.
Our project, for the first time proves direct effects of IL-38 on human B cells. The results support previous research of IL-38 to act anti-inflammatory as it seems to modulate B cell differentiation, survival, and immunoglobulin production in a down-regulatory manner. These findings pave way for more detailed research on the connection between B cell homoeostasis and IL-38 function.
Cytochrome P450 enzymes are a large superfamily of membrane-bound heme-containing monooxygenases. They are essential for the oxidative metabolism of endogenous substrates such as steroids and fatty acids, and biotransformation of xenobiotic substrates such as pollutants and drugs. Although the highest expression of CYPs is found in the liver, their cardiovascular expression is not negligible with CYP450 subfamilies being responsible for the production of vasoactive lipids. Of importance, the enzymatic activity of all microsomal CYP450 isoenzymes is dependent on the cytochrome P450 reductase (POR), an electron donor.
In the first part of this work, the role of cytochrome P450 monooxygenases on the biotransformation of organic nitrates was investigated. Recombinant SupersomesTM were selected and incubated with NTG and PETN, where nitrite release was measured as a nitric oxide (NO) footprint. The capacity of the recombinant POR/CYP450 system to release nitrite from NO prodrugs was shown to be CYP-specific and dose-dependent. To study the involvement of CYP450 enzymes in the vascular biotransformation of organic nitrates in vivo, a smooth muscle-cell specific, inducible knockout model of POR (smcPOR-/-) was generated. Organ chamber experiments revealed that the vascular POR/CYP450 system had no impact on the dilator response of NTG and PETN. In line with previous publications, inhibition of ALDH2, known as the main enzyme responsible for the activation of NTG and PETN, and/or abolishment of the endogenous NO production did not reveal a contribution of the POR/CYP450 system to the dilator response of NTG and PETN. To better understand these results, we looked at the expression of the hepatic and vascular expression of the POR/CYP450 system where the hepatic was increased by 10- to 40-fold as shown by Western blot analysis. We concluded that due to insufficient vascular expression of CYP450 enzymes their contribution to the bioactivation of NTG and PETN is only minor.
The second part of this work focused on the cardiac relevance of endothelial isoenzymes. For that purpose, an endothelial cell-specific, tamoxifen-inducible knockout model of POR was generated and characterized in the present study. RNA-sequencing of the heart of healthy mice revealed that the CYP450 expression is cell-specific with cardiac endothelial cells (ECs) exhibiting an enrichment in the expression of the Cyp4 family (ω-oxidation of fatty acids) and of the Cyp2 family (production of EETs). Under non-stredded conditions (i.e. 30 days after inducing the knockout by tamoxifen feeding), endothelial deletion of POR was associated with cardiac remodelling as observed by an increase in the ratio of heart weight to body weight and an increase in the cardiomyocyte area. RNA-sequencing of cardiac ECs suggested that loss of POR might alter ribosomal biogenesis and protein synthesis, which could potentially affect the cardiac contractility in ecPOR-/- mice. Metabolomics from cardiac tissue of CTL and ecPOR-/- mice were not indicative for an important metabolic function of the endothelial POR/CYP450 system in the heart. The combination of transverse aortic constriction (TAC) with endothelial deletion of POR accelerates the development of heart failure in mice as detected by a reduction in cardiac output and stroke volume. These effects were mediated most likely by a reduction in vascular EETs production, which increases vascular stiffness, resulting in cardiac remodeling.
This work focuses on the investigation of K+, K- and ϕ-meson production in Ag(1.58 A GeV)+Ag collisions. The energetically cheapest channel for direct K+ production in binary NN-collisions NN→NΛK+ lies at exactly this energy. For the remaining K- and ϕ-mesons, an excess energy of 0.31 GeV and 0.34 GeV in the centre of mass system has to be provided by the system. This makes these particles an excellent probe for effects inside the medium.
K+ and K- mesons can be reconstructed directly as they possess a cτ of approximately 3.7 m. Using the approximately 3 billion recorded Ag(1.58 A GeV)+Ag 0-30% most central collision events, all reconstructed K+ and K- within the detector acceptance are investigated for their kinematic properties and their particle production rates compared to a selection of existing models.
Electrospinning is an advanced method for the generation of polymer-based fibers. This fabrication technique has gained great interest in the biomedical field in recent years due to its straightforward application and significant versatility of the resulting fiber mats. The process is carried out by dissolving a (biologically or synthetically derived) polymer or a combination of several polymers in a suitable inorganic or organic solvent and transferring these solutions into a syringe with a needle tip as a spinneret. The power source is connected to the syringe tip, allowing for the application of a high voltage to the polymer solution, and a metallic collector, often a rotating drum cylinder on which the yielded polymer fibers are deposited. The usual fiber diameters range between nano- and micrometers. The yielded fiber mats have distinct characteristics, such as a large surface area, mechanical stability, and good encapsulation efficiency. Therefore, the fiber mats can be used as a topical dosage form for a multitude of diseases (e.g., conjunctivitis, keratitis), as they can be easily applied on or into the human body to release the drug for a prolonged period of time. In addition, the fibers exhibit a high degree of resemblance with the human extracellular matrix, which consists predominantly of collagen fibrils. Therefore, the obtained fiber mats can also be employed as innovative substrates for the cultivation of cells. As a result, electrospinning is suitable for a wide range of applications in the biomedical context, specifically for the targeted, topical delivery of bioactives and also as a cell culture substrate for the cultivation of cells in an enhanced in vivo relevant situation.
One objective of this work was the development and characterization of drug-loaded electrospun fibers for application to the inflamed and infected eye to complement the existing therapy of eye drops as well as systemic administration of anti-infectives. In particular, the focus of the project was the development of ocular implants to treat a herpes simplex infection affecting the human cornea. Additionally, electrospun fibers, which immediately dissolve in the tear fluid upon application and prolong the contact time of the bioactives at the eye, were developed as a topical dosage form to treat bacterial conjunctivitis. An additional objective of this work was the development of electrospun fiber mats as an innovative substrate for the cultivation of human induced pluripotent stem cells to mimic the human blood-brain barrier in vitro. The final objective of the present work was establishing an analytical concept for the comprehensive characterization of electrospun fibers to obtain a greater comparability and reproducibility of data and results from different laboratories.
Herpes simplex keratitis is a viral disease of the cornea that can potentially lead to blindness. This disease commonly occurs after corneal transplantation. As the cornea is the most transplanted tissue worldwide, the incidence of this disease varies from 4.9% to 12.6% (high- and low-income countries). The current therapy involves the application of eye drops as many as six times a day, and in severe cases, the systemic use of antiviral agents is necessary but can cause serious side effects (e.g., renal failure). To prevent the occurrence of herpes simplex keratitis after transplantation, a biodegradable electrospun nanofiber mat with a sustained release of acyclovir was established. The rational development of the fibers was facilitated by correlating the surface wettability with the release kinetics of the individual polymers, which allowed for the successful generation of fiber mats releasing the bioactive acyclovir over three weeks. The molecularly dispersed drug is present as an amorphous solid dispersion within the PLGA-based polymer matrix. Evaluating the cell viability in in vitro models proved that neither acyclovir nor the polymers or the generated fiber mats caused any cytotoxicity. The mechanical stability of the fiber mats was evaluated to ensure adequate handling of the fibers during implantation. The findings demonstrated that the fiber mats exhibit direction-independent mechanical properties, and their mechanical load-bearing capacity is greater than that of an excised human cornea. As a result, the fiber mats are suitable for surgical implantation into the anterior chamber of the eye. An in vitro model of human keratinocytes was infected with herpes simplex virus to demonstrate the antiviral efficacy of the electrospun fiber mats. Immunostaining for two specific viral proteins demonstrated the spread of infection in the model. Hereby, it was found that the placebo- and drug-loaded fibers significantly slowed the spread of infection, which was quantified by plaque assay determination. This experiment revealed that the electrospun fibers exert a synergistic antiviral effect by simultaneously releasing acyclovir, which is a virustatic agent that inhibits the replication of the virus in infected cells, and adsorbing released viral particles onto the surface of the polymer fibers. This reduces the overall burden of released viral particles, which is associated with the severity of the infection outbreak. Thus, with the aid of electrospinning, an ocular implant was successfully generated, which is biodegradable over time and significantly reduces the viral particle burden in vitro. Hence, the fibers represent a potential alternative for the prevention of herpes simplex keratitis after corneal transplantation...
Trauma ist in Deutschland und weltweit eine der häufigsten Todesursache bei Personen unter 55 Jahren. Eine traumatische Verletzung von Gewebe führt zur Freisetzung von sogenannten damage-associated molecular patterns (DAMPs), die eine Entzündungskaskade auslösen, welche die Organfunktion negativ beeinträchtigt. Dies führt bei anhaltender Entzündung zunächst zu Organdysfunktion, was im weiteren Verlauf zu Organversagen führt und im Spätstadium im multiplen Organversagen (MOF) enden kann. In den meisten Fällen ist die inflammatorische Antwort des Immunsystems auf das Trauma adäquat und entspricht einem gut koordinierten Netzwerk von Immunzellen, Zytokinen und Chemokinen, welches zur Wiederherstellung des geschädigten Gewebes führt. Wenn dieses Netzwerk jedoch nicht im Gleichgewicht ist, kann die Entzündungsreaktion durch eine sogenannte feed-forward-loop von Inflammation und Gewebeschäden verstärkt werden. Wenn dieser Prozess systemisch wird, spricht man vom systemic inflammatory response syndrome (SIRS). Auf der anderen Seite gibt es ein Gegenstück zu SIRS, nämlich das sogenannte compensatory anti-inflammatory response syndrome (CARS). Auch ein Überschießen von CARS kann den Verlauf der posttraumatischen Inflammation negativ beeinträchtigen. Sowohl eine Verschiebung in Richtung von SIRS als auch in Richtung von CARS kann zu Organfunktionsstörungen, nosokomialen Infektionen und letztendlich zum Tod führen. Daher ist eine ausgeglichene, frühe posttraumatische Immunantwort für ein gutes Outcome von entscheidender Bedeutung.
Monozyten nehmen eine kritische Stellung sowohl in der primären Immunantwort nach Trauma als auch nach Infektion ein. Durch die Oberflächenexpression von diversen sogenannten pattern-recocnition receptors (PRRs), insbesondere Toll-Like-Rezeptoren (TLRs), können Monozyten Pathogene und sogenannte pathogen-associated molecular patterns (PAMPs) erkennen und neutralisieren. Darüber hinaus können Monozyten PAMPs über major histocompatibility complex class II -Moleküle (MHC-II) dem adaptiven Immunsystem präsentieren und somit als zelluläre Verbindung zwischen dem angeborenen und dem adaptiven Immunsystem fungieren. TLR2, eine Untergruppe der TLRs, ist einer der Hauptrezeptoren für PAMPs von grampositiven Bakterien wie S. aureus, dem Hauptkeim für posttraumatische Wundinfektionen und nosokomiale Infektionen.
Es gibt immer noch keinen Konsens über den Einfluss von Trauma auf die Funktion von Monozyten und deren Expressionsprofil von PRRs und MHC-II-Molekülen nach einem Trauma. Verschiedene Studien berichten von einer beeinträchtigten TLR2-Expression bei Monozyten nach Trauma, während sich in anderen Studien eine konstante oder sogar erhöhte TLR2-Expression bei Monozyten nach Trauma gezeigt hat. Die Daten sind auch in Bezug auf die posttraumatische Phagozytoseleistung von Monozyten unbeständig. Während in einigen Studien im frühen posttraumatischen Verlauf im Vergleich zu gesunden Probanden von einer erhöhten Anzahl zirkulierender Monozyten mit erhaltener Phagozytoseleistung berichtet wird, zeigten andere Studien eine verminderte Phagozytoseleistung von Monozyten nach Trauma. Darüber hinaus gibt es widersprüchliche Ergebnisse bezüglich der Fähigkeit von Monozyten, proinflammatorische Zytokine wie Interleukin (IL)-1β oder Tumor necrosis factor (TNF)-α freizusetzen.
Zusammengefasst ist die derzeitige Studienlage widersprüchlich. Zusätzlich wurde es in bisherigen Studien verpasst, die Kombination verschiedener Aspekte wie die Funktionalität der Monozyten in Bezug auf Phänotypisierung oder funktioneller Assays und deren Beobachtung über einen längeren Zeitraum miteinzubeziehen.
Die unterschiedlichen Ergebnisse der bisherigen Studien könnte durch die Natur des Polytraumas bedingt sein, beispielsweise durch verschiedene Verletzungsmuster und Verletzungsschwere, die unterschiedliche Erstversorgung am Unfallort, die Zeit bis zur Ankunft in der Notaufnahme oder die unterschiedliche primäre und definitive Versorgung der Verletzungen. All das kann zu einer unterschiedlichen Antwort des Immunsystems und somit zu unterschiedlichen Outcomes führen.
Daher war es Ziel unserer Studie, die oben genannten Variablen zu eliminieren, und eine kontrollierte Polytraumastudie am Schweinemodell durchzuführen, um die Funktionalität von Schweinemonozyten über einen Zeitraum von 72 Stunden nach Trauma zu untersuchen.
Zusätzlich und im Gegensatz zu früheren Studien haben wir die Phänotypisierung von Monozyten (TLR2 und MHC-II [SLA-DR]) mit einem funktionellen Phagozytose-Assay kombiniert und deren direkte Assoziation in einem unabhängigen Assay analysiert.
Peripheres Blut wurde vor (-1h) und direkt nach der Induktion des Polytraumas (PT) (0h) entnommen, sowie 3,5h, 5,5h, 24h und 72h später. Die Expression von H(S)LA-DR und TLR2 auf Schweine-Monozyten wurde untersucht. Außerdem wurde die Phagozytierungsaktivität von Schweinemonozyten gemessen.
Darüber hinaus wurden aus mechanistischen Gründen Blutproben von 10 gesunden Schweinen zunächst einem TLR2-neutralisierenden Antikörper und anschließend S. aureus-Partikeln ausgesetzt, bevor die Phagozytoseleistung der Monozyten untersucht wurde.
Die Anzahl der CD14 + -Monozyten aller zirkulierenden Leukozyten blieb während des Beobachtungszeitraums konstant, während der Prozentsatz der CD14 + H(S)LA-DR + -Monozyten direkt, 3,5h und 5,5h nach dem Trauma signifikant abnahm. Der Prozentsatz von TLR2 + exprimierenden Zellen aus allen Monozyten verringerte sich direkt, 3,5h und 5,5h nach dem Trauma signifikant. Der Prozentsatz der phagozytierenden Monozyten nahm direkt nach Trauma ab und blieb in den ersten 3,5 Stunden nach dem Trauma niedriger, stieg jedoch nach 24 Stunden an. Die Antagonisierung von TLR2 verringerte signifikant die Phagozytoseleistung der Monozyten.
Sowohl der verringerte Prozentsatz der aktivierten als auch der TLR2-exprimierenden Monozyten blieb bestehen, solange die verringerte Phagozytoseleistung beobachtet wurde.
Darüber hinaus führte auch die Neutralisation von TLR2 zu einer verminderten Phagozytoseleistung. Daher nehmen wir an, dass eine verringerte TLR2-Expression für die verringerte Phagozytoseleistung verantwortlich ist.
Ausgangspunkt der Forschungsarbeit ist der Gebrauch von Gesten in mathematischen Interaktionen von Lernenden. Es wird untersucht, inwiefern Gesten Teil des mathematischen Aushandlungsprozesses sind. Damit ist die Rekonstruktion einer potentiell fachlichen Bedeutung des Gestengebrauchs beim Mathematiklernen das zentrale Forschungsanliegen.
Theoretisch gerahmt wird die Arbeit von Erkenntnissen aus der psychologisch-linguistischen Gestenforschung zur systematischen Beschreibung von Gestik im Zusammenspiel mit der gleichzeitig geäußerten Lautsprache (McNeill, 1992; Kendon, 2004). Es werden ebenso ausgewählte Forschungen zur Gestik beim Mathematiklernen beleuchtet (Arzarello, 2006; Wille, 2020; Kiesow, 2016). Die mathematikdidaktische Interaktionstheorie begründet den sozial-konstruktivistischen Lernbegriff (Krummheuer, 1992). Ausgewählte Aspekte der Semiotik nach C. S. Peirce bieten eine theoretische Fundierung des Zeichenbegriffs und des Kerns mathematischen Agierens, verstanden als diagrammatisches Arbeiten (Peirce, 1931, CP 1.54 u. 1932, CP 2.228).
Von besonderer Bedeutung für die vorliegende Forschungsarbeit ist der linguistische Ansatz der Code-Integration und -Manifestation von redebegleitenden Gesten im Sprachsystem nach Fricke (2007, 2012) in Verbindung mit dem Peirce’schen Diagrammbegriff. Diese Perspektive ermöglicht eine theoretische Fundierung der zunächst empirisch beobachtbaren Multimodalität der Ausdrucksweisen von Lernenden beim gemeinsamen Mathematiktreiben. Der Peirce’sche Diagrammbegriff dient hierbei zur Rekonstruktion einer systemischen Relevanz von Gesten für das Betreiben von Mathematik: Bestimmte Gesten sind semiotisch als mathematische Zeichen beschreibbar und haben potentiell konstituierende Funktion für das diagrammatische Arbeiten der Lernenden. Der übergeordnete Forschungsfokus lautet: Wie nutzen Grundschüler*innen Gestik und Lautsprache, insbesondere in deren Zusammenspiel, um ihre mathematischen Ideen in den interaktiven Aushandlungsprozess einzubringen und über den Verlauf der Interaktion aufzugreifen, möglicherweise weiterzuentwickeln oder auch zu verwerfen? In der Ausdifferenzierung wird die Funktion der verwendeten Gesten und die Rekonstruktion von potentiell gemeinsam gebrauchten Gesten der Interagierenden in den Blick genommen.
Methodisch lässt sich die Forschungsarbeit der qualitativen Sozialforschung (Bohnsack, 2008) bzw. der interpretativen mathematikdidaktischen Unterrichtsforschung zuordnen (Krummheuer & Naujok, 1999). Es werden Beispiele aus mathematischen Interaktionssituationen ausgewertet, in denen sich Paare von Zweitklässler*innen mit einem mathematischen Problem aus der Kombinatorik und der Geometrie beschäftigen. Eine eigens theoriekonform entwickelte Transkriptpartitur dient zur Aufarbeitung der Videodaten. Mit der textbasierten Interaktionsanalyse (Krummheuer, 1992) und der grafisch angelegten Semiotischen Analyse (Schreiber, 2010) in einer Weiterentwicklung der Semiotischen Prozess-Karten (Huth, 2014) werden zwei hierarchisch aufeinander aufbauende Analyseverfahren verwendet.
Zentrale Forschungsergebnisse sind 1) die funktionale und gestalterische Flexibilität des Gestengebrauchs beim diagrammatischen Arbeiten der Lernenden, 2) die Rekonstruktion von Modusschnittstellen der Gesten mit anderen Ausdrucksmodi in Funktion, interaktionaler Bedeutungszuschreibung und Chronologie, und 3) die häufige Verwendung der Gesten als Modus der Wahl der Lernenden in mathematischen Interaktionen. Gesten weisen eine unmittelbare und voraussetzungslose Verfügbarkeit auf, eine funktionale und gestalterische Flexibilität in der mathematischen Auseinandersetzung und die Möglichkeit, Funktionen anderer Modi (vorübergehen) zu übernehmen. Es zeigt sich eine konstitutive und fachliche Bedeutung der Gestik für das mathematisch-diagrammatische Agieren der Lernenden. In der Arbeit wird daraus schließlich das doppelte Kontinuum der Gesten für das Mathematiklernen entwickelt. Es zeigt in der Dimension der Funktion des Gestengebrauchs und der Dimension des Objektbezugs der Gestengestalt die Vielfältigkeit der Gestenfunktionen im gemeinsamen diagrammatischen Arbeiten der Lernenden und gibt Einblick in die verwendeten Gestengestalten.
Die Forschungsarbeit offenbart den Bedarf einer Beachtung von Gesten in der fachdidaktischen Planung und Gestaltung von Mathematikunterricht und in der Erforschung und Diagnostik der mathematischen Entwicklung von Lernenden. Es handelt sich bei Gesten in mathematischen Interaktionen nicht um ein reines Beiwerk der Äußerung, sondern um einen fachlich bedeutsamen Modus in Bezug auf das Mathematiklernen. Der Gebrauch von Gestik ermöglicht die Erzeugung von Diagrammen im Handumdrehen und eröffnet perspektivisch eine Erforschung ihrer Bedeutung für mathematische Lehr-Lern-Prozesse.
Die in dieser Zusammenfassung angegebene Literatur findet sich im Literaturverzeichnis der vorgelegten Forschungsarbeit.
Die Organisation SOS Children's Villages (im Folgenden: SOS) ist eine der größten und ältesten nicht-staatlichen, überkonfessionellen Kinderhilfsorganisationen der Welt. Heute sind mehrere Generationen in Einrichtungen der in 136 Ländern tätigen Organisation aufgewachsen oder haben von ihren Hilfsprogrammen profitiert. Seit der Gründung im Jahr 1949 liegt der Schwerpunkt auf "Kindern und Jugendlichen, die keine elterliche Fürsorge haben oder Gefahr laufen, diese zu verlieren". Trotz der langjährigen weltweiten Präsenz haben sich bisher nur wenige ethnologische Arbeiten mit der Organisation SOS, ihrem Modell und vor allem ihren Teilnehmern beschäftigt.
Die vorliegende Arbeit will diese Lücke schließen. Sie zeigt anhand exemplarischer, biographisch-narrativer Interviews und auf einer multi-sited ethnography basierenden Analysen, wie einzelne Akteure im SOS-Kontext ihrer Vergangenheit begegnen, wie sie Erfahrungen - aus der Zeit unter der Obhut von SOS, aber auch aus der Zeit davor - einordnen und wie diese ihre Gegenwart und auch Zukunft beeinflussen bzw. wie sie heute mit diesen Erinnerungen umgehen. Ziel dieser Arbeit ist es außerdem, am Beispiel von SOS als Entwicklungszusammenarbeit (EZ) im Bereich Kinder, Jugend und Familie zu untersuchen, wie sich EZ-Projekte auf das Leben, die Sichtweisen und Biografien verschiedener Akteure sowie auf bestimmte lokale Zusammenhänge auswirken und wie wiederum Handlungen und individuelle Einstellungen von Akteuren sowie bestimmte lokale Kontexte solche Projekte beeinflussen.
Hierfür habe ich über einen Zeitraum von elf Monaten zwischen Juni 2019 und Mai 2020 an vier Standorten der Organisation in Kenia und Tansania rund 150 Interviews mit verschiedenen Zielgruppen (mit SOS-Mitarbeitern, ehemaligen SOS-Teilnehmern, aktuellen SOS-Teilnehmern sowie Gemeindevertretern) geführt.
Die Studie liefert also Ergebnisse auf mehreren Ebenen. Zusammenfassend lässt sich sagen, dass die Akteure meiner Untersuchung ihrer Vergangenheit und den Erinnerungen daran im Erwachsenenalter durch Aneignungsprozesse begegnen, die es ihnen ermöglichen, diese Erinnerungen und Erfahrungen kohärent in ihre eigene Biografie einzuordnen. Dieser Umgang mit der eigenen Geschichte ermöglicht es den ehemaligen SOS-Teilnehmern, sich die Struktur, die ihrer Kindheit zugrunde lag, nämlich die der internationalen Hilfsorganisation SOS, anzueignen und darüber Handlungen und Verhaltensweisen auch in ihrer Gegenwart und Zukunft zu definieren und zu legitimieren, und SOS als Zentrum ihrer Kindheit auch im Erwachsenenalter auf unterschiedliche Weise in Besitz zu nehmen. Dabei erfüllen sie nicht immer die Erwartungen, die von organisatorischer Seite an ihr Verhalten oder ihre Interpretation von Organisationskonzepten und -prinzipien gestellt werden. Da durch das Organisationsmodell evozierte Probleme wie fehlende Zugehörigkeiten oder Schwierigkeiten beim Übergang in die Selbstständigkeit durch lebensweltliche Diskrepanzen im Vergleich zu lokalen Kontexten über die Lebenswege und Erfahrungen der (ehemaligen) Teilnehmer sichtbar werden, schreibe ich nicht zuletzt den Teilnehmern und ihrem Umgang mit diesen Erfahrungen einen Anteil an den Transformationsprozessen zu, in denen sich die Organisation aktuell befindet.
In der Dissertation werden mit Hilfe der Grounded Theory Methodologie Möglichkeiten und Bedingungen von Museumsangeboten für Menschen mit Demenz erforscht.Die Arbeit versteht sich als erziehungswissenschaftlich-gerontologisch und nimmt dabei die Perspektive einer kritischen Kunst- und Kulturvermittlung ein.
Background: Hepatectomy is a complex procedure with high morbidity and mortality.
Early prediction/prevention of major complications is highly valuable for patient care.
Surgical APGAR score (SAS) has been validated to predict post-surgical complications (PCs).
Goal: We aimed to define a simple complications classification following hepatectomy based on a therapy-oriented severity Clavien-Dindo classification (CDC).
Methods: 119 patients undergoing liver resection were included. PCs were determined at follow-up based on CDC. Clinicopathological factors were used to calculate SAS. A receiver-operator characteristic (ROC) curve analysis estimated the predictive value of SAS for PCs. Circulating markers levels of liver injury were analyzed as critical elements on PCs.
Results: SAS (P=0.008), estimated blood-loss (P=0.018) and operation time (P=0.0008) were associated with PCs. SAS was reduced in patients with (+) compared to those without (-) complications (6.64±1.84 vs 5.70±1.79, P=0.0079). The area-under-the-curve was 0.646 by ROC, indicating an acceptable discrimination with 65% possibility to distinguish (-) and (+) groups (P=0.004).
Best cutoff value for SAS was ≤6/≥7, at which sensitivity and specificity were maximal.
ALT/ASL levels were significantly different within the group with 9-10 SAS points (P=0.01 and 0.02).
Conclusion: SAS provides accurate risk stratification for major PCs after hepatectomy, and might help improving the overall patient outcome.
This cumulative dissertation contains four self-contained chapters on stochastic games and learning in intertemporal choice.
Chapter 1 presents an experiment on value learning in a setting where actions have both immediate and delayed consequences. Subjects make a series of choices between abstract options, with values that have to be learned by sampling. Each option is associated with two payoff components: One is revealed immediately after the choice, the other with one round delay. Objectively, both payoff components are equally important, but most subjects systematically underreact to the delayed consequences. The resulting behavior appears impatient or myopic. However, there is no inherent reason to discount: All rewards are paid simultaneously, after the experiment. Elicited beliefs on the value of options are in accordance with choice behavior. These results demonstrate that revealed impatience may arise from frictions in learning, and that discounting does not necessarily reflect deep time preferences. In a treatment variation, subjects first learn passively from the evidence generated by others, before then making a series of own choices. Here, the underweighting of delayed consequences is attenuated, in particular for the earliest own decisions. Active decision making thus seems to play an important role in the emergence of the observed bias.
Chapter 2 introduces and proves existence of Markov quantal response equilibrium (QRE), an application of QRE to finite discounted stochastic games. We then study a specific case, logit Markov QRE, which arises when players react to total discounted payoffs using the logit choice rule with precision parameter λ. We show that the set of logit Markov QRE always contains a smooth path that leads from the unique QRE at λ = 0 to a stationary equilibrium of the game as λ goes to infinity. Following this path allows to solve arbitrary finite discounted stochastic games numerically; an implementation of this algorithm is publicly available as part of the package sgamesolver. We further show that all logit Markov QRE are ε-equilibria, with a bound for ε that is independent of the payoff function of the game and decreases hyperbolically in λ. Finally, we establish a link to reinforcement learning, by characterizing logit Markov QRE as the stationary points of a game dynamic that arises when all players follow the well-established reinforcement learning algorithm expected SARSA.
Chapter 3 introduces the logarithmic stochastic tracing procedure, a homotopy method to compute stationary equilibria for finite and discounted stochastic games. We build on the linear stochastic tracing procedure (Herings and Peeters 2004), but introduce logarithmic penalty terms as a regularization device, which brings two major improvements. First, the scope of the method is extended: it now has a convergence guarantee for all games of this class, rather than just generic ones. Second, by ensuring a smooth and interior solution path, computational performance is increased significantly. A ready-to-use implementation is publicly available. As demonstrated here, its speed compares quite favorable to other available algorithms, and it allows to solve games of considerable size in reasonable times. Because the method involves the gradual transformation of a prior into equilibrium strategies, it is possible to search the prior space and uncover potentially multiple equilibria and their respective basins of attraction. This also connects the method to established theory of equilibrium selection.
Chapter 4 introduces sgamesolver, a python package that uses the homotopy method to compute stationary equilibria of finite discounted stochastic games. A short user guide is complemented with discussion of the homotopy method, the two implemented homotopy functions logit Markov QRE and logarithmic tracing, and the predictor-corrector procedure and its implementation in sgamesolver. Basic and advanced use cases are demonstrated using several example games. Finally, we discuss the topic of symmetries in stochastic games.
Das schnelle und unkontrollierte Wachstum von Tumorzellen bedingt beim Glioblastom ein heterogenes Tumormikromilieu, mit lokalem Sauerstoff- und Nährstoffmangel. Lokaler Selektionsdruck bedingt eine Evolution besonders anpassungsfähiger Klone. Die integrierte Stressantwort (integrated stress response, ISR) ist ein zelluläres Programm, das durch zahlreiche Stressoren, wie endoplasmatische Retikulum Stress (ER-Stress), durch die Akkumulation ungefalteter Proteine, Hypoxie, Glukose- oder Aminosäuremangel aktiviert wird. Ein zentraler Schritt zur Aktivierung der ISR ist die Phosphorylierung der alpha Untereinheit des eukaryotischen Translationsinitiationsfaktors 2 (eIF2α) an Serin 51. Die Phosphorylierung von eIF2α führt zur Modulation der Translation mit Induktion des Transkriptionsfaktors ATF4 (Activating Transcription Factor 4), der dann zelluläre Anpassungsvorgänge einleitet.
Unsere Hypothese lautete, dass ATF4-vermittelte molekulare Anpassungsmechanismen menschlicher Glioblastom (GB)-Zellen an die Bedingungen der Tumormikroumgebung (wie z.B. Hypoxie und Nährstoffentzug) maßgeblich zur Therapieresistenz beitragen und auch die Empfindlichkeit gegen TMZ-Chemotherapie beeinflussen. Somit könnte eine Inhibition der integrierten Stressantwort über den zentralen Mediator ATF4 zu einem gesteigerten Ansprechen auf Therapiebedingungen führen.
Um die ISR und ATF4 als mögliche therapeutische Angriffspunkte im Glioblastom zu evaluieren, wurde die ATF4 Induktion in Glioblastomzellen pharmakologisch und genetisch moduliert und im Zusammenhang mit TMZ-Behandlung sowie Glukose- und Sauerstoffentzug untersucht. Unter Glutaminentzug, Hypoxie und TMZ-Behandlung, welche Aspekte der GB-Mikroumgebung widerspiegeln, zeigten sich erhöhte ATF4 Proteinspiegel. ATF4-gensupprimierte GB-Zellen (ATF4sh) exprimierten unter gleicher Behandlung wesentlich weniger ATF4.
Im Einklang mit der Hypothese, dass ATF4 zur Therapieresistenz humaner Glioblastomzellen beiträgt, waren ATF4-gensupprimierte GB-Zellen (ATF4sh) im Vergleich zur Kontrollzelllinie empfindlicher gegen Hypoxie-induzierten Zelltod und zeigten einen erhöhten Sauerstoffverbrauch. Umgekehrt zeigten GB-Zellen nach pharmakologischer ISR Induktion einen verminderten Sauerstoffverbrauch. Auch nach Behandlung mit TMZ war die Überlebensrate in ATF4sh Zellen im Vergleich zur Kontrollgruppe geringer. Zur Hemmung der ISR wurden verschiedenen Inhibitoren der Kinase PERK (Protein kinase R-like endoplasmic reticulum kinase) entwickelt. In unseren Untersuchungen war nach der Behandlung der GB-Zelllinien eine verminderte ATF4 Expression festzustellen. Dabei kam es allerdings gleichzeitig bei der Behandlung mit höheren Inhibitorkonzentrationen zu einer Induktion von ATF4. Für den PERK-Inhibitor GSK 414 wurde in der Literatur auch die Hemmung anderer Kinasen wie KIT und RIPK1 gezeigt. Daher konnte bei den Konzentrationen, die für eine vollständige PERK-Inhibition erforderlich waren, keine selektive Hemmung von PERK mehr gewährleistet werden. Besonders aufgrund ihrer Toxizität auf die Funktion des Pankreas eignen sich diese Inhibitoren nicht für eine in vivo Erprobung. Da aber durch die Inhibition der ISR eine neuroprotektive Wirkung beschrieben ist, besteht die Notwendigkeit, weitere Inhibitoren zur Hemmung der ISR zu entwickeln. ISRIB (Integrated Stress Response Inhibitor) ist ein partieller ISR Inhibitor, der eIF2B angreift, was als Guanidin-Nukleotid-Austauschfaktor im Translationsinitiationsprozess benötigt wird. Für ISRIB wurde bereits in vitro und in vivo eine neuroprotektive, aber keine toxische Wirkung beschrieben.
Zusammenfassend lieferten unsere Untersuchungen Hinweise auf die wichtige Rolle von ATF4 für die Anpassung humaner GB-Zellen an Bedingungen der Tumormikroumgebung und für die Entstehung von TMZ-Resistenzen. Die Hemmung der ISR in GB-Zellen könnte daher ein vielversprechender Therapieansatz sein.
In this work I investigate two different systems - spin systems and charge-density-waves. The same theoretical method is used to investigate both types of system. My investigations are motivated by experimental investigations and the goal is to describe the experimental results theoretically. For this purpose I formulate kinetic equations starting from the microscopical dynamics of the systems.
First of all, a method is formulated to derive the kinetic equations diagrammatically. Within this method an expansion in equal-time connected correlation functions is carried out. The generating functional of connected correlations is employed to derive the method.
The first system to be investigated is a thin stripe of the magnetic insulator yttrium-iron-garnet (YIG). Magnons are pumped parametrically with an external microwave field. The motivation of my theoretical investigations is to explain the experimental observations. In a small parameter range close to the confluence field strength where confluence processes of two parametrically pumped magnons with the same wave vector becomes kinematically possible the efficiency of the pumping is reduced or enhanced depending on the pumping field strength. Because it is expected that that confluence and splitting processes of magnons are essential for the experimental observations I go beyond the kinetic theories that are conventionally applied in the context of parametric excitations in YIG and investigate the influence of cubic vertices on the parametric instability of magnons in YIG.
Furthermore, the influence of phonons is investigated. Usually in the literature these are taken into account as heat bath. Here, I want to explain experiments where an accumulation of magnetoelastic bosons - magnon-phonon-quasi-particles - has been observed. I employ the method of kinetic equations to investigate this phenomenon theoretically. The kinetic theory is able to reproduce the experimental observations and it is shown that the accumulation of magnetoelastic bosons is purely incoherent.
Finally, charge-density waves (CDW) in quasi-one-dimensional materials will be investigated. Charge-density waves emerge from a Peierls-instability and are a prime example for spontaneous symmetry breaking in solids. Again, the motivation for my theoretical investigations are an experiment where the spectrum of amplitude and phase phonon modes has been measured. Starting from the Fröhlich-Hamiltonian I derive kinetic equations and from these kinetic equations the equations of motion for the CDW order parameter can be derived. The frequencies and damping rates of amplitude and phase phonon modes will be derived from the linearized equations of motion. I compare my theory with existing methods. Furthermore, I also investigate the influence of Coulomb interaction.
This thesis investigates exotic phases within effective models for strongly interacting matter.
The focus lies on the chiral inhomogeneous phase (IP) that is characterized by a spontaneous breaking of translational symmetry and the moat regime, which is a precursor phenomenon exhibiting a non-trivial mesonic dispersion relation.
These phenomena are expected to occur at non-zero baryon densities, which is a parameter region that is mostly non-accessible to first-principle investigations of Quantum chromodynamics (QCD).
As an alternative approach, we consider the Gross-Neveu (GN) and Nambu-Jona-Lasinio (NJL) model within the mean-field approximation, which can be regarded as effective models for QCD.
We focus on two aspects of the moat regime and the IP in these models.
First, we investigate the influence of the employed regularization scheme in the (3+1)-dimensional NJL model, which is nonrenormalizable, i.e., the regulator cannot be removed.
We find that the moat regime is a robust feature under change of regularization scheme, while the IP is sensitive to the specific choice of scheme.
This suggests that the moat regime is a universal feature of the phase diagram of the NJL model, while the IP might only be an artifact of the employed regulator.
Second, we study the influence of the number of spatial dimensions on the emergence of the IP.
To this end, we investigate the GN model in noninteger spatial dimensions d.
We find that the IP and the moat regime are present for d < 2, while they are absent for d > 2.
This demonstrates the central role of the dimensionality of spacetime and illustrates the connection of previously obtained results in this model in integer number of spatial dimensions.
Moreover, this suggests that the occurrence of these phenomena in three spatial dimensions is solely caused by the finite regulator.
In summary, this thesis contributes to advancing our understanding of the phase structure of QCD, particularly regarding the existence and characteristics of inhomogeneous phases and the moat regime.
Even though the investigations are performed within effective models, they provide valuable insight into the aspects that are crucial for the formation of an inhomogeneous chiral condensate in fermionic theories.
In this thesis, we present a detailed consideration of both qualitative and quantitative properties of static spherically symmetric solutions of the Einstein equations with self-interacting scalar fields. Our focus is on solutions with naked singularities. We study the qualitative properties of the solutions of the Einstein equations with real static self-interacting $N$ scalar fields, making some assumptions on self-interaction. We provide a rigorous proof that the corresponding solutions will be regular up to $r=0$. Furthermore, we find the rigorous form of asymptotic solutions near the singularity and at spatial infinity. We construct some examples of spherical-like naked singularities at $r=r_s\neq0$ in curvature coordinates.
We analyze the stability of the previously considered solutions against odd-parity gravitational perturbations and also examine the fundamental quasi-normal modes spectra. For the general class of the self-interaction potential, we demonstrate well-posedness of the initial problem and stability for positively defined potentials. As an example, we numerically study the case of the scalar field with power-law self-interaction potential and find the fundamental quasi-normal modes frequencies. We demonstrate that they differ from the standard Schwarzschild black hole case.
We study in detail the motion of particles in the vicinity of previously considered solutions. Mainly, we are interested in considering properties of the distribution of stable circular orbits around the corresponding configurations and images of the accretion disk for a distant observer. For all cases, we find possible types of stable circular orbit distributions and domains of parameters where they are realized.
We also demonstrate that the presence of self-interaction can lead to a new type of circular orbit distributions, which is absent in the linear massless scalar field case. We build Keplerian disk images in the plane of a distant observer and demonstrate the possibility to mimic the shadows of black holes.
By combining two unique facilities at the Gesellschaft fuer Schwerionenforschung (GSI), the Fragment Separator (FRS) and the Experimental Storage Ring (ESR), the first direct measurement of a proton capture reaction of stored radioactive isotopes was accomplished. The combination of well-defined ion energy, an ultra-thin internal gas target, and the ability to adjust the beam energy in the storage ring enables precise, energy-differentiated measurements of the (p,gamma) cross sections. The new setup provides a sensitive method for measuring (p,gamma) reactions relevant for nucleosynthesis processes in supernovae, which are among the most violent explosions in the universe and are not yet well understood. The cross sections of the 118Te(p,gamma) and 124Xe(p,gamma) reactions were measured
at energies of astrophysical interest. The heavy ions were stored with energies of 6 MeV/nucleon and 7 MeV/nucleon and interacted with a hydrogen gas-jet target.
The produced proton-capture products were detected with a double-sided silicon strip detector. The radiative recombination process of the fully stripped ions and electrons from the hydrogen target was used as a luminosity monitor.
Additionally, post-processing nucleosynthesis simulations within the NuGrid [1] research platform have been performed. The impact of the new experimental results on the p-process nucleosynthesis around 124Xe and 118Te in a core-collapse supernova was investigated. The successful measurement of the proton capture cross sections of radioactive isotopes rises the motivation to proceed with experiments in lower energy regions.
[1] M. Pignatari and F. Herwig, “The nugrid research platform: A comprehensive simulation approach for nuclear astrophysics,” Nuclear Physics News, vol. 22, no. 4, pp. 18–23, 2012.
In this thesis, the early time dynamics in a heavy ion collision of Pb-Nuclei at LHC center-of-mass energies of 5 TeV is studied. Right after the collision the system is out-of-equilibrium and essentially gluon dominated, with their density saturating at a specific momentum scale Q_s. Based on a separation of scales for the soft and hard gluonic degrees of freedom, the initial state is given from an effective model, known as the Color Glass Condensate. Within this model, the soft gluons behave classical to leading order, making it possible to study their dynamics in gauge invariant fashion on a three dimensional lattice, solving Hamiltonian field equations of motion, keeping real time. Quark-Antiquark pairs are produced in the gluonic medium, known as the Glasma and manifest themselves as a source of quantum fluctuations.
They enter the dynamics of the gluons as a current, making the system semi-classical. In lattice simulations, the non-equilibrium system is tested for pressure isotropization, which is a necessary ingredient to reach a local thermal equilibrium (LTE), making a hydrodynamical description at a later stage possible. In addition, the occupation of energy modes is studied with its implications on thermalization and classicality.
Global analysis of halogenated trace gases in the UTLS: from long-lived to short-lived substances
(2023)
In this dissertation, the distribution of chlorinated and brominated substances in the upper troposphere and lower stratosphere is investigated. These substances contribute significantly to the catalytic decomposition of ozone and are involved in the recurrent formation of the polar ozone hole in the Antarctic winter and spring. The Montreal Protocol, a multilateral environmental treaty to protect the ozone layer, has successfully reduced emissions of long-lived chlorine- and bromine-containing substances. Short-lived chlorinated and brominated substances, some of which are natural and anthropogenic in origin, are not regulated by the Montreal Protocol and it can be assumed that their relative contribution to the stratospheric halogen budget will increase, while the contribution of long-lived compounds will steadily decrease. The distribution of long- and short-lived halogenated substances are part of current research. For the upper troposphere and lower stratosphere, the very short-lived substances are particularly important. The lower stratosphere needs special investigation in this respect, since its composition is influenced by different transport processes. The influences on ozone trends in the lower stratosphere are subject to great uncertainties. Especially in the Southern Hemisphere, the number of observations is very limited.
In this work, the GhOST (Gas chromatograph for Observational Studies using Tracers) instrument was used during the SouthTRAC measurement campaign on the German HALO (High Altitude and LOng range) research aircraft, providing observations of halogenated hydrocarbons in Antarctic late winter to early spring 2019, a generally poorly sampled region. The polar vortex was, compared to previous years, significantly weaker and shifted towards the eastern South Pacific and South America. From the airborne measurements of chlorinated source gases, inorganic chlorine (the sum of active chlorine and reservoir gases; Cly) could be inferred with the result that Cly within the vortex increased up to 1687 ± 19 ppt at 385 K potential temperature, accounting for about 50 % of the total chlorine within the vortex and only 15 % of the total chlorine in the southern mid-latitudes. A comparison with the Northern Hemisphere could be made using the PGS measurement campaign in the Arctic winter 2015/2016. Under comparable conditions (season and distance from the tropopause), only 40 % of the total chlorine was in the inorganic form within the Arctic polar vortex and about 20 % was found in the mid-latitudes of the Northern Hemisphere. In addition, about 540 ppt more Cly was present in the Antarctic vortex than in the Arctic vortex, exceeding the annual variations previously reported for Antarctica.
The mean age of air plays an essential role in the derivation of Cly via the organic source gases, as was done in this work. A new method for determining the mean age of air from observational data has been introduced that accounts for extra-tropical input to the stratosphere in addition to tropical input. This new method was compared with the previously used method, which considered only the tropical input. The new method shows more realistic values especially near the tropopause. On average, the air of the lower stratosphere in the Northern Hemisphere was older than in the Southern Hemisphere by about 0.5 ± 0.3 years. About 65 K above the tropopause, the pattern changed with older air in the mid-latitudes of the Northern Hemisphere, but older air in high latitudes of the Southern Hemisphere, which implies differences in the strength and isolation of the respective polar vortex as well as the wave forcing in the shallow branch of the Brewer-Dobson circulation of the respective hemisphere. This is in good agreement with the distribution of Cly. The difference in the lower stratosphere was not clearly evident with the old method and it can be assumed that investigations of the differences in Cly of Northern and Southern Hemisphere will benefit from the new method.
Finally, the global and seasonal distribution of the two most important representatives of the short-lived brominated substances, CH2Br2 and CHBr3, was investigated. For this purpose, two additional HALO measurement campaigns have been used, the 2012 TACTS measurement campaign and the 2017 WISE measurement campaign, as well as the HIAPER Pole-to-Pole Observations (HIPPO) and Atmospheric Tomography (ATom) measurement campaigns. Observations of CH2Br2 show a pronounced seasonality in the free and upper troposphere of both hemispheres with slightly larger values in the Northern Hemisphere. CHBr3, on the other hand, shows a generally higher variability and lower seasonality with larger mixing ratios at mid and high latitudes in the northern hemispheric winter and autumn. A comparison of the lower stratosphere is limited to autumn and spring of both hemispheres due to the limited data basis of the observations. The distributions in each spring are similar (less than 0.1 ppt differences for e.g., CH2Br2). In hemispheric autumn, larger differences are evident with substantially smaller mixing ratios in the southern hemispheric lower stratosphere. This suggests that the transport processes of the two hemispheres may be different and implies that the input of tropospheric air (flushing) to the Northern Hemisphere lowest stratosphere is more efficient than in the Southern Hemisphere. Vertical profiles of CH2Br2 and CHBr3 in the mid-latitudes of both hemispheres and resulting vertical gradients support this conjecture. However, the Southern Hemisphere data set is insufficient to quantify this difference and further measurements are needed.
A central concern in genetics is to identify mechanisms of transcriptional regulation. The aim is to unravel the mapping between the DNA sequence and gene expression. However, it turned out that this is extremely complex. Gene regulation is highly cell type-specific and even moderate changes in gene ex- pression can have functional consequences.
Important contributors to gene regulation are transcription factors (TFs), that are able to directly interact with the DNA. Often, a first step in understanding the effect of a TF on the gene’s regulation is to identify the genomic regions a TF binds to. Therefore, one needs to be aware of the TF’s binding preferences, which are commonly summarized in TF binding motifs. Although for many TFs the binding motif is experimentally validated, there is still a large number of TFs where no binding motif is known. There exist many tools that link TF binding motifs to TFs. We developed the method Massif that improves the performance of such tools by incorporating a domain score that uses the DNA binding domain of the studied TF as additional information.
TF binding sites are often enriched in regulatory elements (REMs) such as promoters or enhancers, where the latter can be located megabases away from its target gene. However, to understand the regulation of a gene it is crucial to know where the REMs of a gene are located. We introduced the EpiRegio webserver that holds REMs associated to target genes predicted across many cell types and tissues using STITCHIT, a previously established method. Our publicly available webserver enables to query for REMs associated to genes (gene query) and REMs overlapping genomic regions (region query). We illus- trated the usefulness of EpiRegio by pointing to a TF that occurs enriched in the REMs of differential expressed genes in circPLOD2 depleted pericytes. Further, we highlighted genes, which are affected by CRISPR-Cas induced mutations in non-coding genomic regions using EpiRegio’s region query. Non-coding genetic variants within REMs may alter gene expression by modifying TF binding sites, which can lead to various kinds of traits or diseases. To understand the underlying molecular mechanisms, one aims to evaluate the effect of such genetic variations on TF binding sites. We developed an accurate and fast statistical approach, that can assess whether a single nucleotide polymorphism (SNP) is regulatory. Further, we combined this approach with epigenetic data and additional analyses in our Sneep workflow. For instance, it enables to identify TFs whose binding preferences are affected by the analyzed SNPs, which is illustrated on eQTL datasets for different cell types. Additionally, we used our Sneep workflow to highlight cardiovascular disease genes using regulatory SNPs and REM-gene interactions.
Overall, the described results allow a better understanding of REM-gene interactions and their interplay with TFs on gene regulation.
Hintergrund: Die Aortenklappenstenose stellt in Europa und Nordamerika das häufigste Klappenvitium dar und ist vor allem auf eine degenerative Genese zurückzuführen. Da das Auftreten erster Symptome mit einer schlechten Prognose assoziiert ist, ist die transfemorale Aortenklappenimplantation mittels Katheter (TAVI) als minimalinvasive Therapie schon seit längerem eine Alternative zum operativen Ersatz der Aortenklappe und aktuelles Thema der Forschung. Zwar existiert eine Vielzahl an Transkatheterklappen und es werden fortlaufend neue Generationen entwickelt, allerdings liegt bislang noch keine Studie vor, die einen direkten Vergleich der intraannularen Portico-Prothese (Abbott) mit der ebenfalls selbstexpandierbaren, aber supraannularen, Symetis-Prothese (Boston Scientific) präsentiert.
Methoden: Es erfolgte eine retrospektive Analyse von 142 gematchten (nach Alter, BMI, NYHA-Klasse, EuroScore, insulinpflichtiger Diabetes Mellitus, arterielle Hypertonie, COPD, KHK, präinterventionelle eGFR, cAVK, Schlaganfall, TIA in der Vorgeschichte) Patienten je Klappenmodell im medianen Alter von 83 Jahren, die sich mit einer hochgradigen symptomatischen Aortenklappenstenose im Zeitraum vom 12.10.2015 bis zum 07.01.2020 einer transfemoralen TAVI im Universitätsklinikum in Frankfurt am Main unterzogen. Untersucht wurde als primärer Endpunkt die Gesamtmortalität nach 1 Jahr. Darüber hinaus wurden mittels multivariater Cox-Regression unabhängige Risikofaktoren identifiziert. Als sekundäre Endpunkte wurden Komplikationen innerhalb von 30 Tagen gemäß den Definitionen des Valve Academic Research Consortium (VARC) 2 gewählt wie die Implantationen neuer Schrittmacher, paravalvuläre Leckage, Gefäßkomplikationen und akutes Nierenversagen. Analysiert wurden außerdem prozedurale Faktoren, die Symptomatik anhand der NYHA-Klasse sowie einige Laborparameter vor und nach der TAVI.
Ergebnisse: In dieser Arbeit konnte gezeigt werden, dass die 1-Jahres-Mortalität mit der Portico-Prothese signifikant höher ist als mit der Symetis-Prothese (25,2% vs. 12,2%; p=0,011). Dabei gelten neben der Portico-Prothese eine reduzierte linksventrikuläre Funktion und die NYHA-Klassen III/IV gemäß multivariater Cox-Regressionsanalyse als unabhängige Risikofaktoren. Postinterventionell war in der Portico-Kohorte ein neuer Linksschenkelblock (34,5% vs. 23,2%; p=0,036), die Implantation neuer Schrittmacher (22,6% vs. 11,8%; p=0,011) sowie ein akutes Nierenversagen (25,5% vs. 12,8%; p=0,006) signifikant häufiger. Hinsichtlich prozedurbezogener Faktoren hat sich herausgestellt, dass mit der Symetis-Prothese häufiger nachdilatiert (41,5% vs. 25,3%; p=0,004), mit der Portico-Prothese hingegen häufiger vordilatiert (92,2% vs. 82,3%; p=0,012) wurde. Außerdem wurde in der Portico-Kohorte signifikant mehr Kontrastmittel eingesetzt und das Verfahren mit der Durchleuchtung dauerte signifikant länger. Echokardiographisch resultierte post TAVI mit der Symetis-Prothese eine signifikant andere bzw. günstigere Verteilung der Aortenklappeninsuffizienzgrade. Laborchemisch war der Wert für NT-proBNP als biochemischer Marker für eine Herzinsuffizienz signifikant höher als in der Symetis-Gruppe.
Schlussfolgerung: Diese Arbeit zeigte eine signifikant höhere Mortalität nach 1 Jahr mit der Portico-Prothese im direkten Vergleich mit der Symetis-Prothese. Außerdem ergab der Vergleich signifikant höhere Komplikationsraten in der Portico-Kohorte hinsichtlich Schrittmacherimplantationen, neuem Linksschenkelblock und akutem Nierenversagen. Weitere Studien sollten die beiden Prothesen im längerfristigen Verlauf vergleichend analysieren. Die Ergebnisse dieser Studie können zur Optimierung neuer Klappengenerationen beitragen, indem sie auf potenziell prognosebestimmende Aspekte des Designs und der Implantationstechnik aufmerksam machen. Außerdem sensibilisert die Studie für eine individuell für jeden Patienten angepasste Prothesenauswahl. Möglicherweise sollte bei Vorerkrankungen der Niere oder bei vorbekannten Herzleitungsstörungen die Symetis- gegenüber der Portico-Prothese vorgezogen werden.
Climatology of morphology and cloud-radiative properties of marine low-level mixed-phase clouds
(2023)
Marine stratocumuli cover about 40 - 60% of the ocean surface. They self-organize into different morphological regimes. The two organized cellular regimes are called open and closed mesoscale-cellular convective (MCC) clouds. In mid-to-high latitudes, open and closed cells are the two most frequent types of MCC clouds. In particular, many MCC clouds consist of a mixture of vapor, liquid droplets, and ice particles, referred to as mixed-phase clouds (MPCs). Even for the same cloud fraction, the albedo of open cells is, on average, lower than that of closed MCC clouds. Cloud phase and morphology individually influence the cloud radiative effect. Thus, this thesis investigates the relationships between the cloud phase, MCC organization, cell size, and differences regarding the cloud-radiative effect.
This thesis focuses on space-borne retrievals to achieve extensive temporal and spatial coverage. The liDAR-raDAR (DARDAR) version 2 product collocates two active and one passive satellite: CloudSat, Cloud-Aerosol Lidar and Infrared Pathfinder Satellite Observations (CALIPSO), and Moderate Resolution Imaging Spectroradiometer (MODIS). The cloud phase of DARDAR is vertically integrated to establish a single cloud phase at each data point. The MCC classification data set based on the liquid water path (LWP) of MODIS scenes is collocated with the DARDAR product to determine the MCC organization. Cell-size statistics of both MCC clouds are obtained using a marker-based image segmentation method on MODIS reflectance scenes. In addition, based on MODIS reflectance scenes, a convolutional neural network (CNN) is developed to classify open and closed MCC scenes to avoid missing mature MPCs with a low LWP.
The first part of this thesis explores the relationships between cloud phase, morphology, and cloud albedo in the Southern Ocean (SO). At a given cloud-top temperature (CTT), seasonal changes in the mixed-phase fraction, defined as the number of MPCs divided by the sum of MPC and supercooled liquid cloud (SLC) pixels, are stronger than the morphological changes. Therefore, external factors seem to influence these changes instead of morphology. The dependence of cloud phase on cloud-top height (CTH) is more substantial than on CTT in clouds with CTHs below 2.5 km. The previously observed acceleration of closed-to-open transition in MPCs, known as preconditioning, is not the primary driver of climatological cloud morphology statistics in the SO. The morphological differences in cloud albedo are more pronounced in SLCs than in MPCs. This change in albedo alters the cloud radiative effect in the SO by 21Wm−2 to 39Wm−2 depending onseason and cloud phase.
Open and closed MCC clouds exhibit larger equivalent cell diameters in the MPCs than in SLCs in austral summer, whereas, in austral winter, the SLCs are larger. The cell’s aspect ratio accounts for varying CTHs. Closed cells have smaller aspect ratios than open cells, so their cell diameter is smaller, independent of CTH. While the seasonal differences in closed cells are due to changes in CTH, the seasonal aspect ratio differences in open cells are mainly caused by MPCs. With increasing aspect ratios, the cloud albedo decreases in both open and closed MCC clouds, with the most substantial decrease in open MPCs clouds. This leads to cloud-radiative changes of 60 - 75Wm−2 in the SO, depending on cloud phase and aspect ratio.
The established CNN exhibits a good accuracy of 80.6%, with even higher accuracies in the Open (85.5%) and Closed (87.3%) categories. The global MCC climatology based on the CNN generally agrees well with previous MCC distributions. The most notable difference occurs in the Northern Hemisphere (NH) in boreal winter, with a higher occurrence frequency of closed and open MCC clouds. This might indicate missing MPCs in previous studies based on the LWP and some restricted to warm cloud scenes. Thus, the developed CNN seems to better represent the different morphologies in MPCs than in previous classifications.
In conclusion, this thesis shows that understanding the dependencies of cloud phase, cloud morphology, and cell size is important to enhance predictions of the cloud-radiative effect and thus, it is important to evaluate how cloud phase, cloud morphology, and cellsize change in a warming climate.
Resistenzen gegenüber Carbapenemen sind eine Bedrohung für die globale Gesundheit mit wenigen verbleibenden Therapieoptionen. Ceftazidim/Avibavtam (CZA) ist die Kombination aus einem Cephalosporin und einem Diazabicyclooctan, mit der Eigenschaft eine Vielzahl von Carbapenemasen der Ambler Klasse A und D zu inhibieren. Resistenzen gegenüber Carbapenemen in gramnegativen Bakterien sind in Kolumbien und anderen Ländern Lateinamerikas weit verbreitet. In den hier vorgestellten Arbeiten wurden 2.235 Enterobakterien und 492 P. aeruginosa Isolate aus fünf Lateinamerikanischen Ländern auf ihre Empfindlichkeit gegenüber CZA und anderen klinisch verfügbaren Antibiotika untersucht. Die CZA-resistenten Isolate wurden mittels PCR und Genomsequenzierung auf die zugrundeliegenden Resistenzmechanismen hin analysiert. CZA zeigte Aktivitäten gegenüber 99,2% (2.217/2.235) aller untersuchten Enterobacterales und 77,8% (383/492) aller P. aeruginosa Isolate. Als plausible Erklärung für die Resistenz gegen CZA konnte mittels qPCR bei allen Enterobakterien und bei 38,5% (42/109) der P. aeruginosa Isolate ein Metallo-β-Laktamase (MBL)-kodierendes Gen nachgewiesen werden. Die verbleibenden P. aeruginosa Isolate wurden einer Genomsequenzierung unterzogen, dabei zeigten sich Mutationen in Genen, die zuvor mit einer verringerten Empfindlichkeit gegen CZA assoziiert wurden, wie z.B. Genen die mit der Überexpression von MexAB-OprM und AmpC (PDC) in Verbindung stehen, sowie Genen, die PoxB (blaOXA-50-like), FtsI (PBP3), DacB (PBP4) und OprD kodieren. Unsere Ergebnisse unterstreichen die Notwendigkeit von Therapieoptionen gegenüber MBL-produzierenden und anderen Carbapenem-resistenten Mikroorganismen. Des Weiteren sind diese Studien eine Momentaufnahme der Empfindlichkeit gegen CZA vor dessen Verfügbarkeit in Lateinamerika und dienen deswegen als Ausgangspunkt um die Entwicklung von Resistenzen in dieser Region zu verfolgen.
Hintergrund: Der Hypoparathyreoidismus (Hypopara) ist neben der Recurrensparese eine typische postoperative Komplikation nach Thyreoidektomie. Ziel dieser Arbeit soll die Prozessoptimierung des postoperativen Managements sein, um einen p.o. Hypopara frühzeitig zu erkennen und zu therapieren und somit die klinischen Symptome zu lindern oder zu vermeiden.
Methoden: Es wurden alle Patienten mit einer beidseitigen Schilddrüsenresektion eingeschlossen. Ausschlusskriterien waren simultane Nebenschilddrüsen- erkrankungen sowie fortgeschrittene Schilddrüsenmalignome mit geplantem Tumordebulking und/oder langem ITS-Aufenthalt. Postoperativ wurden Parathormon (EDTA) sowie Kalzium (Serum) bestimmt. Bei einem Parathormon (PTH) - Wert unter dem Referenzbereich (15,0-68,3 pg/ml) und/oder einer ausgeprägten Hypokalzämie mit einem Kalziumwert < 1,9 (Ref. 2,20-2,65 mmol/l) und/oder klinischen Zeichen wie Kribbelparästhesien oder Tetanie wurde Kalzium und Vitamin D mittels festem Schema verordnet. Die Symptombesserung wurde klinisch dokumentiert.
Ergebnisse: Am AGAPLESION Elisabethenstift gGmbH in Darmstadt wurden im Zeitraum zwischen Januar 2019 und Juni 2022 Schilddrüseneingriffe bei insgesamt 465 Patienten durchgeführt. Nach Berücksichtigung der Ein- und Ausschlusskriterien wurden 193 Patienten mit Thyreoidektomie in die Auswertung einbezogen. Ein p.o. Hypopara wurde bei 51 Patienten (26,4 %) festgestellt. Bei 40 Patienten (20,7 %) traten Symptome auf (39x Kribbelparästhesie, 1xTetanie). Von den 51 Patienten lag bei 26 (51 %) ein nur leicht erniedrigter Kalziumwert am 1. p.o. Tag vor (zwischen 2,00 und 2,20 mmol/l), bei 10 Patienten (19,6 %) war der Kalziumwert im Normbereich (2,20-2,65 mmol/l). Im Vergleich dazu lag bei 6 von 51 Patienten (11,8 %) ein normwertiger PTH-Wert vor. Bei 20 Patienten (10,4 %) erfolgte intraoperativ eine Nebenschilddrüsen-Replantation in den ipsilateralen M. sternocleidomastoideus. Davon trat bei 8 Patienten (40 %) ein Hypopara auf. Bei 29 Patienten (15 %) wurde in der Histologie ein akzidentiell mitentferntes Epithelkörperchen nachgewiesen. Davon trat bei 13 Patienten (44,8 %) ein Hypopara auf. Die mittlere Zeit nach OP zur PTH-Bestimmung lag bei 2,41 Tagen. Die mittlere Aufenthaltsdauer der Patienten mit Hypopara betrug 3,86 Tage (± 2,272), die der restlichen Patienten betrug 2,69 Tage (± 1,759), p < 0,001.
Schlussfolgerungen: Die PTH-Bestimmung ist neben der klinischen Visite essentiell zur Früherkennung eines p.o. Hypopara. Eine mehrtägige Kalziumbestimmung ist damit nicht zwingend erforderlich, sodass die Verweildauer verkürzt werden kann. Das verordnete Schema zur oralen Substitution von Kalzium und Vitamin D ist auch ambulant fortführbar. Die Replantation einer nicht erhaltbaren NSD hat bei 60 % einen Hypopara verhindert. Die gezielte Darstellung und Erhalt der NSD sollte bei jedem Eingriff eingehalten werden. Insgesamt zeigt diese Arbeit den höheren Stellenwert des postoperativen PTH-Wertes sowie der klinischen Zeichen als das Serumkalzium zur Erkennung und Therapie des Hypopara nach Thyreoidektomie.
With the rise of digitalization and ubiquity of media use, both opportunities and challenges emerge for academic learning. One prevalent challenge is media multitasking, which can become distracting and hinder learning success. This thesis investigates two facets of this issue: the enhancement of data tracking, and the exploration of digital interventions that support self-control.
The first paper focuses on digital tracking of media use, as a comprehensive understanding of digital distractions requires careful data collection to avoid misinterpretations. The paper presents a tracking system where media use is linked to learning activities. An annotation dashboard enabled the enrichment of the log data with self-reports. The efficacy of this system was evaluated in a 14-day online course taken by 177 students, with results confirming the initial assumptions about media tracking.
The second paper tackles the recognition of whether a text was thoroughly read, an issue brought on by the tendency of students to skip lengthy and demanding texts. A method utilizing scroll data and time series classification algorithms is presented and tested, showing promising results for early recognition and intervention.
The third paper presents the results of a systematic literature review on the effectiveness of digital self-control tools in academic learning. The paper identifies gaps in existing research and outlines a roadmap for further research on self-control tools.
The fourth paper shares findings from a survey of 273 students, exploring the practical use and perceived helpfulness of DSCTs. The study highlights the challenge of balancing between too restrictive and too lenient DSCTs, particularly for platforms offering both learning content and entertainment. The results also show a special role of media use that is highly habitual.
The fifth paper of this work investigates facets of app-based habit building. In a study over 27 days, 106 school-aged children used the specially developed PROMPT-app. The children carried out one of three digital activities each day, each of which was supposed to promote a deeper or more superficial processing of plans. Significant differences regarding the processing of plans emerged between the three activities, and the results suggest that a child-friendly planning application needs to be personalized to be effective.
Overall, this work offers a comprehensive insight into the complexity and potentials of dealing with distracting media usage and shows ways for future research and interventions in this fascinating and ever more important field.
Understanding the brain's proactive nature and its ability to anticipate the future has been a longstanding pursuit in philosophy and scientific research. The predictive processing framework explains how the brain generates predictions based on environmental regularities and adapts to both predicted and unpredicted events. Prediction errors (PE) occur when sensory evidence deviates from predictions, triggering cognitive and neural processes that enhance learning and subsequent memory. However, the effects of PE on episodic memory have not been clearly explained. This dissertation aims to address three key questions to advance our understanding of PE and episodic memory. First, how does the degree of PE influence episodic memory, and how do expected and unexpected events interact in this process? Second, what insights can be gained from studying the electrophysiological activity associated with prediction violations, and what role does PE play in subsequent memory benefits? Lastly, how do memory processes change across the lifespan, and how does this impact the brain's ability to remember events? By answering these questions, this dissertation contributes to advancing our understanding of the cognitive and neural mechanisms underlying the relationship PE and episodic memory.
Das Experiment ALICE (A Large Ion Collider Experiment) am CERN (Conseil Européen pour la Recherche Nucléaire) LHC (Large Hadron Collider) fokussiert sich auf die Untersuchung stark wechselwirkender Materie unter extremen Bedingungen. Solche Bedingungen existierten wenige Mikrosekunden nach dem Urknall, als die Temperaturen so hoch waren, dass Partonen (Quarks und Gluonen) nicht zu farbneutralen Hadronen gebunden waren. In solch einem Quark-Gluon-Plasma können sich die Partonen frei bewegen, wobei sie allerdings mit anderen Partonen aus dem Medium stark wechselwirken. Am LHC werden Bleikerne auf ultra-relativistische Energien von bis zu 2.68 TeV beschleunigt und zur Kollision gebracht, wobei für weniger als 10 fm/c ein QGP entsteht, das schnell expandiert. Die Partonen hadronisieren, wenn das QGP sich auf Temperaturen von weniger als der Phasenübergangstemperatur von ≈155MeV abkühlt. Die finalen Teilchen- und Impulsverteilungen werden werden vom ALICE Detektor gemessen und geben Aufschluss auf elementare Prozesse im QGP.
Die TPC (Time Projection Chamber ) ist eines der wichtigsten Detektorsysteme von ALICE. Sie trägt maßgeblich zur Rekonstruktion von Teilchenspuren und zur Identifikation der Teilchensorten bei mittleren Rapiditäten bei. Die TPC ist eine große zylindrische Spurendriftkammer und besteht aus einem 88mˆ3 großen Gasvolumen, das von der zentralen Hochspannungselektrode in zwei Seiten geteilt wird. Durchquert ein Teilchen das Gasvolumen, ionisiert es entlang seiner Spur eine spezifische Menge von Gasatomen. Die Ionisationselektronen driften entlang des extrem homogenen elektrischen Feldes zu den Auslesekammern an den Endkappen auf beiden Seiten der TPC. Die Messung der Position und der Menge der Ionisationselektronen erlaubt die Rekonstruktion der Teilchenspur sowie, in Kombination mit der Impulsmessungen über die Krümmung der Teilchenspur im Magnetfeld, die Bestimmung der Teilchensorte über den spezifischen Energieverlust pro Wegstrecke im Gas. Das Gasvolumen der TPC war in LHC Run 1 (2010–2013) mit Ne-CO_2 (90-10) gefüllt. Die Gasmischung wurde zu Ar-CO_2 (88-12) für Run 2 (2015–2018) geändert. Als Auslesekammern wurden Vieldrahtproportionalkammern verwendet, die aus einer segmentierten Ausleseebene, einer Anodendrahtebene, einer Kathodendrahtebene und einem Gating-Grid (GG) bestehen. Das GG is eine zusätzliche Drahtebene, die durch zwei verschiedene Spannungseinstellungen transparent oder undurchlässig für Elektronen und positive Ionen geschaltet werden kann.
In den ersten Daten von Run 2 bei hohen Interaktionsraten wurden große Verzerrungen der gemessenen Spurpunkte beobachtet, die auf Grund von Verzerrungen des Driftfeldes auftreten und nicht von Daten aus Run 1 bekannt waren. Diese Verzerrungen treten nur sehr lokal an den Grenzen von manchen der inneren Auslesekammern (IROCs) auf. Zudem wurden auch große Verzerrungen in einer (C06) der äußeren Auslesekammern (OROCs) festgestellt, die sich bei einem bestimmten Radius über die ganze Breite der Kammer erstrecken. Die Ergebnisse dieser Arbeit befassen sich mit der Untersuchung jener Verzerrungen und ihrer Ursache, sowie mit der Entwicklung von Strategien um die Verzerrungen zu minimieren.
Messungen der Verzerrungen in den IROCs und Vergleiche mit Simulationen lassen darauf schließen, dass die Verzerrungen von positiver Raumladung hervorgerufen werden, die durch Gasverstärkung an sehr begrenzten Regionen der Auslesekammern entsteht und sich durch das Driftvolumen bewegt. Es werden charakteristische Abhängigkeiten von der Interaktionsrate sowie systematische Veränderungen bei Umkehrung der Orientierung des Magnetfeldes gemessen. Eine erneute Analyse von Run 1 Daten mit den Methoden aus Run 2 zeigt, dass die Verzerrungen bereits in Run 1 auftraten, jedoch durch die Ne-Gasmischung und niedrigere Interaktionsraten um eine Größenordnung kleiner waren. Neue Daten aus Run 2, für die die Gasmischung zeitweise wieder von Ar-CO_2 zu Ne-CO_2- N_2 geändert wurde, bestätigen die Ergebnisse der Run 1 Datenanalyse. Der Ursprung der Raumladung wird systematisch eingegrenzt. Es werden einzelne IROCs identifiziert, an deren Anodendrähten die Raumladung entsteht. Physikalische Modelle ermöglichen es, die Entstehung der Raumladung auf das Volumen zurückzuführen, das sich zwischen zwei IROCs befindet. Damit besteht die Vermutung, dass einzelne Spitzen von Anodendrähten am äußeren Rand dieser IROCs in das Gasvolumen hineinragen und somit hohe elektrische Felder erzeugen, an denen Gasverstärkung stattfindet. Die positiven Ionen können dann ungehindert in das Driftvolumen gelangen. Um diesen Effekt zu unterdrücken, wird das Potential der Cover-Elektroden angepasst, die sich auf den Befestigungsvorrichtungen der Drahtebenen an den Kammerrändern befinden. Dadurch kann die Menge von Ionisationselektronen, die in das Volumen zwischen zwei IROCs hineindriftet und vervielfacht wird, eingeschränkt werden. Über elektro-statische Simulationen und Messungen wird eine Einstellung für das Cover-Elektroden-Potential gefunden, mit der die Verzerrungen auf 30 % reduziert werden können. Die Verzerrungen in OROC C06 entstehen durch positive Ionen, die aus der Verstärkungsregion in das Driftvolumen gelangen, da an dieser bestimmten Stelle zwei aufeinanderfolgende GG-Drähte den Kontakt verloren haben. Die Verzerrungen werden um mehr als einen Faktor 3 reduziert, indem die Hochspannung der Anodendrähte um 50 V und somit der Gasverstärkungsfaktor um einen Faktor 2 verringert wird und indem das Potential der noch funktionierenden GG-Drähte erhöht wird.
Zusammenfassend konnten die lokalen Raumladungsverzerrungen für die letzte Pb−Pb Strahlzeit von Run 2 auf weniger als 1cm bei den höchsten Interaktionsraten verringert werden. Zudem wurde der Anteil des von Raumladungsverzerrungen betroffenen Volumens der TPC signifikant verringert, sodass die ursprüngliche Auflösung der Spurrekonstruktion wieder erreicht werden konnte.
Anthropogenic interventions have altered all ecosystems around the world. One of those ecosystems are forests, the main resource for timber. They have been strongly transformed in their structure with large consequences on forest biodiversity. Especially the decrease in dead-wood volume due to the timber extraction and alternation of natural forest structures with even-aged stands of less diverse tree species composition has put especially saproxylic, i.e., dead-wood dependent species, under threat, which comprise about 20% of all forest species. Beetles, fungi and bacteria are three functional important groups for decomposition processes but we still lack much information about their sampling and the drivers of their diversity, thus it is difficult to comprehensively protect their diversity. Saproxylic fungi are a highly diverse species group and the main drivers of dead-wood decomposition; hence they play a major role in the global carbon cycle. Due to their cryptic lifestyle, many species are still unknown, but the recent advances in environmental DNA barcoding methods (metabarcoding) shed light on the formerly underestimated diversity. Yet, this method's accuracy and suitability in detecting specific species have not been assessed so far, limiting its current usefulness for species conservation. On the other hand, these methods are a convenient tool to study highly diverse areas with high numbers of unknown species, enabling the study of global diversity and its drivers, which are unknown for saproxylic fungi, but important to assess to predict the future impacts of global change. Since nature conservation concepts are usually not applied on a global scale, the drivers of diversity must also be assessed on smaller scales. Besides understanding the drivers of diversity, to identify focus scales to create comprehensive, evidence-based conservation concepts must utilize multi-taxonomic studies since saproxylic species are differently sensitive towards environmental variables and closely interact with each other. Filling these knowledge gaps is utterly needed to protect the high saproxylic diversity and ensure the functional continuity of decomposition processes, especially regarding the global change.
To address the usefulness of metabarcoding for fungal species conservation, I compared the traditional method of fruit body sampling with metabarcoding and their efficiency in detecting threatened fungal species in the first chapter of this thesis. Both methods have advantages and disadvantages. Their ability to detect threatened saproxylic fungal species and their dependencies on detecting specific fungal groups have not been compared, albeit they are important to inform species conservation like Red Lists properly. I found metabarcoding to generally detect more threatened fungal species than fruit body sampling with a higher frequency than fruit body sampling. Moreover, fruit body sampling detected a unique set of species, while fruit body sampling missed large parts of fungal diversity due to species-specific fruiting characteristics. Metabarcoding with high sampling intensity is thus a viable method to assess threatened saproxylic fungal diversity and inform nature conservation like Red Lists about distribution and abundances. Nevertheless, a complementary approach with fruit body sampling is indispensable for assessing all threatened fungal species.
In order to analyse the global diversity of saproxylic fungi and its drivers, I examined whether fungal species richness increases from the poles towards the equator and thus follows the latitudinal diversity gradient already found in many other species groups. I further investigated whether such an increase is caused by increasing ecological specialisation, i.e., niche partitioning, or local tree diversity, i.e., niche space. Gamma diversity per biome increased from the boreal, over the temperate to the tropics and thus confirmed the latitudinal diversity for saproxylic fungi. Contrastingly, alpha diversity at the log level did not significantly increase towards the tropics, suggesting a grain size dependency of the observed pattern and an equal niche space within dead-wood across latitudes. Ecological specialisation on the plot level was globally on a high level but did not increase significantly towards the equator. Additionally, I found local tree species richness to drive plot-based fungal diversity. Further analysis of gamma diversity against the total number of sampled tree species strengthened the assumption that tree species diversity and not increased ecological specialisation was the main driver of the latitudinal diversity gradient, as there was no significant difference between the gamma diversity of the temperate and tropical biome. Nonetheless, as the gamma diversity of the boreal biome was still significantly smaller, my results do not allow a complete neglection of the ecological specialisation hypothesis. The overall results indicate a strong dependency of saproxylic fungi diversity with host tree species diversity and that the global loss of tree species threatens saproxylic fungi with an unpredictable impact on carbon and nutrient cycling.
To support saproxylic conservation, I conducted two analyses. First, I compared the beta diversity of the three main decomposer groups (beetles, fungal fruit bodies, mycelial fungi (metabarcoding), and bacteria (metabarcoding)) across different scales to assess the impact of different environmental variables on their overall diversity. I used an experimental design to disentangle two different spatial scales, influenced by differences in macroclimate, forest microclimate and spatial distance, and two host scales, driven by differences between tree lineages and tree species. I set these beta diversities in relation to the gamma diversity of the three main decomposer groups to identify whether a unified conservation concept could be applied to one scale to optimally protect the diversity of all three species groups. Second, I identified whether diversity and community composition of fungi and bacteria differed among climate and land use gradients. Further I explored whether specialisation and niche packing could explain the expected pattern. To do so I used an experimental design disentangling climate and land use across a large gradient in Germany. The results differed among the species groups, denying a unified conservation concept focusing on one scale. Saproxylic beetle and fruit body beta diversity was equally high on each scale, as they are more sensitive towards environmental factors like macro- and microclimate. On the other hand, mycelial fungi and bacteria beta diversity was highest on the host scale, especially the host tree scale, indicating a high host specificity of the two groups. The second study also identified tree species as the main driver of diversity and community composition of these two study groups. Specialisation of fungi was not influenced by land use or climate. Bacterial specialisation and diversity were under a strong influence of mean precipitation. Comprehensive conservation of multi-taxonomic diversity across regions thus requires the integration of several scales. Within different macroclimatic regions, forests of varying microclimates, i.e., forest management, must be implemented. In these forests, dead-wood of different tree lineages, i.e., angio- and gymnosperms and tree species, must be provided.
Taken together, I could demonstrate that metabarcoding is an efficient method to sample threatened fungal species and identify differing drivers of fungal diversity present as fruit bodies or mycelium. Its usefulness will further increase due to the ongoing improvement of sequencing databases and thus better inform conservation concepts. Using metabarcoding, I could demonstrate that high host specialisation of saproxylic fungi is not a European but a global phenomenon and identify tree species loss under global change as one major concern for saproxylic diversity. My dissertation further highlighted the importance of multi-taxonomic studies for evidence-based nature conservation, as different species groups require varying concepts. These results were especially important for saproxylic bacteria as the drivers of their diversity are still largely unknown. Howbeit, large research gaps still exist regarding the impacts of global change on species and processes. Moreover, the spatial coverage of studies is needed to confirm or neglect the generality of current research especially concerning the highly diverse tropical areas. An increased focus on the drivers of diversity in these areas is crucial to ensure a globally comprehensive saproxylic conservation and the various ecosystem functions they control.
Die kathetergestützte Thrombektomie ist, spätestens seitdem 2015 verschiedene Studien ihre Überlegenheit zur alleinigen medikamentösen Behandlung gezeigt haben, die bevorzugte Therapie bei Patienten mit akutem ischämi-schem Schlaganfall und embolischen Verschluss einer großen intrakraniellen Arterie. Obwohl die mechanische Thrombektomie mittlerweile zur Standardthe-rapie zählt, ist der Zusammenhang zwischen Lokalisation des Infarktareals und klinischem Behandlungsergebnis nach Thrombektomie bisher nicht gut untersucht. Die dieser Studie zugrunde liegende Hypothese war, dass Infarktdemar-kationen in der zentralen Corona radiata, Capsula interna und/oder den Ba-salganglien aufgrund einer potenziellen Schädigung der Fasern des Tractus corticospinalis mit einem schlechten Behandlungsergebnis (mRS 3 bis 6) nach mechanischer Thrombektomie assoziiert sind. Ziel dieser Studie war es somit, den Behandlungserfolg nach Thrombektomie bei Patienten mit entsprechender Infarktlokalisation zu untersuchen.
Hierfür wurden die Daten von 70 erwachsenen Patienten analysiert, die im Zeitraum von April 2016 bis Januar 2020 im Institut für Neuroradiologie des Universitätsklinikums Frankfurt aufgrund eines ischämischen Infarktes mit entsprechender Infarktdemarkation eine mechanische Thrombektomie erhalten haben. Alle erhobenen Daten stammen aus der elektronischen Krankenakte, dem Radiologie-Informations-System oder einem prospektiven Register zur internen Qualitätssicherung. Es erfolgte außerdem eine Unterteilung der Studi-enkohorte anhand des zusätzlichen kortikalen Infarktausmaßes bzw. der kortikalen Infarktlokalisation, um den Einfluss kortikaler Infarkte auf das Behandlungsergebnis beurteilen zu können. Die wichtigsten Endpunkte der Studie waren das klinische Behandlungsergebnis gemessen anhand der mRS nach 90 Tagen sowie die Ergebnisse der Subgruppenanalyse.
51,4 % der Studienpopulation erzielten nach 90 Tagen ein gutes klinische Be-handlungsergebnis (mRS 0 bis 2), 32,9 % der Patienten erreichten sogar ein exzellentes Ergebnis (mRS 0 bis 1). Insgesamt verstarben innerhalb von 90 Tagen nach dem Schlaganfallereignis 15,7 % aller Patienten und 32,9 % konn-ten nur ein schlechtes Behandlungsergebnis (mRS 3 bis 5) erzielen. Die Ergebnisse zeigen, dass die in der routinemäßig angefertigten Bildgebung nachgewiesenen Infarktdemarkationen im Verlauf der langen Bahnen nicht zwingend ein schlechtes Behandlungsergebnis bedingen. Bei Patienten mit ausge-dehnter Beteiligung des Kortex und Infarkten in definierten eloquenten Arealen waren die klinischen Behandlungsergebnisse allerdings schlechter als in der Vergleichsgruppe mit isolierten Läsionen der langen Bahnen.
Um künftig ein besseres Verständnis darüber zu erlangen, welche Patienten mit bestimmter Infarktlokalisation von einer mechanischen Thrombektomie langfristig profitieren können, sind weitere prospektive Studien mit exakt definierten Vergleichsgruppen und höherwertiger MRT-basierter Bildgebung erforderlich.
Im Rahmen der Versorgung von polytraumatisierten (schwerstverletzten) Patienten ist insbesondere die systemische Inflammation zu beachten. Durch das initiale Trauma (“first hit“) kommt es zu einer systemischen Dysregulation der inflammatorischen Kaskaden, wobei sowohl eine überschießende (SIRS/Sepsis) wie auch unterschießende Reaktion (CARS) zu schweren Komplikationen wie Multiorganversagen bis hin zum Tod führen kann. Die notfallmässige chirurgische Versorgung fügt durch multiple Faktoren wie Weichteilverletzung, Blutverlust und Intubation dem Patienten einen “second hit“ zu, welcher sich auf den “first hit“ aufsummieren und besagte Komplikationen induzieren kann. Aufgrund dessen wurden verschiedene Therapiekonzepte entwickelt wie beispielsweise die “Damage control surgery“, welche durch minimalinvasive Techniken die notfallmässig versorgungsbedürftigen Verletzungen temporär stabilisiert/versorgt, bis der Patient sich physiologisch stabilisiert und definitiv versorgt werden kann. Eine weitere Strategie stellt die „Safe Definitive Surgery“ dar, welche eine Synopsis bildet aus zu einen frühzeitiger definitiver Versorgung gepaart mit minimalinvasiven Techniken, um während der Operation multipler Frakturen intraoperativ anhand der Physiologie des Patienten regelmäßig zu reevaluieren und daran zu adjustieren.
Bei der definitiven Versorgung von langen Röhrenknochen im Schaftbereich werden klinisch standardmässig Marknägel verwendet. Hierbei eröffnet man den langen Röhrenkochen am proximalen Eintrittspunkt, bohrt den Knochen intramedullär mittels “Reamer“ auf und führt den Nagel ein, welchen man mittels Schrauben multidimensional in der Corticalis verriegelt. Hierbei stellt die intramedulläre Aufbohrung den kritischsten Schritt dar, da hierbei zum einen Knochenmark austritt und durch den Bohrer Thermonekrosen im Knochen auftreten können sowie auch Knochenpartikel austreten. Um diese Nachteile zu beheben, wurde der “Reamer-Irrigator-Aspirator“ (RIA) entwickelt, welcher nebst der klassischen Bohrfunktion noch eine Spül-Saugfunktion innehat und somit parallel intramedullär eine Kühlung herbeiführt, wie auch das Knochenmark nebst Knochenpartikeln absaugt. Hiervon gibt es eine ältere (RIA 1) und eine neuere (RIA 2) Version, wobei sich diese geringfügig in Grösse des Bohrkopfes und der Saugfunktion wie auch im Handling unterscheiden. Wenig ist jedoch zum aktuellen Zeitpunkt bekannt, welche Auswirkungen diese unterschiedlichen Versionen verglichen mit dem konventionellen “Reamer haben“. Um dies näher zu evaluieren, wurde ein standardisiertes Polytrauma-Modell an 30 Schweinen (Sus scrofa) durchgeführt. Unter konstanter Analgesie wurde nach Erreichen einer standardisierten Baseline an 24 der Tiere ein Polytrauma, bestehend aus unilateraler Femurfraktur, stumpfem Thoraxtrauma inklusive Leberlazeration und hämorrhagischem Schock ausgeübt. Sechs Tiere fungierten als Kontrollgruppe (sham), welche kein Trauma sowie Therapie erhielten, aber sonst gleich behandelt wurden. Die polytraumatisierten Tiere erhielten Therapie nach Schockraum- und ATLS Versorgung nach dem Trauma. Bestehend aus “Abdominal Packing“, Kreislaufstabilisierung und Versorgung der Femurfraktur mittels intramedullärer Nagelung. Die 24 polytraumtisierten Versuchstiere wurden bezüglich der Versorgung der Femurfraktur in drei Gruppen aufgeteilt: 1) Konventionelles Reaming, 2) RIA 1 und 3) RIA 2. An sechs Zeitpunkte (t1 (-1.5h) - t6 (6h)) über 7.5 Stunden erfolgten regelmäßige Blut- wie Urinentnahmen und eine bronchoalveoläre Lavage vor fachgerechtem Exitus am letzen Zeitpunkt. Anschließend wurde mittels ELISA in besagten Proben das Interleukin-6, Interleukin-8, Interleukin-10 und Tumornekrosefaktor-alpha bestimmt und statistische Unterschiede zwischen den Gruppen ermittelt.
Die Ergebnisse legen nahe, dass die Verwendung des Reamer-Irrigator-Aspirator Typ 2 aufgrund spezifischer Modifikationen verglichen mit seinem Vorgänger (RIA Typ 1) eine geringere inflammatorische Immunantwort aufweist. Verglichen mit dem konventionellen Reaming konnte in unserer Versuchsreihe in Hinblick auf entzündliche Mediatoren systemisch wie lokal kein Unterschied zu der Versorgung mittels RIA aufgezeigt werden. Jedoch präsentierte sich bei der Benutzung des konventionellen Reamers auch in unserer Versuchsreihe das Auftreten einer Fett/Lungenembolie, was bereits in der Literatur als eine gängige Komplikation dieses Instrumentariums beschrieben wird. Zusammenfassend ist der Reaming-Irrigator-Aspirator eine modernisierte Version des konventionellem Reamers, welcher multiple Vorteile aufweist, jedoch im Rahmen der Kostensenkung wahrscheinlich erst im weiteren zeitlichen Verlauf regelmäßige Anwendung in der Klinik finden wird.
Einleitung: Frailty (engl. für Gebrechlichkeit) bezeichnet eine mit hohem Alter zunehmende Verschlechterung des körperlichen und kognitiven Zustandes von Individuen, woraufhin der Körper nicht mehr in der Lage ist, adäquat auf äußere und innere Stressoren zu reagieren. Frailty ist mit einer erhöhten Morbiditäts- und Mortalitätsrate sowie längerer Krankenhausverweildauer und erhöhter postoperativer Komplikationsrate verbunden und stellt folglich einen chirurgischen Risikofaktor dar.
Problemstellung: Die Relevanz eines strukturierten Frailty Assessments in der präoperativen Risikostratifizierung führte zur Indikationsstellung, diverse validierte Risk Assessment Tools auf ihre prädiktive Vorhersagekraft bezüglich des Auftretens von postoperativen Komplikationen und postoperativer Sterbewahrscheinlichkeit zu untersuchen.
Methoden: In die vorliegende Studie wurden Patienten, die in dem Zeitraum vom 01.09.2018 und 31.01.2019 in der allgemeinchirurgischen Ambulanz vorstellig waren und einen allgemeinchirurgischen Eingriff erhielten, aufgenommen. Mittels Fragebögen wurden die Scores „Risk Analysis Index“, „Edmonton Frail Scale“ sowie „Charlson Comorbidity Index“ präoperativ erhoben und retrospektiv mit Daten aus der digitalen Patientenakte zusammengeführt. Endpunkte waren die 90-Tages- Mortalität sowie das Auftreten von schweren postoperativen Komplikationen ab Clavien Dindo Grad 3b. Die Analyse erfolgte in SPSS mittels Chi-Quadrat Test, t- Test und ROC-Kurven Analysen.
Ergebnisse: Das durchschnittliche Alter der Studienkohorte lag bei 56 ± 15.9 Jahren und der Anteil männlicher Patienten überwog mit 59.2% (n=282).
Die Fragebögen wurden 739 Patienten vorlegt und 476 Patienten konnten in die Datenanalyse eingeschlossen werden. Die 90-Tages-Mortalität lag bei 2.7% (n=13) und 9% (n=43) erlitten schwere postoperative Komplikationen ab Clavien-Dindo Grad IIIb. Die Einteilung nach der ASA-Klassifikation (p=0.024), maligne Diagnosen -7-(p<0.001) und Majorkomplikationen (p<0.001) stellten präoperative Risikofaktoren für postoperative 90-Tage-Mortalität dar. Von den Risk Assessment Scores zeigte lediglich der Risk Analysis Index eine signifikante Korrelation auf (p=0.013). Ein mittels ROC-Analyse ermittelter Cut-Off Wert von 23 klassifizierte 166 (34.9%) Patienten als frail, die mit 69% Sensitivität und 66% Spezifität (AUC=0.735) ein erhöhtes Risiko für postoperatives Versterben innerhalb von 90 Tagen aufwiesen (p=0.008). Risikofaktoren für das Auftreten schwerer postoperativer Komplikationen waren die ASA-Klassifikation (p=0.041), längere Krankenhausverweildauer (p<0.001) und maligne Diagnosen (p<0.001). Der Charlson Comorbidity Index (p=0.031) und RAI-C Werte ≥ 23 (p<0.001) korrelierten signifikant mit Majorkomplikationen. Das Alter ab 65 Jahren stellte mit 77 % Spezifität und 69 % Sensitivität ebenfalls einen prädiktiven Risikofaktor für postoperative Mortalität dar (AUC=0,787).
Schlussfolgerung: Mithilfe validierter Risk Assessment Tools ist es möglich Patienten, die ein erhöhtes Risiko für postoperative negative Ereignisse aufweisen, bereits präoperativ zu erkennen. Dies ermöglicht eine bessere Beurteilung der chirurgischen Indikationsstellung sowie das rechtzeitige Ergreifen von risikominimierenden Maßnahmen. Es ist notwendig die Ergebnisse dieser Arbeit künftig mit risikominimierenden Maßnahmen zu verknüpfen und zu untersuchen, ob die Implementierung der Risk Assessment Tools zu verbesserten postoperativen Ergebnissen führt, wenn modifizierbare Faktoren verbessert werden.
In den letzten Jahren haben sich die Therapiemöglichkeiten des Mammakarzinoms deutlich verbessert. Durch die Analyse von genetischen Veränderungen in den Tumorzellen oder in der Keimbahn ist eine zielgerichtete Tumortherapie bei einigen Subgruppen möglich; z.B. mit PARP- und PIK3CA-Inhibitoren.
In einer retrospektiven Analyse wurde in dieser Arbeit untersucht, wie genetische Mutationsanalysen in einer onkologischen Schwerpunktpraxis eingesetzt werden. Es sollte untersucht werden, wie häufig PatientInnen in einer onkologischen Praxis mit metastasiertem Mammakarzinom eine Mutationsanalyse brustkrebsassoziierter Gene erhalten haben, und welche Konsequenzen daraus gezogen wurden. Dabei wurde der Zeitraum von 2019 – 2022 betrachtet. Mithilfe der Software Albis wurden Daten von 49 PatientInnen identifiziert. 40 PatientInnen haben eine Keimbahndiagnostik der Gene BRCA1/2 erhalten. Von den PatientInnen, die die BRCA1/2-Analyse bekommen haben, konnten in 20% der PatientInnen eine Mutation in BRCA1 oder 2 detektiert werden. Bei den meisten dieser PatientInnen wurde der PARP Inhibitor Olaparib therapeutisch eingesetzt. 10 PatientInnen erhielten eine PIK3CA-Analyse, 9 von ihnen mittels PCR und eine mittels NGS. In dieser Gruppe wurde bei einer Patientin eine Mutation im PIK3CA-Gen ermittelt. 15 PatientInnen haben eine Multigenpanel-Diagnostik erhalten. Dabei ist eine Reihe weiterer genetischer Veränderungen nachgewiesen worden. Für einige dieser Veränderungen stehen therapeutische Möglichkeiten zur Verfügung, die zwar nicht für das Mammakarzinom, aber für andere Tumorentitäten bereits zugelassen sind.
Das periinterventionelle Management von antikoagulierten Patienten stellt eine große Herausforderung im klinischen Alltag dar. Die genaue Abwägung von Blutungs- und Thromboembolierisiko ist essentieller Bestandteil der Frage, ob und wann die blutgerinnungshemmende Medikation pausiert werden soll. Ist das Zeitintervall zur geplanten Intervention zu kurz gewählt und daher die antikoagulierende Wirkung der Arzneimittel noch ausgeprägt, kann es leichter zu intra- und postoperativen Blutungen kommen. Umgekehrt kann es bei einer zu langen Unterbrechung der Antikoagulation zur Entwicklung von Thromboembolien kommen. Um diese Risiken zu minimieren und die Patientensicherheit zu verbessern ist ein leitliniengerechtes Handeln von großer Bedeutung. Durch den Einfluss des demographischen Wandels und die steigende Inzidenz der Erkrankungen, die eine Antikoagulation notwendig machen, erhöht sich ebenso die Anzahl der antikoagulierten Patienten, die sich einer elektiven Operation unterziehen müssen, wodurch das Thema schon seit Jahren an Bedeutung gewinnt. Trotz diverser Leitlinien, die in den letzten Jahren publiziert wurden, findet man im klinischen Alltag oftmals nicht auf Anhieb die passende Empfehlung, da diese von dem Einfluss etlicher Risikofaktoren, wie Alter, Geschlecht, Nierenfunktion u.a. bestimmt werden sollte. Der Einsatz eines Clinic Decision Support Systems (CDSS) kann ein leitliniengerechtes Handeln möglicherweise verbessern, indem patientenspezifische Risikokonstellationen anhand europäischer Leitlinien geprüft werden und dem Nutzer eine optimale Vorgehensweise unterbreitet wird.
Zielsetzung: In dieser Arbeit, soll die Eignung eines klinischen Entscheidungs-Unterstützungssystems (CDSS) anhand eines Multiple Choice (MC) Tests mit 11 kliniknahen Fallbeispielen, bezüglich evidenzbasierten perioperativen Managements von antikoagulierten Patienten untersucht werden.
Methoden: Im Rahmen einer klinischen prospektiven randomisierten multizentrischen Simulationsstudie beantworteten Ärztinnen und Ärzte einen Multiple Choice Test bestehend aus 11 Fallbeispielen zum Thema periinterventionelles Management von antikoagulierten Patienten. Dabei sollte zu - 5 - jedem Beispiel zwei möglichst leitliniengerechte Empfehlung ausgewählt werden.
Die Ärztinnen und Ärzte wurden vorab in zwei Gruppen randomisiert. Der PERI-KOAG Gruppe wurde das CDSS zur Beantwortung der Fragen zur Verfügung gestellt. Die Kontroll-Gruppe hatte hingegen keinen Zugriff auf die Applikation und sollte den Test mit frei zugänglichen Hilfsmitteln, zum Beispiel Leitlinien oder anderen allgemein verfügbaren Apps beantworten. Die beiden Gruppen wurden anschließend in Bezug auf die Gesamtergebnisse, die Bearbeitungszeit und Berufserfahrung verglichen.
Ergebnisse: Insgesamt wurden 168 Teilnehmer in die beiden Gruppen randomisiert, wovon 76 Teilnehmer, 42 Teilnehmer der PERI-KOAG Gruppe und 34 Teilnehmer der Kontroll-Gruppe den MC-Test vollständig beendeten und in die weitere Auswertung eingeschlossen wurden. Der MC-Test konnte mit maximal 22 Punkten (=100%) abgeschlossen werden. Die PERI-KOAG Gruppe erreichte dabei im Durchschnitt signifikant bessere Ergebnisse als die Kontroll-Gruppe (82 ±15% vs. 70 ±10%; 18 ±3 vs. 15 ±2 Punkte; P =0,0003). Unter Berücksichtigung der Bearbeitungszeit erzielten Teilnehmer mit längerer Bearbeitung durchschnittlich höhere Ergebnisse, als Kollegen welche den Test schneller abschlossen. Dieser Effekt zeigte sich in beiden Gruppen. Ein signifikanter Unterschied konnte hierbei nur in der PERI-KOAG Gruppe gezeigt werden (PERI-KOAG Gruppe ≥33 min. 89 ±10% (20 ±2 Punkte) vs. <33 min. 73 ±15% (16 ±3 Punkte), P =0,0005). Innerhalb der PERI-KOAG Gruppe zeigten sich tendenziell höhere Ergebnisse innerhalb der erfahreneren Gruppe (>5 Jahre Berufserfahrung), aber keinen signifikanten Unterschied zu weniger (≤5 Jahre Berufserfahrung) erfahrenen Kollegen (87 ±10% (19 ±2 Punkte) vs. 78 ±17% (17 ±4 Punkte), P =0,08). Dagegen konnte in der Kontroll-Gruppe kein Unterschied zwischen den Testresultaten von mehr und weniger erfahrenen Teilnehmern gezeigt werden (>5 Jahre: 71 ±8% (16 ±2 Punkte) vs. ≤5 Jahre: 70 ±13% (15 ±3 Punkte) P =0,66).
Diskussion: Diese Arbeit zeigt, dass im Rahmen eines MC-Tests mit Hilfe des CDSS ein leitliniengerechtes perioperatives Management von antikoagulierten Patienten signifikant verbessert werden kann. Eine fachgerechte Anwendung des Tools ist essentiell, um schwerwiegende Folgen, wie Blutungen oder Thromboembolien zu vermeiden. Eine längere Bearbeitungszeit und mutmaßlich intensivere Nutzung des CDSS, geht mit besseren Ergebnissen einher als eine schnelle Testbearbeitung. Ein insgesamt verbessertes leitliniengerechtes Management zeigt, unabhängig von der Berufserfahrung der Teilnehmer, das große Potential des CDSS.
Hintergrund: Amblyopie ist nach Fehlsichtigkeit die häufigste Sehstörung bei Kindern. Sie ist eine wesentliche Ursache für eine lebenslange Minderung der bestkorrigierten Sehschärfe und ist meist unilateral. Eine Asymmetrie in der Qualität des visuellen Eindrucks während der sensiblen Phase führt in der Regel zu einer unzureichenden Entwicklung des binokularen Sehsystems. Die Standardtherapie der Amblyopie besteht aus optimaler optischer Korrektur vorhandener Brechungsfehler und der direkten Okklusion, wobei das funktionsbessere Auge zeitweise mit einem Augenpflaster abgedeckt wird. Bisherige Studien haben gezeigt, dass besonders bei Patienten mit tiefer Amblyopie, die Therapietreue oft mäßig ist. In einigen Fällen kann das amblyope Auge nicht mit der Foveola fixieren. Diese exzentrische Fixation beeinflusst den Therapieerfolg negativ. Unser Ziel war, bei dieser speziellen Patientengruppe die Okklusionsdauer objektiv zu registrieren und deren Auswirkung auf die Visusentwicklung und die Fixationsänderung in Abhängigkeit vom Alter über einen langen Zeitraum zu untersuchen.
Methoden: In unserer prospektiven multizentrischen Pilotstudie untersuchten wir amblyope Kinder mit exzentrischer Fixation im Alter von 3-16 Jahren während 12-monatiger Okklusionsbehandlung. Der Nahvisus wurde mittels Landoltringen und Lea-Symbolen (jeweils Reihenoptotypen) bestimmt. Die Okklusionsdauer wurde kontinuierlich mit einem TheraMon®-Mikrosensor aufgezeichnet, der am Augenpflaster angebracht wurde. Der Fixationsort am Augenhintergrund wurde mit einem direkten Ophthalmoskop bestimmt. Unsere Ziele waren: Evaluierung der Sehfunktion, Therapieadhärenz und Beurteilung des Fixationsortes des amblyopen Auges. Der Anteil des korrigierten Visusdefizits, die Dosis-Wirkungs-Beziehung und die Therapieeffizienz wurden berechnet.
Ergebnisse: In unserer Studie wurden 12 Patienten mit Schiel- und kombinierter Schiel- und Anisometropieamblyopie im Alter von 2,9-12,4 Jahren (im Mittel 6,5 ± 3,4 Jahre) untersucht. Der Anfangsvisus der amblyopen Augen nach 3 Monaten refraktiver Adaptationsphase lag im Mittel bei 1,4 ± 0,4 logMAR (Spannweite 0,9-2,0), und der 5 Führungsaugen bei 0,3 ± 0,3 logMAR (Spannweite -0,1-0,8). Die mittlere interokuläre Visusdifferenz (IOVAD, Visusunterschied zwischen dem amblyopen Auge und dem Führungsauge) zu Beginn betrug im Mittel 1,1 ± 0,4 log Einheiten (Spannweite 0,5-1,8). Die verschriebene Okklusionsdauer lag im Median bei 7,7 Stunden/Tag (Spannweite 6,6-9,9), die tatsächlich erreichte bei 5,2 Stunden/Tag (Spannweite 0,7-9,7). Nach 12 Monaten betrug die mediane Visusbesserung der amblyopen Augen 0,6 log Einheiten (Spannweite 0-1,6), die mediane IOVAD 0,3 log Einheiten (Spannweite 0-1,8). Multiple Regressionsanalyse mit Rückwärtselimination zeigte, dass sowohl das Alter (p=0,0002) als auch die Okklusionsdosis (p=0,046) signifikante Einflussfaktoren für den Visusanstieg waren. Kinder unter 4 Jahren zeigten das beste Ansprechen mit der niedrigsten Rest-IOVAD (Median 0,1 log Einheiten, Spannweite 0-0,3). Die Effizienzberechnung ergab eine Visusbesserung von etwa einer log Visusstufe pro 100 Stunden Okklusion in den ersten zwei Monaten und einer halben log Visusstufe nach 6 Monaten. Die Therapieeffizienz nahm mit zunehmendem Alter ab (p = 0,01). Trotz einer gewissen Visusbesserung auch bei Patienten im Alter von ≥8 Jahren (Median 0,4 log Einheiten), zeigten diese eine geringere Therapieadhärenz sowie -effizienz (mediane Rest-IOVAD 0,8 log Einheiten). Zentrale Fixation wurde von 9 Patienten nach im Median 3 Monaten erreicht (Spannweite 1-4 Monate). Drei Patienten (>6 Jahre) erreichten keine zentrale Fixation.
Schlussfolgerung: Amblyopie mit exzentrischer Fixation stellt auch bei guter Adhärenz eine Herausforderung für den Therapieerfolg dar. Unsere Studie zeigte erstmals prospektive quantitative Daten basierend auf elektronischer Erfassung der Okklusion bei dieser seltenen Patientengruppe. Es konnte die deutliche Abnahme der Therapieeffizienz mit zunehmendem Alter gezeigt werden. Die Visusbesserung wurde viel stärker vom Alter als von der Okklusionsdosis beeinflusst. Nur Kinder, die zum Okklusionsbeginn jünger als 4 Jahre waren, konnten im Studienzeitraum in ihren amblyopen Augen eine für ihr Alter annähernd normale Sehschärfe und eine IOVAD <0,2 log Einheiten erreichen. Demzufolge sind, trotz möglicher geringer Visusbesserung auch bei älteren Patienten, eine frühzeitige Diagnose und Therapie dieser Patientengruppe unerlässlich für den Therapieerfolg.
Förderung: bereitgestellt durch den Forschungspreis des Vereins „Augenstern e.V.“
In Deutschland existieren nur wenige Ergebnisse aus der klinischen Forschung, die im Kontext der allgemeinmedizinischen Versorgung gewonnen wurden. Dies ist u.a. damit zu begründen, dass Forschung in der Allgemeinmedizin in den Praxisalltag eingebunden sein muss, worauf die gegenwärtige Versorgungsstruktur nicht ausgelegt ist. Damit für Hausärztinnen und Hausärzte Forschung im Praxisalltag möglich ist, müssen also Strukturen geschaffen werden, die Forschung ermöglichen. Eine solche Struktur bieten Forschungspraxennetze (FPN) wie beispielsweise das Forschungspraxennetz „ForN“. ForN wurde vom Institut für Allgemeinmedizin der Goethe-Universität Frankfurt am Main im Jahr 2011 initiiert. In ForN tätige Forschungspraxen können sich mit einer Gültigkeit von fünf Jahren als „akademische Forschungspraxis“ akkreditieren lassen, wenn sie bestimmte Anforderungen erfüllen. Dazu gehört die Teilnahme an für Forschungsprojekte qualifizierenden Fortbildungen oder an Netz-begleitenden Treffen für Ärztinnen, Ärzte und Medizinische Fachangestellte (MFA) sowie die regelmäßige Teilnahme an Forschungsprojekten. Eine Verlängerung der Akkreditierung nach fünf Jahren ist möglich. Bisherige Publikationen über Forschung zu FPN bieten insbesondere Einblicke in Faktoren, welche den Beitritt in ein FPN fördern oder eher behindern. Forschung, die Faktoren der längerfristigen Mitwirkung der Praxen an FPN (wie Austrittsgründe, aber auch Motivation, eine Re-Akkreditierung anzustreben) untersucht, ist im Gegensatz dazu rar.
Diese Dissertation untersucht diese Faktoren anhand der folgenden Fragen: warum traten Forschungspraxen im Laufe der Zeit aus dem FPN ForN aus (ehemalige Mitglieder) und warum strebten andere eine Re-Akkreditierung an (aktive Mitglieder)? Weitere Unterfragen dieser Arbeit sind: welche Faktoren motivierten oder erschwerten hausärztlichen Teams eine Mitwirkung als Forschungspraxis? Wie wurde die bisherige Zusammenarbeit gesehen und als wie gut machbar wurden die Anforderungen zur Erlangung der Bezeichnung „akademische Forschungspraxis“ eingeschätzt?
Es wurde ein Fragebogen für ehemalige ärztliche ForN-Mitglieder entworfen und eingesetzt. Des Weiteren wurden Daten aus Fragebogenerhebungen von aktiven ForN-Mitgliedern (Hausärztinnen, Hausärzte, MFA) aufbereitetet. Die Daten wurden mithilfe der Datenanalysesoftware SPSS deskriptiv unter Angabe der Häufigkeiten, Mittelwerte, Standardabweichungen und Spannweiten ausgewertet.
Es konnten 14 Fragebögen von ehemaligen ärztlichen ForN-Mitgliedern aus 13 Praxen analysiert werden. Von den aktiven ForN-Mitgliedern wurden Fragebögen von 48 Ärztinnen und Ärzten sowie 57 MFA aus 41 Praxen ausgewertet. Als Gründe für den Austritt wurde von ehemaligen Mitgliedern insbesondere Zeitmangel und eine hohe Arbeitsbelastung angegeben. Weitere erschwerende Umstände waren ein Mangel an MFA, eine große Entfernung zum Standort des Instituts für Allgemeinmedizin und persönliche Gründe. Bis auf letztere Angabe waren dies auch die größten Hürden während der Teilnahme, die von aktiven Mitgliedern beschrieben wurden. Einen Beitrag für die Allgemeinmedizin zu leisten, persönliche Kompetenzen und Kompetenzen des Praxisteams zu erweitern sowie Abwechslung im Praxisalltag zu erleben, waren die wichtigsten motivierenden Faktoren einer Teilnahme im Forschungspraxennetz ForN, sowohl für aktive als auch für ehemalige Mitglieder. Die Anforderungen des FPN ForN an die Akkreditierung als Forschungspraxis wurden aus Perspektive der aktiven Mitglieder überwiegend als machbar empfunden. Nur die Umsetzung zusätzlicher, nicht verpflichtender Aktivitäten wurde als schwieriger erfüllbar bewertet. Bezüglich der Zusammenarbeit mit dem Institut für Allgemeinmedizin gaben ehemalige ärztliche ForN-Mitglieder an, eine gute Vorbereitung auf Forschungsaufgaben erfahren zu haben, dem ForN-Team des Instituts für Allgemeinmedizin vertrauen zu können und dass die Kommunikation allgemein gut war.
Gründe für den Austritt aus dem FPN und Hindernisse während der Teilnahme in ForN waren überwiegend externe Faktoren wie Zeitmangel, eine hohe Arbeitsbelastung oder ein Mangel an MFA. Auf diese Faktoren hat das Institut für Allgemeinmedizin keinen direkten Einfluss, es kann lediglich die administrativen Aufgaben innerhalb eines Forschungsprojektes für das Team einer Forschungspraxis so vorstrukturieren, dass sie möglichst gut im Praxisalltag bewältigt werden können. Ein Vergleich mit Publikationen, die sich mit förderlichen und hinderlichen Faktoren eines Beitritts in ein FPN auseinandersetzen, zeigt, dass ähnliche Gründe auch die längerfristige Mitwirkung beeinflussen.
Influenza is a contagious respiratory disease caused by influenza A and influenza B viruses. The World Health Organisation (WHO) reports that annual influenza epidemics result in approximately 1 billion infections, 3 to 5 million severe cases, and 300 to 650 thousand deaths. Understanding hidden mechanisms that lead to optimal vaccine efficacy and improvement antiviral treatment strategies remain continuous and central tasks. First, regarding the immune response to vaccines and natural infections, the antibody response echoes the dynamics of diverse immune elements such as B-cells, and plasma cells. Also, responses reflect the processes for B-cells to gain and adapt affinity for the virus. Antibodies (Abs) that respond to the virus surface proteins, particularly to the hemagglutinin (HA), have been identified to protect against infection. The Abs responses binding to HA can be broadly protective as this protein is considerably accessible on the virion. When following sequential infections with similar influenza strains, i.e. two infections with different strains of a subtype, an enhanced breadth and magnitude of Abs response is developed, mainly after the second infection. The effect of being effective to new strains is called Abs cross-reaction.
On the other hand, as for antiviral treatment, the WHO currently approves the use of neuraminidase inhibitors (NIs) such as zanamivir and oseltamivir. Diverse research areas such as system biology, learning-based methods, control theory, and systems pharmacology have guided the development of modern treatment schemes. To do so, mathematical models are used to describe a wide range of phenomena such as viral pathogenesis, immune responses, and the drug's dynamics in the body. Drug dynamics are usually expressed in two phases, pharmacokinetics (PK) and pharmacodynamics (PD) - the PK/PD approach. These schemes leverage pre-clinical and clinical data through modeling and simulation of infection and drug effects at diverse levels. Under such a framework, control-based scheduling systems seek to tailor optimal antiviral treatment for infectious diseases. Thus, influenza treatment can be theoretically studied as a control-based optimization duty (about systems stability, bounded inputs, and optimality). Finally, towards real-world implementation, learning-based methods such as neural networks (NNs) can guide solving issues on the control-based performance. Using NNs as identifiers provide a setting to deal with infrequent measures and uncertain parameters for the control systems.
This thesis theoretically explores central mechanisms in influenza infection via modeling and control approaches. In the first project, we explore how and to what extent antibody-antigen affinity flexibility could guide the Abs cross-reaction in two sequential infections using a hypothetical family of antigens. The set of antigens generally represent strains of influenza, such as those of a subtype. Each antigen is composed of a variable and a conserved area, generically representing the structures of the HA, head, and stalk, respectively. We test diverse scenarios of affinity thresholds in the conserved and variable areas of the antigens. The Abs response reaches a high magnitude when using equivalent affinity thresholds in the conserved and variable areas during the first infection. However, improved cross-reaction is developed when slightly increasing the affinity threshold of the variable area for the second infection. Key mutations via affinity maturation is a feature that, together with affinity flexibility between infections, guides Abs cross-reaction in the model outcome. These results could correlate with studies pointing out that broad responses might be dependent on reaching specific mutations for getting affinity to a newly presented antigen while broadly reaching related antigens. The general platform may serve as a proof-of-concept for exploring fundamental mechanisms that favor the Abs cross-reaction.
In a second project, theoretical schemes are developed to combine impulsive and inverse optimal control strategies to address antiviral treatment scheduling. We present results regarding stability, passivity, bounded inputs, and optimality using impulsive action. The study is founded on mathematical models of the influenza virus (target-cell limited model) adjusted to data from clinical trials. In these studies, participants were experimentally infected with influenza H1N1 and treated with NIs. Results show that control-based strategies could tailor dosage and reduce the amount of medication by up to 44%. Also, control-based treatment reaches the efficacy (98%) of the current treatment recommendations by the WHO. Monte Carlo simulations (MCS) disclose the robustness of the proposed control-based techniques. Using MCS, we also explore the applicability to the individualized treatment of infectious diseases through virtual clinical trials. Furthermore, bounded control strategies are applied directly in drug dose estimation accounting for overdose prevention. Finally, due to the limitations of the available technology intended for clinical practice, we emphasize the necessity of developing system identifiers and observers for real-world applications.
In the third project, the problem of data scarcity and infrequent measures in the real world is handled by means of learning-based methods. System identification is derived using a Recurrent High Order Neural Network (RHONN) trained with the Extended Kalman filter (EKF). Lessons learned from impulsive control frameworks are taken to develop a neural inverse optimal impulsive control --neurocontrol. The treatment efficacy is tested for early (one day post-infection) and late (2 to 3 days post-infection) treatment initiation. The neurocontrol reaches an efficacy of up to 95% while saving almost 40% of the total drug in the early treatment. Robustness is tested via virtual clinical trials using MCS.
Lastly, taking all together, the schemes developed in this thesis for modeling the Abs cross-reaction and control-based treatment tailoring can be extended and adapted to explore similar phenomena in different respiratory pathogens, such as SARS-CoV-2.
Molecular oxygen (O2) is essential for numerous metabolic processes. Not surprisingly, hypoxia and the resulting adaptations play a pivotal role in pathophysiology, e.g., in cancer or in inflammatory diseases. Of note, myeloid cells are known to accumulate in hypoxic regions such as tumor cores or rheumatoid arthritis joints and may contribute to disease progression. While most studies so far concentrated on transcriptional adaptation by the hypoxia-inducible factors (HIF) 1 and 2 under short term hypoxia, prolonged oxygen deprivation and alternative post-transcriptional regulation are rather poorly investigated.
Consequently, the aim of the study was to generate a comprehensive overview of mRNA de novo synthesis and degradation and its contribution to total mRNA changes in monocytic cells in the course of hypoxia.
To this end, I used thiol-linked alkylation for the metabolic sequencing of RNA (SLAM-Seq) to characterize RNA dynamics under hypoxia. Specifically, I labeled monocytic THP-1 cells under normoxia (N), acute hypoxia (AH; 8 h 1% O2), or chronic hypoxia (CH; 72 h 1% O2) with 4-thiouridine (4sU), which allows for transcriptome-wide identification of de novo synthesized mRNAs and estimation of their half-lives. Total mRNA expression analyses revealed that most changes occurred under CH. Considering that HIF accumulation and resulting transcriptional regulation was shown to decline again under CH, I further analyzed the impact of RNA stability on gene expression. I observed a global reduction in RNA half-lives under hypoxia, indicative for the attenuation of energy-consuming protein synthesis upon oxygen deprivation. Moreover, I observed a subgroup of hypoxic destabilized transcripts with resulting decreased mRNA expression under CH, which consisted of 59 nuclear-encoded mitochondrial mRNAs. This might prevent futile production of new mitochondria under conditions, where mitochondria are even actively degraded to prevent production of detrimental reactive oxygen species.
While stability-regulated transcripts were mainly destabilized under hypoxia, the vast majority of differentially de novo synthesized transcripts were upregulated.
Functional analyses revealed not only hypoxia, but also cholesterol homeostasis and inflammatory response as top enriched terms, corroborating findings on total mRNA level. Focusing on hypoxia-altered cholesterol metabolism, I observed an 9 accumulation of early and a decrease in late cholesterol precursors, which are separated by several oxygen-dependent enzymatic steps. Although total cholesterol levels were only slightly reduced, my data indicate locally lowered endoplasmic reticulum (ER) cholesterol levels under hypoxia, which cause feedback activation of the ER cholesterol-sensing transcription factor sterol regulatory element-binding protein 2 (SREBP2) and induction of cholesterol biosynthesis enzymes. Interestingly, a broad range of interferon-stimulated genes (ISGs), mainly known for their antiviral function, was also induced under hypoxia with similar kinetics as SREBP2 targets, suggesting an immunometabolic crosstalk. While the availability of certain cholesterol biosynthesis intermediates as well as a direct involvement of SREBP2 seemed rather unlikely to cause hypoxic ISG induction, changes in intracellular cholesterol distribution appeared crucial for the hypoxic induction of chemokine-ISGs. Mechanistically, I found that MyD88-dependent toll-like receptor 4 (TLR4) signaling contributes to enhanced hypoxic ISG induction, likely sensitized by changes in cholesterol dynamics. Importantly, hypoxia amplified induction of chemokine-ISGs in monocytes upon treatment with severe acute respiratory syndrome coronavirus type 2 (SARS-CoV-2) spike protein via TLR4 similarly as after addition of infectious virus, which might contribute to systemic inflammation in hypoxemic patients with severe coronavirus disease-2019 (COVID-19).
Taken together, I comprehensively analyzed RNA dynamics in hypoxic monocytes. Specifically, I identified RNA stability as a modulating mechanism to limit production of mitochondria under oxygen-restricted conditions. Moreover, I characterized the immunometabolic crosstalk between disturbed cholesterol homeostasis and spontaneous induction of interferon (IFN)-signaling in hypoxic monocytes, which might contribute to systemic inflammation in severe cases of COVID-19.