Refine
Year of publication
- 2017 (181) (remove)
Document Type
- Doctoral Thesis (181) (remove)
Has Fulltext
- yes (181)
Is part of the Bibliography
- no (181)
Keywords
- ALICE (2)
- FPGA (2)
- Grundschule (2)
- QCD (2)
- Stadtentwicklung (2)
- 1,3-Diamine (1)
- 14 fructidor IX (1)
- 2-Photonen (1)
- Africa (1)
- African Agency (1)
Institute
- Biowissenschaften (32)
- Medizin (31)
- Physik (23)
- Biochemie und Chemie (19)
- Biochemie, Chemie und Pharmazie (15)
- Informatik und Mathematik (9)
- Neuere Philologien (8)
- Psychologie und Sportwissenschaften (7)
- Geowissenschaften (6)
- Pharmazie (4)
This dissertation provides a comprehensive account of the grammar of relative clause extraposition in English. Based on a systematic review and evaluation of the empirical generalizations and theoretical approaches provided in the literature on generative grammar, it is shown that none of the previous theories is able to account for all the relevant facts. Among the most problematic data are the Principle C and scope effects of relative clause extraposition, cases with obligatory relative clauses, and relative clauses with elliptical NPs as antecedents.
I propose a new analysis of relative clause extraposition within the constraint-based, monostratal grammatical framework of Head-driven Phrase Structure Grammar (HPSG), enhanced with the semantic theory of Lexical Resource Semantics (LRS). Crucially, it is a general analysis of relative clause attachment, since both canonical and extraposed relative clauses are licensed by the same syntactic and semantic constraints. The basic assumption is that a relative clause can be adjoined to any phrase that contains a suitable antecedent of the relative pronoun. The semantic information that licenses the relative clause is introduced by the determiner of the antecedent NP. The techniques of underspecified semantics and the standard semantic representation language used by LRS make it possible to formulate constraints which yield the correct intersective interpretation of the relative clause (arbitrarily distant from its antecedent NP) and at the same time link the scope of the antecedent NP to the adjunction site of the relative clause.
In combination with the revised HPSG binding theory developed in this dissertation, the proposed analysis is able to capture the major properties of relative clause attachment within a unified and internally consistent monostratal constraint-based grammatical framework.
In dieser wirtschaftsphilosophischen Arbeit wird die fundamentale Bedeutung einer realistischen Gründe-Perspektive für die Erklärung und Beurteilung ökonomischer Praxis herausgestellt. Die Gründe-Perspektive bezieht sich in systematisierender Form auf alltägliche Interpretations- und Verstehensleistungen und greift zur Erklärung ökonomischer Sachverhalte auf Zuschreibungen mentaler Zustände zurück.
In Abgrenzung von einer Nicht-Gründe-Perspektive, die einer Vielzahl ökonomischer Erklärungsansätze, z.B. experimentell verhaltensökonomischer, behavioristisch orientierter neoklassischer oder evolutionärer Art, zugrunde liegt, wird betont, dass das Geben und Einfordern von Gründen in der ökonomische Sphäre in explanativer, prognostischer und normativer Hinsicht von großer Relevanz ist.
Ökonomische Grundbegriffe wie Präferenz, Axiom oder Nutzen werden thematisiert und deren Stellenwert innerhalb ökonomischer Theorien wird herausgestellt. Die behavioristische Fokussierung auf beobachtbare Wahlhandlungen wird in den Kontext naturalistischer Tendenzen in der Ökonomik gestellt. Dabei werden insbesondere wissenschafts- und erkenntnistheoretische Aspekte unter Bezugnahme auf die Philosophie des Geistes angeführt. Es zeigt sich, dass der Ökonom und Philosoph Don Ross einen in Abgrenzung zu Psychologie und experimenteller Verhaltensökonomik bestimmten Wahlbegriff auf aggregierter Ebene vertritt, unter anderem durch Bezug auf Dennetts Theorie intentionaler Einstellung und Möglichkeiten der Mustererkennung. Im Gegensatz dazu stehen Positionen, die mentale Zustände durch Bezug auf die Kognitionsforschung, stellenweise auch die Neuroökonomik, als real ansehen und für eine Erklärung von Präferenzen heranziehen wollen.
Unter Bezug auf die Position Nida-Rümelins wird die wirtschaftsphilosophische Relevanz von Kohärenz, struktureller Rationalität und einem Gründe-Realismus herausgestellt. Der Bezug auf lebensweltliche Gewissheit und formale Eigenschaften „alltagspsychologischer“ Zugänge soll eine bestimmte Gründe-Perspektive stützen. In welcher Hinsicht eine solche Stützung gerechtfertigt werden kann, wird unter anderem durch Bezug auf wissenschaftliche Theorien zur Alltagspsychologie (folk psychology) dargestellt. Die Vielfalt von Gründen, aus denen ökonomische Akteure handeln und die Personen auch in ökonomischen Kontexten prinzipiell verfügbar sind, wird unter Berücksichtigung spezifischer ökonomischer Rollen betont. Abschließend wird die soziale Bedingtheit von Gründen und die immanente Normativität der ökonomischen Praxis thematisiert. Die Möglichkeit einer normativen Rekonstruktion der Wirtschaftssphäre wird anhand der Theorie sozialer Freiheit von Axel Honneth diskutiert.
Einführung: Die höchste Offenheitsrate in der arteriellen Bypasschirurgie der unteren Extremitäten wird mit einem Segment der Vena saphena magna (VSM) von ausreichender Länge und Durchmesser erreicht. Dabei ist der Venendurchmesser der einzige signifikant korrelierende Faktor für das Auftreten einer Transplantatsstenose und damit der beste Prädiktor für die primäre und die sekundäre 2-Jahre-Durchgängigkeitsrates. In 20-40% der Patienten fehlt ein bzgl. des Lumens geeignetes Segment der Vena saphena magna zur Herstellung eines Bypasses bei der primären Operation. Daher wurde eine Technik entwickelt, kleinlumige Vena saphena magna Segmente mittels einer Valvulotomie zu erweitern.
Ziel: Eine zu kleinlumige Vena saphena magna soll VSM für eine spätere Verwendung als autologes Bypassmaterial der unteren Extremität konditioniert werden. Die häufigsten Indikationen für eine derartige Konditionierung sind die Bypassverwendung bei der operativen Therapie der peripheren arteriellen Verschlusskrankheit (pAVK) und beim Aneurysma der Arteria poplitea (PA).
Methoden: Diese prospektive Pilotstudie würde zwischen Juni 2007 und November 2011 durchgeführt. 25 Patienten (26 Fälle) mit einem VSM Durchmesser zwischen 2 und 3mm erhielten eine in situ VSM-Valvulotomie. Die Zerstörung der suffizienten Venenklappen ermöglicht einen retrograden Blutstrom in die Vena saphena magna. Der hierdurch erzeugte Wachstumsreiz soll zu einer Durchmesserzunahme der Vene führen. Nach Erreichen eines Durchmessers von > 3mm für infragenuale Rekonstruktionen und von > 3,5 mm für supragenuale Rekonstruktion wurden die konditionierten Venensegmente als Bypass implantiert. Bei 23 Patienten war die Bypassindikation eine nicht kritische pAVK. Bei 2 Patienten war ein Aneurysma der Arteria poplitea die Indikation. Einschlusskriterium für Teilnahme an der Studie war eine nicht variköse VSM mit einem Querdurchmesser zwischen 2 und 3 mm. Die Venenevaluation erfolgte duplexsonografisch im Stehen durch eine Beurteilung der epifaszialen Vena saphena magna von der Leiste bis zum Innenknöchel. Messpunkte waren: 10 cm unterhalb des Hiatus saphenus, 10 cm oberhalb des Knies, 10 cm unterhalb des Knies und 10 cm oberhalb des Innenknöchels. Um das Venenwachstum zu ermitteln, diente als Messpunkt der kleinste ermittelte Durchmesser über einem Messbereich von 10 mm.
Drei Patienten, bei denen ein femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert wurde, hatten bei der Implantation einen Durchmesser der konditionierten VSM > 3.5 mm. Bei 13 Patienten mit Bypassimplantation unterhalb des Kniegelenkes war die konditionierte VSM > 3mm. Eine Wiederholung der Valvulotomie war in keinem der Patienten nötwendig. Die valvulotomierte VSM wurde bei allen Bypassoperationen offen chirurgisch entnommen. Zur postoperativen Kontrolle erfolgten eine Duplexuntersuchung und eine ABI-Messung 1,3,6,12,18 und 24 Monate nach der Implantation.
Ergebnisse: Durchschnittlich vergrößerte sich der VSM-Durchmesser von initial 2,5±0,18 mm vor Valvulotomie auf 2,8±0,2 mm, 3,0±0,3mm und 3,2±0,4 mm jeweils 30, 60 und 90 Tage nach Valvolutomie. Bei der Entnahme betrug der durchschnittliche Bypassdurchmesser 3.7±0.6 mm. Die primäre 1-Jahres-Offenheitsrate mit der valvulotomierten VSM war 81±9,8% im Vergleich zu in der Literatur publizierten 58,0%±8,4% für alloplastische Transplantate, 51% für kleinkalibrige VSM und 81,6%±3,6% für Armvenentransplantate. Die sekundäre 1-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 87%±8,3% verglichen mit 82,6% für in der Literatur angegebene Transplantationen mit kleinkalibriger VSM. Die primäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 69%±11,8%, verglichen mit 50% in der Literatur angegebener Transplantationen von kleinkalibrige VSM benutzt wurden und 72%, falls Armvenentransplantate benutzt wurden. Die sekundäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik lag bei 75%±11%.
Fazit: Die Valvulotomie kann zur Zunahme des Venendurchmessers vor Anlage eines femoro-distalen Bypasses verwendet werden, weil sie regelhaft zum Reflux in der valvulotomierten Vene führt und dadurch ein relevantes Venenwachstum verursacht. Zwischen 60 und 90 Tagen nach Valvulotomie wird ein Venenduchmesser > 3.5 mm erreicht und die valvulotomierte VSM kann als femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert werden. Für eine Anastomose unterhalb des Kniegelenkes genügt ein Wachstum bis > 3 mm. Wenn die valvulotomierte Vene einen entsprechenden Durchmesser erreicht, kann die konditionierte VSM benutzt werden, um einen Bypass mit guter Offenheitsprognose zu konstruieren oder einen nicht funktionierenden Bypass zu ersetzen.
Einleitung: Die Intention dieser Arbeit war es zu evaluieren, ob das Prüfungsformat eines OSPE (Objective Structured Practical Examination), durchgeführt im Fach Zahnerhaltungskunde (6. Fachsemester), Aussagen über den Studienerfolg im praktischen Teil des Staatsexamens (11. Fachsemester) im selben Fach zu treffen erlaubt. Ferner sollte unter Berücksichtigung allgemeiner Angaben der StudienteilnehmerInnen (Abitursnote, Physikumsnote, Studiendauer, Kohorte und Geschlecht) analysiert werden, ob bezüglich der Gesamt- sowie Teilnoten des OSPE und der Staatsexamensprüfung im Fach Zahnerhaltungskunde Zusammenhänge oder Unterschiede bestehen.
Methoden: Im Rahmen dieser longitudinalen, retrospektiven Studie wurden über einen Zeitraum von 11 Semestern prüfungsbezogene Daten von Studierenden (N = 223) des Fachbereichs Zahnmedizin in Frankfurt am Main erhoben und untersucht. Ferner wurden persönliche Angaben der Studienteilnehmer zu Alter, Geschlecht, Abitursnote, Physikumsnote und Studiendauer evaluiert sowie eine Zuordnung zu Kohorten vorgenommen. Für die statistische Auswertung der Daten wurden Spearman Rangkorrelationen, Partialkorrelationen, Korrelationskoeffizienten nach Pearson, und Multiple Regressionen (SPSS Statistics 21, IBM Corporation, New York) berechnet.
Ergebnisse: Die Ergebnisse zeigen, dass die Durchführung einer OSPE (Cronbachs α = .87) mit dem Erfolg im praktischen Teil des Staatsexamens im Fach Zahnerhaltungskunde korreliert (p = .01, r = .17). Als eine weitere signifikante Korrelation mit der Examensleistung erwies sich die Dauer des Studiums (p = .001, r = .23). Gemeinsam vermögen diese beiden Variablen einen signifikanten Beitrag zur Vorhersage der Examensnote (p = .001, R2 = .076) zu leisten. Das zeigte sich im größeren Umfang bei weiblichen Studierenden. Zudem wurde festgestellt, dass diese bessere Abitursnoten als männliche Studierende aufweisen (F = 6.09, p = .01, η² = .027) und dass es nur bei männlichen Studierenden eine signifikante Korrelation zwischen der Physikumsnote (Zahnärztliche Vorprüfung) und der OSPE-Benotung gab (r = .17, p = .01).
Schlussfolgerung: In der vorliegenden Untersuchung konnte der prädiktive Effekt eines durchgeführten klinischen OSPE auf die Prüfungsleistung im Staatsexamen nachgewiesen werden. Unter Berücksichtigung der Limitation der Studie empfiehlt sich aus unserer Sicht die Durchführung eines solchen Prüfungsformats im Rahmen des klinischen Studienabschnitts im 6. Semester im Fach Zahnmedizin.
In this doctoral thesis the transformation from relativistic hydrodynamics to transport and vice versa is studied. Approximations made by hybrid (hydrodynamics + transport) simulations of relativistic heavy ion collisions are discussed and their reliability is assessed at intermediate collision energies. A new method to simulate heavy ion collisions is suggested, based on the forced thermalization in high-density regions.
Algae as primary producers are highly important in aquatic ecosystems and provide a variety of environmental and anthropogenic services. In small lotic ecosystems in agriculturally influenced landscapes, algae are often the main constituent of the base of the food web and they contribute considerably to biodiversity. Within these small lotic ecosystems, algae are influenced by both natural stressors, such as flow regime and dry-out events, and anthropogenic factors. Agricultural practices especially influence algal communities by introducing plant protection products (PPP) and fertilizers into the water. The impacts of these exposures and how they affect planktonic algae in particular are not yet well studied in small lotic ecosystems. However, the protection of algae as primary producers is of high relevance and was thus included in official biomonitoring programs such as the European Water Framework Directive (WFD) or in risk assessment of e.g. PPPs. Hence, this thesis addresses this knowledge gap and links new information on algal communities in small lotic ecosystems with biomonitoring and risk assessment.
Data was gathered from small ditches and streams in central Germany as well as from laboratory algal assays. A technique to rapidly classify and quantify planktonic and benthic algae based on their photopigment concentration (measured via delayed fluorescence - DF) in ecological and ecotoxicological studies was assessed, both in the laboratory and in the field. This research provides insight into planktonic and benthic algal communities in small streams and ditches in order to improve management and protection strategies in the face of increased agricultural chemical input. ...
Compact stars can be treated as the ultimate laboratories for testing theories of dense matter. They are not only extremely dense objects, but they are known to be associated with strong magnetic fields, fast rotation and, in certain cases, with very high temperatures. Here, we present several different approaches to model numerically the signatures and properties of these stars, namely:
•The effects of strong magnetic fields on hybrid stars by using a fully general relativistic approach. We solved the coupled Maxwell-Einstein equations in a self-consistent way, taking into consideration the anisotropy of the energy-momentum tensor due purely to the magnetic field, magnetic field effects on equation of state and the interaction between matter and the magnetic field (magnetization). We showed that the effects of the magnetization and the magnetic field on the equation of state for matter do not play an important role on global properties of neutron stars (only the pure magnetic _eld contribution does). In addition, the magnetic field breaks the spherical symmetry of stars, inducing major changes in the populated degrees of freedom inside these objects and, potentially, converting a hybrid star into a hadronic star over time.
•The effects of magnetic fields and rotation on the structure and composition of proto-neutron stars. We found that the magnetic field not only deforms these stars, but also significantly alters the number of trapped neutrinos in the stellar interior, together with the strangeness content and temperature in each evolution stage from a hot proto-neutron star to a cold neutron star.
•The influence of the quark-hadron phase transitions in neutron stars. In particular, previous calculations have shown that fast rotating neutron stars, when subjected to a quark-hadron phase transition in their interiors, could give rise to the backbending phenomenon characterized by a spin-up era. In this work, we obtained the interesting backbending phenomenon for fast spinning neutron stars. More importantly, we showed that a magnetic field, which is assumed to be axisymmetric and poloidal, can also be enhanced due to the phase transition from normal hadronic matter to quark matter on highly magnetized neutron stars. Therefore, in parallel to the spin-up era, classes of neutron stars endowed with strong magnetic fields may go through a `magnetic-up era' in their lives.
•Finally, we were also able to calculate super-heavy white dwarfs in the presence of strong magnetic fields. White dwarfs are the progenitors of supernova Type Ia explosions and they are widely used as candles to show that the Universe is expanding and accelerating. However, observations of ultraluminous supernovae have suggested that the progenitor of such an explosion should be a white dwarf with mass above the well-known Chandrasekhar limit ~ 1.4 M. In corroboration with other works, but by using a fully general relativistic framework, we obtained also strongly magnetized white dwarfs with masses M ~ 2:0 M.
Riboswitches are an important class of regulatory RNA elements that respond to cellular metabolite concentrations to regulate gene expression in a highly selective manner. 2’-deoxyguanosine-sensing (2’dG) riboswitches represent a unique riboswitch subclass only found in the bacterium Mesoplasma florum and are closely related to adenine- and guanine-sensing riboswitches. The I-A type 2’dG-sensing riboswitch represses the expression of ribonucleotide reductase genes at high cellular concentrations of 2’dG as a result of premature transcription termination.
Increasing evidence within the last decade suggests that transcriptional regulation by riboswitches is controlled kinetically and emphasizes the importance of co-transcriptional folding.2–4 Addition of single nucleotides to nascent transcripts causes a continuous shift in structural equilibrium, where refolding rates are competing with the rate of transcription.5,6
For transcriptional riboswitches, both ligand binding and structural rearrangements within the expression platform are precisely coordinated in time with the rate of transcription. The current thesis investigates the mechanistic details of transcriptional riboswitch regulation using the I-A 2’dG-sensing riboswitch as an example for a riboswitch that acts under kinetic control.
The centerpiece of all neuronal processes is the synaptic transmission. It consists of a complex series of events. Two key elements are the binding of synaptic vesicles (SV) to the presynaptic membrane and the subsequent fusion of the two membranes. SV are neurotransmitter-filled membranous spheres with many integral and peripheral proteins. The synaptic SNARE complex consists of three interacting proteins, which energize and regulate the fusion of the SV membrane with the presynaptic membrane. Both processes are closely orchestrated to ensure a specific release of neurotransmitter. Already many experiments have been performed, such as genetic screens and proteome analysis of SV, to determine the functions of the various proteins involved. Nevertheless, the functions of the identified proteins are still not fully elucidated. The aim of this thesis was initially applying a tandem affinity purification (TAP) of SV to identify unknown interaction partner of SV and to determine their role. This was supposed to be performed in the model organism Caenorhabditis elegans (C. elegans). The underlying mechanisms are conserved throughout the phylogentic tree and identified interaction partners will help to understand the processes in the mammalian brain. Although there is no neuron-rich tissue in C. elegans as in other model organisms, the diverse genetic methods allows a rapid creation of modified organisms and a prompt determination of the function of identified proteins. The integral SV protein synaptogyrin has been fused to a TAP-tag. The TAP-tag consists of a ProteinA, a TEV protease cleavage site and a calmodulin binding peptide (CBP). Both affinity purification steps are performed sequentially and allow a highly specific native purification of proteins and their interaction partners. Due to technical difficulties the purification strategy was modified several times during the course of this thesis and then finally abandoned for a more promising project, the SNARE complex purification. In conclusion, one of the reasons was the necessary lack of detergent.
The amended aim of this thesis has been the TAP of solubilized SNARE complex to identify unknown interaction partner and to determine their role. In order to increase the specificity of the purification, in terms of formed complexes, the two SNARE subunits, synaptobrevin (SNB-1 in C. elegans) and syntaxin (UNC-64 in C. elegans), were separately fused to the different affinity tags. As the modifications of the proteins could impair their function and lead to false interaction partners, their functionality was tested. For this purpose, the corresponding fusion constructs were expressed in strains with mutated snb¬1 and unc-64. Non-functional synaptic proteins display an altered course of paralysis in an aldicarb assay. The fusion proteins which were expressed in their respective mutant strains displayed a near to wild-type (WT) behavior in contrast to the naive mutant strains. Multiple TAP demonstrated SNB-1 signals in Western blot analysis and complex sets of proteins in the final elution step in a silver staining of SDS-PAGEs. These samples were sent with negative control (WT purification) for MS analysis to various cooperation partners. 119 proteins were identified which appeared only in data sets with SNARE proteins and not in WT samples. If proteins were detected in ≥ 2 SNARE positive MS analysis and had known neural functions or homologies to neuronal proteins in other species, they were selected for further analysis. These candidates were knocked down by RNAi and tested for synaptic function in a following aldicarb assay. The treatment with their specific RNAi resulted for mca-3 in a strong resistance, while frm-2, snap-29, ekl-6, klb-8, mdh-2, pfk-2, piki-1 and vamp-8 resulted in hypersensitivity. The most responsive genes frm-2, snap-29 and mca-3 were examined, whether they displayed a co-localization together with synaptobrevin in promoter fusion constructs or functional fusion constructs. In fluorescence microscopy images only MCA-3::YFP demonstrated neuronal expression.
In order to substantiate the synaptic nature and functionality of the MCA-3::YFP a swimming assay was performed. Here, fusion construct expressing strains, which contained mutated mca-3, were compared with untreated mutant strains and WT strains according to their behavior. In this swimming assay a partial restoration of WT behavior was shown in the MCA-3::YFP expressing mutant strains. Based on these data, we discovered with MCA 3 a new interaction partner of the SNARE complex. MCA-3 is a plasma membrane Ca2+-ATPase and was initially seen only in their role in the endocytosis. Its new putative role is the reduction of Ca2+ concentration at the bound SNARE complex. Since an interaction of syntaxin with Ca2+ channels has been demonstrated, it would be comprehensible to reduce the local concentration of Ca2+ to a minimum by tethering Ca2+ transporters to the SNARE complex.
Biological ageing is a degenerative and irreversible process, ultimately leading to death of the organism. The process is complex and under the control of genetic, environmental and stochastic traits. Although many theories have been established during the last decades, none of these are able to fully describe the complex mechanisms, which lead to ageing. Generally, biological processes and environmental factors lead to molecular damage and an accumulation of impaired cellular components. In contrast, counteracting surveillance systems are effective, including repair, remodelling and degradation of damaged or impaired components, respectively. Nevertheless, at some point these systems are no longer effective, either because the increasing amount of molecular damages can not longer be removed efficiently or because the repairing and removing mechanisms themselves become affected by impairing effects. The organism finally declines and dies. To investigate and to understand these counteracting mechanisms and the complex interplay of decline and maintenance, holistic and systems biological investigations are required. Hence, the processes which lead to ageing in the fungal model organism Podospora anserina, had been analysed using different advanced bioinformatics methods. In contrast to many other ageing models, P. anserina exhibits a short lifespan, a less biochemical complexity and it provides a good accessibility for genetic manipulations.
To achieve a general overview on the different biochemical processes, which are affected during ageing in P. anserina, an initial comprehensive investigation was applied, which aimed to reveal genes significantly regulated and expressed in an age-dependent manner. This investigation was based on an age-dependent transcriptome analysis. Sophisticated and comprehensive analyses revealed different age-related pathways and indicated that especially autophagy may play a crucial role during ageing. For example, it was found that the expression of autophagy-associated genes increases in the course of ageing.
Subsequently, to investigate and to characterise the autophagy pathway, its associated single components and their interactions, Path2PPI, a new bioinformatics approach, was developed. Path2PPI enables the prediction of protein-protein interaction networks of particular pathways by means of a homology comparison approach and was applied to construct the protein-protein interaction network of autophagy in P. anserina.
The predicted network was extended by experimental data, comprising the transcriptome data as well as newly generated protein-protein interaction data achieved from a yeast two-hybrid analysis. Using different mathematical and statistical methods the topological properties of the constructed network had been compared with those of randomly generated networks to approve its biological significance. In addition, based on this topological and functional analysis, the most important proteins were determined and functional modules were identified, which correspond to the different sub-pathways of autophagy. Due to the integrated transcriptome data the autophagy network could be linked to the ageing process. For example, different proteins had been identified, which genes are continuously up- or down-regulated during ageing and it was shown for the first time that autophagy-associated genes are significantly often co-expressed during ageing.
The presented biological network provides a systems biological view on autophagy and enables further studies, which aim to analyse the relationship of autophagy and ageing. Furthermore, it allows the investigation of potential methods for intervention into the ageing process and to extend the healthy lifespan of P. anserina as well as of other eukaryotic organisms, in particular humans.
Die humane 5-LO ist das Schlüsselenzym in der LT-Biosynthese. LTs sind wichtige Entzündungsmediatoren und sind in einer Vielzahl von Krankheiten involviert, u. a. Asthma, Atherosklerose, rheumatische Arthritis, Sepsis, allergischen Reaktionen und in vielen Krebsarten. Die Struktur der 5-LO besteht aus 673 Aminosäuren und besitzt ein Molekulargewicht von 78 kDa. Sie ist in zwei Domänen unterteilt: die kleinere C2-ähnliche regulatorische Domäne (C2ld) und der größeren katalytischen Domäne. Die 5-LO besitzt NIS und NES, die für die zelluläre Lokalisation der 5-LO verantwortlich sind. Außerdem wird die Lokalisation noch von Phosphorylierungsstellen reguliert, die auf der katalytischen Domäne identifiziert werden konnten. 2011 konnten Häfner et al. zeigen, dass die 5-LO in der Lage ist Homodimere zu bilden.
Wie für die meisten anderen humanen Gene konnten auch bei der 5-LO alternative Spleißvarianten identifiziert werden. Schon 1992 konnten die ersten unterschiedlich gesüleißten Transkripte in Hirntumoren und differenzierten HL-60-Zellen gefunden werden. Später konnten weitere Isoformen in verschiedenen Zelllinien entdeckt werden.
In der vorliegenden Arbeit wurden die alternativen Spleißvarianten 5-LO∆13, 5-LO∆4 und 5-LOp12 untersucht und charakterisiert. Auf mRNA-Ebene wurde die Expression des 5-LO-WT und deren Isoformen sowohl in B- und T-Zelllinien als auch primären B- und T-Zellen, monozytären Zelllinien und primäre Monozyten aus Patientenproben (RA und Sepsis) untersucht. Es wurde festgestellt, dass das Expressionsprofil der 5-LO-Varianten zellspezifisch ist. Im Vergleich zu den T-Zellen konnte in B-Zelllinien ein höheres Expressionslevel detektiert werden. Des Weiteren zeigte sich interessanterweise ein stark erhöhtes Expressionslevel in primären Monozyten von RA- und Sepsis-Patienten.
Untersuchungen der 5-LO-Aktivität ergaben unterschiedliche Ergebnisse, abhängig von der Transfektionsmethode. Als transiente Transfektion diente die Calciumphosphat-Methode. Für die stabile Integration der HEK293T-Zellen wurde die Sleeping Beauty-Methode gewählt. Hierfür wurden Proteine mit einem GFP bzw. mCherry-Tag (GFP-5-LO-WT, mCherry∆13, mCherry∆4, mCherryp12) verwendet, um diese mittels Konfokalmikroskop visualisieren zu können. Nach transienter Transfektion konnte eine Inhibition der 5-LO-Aktivität nach Kotransfektion mit jeweils einer Isoform gemessen werden. Nach stabiler Integration jedoch zeigte sich eine Steigerung der 5-LO-Produktbildung. Mit Hilfe von Western Blots wurden Expressionskontrollen angefertigt und die Menge des 5-LO-WT quantifiziert. In transient transfizierten Zellen wurde eine Erniedrigung der Expression des 5-LO-WT bestimmt, wohingegen in stabil integrierten Zellen ein Anstieg des 5-LO-WT als auch der Isoformen beobachtet werden konnte. Einerseits könnte dies einem Artefakt der Transfektionmethode zugrunde liegen, andererseits könnte es ein Hinweis darauf sein, dass sich die Proteine gegenseitig in ihrer Expression beeinflussen.
Ebenso wurde die Lokalisation der 5-LO und deren Isoformen untersucht. Es konnte gezeigt werden, dass die 5-LO überwiegend im Zellkern lokalisiert ist, während alle alternativen Protein-Isoformen im Zytosol zu finden waren. Durch Ionophor-Behandlung wurde eine Translokation des 5-LO-WT an die Kernmembran detektiert, die Isoformen verblieben im Zytosol. Überraschenderweise konnte beobachtet werden, dass die Spleißvariante 5-LO∆13 mit höherer Ionophor-Konzentration ebenso in der Lage ist an die Kernmembran zu translozieren. Um eine mögliche Interaktion der 5-LO mit den Isoformen zu untersuchen, sollten alle Proteine im selben Zellkompartiment lokalisiert sein. Dafür wurden verschiedene Stimuli und Mutationen getestet. Mit der Mutante GFP-5-LO-S271A und dem Stressstimulus Sorbitol und den CaMKII/p38-Inhibotoren KN-93/SB203580 konnte eine Translokation in das Zytosol erreicht werden. Die Ergebnisse der anschließenden Aktivitätsassays zeigten, dass die Isoformen keinen Einfluss auf die Aktivität der 5-LO ausüben.
Des Weiteren wurden die Phosphorylierungen an S523 und S271 von 5-LO-WT, 5-LO∆13, 5-LO∆4 und 5-LOp12 untersucht. Es wurde herausgefunden, dass die 5-LO-Proteine unterschiedliche Phosphorylierungsmuster aufweisen. Während 5-LO-WT und 5-LO∆4 eine schwache Phosphorylierung an S271 aufzeigen, konnte eine starke Phosphorylierung der 5-LO∆13 und 5-LOp12 detektiert werden. Im Vergleich dazu zeigte lediglich die Isoform 5-LOp12 eine sehr starke Bande an der Phosphorylierungsstelle S523. Bei beiden Phosphorylierungen konnten deutlich stärkere Signale nach Kotransfektion gemessen werden. Durch Klonierung eines P2A-Linkers zwischen 5-LO und des GFP-Tags, konnten die Isoformen vom 5-LO-WT in Western Blots voneinander getrennt werden. Dies zeigte, dass es zu einer Hochregulation der Expression der alternativen 5-LO-Varianten nach Kotransfektion mit dem WT führte, aber auch, dass die stärkere Phosphorylierung nach Kotransfektion unabhängig von der Proteinmenge ist.
Measuring information processing in neural data: The application of transfer entropy in neuroscience
(2017)
It is a common notion in neuroscience research that the brain and neural systems in general "perform computations" to generate their complex, everyday behavior (Schnitzer, 2002). Understanding these computations is thus an important step in understanding neural systems as a whole (Carandini, 2012;Clark, 2013; Schnitzer, 2002; de-Wit, 2016). It has been proposed that one way to analyze these computations is by quantifying basic information processing operations necessary for computation, namely the transfer, storage, and modification of information (Langton, 1990; Mitchell, 2011; Mitchell, 1993;Wibral, 2015). A framework for the analysis of these operations has been emerging (Lizier2010thesis), using measures from information theory (Shannon, 1948) to analyze computation in arbitrary information processing systems (e.g., Lizier, 2012b). Of these measures transfer entropy (TE) (Schreiber2000), a measure of information transfer, is the most widely used in neuroscience today (e.g., Vicente, 2011; Wibral, 2011; Gourevitch, 2007; Vakorin, 2010; Besserve, 2010; Lizier, 2011; Richter, 2016; Huang, 2015; Rivolta, 2015; Roux, 2013). Yet, despite this popularity, open theoretical and practical problems in the application of TE remain (e.g., Vicente, 2011; Wibral, 2014a). The present work addresses some of the most prominent of these methodological problems in three studies.
The first study presents an efficient implementation for the estimation of TE from non-stationary data. The statistical properties of non-stationary data are not invariant over time such that TE can not be easily estimated from these observations. Instead, necessary observations can be collected over an ensemble of data, i.e., observations of physical or temporal replications of the same process (Gomez-Herrero, 2010). The latter approach is computationally more demanding than the estimation from observations over time. The present study demonstrates how to handles this increased computational demand by presenting a highly-parallel implementation of the estimator using graphics processing units.
The second study addresses the problem of estimating bivariate TE from multivariate data. Neuroscience research often investigates interactions between more than two (sub-)systems. It is common to analyze these interactions by iteratively estimating TE between pairs of variables, because a fully multivariate approach to TE-estimation is computationally intractable (Lizier, 2012a; Das, 2008; Welch, 1982). Yet, the estimation of bivariate TE from multivariate data may yield spurious, false-positive results (Lizier, 2012a;Kaminski, 2001; Blinowska, 2004). The present study proposes that such spurious links can be identified by characteristic coupling-motifs and the timings of their information transfer delays in networks of bivariate TE-estimates. The study presents a graph-algorithm that detects these coupling motifs and marks potentially spurious links. The algorithm thus partially corrects for spurious results due to multivariate effects and yields a more conservative approximation of the true network of multivariate information transfer.
The third study investigates the TE between pre-frontal and primary visual cortical areas of two ferrets under different levels of anesthesia. Additionally, the study investigates local information processing in source and target of the TE by estimating information storage (Lizier, 2012) and signal entropy. Results of this study indicate an alternative explanation for the commonly observed reduction in TE under anesthesia (Imas, 2005; Ku, 2011; Lee, 2013; Jordan, 2013; Untergehrer, 2014), which is often explained by changes in the underlying coupling between areas. Instead, the present study proposes that reduced TE may be due to a reduction in information generation measured by signal entropy in the source of TE. The study thus demonstrates how interpreting changes in TE as evidence for changes in causal coupling may lead to erroneous conclusions. The study further discusses current bast-practice in the estimation of TE, namely the use of state-of-the-art estimators over approximative methods and the use of optimization procedures for estimation parameters over the use of ad-hoc choices. It is demonstrated how not following this best-practice may lead to over- or under-estimation of TE or failure to detect TE altogether.
In summary, the present work proposes an implementation for the efficient estimation of TE from non-stationary data, it presents a correction for spurious effects in bivariate TE-estimation from multivariate data, and it presents current best-practice in the estimation and interpretation of TE. Taken together, the work presents solutions to some of the most pressing problems of the estimation of TE in neuroscience, improving the robust estimation of TE as a measure of information transfer in neural systems.
The East African Rift System (EARS) was initiated in the Eocene epoch between 50 and 21 Ma probably due to the influence of mantle plumes that caused volcanism, flood basalts and rifting extensions in Ethiopa and the Afar region. As a result of magmatic intrusions and adiabatic decompression melting within the lithosphere caused by the impact of the Kenya plume, there was a southward propagation of the EARS of about 30 – 15 Ma from Ethiopia to Kenya, which coincide with the occurrence of volcanism. The EARS developed towards the south along the margins of the Tanzania Craton between 15 and 8 Ma. Previous findings of low-velocity anomalies within the upper mantle and the mantle transition zone indicate an upwelling of hot mantle material in the vicinity of the Afar region and the East African Rift. This study includes the analysis of P- and S-receiver functions in order to determine further impacts on the lithosphere from below. The aim was to determine the topographic undulations of further boundary layers and to identify their variability owing to the rifting processes and the formation of the EARS. The study area included the Tanzania Craton and the surrounding rift branches of the East African Rift System.
The region of the Rwenzori Mountains can be analysed in detail because of the large dataset of the RiftLink project. The use of the P-receiver function technique and the H-K stacking method enabled to determine different vP /vS ratios depending on the tectonic setting in the Rwenzori region: Rift shoulders (vP /vS =1.74), Albert Rift segment (vP /vS =1.80), Edward Rift segment (vP /vS =1.87) and Rwenzori Mountains (vP /vS =1.86). To determine the topography of the Moho, it is necessary to take into account the thickness of the sedimentary layer, the surface topography, the azimuthal variations in crustal thickness and the impact of local anomalies. After correcting these effects on the Moho depths, significant variations in Moho topography could be determined. The Moho depths range from 29 to 39 km beneath the rift shoulders of the Albertine Rift. Within the rift valley, the crustal thickness varies between 25 – 31 km in the Edward Rift segment and 22 – 30 km in the Albert Rift segment. An averaged crustal thickness of about 26 km within the rift valley indicates the lack of the crustal root beneath the Rwenzoris. Similar variations in crustal thickness were determined by using an automatic procedure for analysing S-receiver functions that was developed in this study.
The S-receiver functions are created by applying a rotation criterion in order to rotate the Z, N and E components into the L, Q and T components. It is necessary to perform trial rotations using different incident and azimuth angles to determine the correct rotation angles. The latter are identified by the use of the rotation criterion, including the amplitude ratio of the converted Moho signal to the direct S/SKS-wave signal. The L component is rotated correctly in the direction of the incident shear wave in the case of the maximum amplitude ratio. After analysing the frequency content of the receiver functions in order to sort out harmonic and long-periodic traces, the individual Moho signals are checked for consistency in order to remove atypic signals. To increase the signal-to-noise ratios on the traces, the S-receiver functions are stacked. For this purpose, the signals of the direct shear waves must originate from similar epicenters. On the basis of similar ray paths, the receiver functions show comparable waveforms and converted signals. To perform the stacking procedure, it is necessary to merge the datasets of the adjacent stations in order to obtain a sufficient number of receiver functions. This analysis is based on the assumption that the incident seismic waves arriving at the adjacent stations penetrate to some extent the same underground structures in the case of similar wave propagation paths. This approach accounts for the fact that the converted signals do not result exclusively from the piercing points at the boundary layers. Further signals originate from the conversions at the boundary layer within the Fresnel Zone. The piercing points are derived from the significant signals in the receiver functions. Depending on the order of arrival of the converted phases on the traces, the signals are attributed to the theoretical discontinuities DIS1, DIS2, DIS3 and DIS4. However, partly due to the low signal-to-noise ratios on the traces, it is difficult to identify the real conversions on the traces and to ensure that the converted signals are attributed to the correct boundary layers. For this reason, it is necessary to check the consistency of the conversion depths among each other. In the case of inconsistent conversion depths, the corresponding signals are either adjusted to another seismic boundary layer or removed from the dataset. To verify the functionality of the automatic procedure and to determine the resolvability with respect to two boundary layers, several models are tested including horizontal and dipping discontinuities. To resolve distinct discontinuities, their depths must differ by at least 60 km, otherwise, due to similar depth ranges of the different boundary layers, the converted signals cannot be separated from each other. As a consequence, the converted signals that originate from different discontinuities are attributed to a single one. Further tests including break-off edges of seismic discontinuities are performed to check the attributions of the converted signals to the discontinuities. Owing to the varying number of boundary layers, the converted signals cannot be attributed to the discontinuities according to the order of their arrivals on the traces. It is necessary to correct their attributions to the seismic discontinuities in order to resolve the boundary layers.
The crust-mantle boundary and further discontinuities within the lithospheric mantle are investigated by applying this automatic procedure. Depending on the tectonic setting, the conversion depths of the Moho range from about 30 – 45 km beneath the western rift shoulder to 20 – 35 km within the rift valley up to 30 – 40 km beneath the eastern rift shoulder. The long wavelengths of the shear waves hamper the correct identification of the converted phases in the S-receiver functions. With respect to the relative differences in conversion depth, the topographic undulations of the crust-mantle boundary are consistent with the Moho depths derived from P-receiver functions. In contrast to the Rwenzori region, it is difficult to resolve completely the trend of the Moho in the remaining area of the East African Rift due to the small dataset provided by IRIS. The results exibit an increase in crustal thickness to up to 45 km in the region of the Cenozoic volcanics such as Virunga, Kivu, Rungwe and Kenya. The greatest Moho depths of more than 50 km are located near Mount Kilimanjaro. In addition to the Moho, the analysis of the S-receiver functions revealed two further boundary layers at depths of 60 – 140 km and 110 – 260 km, which are associated with a mid-lithospheric discontinuity and the lithosphere-asthenosphere boundary, respectively. The shallowest conversion depths of the LAB are focussed to small-scale regions within the rift branches, namely the northern Albertine Rift, the Chyulu Hills and the Mozambique Belt, which are located around the Tanzania Craton. The larger thickness of the lithosphere beneath the cratonic terrain indicates that the Tanzania Craton is not significantly eroded. However, there are indications that the lithosphere beneath the craton and the rift branches is penetrated by ascending asthenospheric melts to depths of up to 140 and 60 km, respectively. The top of the ascending melts is associated with the occurrence of the mid-lithospheric discontinuity. The shallowest conversion depths of this boundary layer (60 – 90 km) are related to the rifted areas of the EARS and the Cenozoic volcanic provinces, which are located along the Albertine Rift, the Kenya Rift and the Rukwa-Malawi rift zones. The deepest conversion depths of up to 140 km are related to the Rwenzori Belt, the Ugandan Basement Complex and the interior of the Tanzania Craton.
Echolocation allows bats to orientate in darkness without using visual information. Bats emit spatially directed high frequency calls and infer spatial information from echoes coming from call reflections in objects (Simmons 2012; Moss and Surlykke 2001, 2010). The echoes provide momentary snapshots, which have to be integrated to create an acoustic image of the surroundings. The spatial resolution of the computed image increases with the quantity of received echoes. Thus, a high call rate is required for a detailed representation of the surroundings.
One important parameter that the bats extract from the echoes is an object’s distance. The distance is inferred from the echo delay, which represents the duration between call emission and echo arrival (Kössl et al. 2014). The echo delay decreases with decreasing distance and delay-tuned neurons have been characterized in the ascending auditory pathway, which runs from the inferior colliculus (Wenstrup et al. 2012; Macías et al. 2016; Wenstrup and Portfors 2011; Dear and Suga 1995) to the auditory cortex (Hagemann et al. 2010; Suga and O'Neill 1979; O'Neill and Suga 1982).
Electrophysiological studies usually characterize neuronal processing by using artificial and simplified versions of the echolocation signals as stimuli (Hagemann et al. 2010; Hagemann et al. 2011; Hechavarría and Kössl 2014; Hechavarría et al. 2013). The high controllability of artificial stimuli simplifies the inference of the neuronal mechanisms underlying distance processing. But, it remains largely unexplored how the neurons process delay information from echolocation sequences. The main purpose of the thesis is to investigate how natural echolocation sequences are processed in the brain of the bat Carollia perspicillata. Bats actively control the sensory information that it gathers during echolocation. This allows experimenters to easily identify and record the acoustic stimuli that are behaviorally relevant for orientation. For recording echolocation sequences, a bat was placed in the mass of a swinging pendulum (Kobler et al. 1985; Beetz et al. 2016b). During the swing the bat emitted echolocation calls that were reflected in surrounding objects. An ultrasound sensitive microphone traveling with the bat and positioned above the bat’s head recorded the echolocation sequence. The echolocation sequence carried delay information of an approach flight and was used as stimulus for neuronal recordings from the auditory cortex and inferior colliculus of the bats.
Presentation of high stimulus rates to other species, such as rats, guinea pigs, suppresses cortical neuron activity (Wehr and Zador 2005; Creutzfeldt et al. 1980). Therefore, I tested if neurons of bats are suppressed when they are stimulated with high acoustic rates represented in echolocation sequences (sequence situation). Additionally, the bats were stimulated with randomized call echo elements of the sequence and an interstimulus time interval of 400 ms (element situation). To quantify neuronal suppression induced by the sequence, I compared the response pattern to the sequence situation with the concatenated response patterns to the element situation. Surprisingly, although the bats should be adapted for processing high acoustic rates, their cortical neurons are vastly suppressed in the sequence situation (Beetz et al. 2016b). However, instead of being completely suppressed during the sequence situation, the neurons partially recover from suppression at a unit specific call echo element. Multi-electrode recordings from the cortex allow assessment of the representation of echo delays along the cortical surface. At the cortical level, delay-tuned neurons are topographically organized. Cortical suppression improves sharpness of neuronal tuning and decreases the blurriness of the topographic map. With neuronal recordings from the inferior colliculus, I tested whether the echolocation sequence also induced neuronal suppression at subcortical level. The sequence induced suppression was weaker in the inferior colliculus than in the cortex. The collicular response makes the neurons able to track the acoustic events in the echolocation sequence. Collicular suppression mainly improves the signal-to-noise ratio. In conclusion, the results demonstrate that cortical suppression is not necessarily a shortcoming for temporal processing of rapidly occurring stimuli as it has previously been interpreted.
Natural environments are usually composed of multiple objects. Thus, each echolocation call reflects off multiple objects resulting in multiple echoes following the calls. At present, it is largely unexplored how neurons process echolocation sequences containing echo information from more than one object (multi-object sequences). Therefore, I stimulated bats with a multi-object sequence which contained echo information from three objects. The objects were different distances away from each other. I tested the influence of each object on the neuronal tuning by stimulating the bats with different sequences created from filtering object specific echoes from the multi-object sequence. The cortex most reliably processes echo information from the nearest object whereas echo information from distant objects is not processed due to neuronal suppression. Collicular neurons process less selectively echo information from certain objects and respond to each echo.
For proper echolocation, bats have to distinguish between own biosonar signals and the signals coming from conspecifics. This can be quite challenging when many bats echolocate adjacent to each other. In behavioral experiments, the echolocation performance of C. perspicillata was tested in the presence of potentially interfering sounds. In the presence of acoustic noise, the bats increase the sensory acquisition rate which may increase the update rate of sensory processing. Neuronal recordings from the auditory cortex and inferior colliculus could strengthen the hypothesis. Although there were signs of acoustic interference or jamming at neuronal level, the neurons were not completely suppressed and responded to the rest of the echolocation sequence.
Das zwischenstaatliche Gewaltverbot steht im Zentrum der völkerrechtlichen Aufmerksamkeit. Auf bewaffnete Konflikte auf dem afrikanischen Kontinent trifft dies nur begrenzt zu. An dieses Defizit knüpft die Autorin ab der Zeitwende 1989/90 an. Dabei überschreitet sie die traditionellen Grenzen des Gewaltverbots und analysiert, inwieweit dies, v. a. durch die Fortentwicklung der Menschenrechtslehre, eine inhaltliche Änderungen erfahren hat, die auch die militärische Anwendung von Gewalt im Innern eines Staates ächtet (ius contra bellum internum). Ein weiterer Schwerpunkt sind Interventionen durch Regionalorganisation. Hierbei wird untersucht, ob multilaterale Interventionen schon dann gewohnheitsrechtliche Akzeptanz erfahren, wenn sie entweder formell oder materiell rechtmäßig sind. Zumindest solche, die durch den UN-Sicherheitsrat autorisiert sind, können diese sog. Baugenehmigungsthese für sich in Anspruch nehmen. Doch auch ohne UN-Mandat vermögen humanitäre Interventionen regionaler Organisationen in engen Grenzen völkerrechtmäßig sein.
Die Herztransplantation ist die Goldstandardtherapie der Herzinsuffizienz [24]. Verglichen mit der konventionellen Therapie führt sie zu einer verbesserten Überlebensrate, Belastbarkeit und Lebensqualität [15b]. Diese werden durch die internationale Gesellschaft für Herz- und Lungentransplantation (ISHLT) mit ihrer weltweit größten Datenbank für Herz- und Lungentransplantationsdaten überprüft [45]. Aufgrund des hohen Stellenwerts und der umfassenden Arbeit der ISHLT findet in dieser Dissertation der Vergleich der Daten über das Outcome von 76 Herztransplantierten der Johann-Wolfgang-Goethe-Universitätsklinik Frankfurt am Main (KGU) mit den Daten der ISHLT statt.
Es handelt sich bei dieser Arbeit um eine retrospektive Studie, die 60 Männer und 16 Frauen im Alter zwischen 18 und 68 Jahren einschließt, die an der Uniklinik Frankfurt zwischen dem 24.02.1997 und dem 04.05.2013 eine Herztransplantation erhielten. Das Ziel dieser Arbeit ist es, die Ergebnisse der Universitätsklinik Frankfurt a.M. mit den internationalen Werten zu vergleichen um genauere Informationen zur internationalen Positionierung zu erhalten. Die Resultate sollen dazu dienen, die eigenen Prozesse zu verbessern, Stärken auszubauen und Schwächen zu beheben und die Behandlung der Patienten den wissenschaftlichen Empfehlungen anzupassen.
Die Ergebnisse dieser Studie zeigten, dass die 1-Jahres-Überlebenswahrscheinlichkeit an der KGU mit 69% deutlich geringer war als international mit 81% [37a]. Dabei zeigte sich in genaueren Analysen, dass das schlechtere Kurzzeitüberleben vor allem von der Transplantationsära von Februar 1997 bis 2001, der zur Transplantation führenden Diagnose einer ischämischen Kardiomyopathie (ICM) und dem Vorhandensein eines Assist Devices vor der Transplantation verursacht wurde. Das Alter und das Geschlecht des Patienten dagegen schienen keinen Einfluss darauf zu nehmen. Im Langzeitüberleben lagen die Ergebnisse der KGU deutlich über den Werten der ISHLT. Unter der Bedingung, dass das erste postoperative Jahr überlebt wurde, ergab sich für KGU Patienten eine 10- bzw. 15-Jahres-Überlebenswahrscheinlichkeit von 74% (n=40) bzw. 60% (n=33). Die Wahrscheinlichkeit das 10. postoperative Jahr zu überleben lag für ISHLT Patienten bei 63,9%; für das 15. Jahr lag dieser Wert bei 42% [37g].
Die Langzeitkomplikationen der Malignität und der TVP traten an der KGU anteilig seltener auf als international. Die TVP-Freiheit nach 10 Jahren lag international bei 47% und an der KGU bei 75% [37e]. Für die Freiheit von Malignität lag die Wahrscheinlichkeit des 10. Jahres international bei 66% und an der KGU bei 74% [37c]. Die Wahrscheinlichkeit für die Freiheit von einem Kreatininwert über 2,5mg/dl bis zum 10. Jahr nach Transplantation war an der KGU mit 70% (n=26) ähnlich wie die internationalen Werte von 61,5% [37b]. Die Patienten der KGU erlitten des Weiteren deutlich mehr Abstoßungen im ersten Jahr. Während international zwischen 25 und 30% der Patienten eine Abstoßungsreaktion im ersten Jahr erlebten, waren es an der KGU mindestens 50%. Trotzdem war der Anteil an behandlungsbedürftigen Abstoßungen an der KGU anteilig geringer als bei dem Patientenkollektiv der ISHLT [37d]. Bei der Analyse der Immunsuppression zeigte sich, dass die KGU das Steroidweaning deutlich später und in wesentlich geringerem Ausmaß durchführt: während im 5. postoperativen Jahr 48% der ISHLT-Patienten Steroide erhalten, sind es an der KGU noch 83% (n=40) [37n]. Im Vergleich der verschiedenen Kombinationstherapien zeigte sich, dass in der Patientengruppe der KGU hauptsächlich Kombinationen mit Ciclosporin (Jahr 1 85,2%, n=46) angewendet wurden, während unter den ISHLT-Patienten hauptsächlich Tacrolimus (Jahr 1 57,5%, n=4053) eingesetzt wurde. Beide Gruppen haben gemeinsam, dass der Anteil an Sirolimus- bzw. Everolimus-Kombinationen von Jahr 1 auf Jahr 5 zunimmt. Dabei kommen diese Kombinationen prozentual gesehen international häufiger vor [37m].
Folglich konnte diese Studie nicht nur zeigen, wo die Stärken der Universitätsklinik Frankfurt liegen, sondern auch welche Punkte in naher Zukunft verbessert werden können. Somit werden konkrete Anpassungen an der Behandlung der HTx-Patienten der KGU erfolgen können.
In der vorliegenden Arbeit wurde ein integrativer Netzwerkmodellierungsansatz gewählt, um die Rolle des Endothels im Kontext der Arteriosklerose zu untersuchen. Hierbei wurden bioinformatische Analysen, laborexperimentelle Versuche und klinische Daten vereinigt und aus dieser Synthese neue klinisch relevante Gene identifiziert und beschrieben.
Das Endothel trägt maßgeblich zur Homöostase des vaskulären Systems bei und eine Dysfunktion des Endothels fördert die Entstehung der Arteriosklerose. Im Zuge der Atherogenese entstehen vermehrt reaktive Sauerstoffspezies, die Lipide in der Membran von Plasma-Lipoprotein-Partikeln und in der zellulären Plasmamembran oxidieren. Eine Gruppe solcher oxidierter Membranlipide ist oxPAPC, das in erhöhter Konzentration in arteriosklerotischen Plaques und lokal an Orten chronischer Entzündung im vaskulären System vorkommt. Weitherhin findet sich diese Gruppe von oxidierten Phospholipiden in oxidierten LDL-Partikeln, in denen oxPAPC die Bindung an Makrophagen vermittelt und hierdurch maßgeblich zur Bildung der Schaumzellen und damit zum arteriosklerotischen Prozess beiträgt. Die durch oxPAPC verursachte Veränderung der Endothelzelle ist bisher wenig erforscht. Es ist jedoch bekannt, dass oxPAPC die Transkriptionslandschaft in Endothelzellen tiefgreifend verändert. Um der Komplexität der Endothelzellveränderung gerecht zu werden, wurde ein bayesscher Ansatz angewendet.
In einem ersten Schritt wurden Expressionsprofile von humanen Aortenendothelzellen (HAEC) aus 147 Herztransplantatspendern verwendet. Diese Expressionprofile enthalten Transkriptionsinformationen der 147 HAEC, die mit oxPAPC oder Kontrollmedium behandelt worden waren. Es wurden signifikant koexprimierte Gene identifiziert und hiervon Gen-Paare berechnet, die einen differentiellen Vernetzungsgrad zwischen Kontroll- and oxPAPC-Status aufweisen. Dieses Netzwerkmodell gibt darüber Aufschluss, welche Gene miteinander in Verbindung stehen. 26759 Gene-Paare, die differentiell verbunden und signifkant koexprimiert waren, wurden hierarchisch gruppiert. Es wurden neun Gen-Gruppen mit einer erhöhten und elf Gen-Gruppen mit einer verminderten Konnektivität nach oxPAPC identifiziert. Gruppe 6 der erhöhten Konnektvitäts-Gruppen wies hierbei die höchste kohärente Konnektivität von allen Gruppen auf. Eine Analyse signifikant überrepräsentierter kanonischer Gensätze ergab, dass diese Gruppe insbesondere Serin-Glycin-Aminosäuremetabolismus, tRNA- und mTOR-Aktivierung wiederspiegelte. Der hier gewählte Netzwerkmodellierungsansatz zeigte auf, dass der Aminosäuremetabolismus durch oxidizerte Phospholipide massiven Veränderungen unterworfen ist.
Um den Mechanismus der Veränderung des Aminosäuremetabolismus näher zu untersuchen, wurden bayessche Netzwerkmodelle verwendet. Dieses Netzwerkmodell enthält im Gegensatz zum differentiellen Koexpresssionsmodell gerichtete Informationen innerhalb des Netzwerkgraphes. Die Gen-Gen Verbindungen sind kausal, wodurch sich eine Hierarchie bildet und Schlüsselfaktoren innerhalb des Netzwerks bestimmt werden können. Durch die Integrierung von Expressionsprofilen und Genomprofilen derselben HAEC-Kohorte und der Inferenz von kausalen Gen-Gen-Verbindungen ergaben sich zwei bayessche Netze: Kontroll- und oxPAPC-Netzwerk. Permutationsuntersuchungen und systematische Beurteilung im Vergleich zu Gen-Gen-Verbindungen in Online-Datenbanken zeigten eine erhöhte Prognosefähigkeit der beiden HAEC bayesschen Netze. Es wurden die Schlüsselfaktoren und deren Teilnetzwerke berechnet und auf biologische Wege hin untersucht. Hierbei wurde das mitochondriale Protein MTHFD2 als ein Schlüsselfaktor für ein Teilnetzwerk des oxPAPC bayesschen Netzes identifiziert. Dieses Teilnetz zeigte eine ähnliche Gensatzanreicherung wie GOC-AA und überlappte mit diesem signifikant.
...
In April and May 2012 data on Au+Au collisions at beam energies of Ekin = 1.23A GeV were recorded with the High Acceptance Di-Electron Spectrometer, which is located at the GSI Helmholtz Center for Heavy Ion Research in Darmstadt, Germany. At this beam energy all hadrons containing strangeness are produced below their elementary production threshold. The required energy is not available in binary NN collisions but must be provided by the system e.g. through multi-particle interactions or medium effects like a modified in-medium potential (e.g. KN/ΛN potential). Thus, a high sensitivity to these medium effects is expected in the investigated system.
The baryon-dominated systems created in relativistic heavy-ion collisions (HIC) at SIS18 energies reach densities of about 2-3 times ground state density p0 and may be similar to the properties of matter expected in the inner core of neutron stars. It is in particular the behavior of hadrons containing strangeness, i.e. kaons and hyperons, and their potentials in the dense medium which may have severe implications on astrophysical objects and processes. As ab-initio calculations of quantum chromodynamics (QCD) cannot be performed rigorously on the lattice at finite baryo-chemical potentials due to the fermion sign problem, effective descriptions have to be used in order to model properties of dense systems and the involved particles. The only way to access the in-medium potential of strange hadrons above nuclear ground state density p0 is by comparing data from relativistic HIC to such effective microscopic models. Up to now, not much data on neutral kaons and Λ hyperons are available from heavy collision systems close to their NN production threshold. These two electromagnetically uncharged strange hadrons are in particular well suited to study their potential in a dense nucleon-dominated environment as their kinematic spectra are not affected by Coulomb interactions.
The objectives of this thesis were to understand how distinct classes of cell types interact to shape oscillatory activity in cortical circuits of the turtle. We chose the turtle cortex as a model system for cortical computations for two reasons. One is that the phylogenetic position of turtles makes their cortex functionally and anatomically particularly interesting. The second is that reptilian brains present several unique experimental advantages. Turtles have a three-layered cortex that forms the dorsalmost part of their pallium and receives direct input from visual thalamus. Thus turtle cortex, while sharing several features with mammalian cortices, constitutes a simpler system for studying cortical computations and dynamics. Freshwater turtles are semiaquatic species, that dive for hours and hibernate for months without breathing. Their brains are adapted to these behaviors so that they can operate under severe anoxia. This property allows for ex vivo wholebrain and whole-cortex (”cortical slab”) preparations in vitro, enabling the use of many sophisticated techniques for monitoring activity in parallel.
I thus set out to utilize the advantages of our model system, by using optogenetic methods to reliably evoke oscillations in an ex vivo whole-cortex preparation while observing activity in parallel with planar multi-electrode arrays (MEA), linear silicon depth-electrodes and patch-clamp recording techniques. This required several technical aspects to be solved. Prior work in turtle cortex (Prechtl, 1994; Prechtl et al., 1997; Senseman and Robbins, 2002) indicated that visual stimuli evoke complex activity patterns (e. g. wave patterns) in dorsal cortex. The goal was to examine these dynamics in detail and to provide mechanistic explanations for them whenever possible. The recent advent of optogenetics, the development of microelectrode arrays, and the possibility to combine these techniques with classical electrophysiological approaches on a resistant, accessible and stable preparation led me to explore a number of technical avenues.
First I had to establish gene delivery methods in reptiles. I settled on recombinant viruses, and show results from several serotypes of adeno-associated virus (AAV), i lentivirus and rabies virus. I report successful gene expression of genes of interest with several subtypes of AAV, including the commonly used AAV2/1 and AAV2/5 serotypes. Second I had to find promoters enabling global and cell-type specific gene expression in reptiles. Ubiquitous high-yield promoters such as CAG/CB7 or CMV drive high levels of expression in turtles; cell-type specific promoters such as hSyn (expression limited to neurons) and CaMKIIa (expression limited exclusively o mostly to excitatory neurons) appear similarly biased in turtles. Other cell-type specific promoters reported in the literature (fNPY, fPV, fSST) failed to express in turtles.
A second major aspect of my work focused on electrophysiological recordings using microelectrode arrays and the interpretation of extracellular signals recorded from cortex in ex vivo preparations. We observed that spike signals produced by pyramidal and inhibitory neurons were very often followed by a slower potential. We identified these slower potentials as reflections of synaptic currents, and thus of the axonal projections of the neurons, at least within the deep layers of cortex. This also resulted in a means to classify neurons as excitatory or inhibitory with much higher reliability than classical methods (e. g. spike width). The final aspect of my work concerns the use of optogenetics to dissect the mechanisms of cortical oscillations and wave propagation. I show that oscillations can be induced by light in turtle cortex after transfection with AAV2/1 carrying the gene for channelrhodopsin 2 (ChR2). By using the CaMKIIa promoter, ChR2 induced currents are limited to LII/III excitatory cells; we can therefore control excitatory drive to cortical networks. If this drive is strong enough, layer III inhibitory interneurons are recruited and fire in a concerted fashion, silencing the excitatory population. The visually evoked 20 Hz oscillations observed in chronically recorded animals (Schneider, 2015) or in anaesthetized animals (Fournier et al., in press) thus appear to result from a feedback loop between E and I cells within layers II & III. Details of these interactions are being investigated but - layer I interneurons, by contrast, do not seem to be involved. By pulsing light I could control the frequency of the oscillations within a range of several Hz around the natural oscillation frequency. Above this range, cortex could only follow the stimulus at a fraction (1/2, 1/3,...) of the light pulse frequency. Using a digital micromirror device, I limited activation of the cortical networks spatially, enabling the study of wave propagation in this system.
Reptilian cortex offers a relatively simple model system for a reductionist and comparative strategy on understanding cortical computations and dynamics. Turtle dorsal cortex could thus give fundamental insights to the primordial organization tional, computational and functional principles of cortical networks. These insights are relevant to our understanding of mammalian brains and may prove valuable to decipher fundamental questions of modern neuroscience.
Der negative Einfluss auf die Abstoßungsrate, die Transplantatfunktion und das Transplantatüberleben bei Nierentransplantationen von Antikörpern, die im Serum von Transplantatempfängern nachgewiesen werden, ist unumstritten. Die Entwicklung immer sensitiverer Methoden zur Antikörperdetektion wie beispielsweise die Luminex-Technologie wirft jedoch neue Fragen auf: Sind die hier nachgewiesenen, zum Teil sehr niedrigtitrigen Antikörper immer noch relevant für das Outcome von Transplantationen? Oder bergen die hier zusätzlich aufgedeckten Antikörper nur die Gefahr in sich, die Organallokation zu erschweren und mögliche komplikationslose Transplantationen zu verhindern? Zur Beantwortung dieser Fragen erfolgte die Durchführung dieser retrospektiven Studie.
In die Studie wurden Seren von 197 Nierentransplantatempfängern eingeschlossen. Diese Seren wurden vor der Transplantation auf Antikörper im Luminex untersucht und anschließend deren Transplantatfunktion und das Transplantatüberleben in Abhängigkeit vom Antikörperstatus ermittelt. Zusätzlich erfolgte eine Gegenüberstellung mit den Ergebnissen aus den im Rahmen der aktuellen Richtlinien zur Transplantationskompatibilität durchgeführten Testmethoden LCT und ELISA.
Bei einem Vergleich der drei unterschiedlichen Techniken zum HLA-Antikörpernachweis zeigte sich, dass der Luminex eine deutlich größere Sensitivität als der ELISA und insbesondere als der LCT besitzt. Außerdem war nachweisbar, dass die mittels Luminex Technology nachgewiesenen HLA-Antikörper ein schlechteres Transplantatüberleben bewirken (Graphik 4). Dies zeigte sich insbesondere, wenn HLA-Klasse I oder gleichzeitig HLA-Klasse I und HLA-Klasse II Antikörper bei Patienten vorhanden sind (Graphik 5). Im Gegensatz dazu fanden sich bei der Betrachtung der Patienten mit im LCT oder im ELISA nachgewiesen HLA-Antikörpern deutlich geringere, klinisch prognostische Hinweise auf das Transplantatüberleben (Graphik 10 und 13).
Das Transplantatüberleben war signifikant besser bei nicht-immunisierten Patienten als bei der Kohorte, die mittels einer der Nachweismethoden HLA-spezifische Antikörper aufwies. Eine Analyse der Transplantatfunktion, die mithilfe der Proteinurie und des Serum-Kreatinins bestimmt wurde, ergab, dass nicht immunisierte Patienten ein besser funktionierendes Transplantat besitzen als antikörperpositive Empfänger. Ein besonders negativer Einfluss donorspezifischer Antikörper konnte hier jedoch nicht nachgewiesen werden.
Im Hinblick auf die klinische Relevanz der nachgewiesenen HLA-Antikörper erfolgte die Auswertung mit unterschiedlichen MFI Kategorien (MFI 1000, 2000, 3000 und 4000). Anhand dieser Arbeit wurde ein MFI-Grenzwert zur Bestimmung des Antikörperstatus im Luminex von größer oder gleich 1000 im Luminex festgelegt, der am besten mit dem Transplantatoutcome korrelierte. Ein negativer Einfluss donorspezifischer Antikörper konnte jedoch nicht nachgewiesen werden. Es zeigte sich dennoch bei MFI Werten über 2000 ein tendenziell schlechteres Transplantatüberleben, wenn donorspezifische Antikörper vorliegen (Graphik 7).
Bei der Betrachtung des Antikörperstatus im LCT und im ELISA war kein Unterschied hinsichtlich des Transplantatüberlebens in Abhängigkeit vom Antikörperstatus sichtbar. Jedoch wurden die Patientenseren mit diesen beiden Methoden vor der Durchführung der Transplantation auf präformierte Antikörper untersucht und bei positiver Befundung eine intensivierte Immunsuppression veranlasst, was zu einer Beeinflussung des Transplantatoutcomes führt. Eine Unterteilung der nicht immunisierten Patienten im LCT und im ELISA anhand des Luminex-Ergebnisses zeigt, dass Patienten, die sowohl im LCT bzw. ELISA als auch im Luminex keine Antikörper aufweisen ein signifikant besseres Transplantatüberleben besitzen als Empfänger, die nur im Luminex immunisiert sind, jedoch nicht im LCT bzw. im ELISA. Dies lässt darauf schließen, dass die Beachtung von Antikörpern, die ausschließlich im Luminex nachgewiesen werden können, zu einem besseren Transplantatoutcome führt. Somit ist eine Durchführung des Luminex in Kombination mit anderen Antikörpernachweisverfahren von Vorteil.
Zur genauen Beantwortung der anfangs aufgeworfenen Fragen bedarf es sicherlich trotz einiger bereits vorhandener Arbeiten – mit zum Teil jedoch sehr unterschiedlichen Ergebnissen – noch zusätzlicher Studien. Auch sollte die Rolle der Denaturierung der HLA-Antigene auf den Beads, die zu falsch positiven und negativen Resultaten führen können, weiter analysiert werden. Außerdem muss der Einfluss komplementaktivierender Antikörper, wie mit der C1q- und C4d-Technik im Luminex nachweisbar, und der Einfluss nicht HLA-spezifischer Antikörper noch genauer erläutert werden.
As an integral part of ALICE, the dedicated heavy ion experiment at CERN’s Large Hadron Collider, the Transition Radiation Detector (TRD) contributes to the experiment’s tracking, triggering and particle identification. Central element in the TRD’s processing chain is its trigger and readout processor, the Global Tracking Unit (GTU). The GTU implements fast triggers on various signatures, which rely on the reconstruction of up to 20 000 particle track segments to global tracks, and performs the buffering and processing of event raw data as part of a complex detector readout tree.
The high data rates the system has to handle and its dual use as trigger and readout processor with shared resources and interwoven processing paths require the GTU to be a unique, high-performance parallel processing system. To achieve high data taking efficiency, all elements of the GTU are optimized for high running stability and low dead time.
The solutions presented in this thesis for the handling of readout data in the GTU, from the initial reception to the final assembly and transmission to the High-Level Trigger computer farm, address all these aspects. The presented concepts employ multi-event buffering, in-stream data processing, extensive embedded diagnostics, and advanced features of modern FPGAs to build a robust high-performance system that can conduct the high- bandwidth readout of the TRD with maximum stability and minimized dead time. The work summarized here not only includes the complete process from the conceptual layout of the multi-event data handling and segment control, but also its implementation, simulation, verification, operation and commissioning. It also covers the system upgrade for the second data taking period and presents an analysis of the actual system performance.
The presented design of the GTU’s input stage, which is comprised of 90 FPGA-based nodes, is built to support multi-event buffering for the data received from the 18 TRD supermodules on 1080 optical links at the full sender aggregate net bandwidth of 2.16 Tbit/s. With careful design of the control logic and the overall data path, the readout on the 18 concentrator nodes of the supermodule stage can utilize an effective aggregate output bandwidth of initially 3.33 GiB/s, and, after the successful readout bandwidth upgrade, 6.50 GiB/s via 18 optical links. The high possible readout link utilization of more than 99 % and the intermediate buffering of events on the GTU helps to keep the dead time associated with the local event building and readout typically below 10%. The GTU has been used for production data taking since start-up of the experiment and ever since performs the event buffering, local event building and readout for the TRD in a correct, efficient and highly dependable fashion.
Es existieren keine Vergleichsstudien, die den Einfluss eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge, tiefen Nackenkniebeuge und in der maschinengeführten Viertel-Nackenkniebeuge bis zu einem Kniegelenkwinkel von 120 ° auf die Entwicklung der Schnellkraftleistung, die Technikausführung, den Beschleunigungsablauf und die willkürliche neuromuskuläre Aktivierungsfähigkeit im Countermovement Jump (CMJ) sowie die winkelspezifische Entwicklung des isometrischen Maximal- und Explosivkraftvermögens der Beinextensoren untersucht haben. Aus diesem Grund wurden in zwei Forschungsprojekten an 23 weiblichen und 36 männlichen Sportstudierenden (24,11 ± 2,88 Jahre) die Auswirkungen eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge (Gruppe FKB, n = 20), tiefen Nackenkniebeuge (Gruppe NKB, n = 20) und der Viertel-Nackenkniebeuge bis 120-Grad-Kniegelenkwinkel (Gruppe NKB¼, n = 19) auf die Schnellkraftleistung im Squat Jump (SJ) und CMJ untersucht. Die Ausführung des CMJ wurde mit einer Digitalkamera aufgenommen, um die jeweils fünf besten Sprünge aus den Eingangs- und Ausgangstests einer Bewegungsanalyse zu unterziehen. Zu diesem Zweck erfolgte die Analyse und Auswertung der Hüft- und Kniegelenkwinkel im Umkehrpunkt des CMJ von insgesamt 740 Sprüngen. Des Weiteren wurden elektromyographische (EMG-)Ableitungen von Vastus medialis, Vastus lateralis,Rectus femoris, Biceps femoris und Erector spinae während der Ausführung des CMJ vorgenommen. Die Parallelisierung der drei Versuchsgruppen erfolgte auf Basis der Sprunghöhen im CMJ. Zusätzlich wurde eine Kontrollgruppe (K, n = 16) gebildet (Alter: 24,38 ± 0,50 Jahre)...
Background
Cochlear Implants (CIs) provide near normal speech intelligibility in quiet environments to individuals suffering from sensorineural hearing loss. Perception of speech in situations with competing background noise and especially music appraisal however are still insufficient. Hence, improving speech perception in ambient noise and music intelligibility is a core challenge in CI research. Quantitatively assessing music intelligibility is a demanding task due to its inherently subjective nature. However, previous approaches have related electrophysiological measurements to speech intelligibility, a corresponding relation to music intelligibility, can be assumed. Recent studies have investigated the relation between results obtained from hearing performance tests and Spread of Excitations (SoEs) measurements. SoE functions are acquired by measuring Electrically Evoked Compound Action Potentials (ECAPs) which represent the electrical response generated in the neural structures of the auditory nerve. The parameters designed to describe SoE functions are used to estimate the dispersal of the electric field in the cochlea. The quality of spatial separation of the electrical field generated by adjacent electrodes are assumed to correlate with hearing performance measures.
Aim of study
This study investigated the relation of parameters derived by ECAP measurements and perceptive skills which aim to access the level of speech and music intelligibility in CI users. In addition, the ratings assessed in a questionnaire on self-rated music intelligibility were correlated to a test battery consisting of measures for speech reception threshold (SRT) in noise (Oldenburger Satztest (OLSA)) and music intelligibility (Adaptive Melody-Pattern-Discrimination Test (AMPDT)). We hypothesised that results from this test battery correlated to subjective ratings and measures describing SoE functions.
Methods
The patient collective covered 17 well-experienced bilateral CI listeners (8 females, 9 males) between the age of 14 and 77 years with a minimum CI experience of two years. Music enjoyment and self-rated musicality was evaluated by means of a questionnaire. The AMPDT included two psychoacoustic tests: timbre difference discrimination threshold (TDDT) and background contour discrimination threshold (BCDT). The accentuation of harmonics in a foreground melody created a background melody. Accentuation was realised by sound level increment, frequency detuning and onset asynchrony. Subjects had to detect target intervals comprising both foreground and background melody by discriminating timbre differences in a Three-Interval Three-Alternative Forced-Choice (3I3AFC) procedure. In a One-Interval Two-Alternative Forced-Choice (1I2AFC) procedure, subjects had to classify the background melody’s contour. SoE was measured via a spatial forward-masking paradigm. A basal, medial and apical recording electrode was measured. Probe electrodes were one electrode position apical to the recording. The width of normalised SoE functions was calculated at their 25 % and 50 % level (excitation distance (DIST)). Furthermore, exponential functions were calculated for SoE profiles with more than three data points for each side. The OLSA assessed SRT in noise. The noisy environment was presented through an array of four loudspeakers (MSNF). The Fastl noise-condition allows to make use of gap listening representing the temporal characteristics of speech as a fluctuating noise. The OLnoise-condition is a continuous noise resulting in a maximum portion of masking.
Results
We found that background melody contour classiffication (BCDT) is more challenging to CI users than the detection of small perceptual timbre differences (TDDT). Background melody contour classification was possible with harmonic accentuation by sound level increment whereas accentuation by onset asynchrony was more demanding. CI users failed in background melody contour classification obtained by frequency detuning. SRTs assessed in the OLSA were significantly lower in the OLnoise than in the Fastl noise masking condition. A number of N = 90 SoE functions were acquired from ECAP measurements, in which N = 48 showed a clearly present ECAP response. The DIST at the 25 % and 50 % level was narrower for the basal than for the apical and medial electrode. SoE functions showed asymmetric profiles with larger amplitudes towards the basal end of the cochlea. Correlation analysis between the AMPDT, OLSA and DISTs showed no significant correlation. Correlation analysis between the AMPDT, OLSA and the questionnaire’s results could not prove that musical activities (music listening, singing or playing instruments) improve music intelligibility. However, CI supply has restored the importance of music, self-rated musicality and musical enjoyment in this study’s subjects.
Conclusions
The present study’s results imply that CI listeners are only able to detect distinct timbre alterations throughout the course of a musical piece whereas they cannot discriminate background melodies hidden in a pattern of complex harmonic sounds. Furthermore, SoE measurements do not seem to be an adequate tool to predict neither speech nor music intelligibility in CI listeners, contrary to our initial hypothesis. This finding is consistent with a number of studies who did not find a correlation between music or speech intelligibility and channel interactions assessed by SoE measurements. It can be concluded that albeit CI supply restores musical enjoyment in patients with sensorineural hearing loss, music perception is still poor and does not significantly improve by regular musical activities such as listening to music, singing or playing instruments.
Studentische Lehrevaluationsergebnisse sind ein weit verbreitetes Maß, um die Qualität universitärer Lehre zu erfassen. Diese Ergebnisse werden unter anderem dafür genutzt, Entscheidungen für die Modifikation des Lehrangebots zu treffen oder die Vergabe der Leistungsorientieren Mittelvergabe mitzubestimmen. Aufgrund dieser relevanten Folgen wird in dieser Arbeit der Frage nachgegangen, wie ein angemessener Validierungsprozess bezüglich studentischer Lehrevaluationsergebnisse gestaltet werden könnte.
Bisherige Validierungsstudien zu studentischen Lehrevaluationsinventaren fokussierten sich meist auf die Überprüfung verschiedener Validitätsarten (inhaltsbezogene, kriteriumsbezogene oder faktorielle) und die Erfassung der Messfehlerfreiheit.
Allerdings ist zum einen zu hinterfragen, ob diese Ansätze grundsätzlich für alle Inventare geeignet sind. Weiterhin hat sich das Verständnis von dem verändert, was unter Validität verstanden wird: Von der Annahme von Validität als Testeigenschaft, verschiedener Validitätsarten und binärer Aussagen auf Basis von Einzelbefunden hin zu dem Verständnis von Validität bezogen auf die Testwert-Interpretation und Verwendung, zu einem einheitlichen Validitätskonzept und zu einer Validitäts-Argumentation. Diese Veränderungen werden in den neueren argumentationsbasierten Validitätsansätzen berücksichtigt und bieten einen Rahmen, der auf die jeweilige Intention ausgerichtet ist, einen Test oder Fragebogen einzusetzen.
Auf Grundlage dieser argumentationsbasierten Ansätze wird in dieser Arbeit die Interpretation studentischer Lehrevaluationsergebnisse überprüft, die als das Ausmaß an qualitätsbezogener Zufriedenheit der Teilnehmer mit der Durchführung einer Lehrveranstaltung und der Vermittlung von Lehrinhalten angesehen werden. Der Validierungsprozess wird anhand der Lehrevaluationsdaten des Frankfurter Promotionskollegs am Fachbereich Medizin dargestellt. Dieser Prozess bestätigte weitgehend die beabsichtigte Interpretation, zeigte aber auch eine zumindest teilweise Revision des Inventars und eine weitere Überprüfung an. Eine Validierung bezüglich der Verwendung der Lehrevaluationsergebnisse sowie der auf diesen basierenden beabsichtigten Konsequenzen wird in einer Folgestudie überprüft.
Anhand dieser Arbeit wird Anwendern und Entwicklern von Lehrevaluationsinventaren eine Her- und Anleitung für den Validierungsprozess gegeben und die Vorteile argumentationsbasierter Ansätze aufgezeigt.
Die Entwicklung von neuartigen, funktionellen Materialien ist eine komplexe Aufgabe, da die Gesamteffizienz der zu entwickelnden Materialien von einer Vielzahl von Faktoren abhängt. Während die auf einer molekularen Ebene durchgeführte Funktionalisierung via chemischer Reaktionsführung genauso wichtig ist wie die makromolekulare Anordnung, kann die Frage nach einer geeigneten Verbesserung von gegenwärtigen Materialien nicht nur auf einer dieser beiden Ebenen beantwortet werden. Die in dieser Arbeit präsentierten Ergebnisse basieren auf der mirkoskopischen aber auch markoskopischen Betrachtung von neuartigen, funktionellen Nanomaterialien und den daraus gewonnenen Erkenntnissen. Das übergeordnete Ziel ist dabei das Verständnis und die Charakterisierung von Ladungsseparationsprozessen und die daraus resultierende Erzeugung von elektrischen Strömen in organischen photovoltaischen Materialien.
Die relevanten Ladungsseparationsprozesse werden oft im Kontext der Dissoziation von Exzitonen, gebundenen Elektron-Loch Paaren, beschrieben, welche innerhalb der Donordomäne eines beliebigen Donor-Akzeptor-Materials erzeugt werden. Dabei ist der Prozess der Exzitonengenerierung abhängig von der Nanomorphologie des entsprechenden Materials, typischerweise so genannten Bulk-Heterojunctions. Dahingehend ist es notwendig, die Effekte von intermolekularen Wechselwirkungen sowohl mittels quantenmechanischer als auch dynamischer Methoden zu betrachten. Um alle relevanten Zeitskalen und Prozesse zu betrachten ist es weiterhin notwendig, auf sowohl eine deterministische Darstellung im Rahmen von quantendynamischen Methoden als auch statistischen Methoden zurückzugreifen.
Um die oft ultraschnellen und kohärenten Exzitonendissoziationsprozesse zu untersuchen wurde eine Kombination aus high-level ab initio Methoden und zeitabhängiger Dichtefunktionaltheorie (TDDFT) angewandt, um geeignete Modellhamiltonians zu parametrisieren, welche schließlich mittels der Multi-Configurational Time-Dependent Hartree (MCTDH) und der Multilayer (ML-MCTDH) variante propagiert wurden. Die MCTDH Methode hat sich als geeignete Methode erwiesen um eine voll quantendynamische Beschreibung von bis zu 100 Freiheitsgraden durchzuführen; die ML-MCTDH Methode erlaubt gar bis zu 1000 Freiheitsgrade quantendynamisch zu behandeln. Die Parametrisierung der Modellhamiltonians, auf welchen die quantendynamische Behandlung basiert, wurde dabei für kleine, jedoch repräsentative Fragmente durchgeführt. Die geeignete Wahl dieser Fragmente sollte sicherstellen, dass zum einen alle relevanten intermolekularen als auch intramolekularen Wechselwirkungen enthalten sind, jedoch gleichzeitig eine möglichst akkurate Beschreibung mittels high-level elektronenstrukturtheoretischer Methoden in gegebener Zeit möglich ist.
Mit Hilfe dieser Methodenkombination wurden zwei Arten von funktionellen organischen Materialien untersucht. Das erste untersuchte System ist ein neuartiges Donor-Akzeptor System, bestehend aus selbstorganisierenden Oligothiophen-Perylenediimid Dimeren, welche in der Gruppe von S. Haacke und S. Mery der Universität Straßburg synthetisiert und spektroskopisch untersucht wurden. Die quantendynamischen Simulationen an diesem System sollten die Ergebnisse der experimentellen, zeitaufgelösten pump-probe Spektroskopie validieren und die dürftige Effizienz im Hinblick auf eine effektive Ladungstrennung erklären. Dabei konnte gezeigt werden, dass nach der Exzitonendissoziation Elektron und Loch auf räumlich benachbarten Donor- und Akzeptorfragmenten lokalisiert werden, was schließlich zu einem Rekombinationsprozess führen wird. Das zweite untersuchte System ist eine Kombination von Poly(3-Hexylthiophen-2,5-diyl) (P3HT) als Elektronendonor und [6,6]-Phenyl-C61 Butansäure Methyl-Ester (PCBM) als Elektronenakzeptor, welches schon hinreichend stark in diversen theoretischen und experimentellen Studien untersucht wurde. Aufbauend auf einem Gittermodell, welches in unserer Gruppe entwickelt wurde, wurde das Modellsystem um Charge Transfer Exzitonen in der Donordomäne erweitert. Die Bedeutung von solchen Charge Transfer Exzitonen in regioregulären Oligothiophenaggregaten ist ein aktuelles Thema in der Wissenschaft, sowohl in experimentellen aber auch theoretischen Abhandlungen. Neben der theoretischen Beschreibung zur Entstehung solcher Charge Transfer Exzitonen liegt ein besonderes Augenmerk auf dem Einfluss dieser predissoziierten Elektron-Loch Paaren auf die Ladungsseparationsdynamik zwischen Donor und Akzeptor sowie die Generierung von freinen Ladungsträgern. Dieser Aspekt der Ladungsseparation in einem P3HT-PCBM System wurde in dieser Art und Weise in dieser Arbeit zum ersten mal untersucht.
Neben dem zuvor erwähnten Donor-Akzeptor System erster Generation der Universität Straßburg wurde eine zweite Variante dieses Systems entwickelt, welches sich bei bisherigen experimentellen Untersuchungen als wesentlich effizienter erwies. Der interessante Prozess der Ladungsseparation ist dabei allerdings auf einer Zeitskala von mehreren hundert Pikosekunden angesiedelt, sodass kinetische Monte Carlo Methoden verwendet werden mussten um diese Prozesse zu modellieren. Dazu wurde ein Fortran90 Code entwickelt, welcher den First Reaction Method Algorithmus verwendet und explizite Delokalisationsprozesse behandelt, welche in dieser Form in kommerziellen Programmpaketen nicht enthalten ist. In vorangehenden Arbeiten konnte gezeigt werden, dass die Delokalisation von Exzitonen zu einer effektiven Herabsetzung der energetischen Barriere der Ladungsseparation führt und somit die Effizienz zur Stromumwandlung gesteigert werden konnte. Erste Simulationen mit diesem Code an idealisierten und zufällig generierten Donor-Akzeptor Morphologien lieferten realistische Werte für makroskopische Observablen wie Ladungsträgermobilitäten. Weiterhin wurden Simulationen einer coarse-grained Struktur zur zweiten Generation des Donor-Akzeptor Systems durchgeführt, ebenfalls mit Hinblick zur Untersuchung der Ladungsträgermobilität.
This thesis is concerned with quantum dynamical propagation methods suitable for high-dimensional systems, and their application to excitation energy transfer (EET), electron transfer (ET), and intra-molecular vibrational redistribution (IVR) in molecular aggregates. The theoretical description of these processes, which are often ultrafast – with time scales in the range of femtoseconds to picoseconds – is challenging, both with regard to quantum dynamical simulations and electronic structure calculations.
The present thesis comprises two parts. The first part concerns the implementation of a novel quantum dynamical method based on Gaussian Wavepackets (GWPs): the 2-Layer Gaussian-MCTDH (2L-GMCTDH) method. This method, which has recently been proposed in [S. Römer, M. Ruckenbauer, I. Burghardt, The Journal of Chemical Physics, 2013, 138, 064106] was implemented in a Fortran90 code and applied to various high-dimensional test systems. The second part of the thesis addresses the combined electronic structure and dynamical study of a novel type of donor-acceptor systems that have been investigated in a joint project with experimental collaboration partners at Strasbourg University. In both parts, numerical applications focus on high-dimensional model Hamiltonians for EET and ET processes.
Regarding the first part, the interest of using GWP-based methods is two-fold: First, GWPs represent spatially localized basis sets that are useful for on-the-fly dynamics in conjunction with electronic structure calculations. Second, they are naturally suited for the explicit representation of quantum mechanical system-bath type problems where a large number of vibrational bath modes are weakly perturbed from equilibrium. In this context, various methods exist that are based upon classically evolving GWP bases. A major improvement results from variational methods which involve optimized, non-classical GWP trajectories. In particular, the variational Gaussian-based Multi-Configuration Time-Dependent Hartree (GMCTDH) and its variational Multi-Configurational Gaussians (vMCG) variant were originally derived as semiclassical variants of the Multi-Configuration Time-Dependent Hartree (MCTDH) method. However, the G-MCTDH and vMCG methods mostly use Frozen Gaussian (FG) basis sets that are far less flexible than the single-particle (SPF) representation of standard MCTDH. As a consequence, a significantly larger number of GWPs are generally required to reach convergence. To remedy the lack of flexibility of the FG basis sets, the abovementioned two-layer (2L-G-MCTDH) approach has been introduced: Here, the first layer is composed of flexible SPFs, while the second layer is composed of low-dimensional FGs. The numerical scaling properties are significantly improved as compared with the conventional G-MCTDH and vMCG schemes. The first implementation of the method in an in-house Fortran90 code is presented, along with applications to (i) a model of site-to-site vibrational energy flow in the presence of intra-site vibrational energy redistribution (IVR) and (ii) a multidimensional donor-acceptor electron transfer system described within a linear vibronic coupling model. The second system relates to a model for ET at an oligothiophene-fullerene interface relevant to organic photovoltaics. Besides the description of the implementation, a detailed assessment of the convergence properties and comparison with multi-layer MCTDH (ML-MCTDH) benchmark calculations is presented. Finally, a perspective is given on the future combination with the existing ML-MCTDH scheme; indeed, such a combination is straightforward since the first layer of the 2L-G-MCTDH approach can be chosen to be orthogonal.
Regarding the second part of the thesis, two generations of a novel donor-acceptor (DA) system for organic photovoltaics applications, involving self-assembled block co-oligomers DA dyads and triads with perylene-diimide (PDI) accepter units, are addressed within a collaborative project with S. Haacke and S. Mery (University of Strasbourg). Based upon detailed excited-state electronic structure investigations along with quantum dynamical and kinetic studies, the relevant ET formation and recombination steps are characterized quantitatively, in view of optimizing the chemical design and reducing recombination losses.
In a first-generation variant of the abovementioned DA systems, which involves liquid-crystalline triads, we were able to show that a highly efficient inter-chain ET process prevails over intra-molecular ET, leading to fast recombination. Due to the latter, this system turns out to be inefficient for photovoltaic applications. To fully understand the elementary steps, high-dimensional quantum dynamics simulations were carried out using the ML-MCTDH method, in collaboration with Matthias Polkehn from our group. In the second-generation variant, which is in the focus of the present thesis, both the nanomorphology and the chemical design were modified. The present work, focuses upon the aspect of chemical design, by characterizing a series of modified DA’s, with donor units of varying length while the PDI accepter units remain unchanged. The intra-molecular ET is observed in these systems, but the processes are comparatively slow, of the order of tens to hundreds of picoseconds. Hence, a kinetic analysis using the Marcus-Levich-Jortner rate theory is employed. Among the main results of the study is that addition of an electron donating amine unit strongly increases the lifetime of the charge-separated state, and therefore reduced recombination losses.
Overall, the present thesis shows how a combination of high-dimensional quantum dynamics, electronic structure calculations, and vibronic coupling model Hamiltonians can be employed to obtain an accurate picture of EET, ET, and IVR in high-dimensional molecular assemblies. Furthermore, the 2L-GMCTDH method paves the way for accurate and efficient on-the-fly calculations; a suitable set-up for such calculations is currently in progress.
Floodplains and other wetlands depend on seasonal river flooding and play an important role in the terrestrial water cycle. They influence evapotranspiration, water storage and river discharge dynamics, and they are the habitat of a large number of animals and plants. Thus, to assess the Earth’s system and its changes, a robust understanding of the dynamics of floodplain wetlands including inundated areas, water storages, and water flows is required.
This PhD thesis aims at improving the modeling of large floodplains and wetlands within the global-scale hydrological model WaterGAP, in order to better estimate water flows and water storage variations in different storage compartments. Within the scope of this thesis, I have developed a new approach to simulate dynamic floodplain inundation on a global-scale. This approach introduces an algorithm into WaterGAP, which has a spatial resolution of 0.5 degree (longitude and latitude) globally. The new approach uses subgrid-scale topography, based on high-resolution digital elevation models, to describe the floodplain elevation profile within each grid cell by applying a hypsographic curve. The approach comprises the modeling of a two-way river-floodplain interaction, the separate downstream water transport within the river and the floodplain – both with temporally and spatially different variable flow velocities – and the floodplain-groundwater interactions. The WaterGAP version that includes the floodplain algorithm, WaterGAP 2.2b_fpl, estimates floodplain and river water storage, inundated area and water table elevation, and also simulates backwater effects.
WaterGAP 2.2b_fpl was applied to model river discharge, river flow velocity, water storages, water heights and surface water extent on a global-scale. Model results were comprehensively validated against ground observations and remote sensing data. Overall, the modeled and observed data are in agreement. In comparison to the former version WaterGAP 2.2b, the model performance has improved significantly. The improvements are most remarkable in the Amazon River basin. However, the seasonal variation of surface water extent and total water storage anomalies are still too low in many regions on the globe when compared to observations. A detailed analysis of the simulated results suggests that in the Amazon River basin the introduction of backwater effects is important for realistically simulating water storages and surface water extent. Future efforts should focus on the simulation of water levels in order to better model the flow routing according to water slope. To further improve the model performance in specific regions, I recommend that the globally constant model parameters that affect inundation initiation, river-floodplain interaction, DEM correction for vegetation, and backwater amount at basin or subbasin-scale be adjusted.
The estimation of water balance components as well as water-related indicators on the land surface by means of global hydrological models have evolved in recent decades. Results of such models are frequently used in global- and continental-scale assessments of the current and future state of the terrestrial water cycle and provide a valuable data basis, e.g., for the Intergovernmental Panel on Climate Change. The Water – Global Assessment and Prognosis (WaterGAP) model is one of the state-of-the-art models in that field and has been in development and application for around 20 years. The evaluation, modification and application of WaterGAP is the subject of this thesis. In particular, the sensitivity of climate input data on radiation calculation and simulated water fluxes and storages is evaluated in the first part. Effects of model modification such as updated spatial input datasets, improved process representation or an alternative calibration scheme are the focus of the second part. Finally, three applications of WaterGAP give insight into the capabilities of that model, namely an estimate of global and continental water balance components, an assessment of groundwater depletion and the impact of climate change on river flow regimes. Model experiments, which are described in six journal papers as well as the appendices, were used as the basis for answering the total of 13 research questions. One of the major foci was to quantify the sensitivity of simulated water fluxes and storages to alternative climate input data. It was found that the handling of precipitation undercatch leads to the greatest difference in water balance components, especially in those areas where WaterGAP is not calibrated due to a lack of river discharge observations. The modifications of WaterGAP in the last few decades has led in general to an improved simulation of monthly river discharge, but process representation in semi-arid and arid regions still requires improvements. With the most current model version, WaterGAP 2.2b, and for the time period 1971–2000, river discharge to the oceans and inland sinks is estimated to be 40 000 km3 yr-1, whereas actual evapotranspiration is simulated as 70 500 km3 yr-1. Future research needs for WaterGAP in particular but also for the global hydrological model community in general are defined, promoting a community-driven effort for a robust assessment of the continental water cycle.
Kinder aus zugewanderten Familien und aus den unteren Sozialschichten haben es an deutschen Schulen schwer. Zu ihrer Unterstützung werden vielfältige Fördermaßnahmen angeboten. Welche Art der Förderung insbesondere Familien mit Migrationshintergrund benötigen, wird in der vorliegenden Schrift besprochen.
Zur Beantwortung dieser Frage wurde ein Familien-Bildungsprogramm - mittels qualitativer und quantitativer Erhebungsmethoden - evaluiert. In dem Programm werden Familien über die Dauer von zwei Jahren (im Übergang von der 4. in die 5. Klasse) eng begleitet. Das vielfältige Unterstützungsangebot ist dahingehend ausgerichtet, die teilnehmenden Kinder auf ihrem schulischen Weg zu unterstützen. Ebenso möchte das Programm zur Erhöhung der gesellschaftlichen Teilhabe der Familien beitragen.
Erhebliche Leistungsfortschritte erreichen fast alle Kinder im Kompetenzbereich Lesen. Besonders die leistungsschwächeren Kinder haben von der Förderung profitiert. Auch die Rechtschreibkompetenzen haben sich im Schnitt verbessert. Das schulbezogene Fähigkeitsselbstkonzept der Kinder sowie ihre Lern- und Leistungsmotivation bleibt von der Förderung relativ unbeeinflusst. Die Eltern profitieren insbesondere von dem Zugewinn einer konstanten Ansprechperson. Es gelingt den Mitarbeiterinnen ein Stützungs-Setting aufzubauen, welches den Eltern Sicherheit vermittelt und sie zuversichtlicher werden lässt. Daneben wurde eine Reihe differentieller Wirksamkeiten ermittelt (wie Entlastung, Aktivierung, Qualifizierung). Das Ausmaß der Wirksamkeit wird durch spezielle Bedingungen - auf Seite der Teilnehmer und auf Seite der Ausführenden - moderiert.
Die vorliegenden Ergebnisse werden mit Bezug auf Implikationen für die Praxis (in Schulen und Bildungsprogrammen) diskutiert.
Colorectal cancer (CRC) has the third highest incidence and the fourth highest mortality rate worldwide and represents a substantial health care burden and affects the life of millions of people. CRC is a genetic disease caused by the stepwise accumulation of genetic alterations. The initiating event in colorectal carcinogenesis is the aberrant activation of the WNT pathway, but other pathways are also commonly deregulated, including the PI3K/AKT pathway. A number of previous studies using genetically engineered mouse models aimed at dissecting the exact role of PI3K/AKT pathway in CRC, but have yielded in rather conflicting results. Despite the inconsistent results, these studies already put forward the idea that PI3K/AKT signaling in combination with other genetic events might substantially contribute to tumor progression. Since the PI3K/AKT pathway is frequently activated in CRC, it represents an ideal candidate for therapeutic intervention. Although extensive efforts had led to the development of numerous inhibitors targeting the PI3K/AKT pathway, the diversity of genetic alterations can challenge the identification of the most effective therapeutic targets. Therefore, the discovery of shared tumor-promoting mechanisms downstream of these genetic alterations might unravel new biomarkers and druggable targets. The aim of this study was to elucidate the precise role of PI3K/AKT pathway during the course of colorectal carcinogenesis and to decipher novel protumorigenic molecular mechanisms downstream of PI3K/AKT activation that can be used for therapeutic intervention.
To obtain a better insight into the role of the PI3K/AKT pathway during colorectal carcinogenesis, mice expressing an oncogenic variant of AKT1 (AktE17K) specifically in the intestinal epithelial cells (IEC) were used. At the age of 6 months untreated AktE17K mice showed clearly perturbed intestinal homeostasis, but no tumor formation. To induce colonic tumorigenesis, AktE17K mice were subjected to treatment with the colonic carcinogen azoxymethane (AOM). In response to AOM, AktE17K mice developed invasive but non-metastatic tumors, which showed strong nuclear accumulation of TP53. To investigate the role of PI3K/AKT signaling specifically in CRC progression, AktE17K mice were crossed to TP53-deficient mice (Tp53ΔIEC). Unlike AktE17K mice, untreated Tp53ΔIEC; AktE17K, developed highly invasive small
intestinal tumors by the age of 6 months. To investigate the role of AKT hyperactivation in colonic tumor progression, Tp53ΔIEC; AktE17K mice were subjected to AOM treatment. AKT hyperactivation significantly enhanced tumor progression and induced metastatic dissemination.
To get a better insight how AKT signaling can promote tumor progression, whole tumor tissues from AOM-treated Tp53ΔIEC and Tp53ΔIEC; AktE17K mice were subjected to next generation mRNA sequencing and phospho-proteomic analysis by mass spectrometry. Both analyses indicated that AKT hyperactivation expands the inflammatory tumor microenvironment and upregulates pathways associated with invasion and metastasis. Importantly, Gene Set Enrichment Analysis revealed that AOM-induced colon tumors of Tp53ΔIEC; AktE17K animals, are highly similar in their gene expression profile to the CMS4 subtype of human CRC, which is associated with worse overall- and relapse-free survival. Gene expression analysis also suggested elevated NOTCH signaling in the Tp53ΔIEC; AktE17K tumors. Interestingly, while the expression of Notch3 mRNA was increased in the tumors of Tp53ΔIEC; AktE17K mice, the expression of the other NOTCH receptors was unaffected by AKT hyperactivation. In vitro experiments using TP53-deficient mouse tumor organoids with hyperactive AKT signaling confirmed the direct, tumor cell-intrinsic link between AKT activation and increased Notch3 expression. Moreover, inhibition of EZH2 mimicked the effect of AKT hyperactivation on Notch3 expression, suggesting that AKT regulates Notch3 via an epigenetic mechanism.
Knock-down of Notch3 in TP53-deficient mouse tumor organoids with hyperactive AKT signaling resulted in differential regulation of several pathways with potential role in invasion and metastasis and in cell death and survival. Subsequent in vivo experiments confirmed the role of NOTCH3 signaling in CRC progression. Treatment of AOM-induced Tp53ΔIEC; AktE17K mice with a NOTCH3 antagonistic antibody or the γ-secretase inhibitor DAPT significantly reduced invasion and metastasis. Importantly, NOTCH3 expression was also found to be associated with human CRC progression, suggesting that NOTCH3 represent a valid target for the treatment of CRC. This work, using genetically engineered mouse models and advanced in vitro techniques, has demonstrated a strong tumor promoting role for PI3K/AKT signaling in CRC progression and has identified NOTCH3 signaling as a potential therapeutic target downstream of the PI3K/AKT pathway.
Einfluss der natürlichen Verbindung Curcumin auf die Invasion von Harnblasenkarzinomzellen in vitro
(2017)
Das Harnblasenkarzinom macht 3,4 % aller bösartigen Tumore aus. In Deutschland erkranken jedes Jahr 16.000 Menschen mit stetig steigenden Inzidenzraten. Betroffen sind vor allem äl-tere Menschen.
Die Therapie erfolgt in Abhängigkeit vom Tumorstadium. Im fortgeschrittenen Stadium wird der Patient i. d. R. mit zwei bis drei Zyklen MVAC (Methotrexat, Vinblastin, Doxrubicin und Cisplatin) behandelt. Unter Chemotherapie lässt sich die Überlebenszeit des Patienten verlän-gern, dennoch schränken rasch aufkommende Resistenzen den Wirkungsgrad erheblich ein. Curcumin kann den Bedarf von Patienten, die Krankheit zusätzlich aktiv bekämpfen zu können, decken. Die natürliche Substanz hat das Potenzial, sich als eine zusätzliche Therapieoption beim fortgeschrittenen Harnblasenkarzinom zu etablieren. Ziel der Studie war es, die Wirk-samkeit von Curcumin durch Lichtexposition zu erhöhen und die Bedeutung dieses Ansatzes für die Hemmung der Tumorinvasion anhand von Harnblasenkarzinomzellen zu evaluieren.
Zellkulturen der Harnblasenkarzinomzelllinien UMUC3, RT112 und TCCSUP wurden angelegt. Die Tumorzellen wurden vor den Versuchen mit Curcumin in verschiedenen Konzentrationen (0,05 μg/ml, 0,1 μg/ml und 0,2 μg/ml) und/oder mit Tageslicht behandelt und in entspre-chende Proben eingeteilt. Mittels Adhäsionsversuchen wurde das Bindungsverhalten der Krebszellen an extrazelluläre Matrixproteine (Kollagen, Fibronektin) und humane Endothelzel-len (HUVEC) untersucht. Die Migrationstendenz wurde mithilfe eines Chemotaxisexperiments ermittelt. Um die Wirkung von Curcumin auf die für den Metastasierungsprozess relevanten α- und β-Integrin-Subtypen zu untersuchen, wurde eine FACScan-Analyse durchgeführt. Der Western Blot diente zur Quantifizierung der Integrinproteine vor und nach Behandlung. Zu-sätzlich wurde durch Blockadeanalysen dargestellt, in welchem Rahmen die Tumorzellen in ihrem Bindungs- und Migrationsverhalten von selektiven Integrinen abhängig sind.
Eine Bestrahlung von Curcumin mit Tageslicht (CurcuminLicht) hatte eine signifikante Wirkungs-steigerung der Substanz gegenüber unbestrahltem Curcumin zur Folge. Einheitlich verringerte CurcuminLicht die Adhäsion sämtlicher Tumorzelllinien an immobilisiertes Kollagen und Fibronektin. Die Interaktion von UMUC3 und RT112 mit HUVEC wurde gehemmt, hingegen er-höhte sich die Bindungsrate von TCCSUP signifikant gegenüber der unbehandelten Kontrolle. Die Tumorzellmotilität (Chemotaxis) wurde in Gegenwart von CurcuminLicht deutlich geblockt. Die FACScan-Analyse und Western Blotting verwiesen auf distinkte Modulationen der α- und β-Integrin-Subtypen. Diese waren in Abhängigkeit vom Tumorzelltyp unterschiedlich ausge-prägt. Mittels Blockadestudien konnte demonstriert werden, dass die Integrin-Subtypen α3, α5 und β1 wesentlich in Adhäsions- und Migrationsereignisse eingebunden sind.
Die Ergebnisse verweisen auf die Bedeutung der Lichtexposition für die Wirkeffektivität der Natursubstanz Curcumin. CurcuminLicht vermag, invasive Prozesse im Rahmen der Tumordis-semination zu unterbinden, und könnte sich somit als wertvolles Additivum im Rahmen der konventionellen Tumorbehandlung erweisen. In nachfolgenden Studien sollten die erarbeite-ten Daten am Tiermodell verifiziert werden.
Etablierung innovativer Strategien zur Resistenzumgehung bei der Therapie des Urothelkarzinoms
(2017)
Patienten mit fortgeschrittenem Blasenkarzinom haben eine sehr schlechte Prognose. Neue Behandlungsansätze, die ihnen eine realistische Heilungschance bieten, sind dringend notwendig. Der Einsatz des mTOR-Inhibitors TEM könnte ein innovatives Lösungskonzept darstellen. Zu berücksichtigen ist jedoch die Gefahr einer Resistenzinduktion unter Langzeitbehandlung. Basierend auf vorausgegangenen Studien wurde im Rahmen der Promotionsarbeit postuliert, dass die Behandlung mit dem HDAC-Inhibitor VPA eine Therapiestrategie darzustellen vermag, mit der durch Tem bedingte Resistenzen umgegangen werden können.
In der vorliegenden Arbeit wurde das biologische Verhalten verschiedener Blasenkarzinomzellen unter chronischer Tem-Therapie studiert und anschließend der Einfluss von VPA auf Wachstum und Proliferation der Zellen (TEM-resistent versus TEM-sensibel) untersucht.
Verwendet wurden die Zelllinien RTT112 und UMUC3. Die Resistenz wurde durch TEM induziert. Das Zellwachstum wurde mit MTT und die Proliferation mittels BrdU-Einbau evaluiert. Mittels Flow-Zytometrie erfolgte die Analyse der Zellzyklusprogression. Relevante Zellzyklusproteine und intrazelluläre Zielproteine wurden mittels Western Blot Verfahren analysiert. siRNA Knock-Down-Studien dienten zur Beurteilung der biologischen Relevanz der Proteine.
Die chronische mTOR-Blockade mit TEM über mehrere Monate hinweg ging mit einer Resistenzinduktion einher, nachgewiesen über eine Verschiebung des IC50-Wertes. VPA bewirkte nicht nur bei den TEM-sensiblen, sondern auch den TEM-resistenten Zellen eine signifikante Wachstums- und Proliferationshemmung. Der Effekt korrelierte mit einer Zunahme von Tumorzellen in der G0/G1-Phase des Zellzyklusses und Abnahme von S-Phase-Zellen. Die G2/M-Phase reduzierte sich in RT112-Kulturen und bei TEM-sensitiven UMUC3-Zellen. Hingegen erhöhte sich der Anteil von TEM-resistenten UMUC3-Kulturen in G2/M. VPA bewirkte bei allen Zellpopulationen Veränderungen an der Cyclin-Cdk-Achse. Insbesondere bei UMUC3-Zellen kam es unter VPA zur Suppression in der Aktivität mTOR-relevanter Signalmoleküle (Rictor, Raptor, Akt, p70S6). In beiden Zelllinien, RT112 und UMUC3, erhöhte sich der Expressionsspiegel der acetylierten Histone H3 und H4. Mittels siRNA wurde belegt, dass die Blockade von Cyclin A und Cdk2 mit einem verminderten Tumorwachstum assoziiert ist.
Aufgrund der vorgestellten Daten lässt sich postulieren, dass die Anwendung von VPA die Gefahr einer durch TEM induzierten Resistenz abzuwenden vermag. Die Ergebnisse der vorliegenden Arbeit präsentieren vielversprechende anti-tumorale Effekte VPAs und stellen möglicherweise eine innovative und effiziente Strategie zur Behandlung des fortgeschrittenen Blasenkarzinoms dar. Da Tem und VPA in der Klinik bereits etabliert sind, wäre eine Umsetzung rasch möglich.
Zur Verifizierung der am in vitro Modell erhobenen Daten sind weitere, vertiefende Untersuchungen am lebenden Organismus essentiell, um die Resistenzphänomene zu belegen.
Colorectal cancer (CRC) has the third highest incidence and the fourth highest mortality rate worldwide and represents a substantial health care burden and affects the life of millions of people. CRC is a genetic disease caused by the stepwise accumulation of genetic alterations. The initiating event in colorectal carcinogenesis is the aberrant activation of the WNT pathway, but other pathways are also commonly deregulated, including the PI3K/AKT pathway. A number of previous studies using genetically engineered mouse models aimed at dissecting the exact role of PI3K/AKT pathway in CRC, but have yielded in rather conflicting results. Despite the inconsistent results, these studies already put forward the idea that PI3K/AKT signaling in combination with other genetic events might substantially contribute to tumor progression.
Since the PI3K/AKT pathway is frequently activated in CRC, it represents an ideal candidate for therapeutic intervention. Although extensive efforts had led to the development of numerous inhibitors targeting the PI3K/AKT pathway, the diversity of genetic alterations can challenge the identification of the most effective therapeutic targets. Therefore, the discovery of shared tumor-promoting mechanisms downstream of these genetic alterations might unravel new biomarkers and druggable targets. The aim of this study was to elucidate the precise role of PI3K/AKT pathway during the course of colorectal carcinogenesis and to decipher novel pro-tumorigenic molecular mechanisms downstream of PI3K/AKT activation that can be used for therapeutic intervention.
To obtain a better insight into the role of the PI3K/AKT pathway during colorectal carcinogenesis, mice expressing an oncogenic variant of AKT1 (AktE17K) specifically in the intestinal epithelial cells (IEC) were used. At the age of 6 months untreated AktE17K mice showed clearly perturbed intestinal homeostasis, but no tumor formation. To induce colonic tumorigenesis, AktE17K mice were subjected to treatment with the colonic carcinogen azoxymethane (AOM). In response to AOM, AktE17K mice developed invasive but nonmetastatic tumors, which showed strong nuclear accumulation of TP53. To investigate the role of PI3K/AKT signaling specifically in CRC progression, AktE17K mice were crossed to TP53- deficient mice (Tp53ΔIEC). Unlike AktE17K mice, untreated Tp53ΔIECAktE17K, developed highly invasive small intestinal tumors by the age of 6 months. To investigate the role of AKT hyperactivation in colonic tumor progression, Tp53ΔIECAktE17K mice were subjected to AOM treatment. AKT hyperactivation significantly enhanced tumor progression and induced metastatic dissemination.
To get a better insight how AKT signaling can promote tumor progression, whole tumor tissues from AOM-treated Tp53ΔIEC and Tp53ΔIECAktE17K mice were subjected to next generation mRNA sequencing and phospho-proteomic analysis by mass spectrometry. Both analyses indicated that AKT hyperactivation expands the inflammatory tumor microenvironment and upregulates pathways associated with invasion and metastasis. Importantly, Gene Set Enrichment Analysis revealed that AOM-induced colon tumors of Tp53ΔIECAktE17K animals, are highly similar in their gene expression profile to the CMS4 subtype of human CRC, which is associated with worse overall- and relapse-free survival7 . Gene expression analysis also suggested elevated NOTCH signaling in the Tp53ΔIECAktE17K tumors. Interestingly, while the expression of Notch3 mRNA was increased in the tumors of Tp53ΔIECAktE17K mice, the expression of the other NOTCH receptors was unaffected by AKT hyperactivation. In vitro experiments using TP53-deficient mouse tumor organoids with hyperactive AKT signaling confirmed the direct, tumor cell-intrinsic link between AKT activation and increased Notch3 expression. Moreover, inhibition of EZH2 mimicked the effect of AKT hyperactivation on Notch3 expression, suggesting that AKT regulates Notch3 via an epigenetic mechanism.
Knock-down of Notch3 in TP53-deficient mouse tumor organoids with hyperactive AKT signaling resulted in differential regulation of several pathways with potential role in invasion and metastasis and in cell death and survival. Subsequent in vivo experiments confirmed the role of NOTCH3 signaling in CRC progression. Treatment of AOM-induced Tp53ΔIECAkt E17K mice with a NOTCH3 antagonistic antibody or the γ-secretase inhibitor DAPT significantly reduced invasion and metastasis. Importantly, NOTCH3 expression was also found to be associated with human CRC progression, suggesting that NOTCH3 represent a valid target for the treatment of CRC. This work, using genetically engineered mouse models and advanced in vitro techniques, has demonstrated a strong tumor promoting role for PI3K/AKT signaling in CRC progression and has identified NOTCH3 signaling as a potential therapeutic target downstream of the PI3K/AKT pathway.
Ziel dieser Dissertation war es, die biologische Rolle der Autophagie für die Entwicklung, Alterung und mitochondriale Qualitätskontrolle in dem Ascomyceten Podospora anserina zu untersuchen. Folgende Ergebnisse wurden dabei erzielt:
1. Der Verlust einer funktionalen Autophagie-Maschinerie ist in P. anserina mit einem Defekt der Sporen-Entwicklung bzw. -Keimung charakterisiert.
2. Es konnten drei Methoden zur Untersuchung der Autophagie in P. anserina etabliert werden: 1) Die Verwendung eines Gfp::PaAtg8-Stamms ermöglicht die Fluoreszenzmikroskopische Bestimmung der Autophagosomen-Anzahl; 2) Die phänotypische Charakterisierung des PaAtg1-Deletionsstamms unter verschiedenen Stressbedingungen (z. B. Stickstoffmangel, Rapamycin) liefert Hinweise auf eine mögliche Autophagie-abhängige Stressadaption; 3) Die Verwendung des „GFPcleavage assays“ ermöglicht einen quantitativen Nachweis genereller und selektiver Autophagie (hier: Mitophagie).
3. In zwei voneinander unabhängigen Experimenten wurde ein altersabhängiger Anstieg der Autophagie für P. anserina demonstriert: Das Autophagie-Niveau nimmt in gealterten P. anserina-Kulturen zu. Gleichzeitig resultiert der Verlust der Autophagie in ∆PaAtg1 in eine reduzierte Lebensspanne. Unter Stressbedingungen (hier: Stickstoffmangel) wird dieser positive Einfluss der Autophagie auf die Lebensspanne im Wildtyp sogar noch verstärkt.
4. Der unerwartet „gesunde“ Phänotyp der PaSod3-Deletionsmutante ist abhängig von einer funktionalen Autophagie-Maschinerie. Der Mitophagie wurde eine besondere Rolle als Kompensationsmechanismus für den Verlust von PaSOD3 zugeteilt, da das Mitophagie-Niveau in dieser Mutante erhöht ist. Am Beispiel dieser Mutante, für die ein erhöhter Superoxid-Ausstoß nachgewiesen wurde, konnte eine Dosis-abhängige Wirkung von ROS in P. anserina identifiziert werden. Eine geringe zelluläre ROSMenge verursacht eine mitohormetische Reaktion, die eine Induktion der Mitophagie zur Folge hat und sich positiv auf den Organismus auswirkt. Übersteigt die zelluläre ROS-Dosis einen kritischen Punkt, kommt es zur Induktion des autophagischen Zelltods und damit zum vorzeitigen Tod des Individuums.
5. Der Verlust der PaCLPXP-Protease führt zu Beeinträchtigungen in der Funktion und Zusammensetzung der mitochondrialen Atmungskette. Dieses Defizit im Energiemetabolismus wird über eine Induktion der AOX, vor allem aber über eine ZUSAMMENFASSUNG 127 gesteigerte Autophagie kompensiert. Die deutlich verlängerte Lebensspanne der verschiedenen PaClpXP-Deletionsmutanten (∆PaClpX, ∆PaClpP und ∆PaClpXP) ist abhängig von einer funktionalen Autophagie-Maschinerie. Interessanterweise konnte keine kompensatorische Funktion der Autophagie oder Mitophagie für den Verlust der mitochondrialen i-AAA-Protease PaIAP in P. anserina nachgewiesen werden.
Autophagie/Mitophagie stellt einen übergeordneten Qualitätskontrollmechanismus in P. anserina dar, der den Organismus sehr effektiv vor zellulären Schäden und Dysfunktionen bewahrt und einen positiven Einfluss auf die Alterung, Entwicklung und Energieversorgung einnimmt.
Multicellular organisms require that cells adhere to each other. This cell-cell adhesion is indispensable for the formation and the integrity of epithelial structures, tissues and organs. Mammals have developed four different cell-cell adhesion structures, the adhering junctions, which ensure the tight contact between cells but are also important platforms for communication and exchange in tissues. Two of these adhering junctions are cadherin based, the belt-like adherens junctions and the spot-like desmosomes. Both structures have in common that they are composed of single membrane spanning proteins, the cadherins, which accomplish adhesion in a calcium-dependent manner. The intracellular parts of classical as well as desmosomal cadherins bind to different adaptor proteins of the armadillo-protein family and others which build a protein plaque underneath the membrane and link the cadherins to the actin or intermediate filament cytoskeleton.
Desmosomes are of special importance for tissues that have to withstand mechanical stress. Although they are essential to stabilize tissues they have to be highly flexible and dynamic structures, as processes like wound healing or tissue remodeling require that adhesive interactions can be modulated. The molecular dynamics within desmosomes are not jet understood in detail, but it is assumed that two different membrane associated pools of desmosomal cadherins exist in cells. Cadherins that are incorporated in mature desmosomes are part of the junctional pool, whereas cadherins that are not associated with firm desmosomes and the intermediate filament cytoskeleton belong to the non-junctional pool. Lateral movements between the two pools results in a dynamic equilibrium and allows for example the exchange of old cadherins. Little is known about the breakdown of desmosomal cadherins. Several studies found that desmosome assembly or endocytosis are cholesterol dependent processes and claimed that membrane microdomains play a role in the regulation of desmosome dynamics. Moreover, membrane rafts may be involved in the pathomechanism of the desmosome associated disease pemphigus, were autoantibodies bind to the cadherin desmoglein-3 and trigger its internalization which results in a loss of adhesion in skin cells.
Membrane rafts are cholesterol dependent nanoscale structures of cellular membranes that are able to regulate the distribution of proteins within the plasma membrane and thus form platforms for cell signaling and membrane trafficking. Flotillins are proteins that are associated with membrane rafts and are reported to be involved in processes like endocytosis, endosomal sorting and a multitude of different signaling events. We could recently show that the membrane raft associated proteins flotillin-1 and flotillin-2 bind directly to the armadillo protein y-catenin which can be part of both, the adherens junction and the desmosome. The aim of this study was to eluciadate a possible role of flotillins in the regulation of desmosomes.
HaCaT keratinocytes were chosen as the main cell system for this study and at first the association of desmosomal components with flotillins was analyzed in detail. It was found that flotillins are clearly associated with desmosomal proteins. They colocalize with desmoglein-3 at cell borders and precipitate the other desmogleins. Further binding assays revealed that both flotillins bind to all desmogleins and the long isoforms of the second class of desmosomal cadherins, the desmocollins. The interaction is a direct one and was mapped to the ICS sequence within the cadherins. This close association rendered the question whether flotillins are functionally implicated in desmosome regulation. To address this issue, stable flotillin knockdown HaCaT cells were analyzed in detail. The molecular morphology of desmoglein-3, desmoglein-1 and two plaque proteins was clearly altered in the absence of flotillins. The membrane staining of all tested desmosomal proteins was derailed and disordered. Furthermoore, the loss of flotillins had an impact on the adhesive capacity of HaCaT keratinocytes. The cell-cell adhesion was weakened in the absence of flotillins, which was monitored by an increased fragmentation of knockdown cells in a cell dissociation assay.
In order to find out the mechanism by which flotillins influence the membrane morphology and the adhesiveness in keratinocytes, the association of desmosomal proteins with membrane microdomains was examined, at first. A predominant part of desmoglein-3 is associated with membrane rafts in HaCaT keratinocytes, whereas only a minor part of desmoglein-1 is found there. However, the raft-association of none of the examined proteins was altered in the absence of flotillins. Furthermore, flotillin depletion did not change the distribution of desmogleins with the two different cadherin pools. Less desmoglein-3 is found in the junctional pool of the flotillin depleted cells compared to the control cells, but this is due to an overall diminished desmoglein-3 protein level in these cells.
Flotillins are involved in endocytic processes but their exact role there is under debate. The endocytic uptake of desmosomal cadherins requires intact membrane rafts, but the precise mechanism is still unknown. A possible involvement of flotillins on the endocytosis of desmoglein-3 was addressed next. It is known that the internalization of desmoglein-2 is dependent on the GTPase dynamin, arguing for an involvement of dynamin in the endocytosis of desmoglein-3 as well. When dynamin and thus desmoglein-3 endocytosis was inhibited using chemical compounds, the mislocalization of desmoglein-3 that was observed in flotillin knockdown cells was restored. This suggest that inhibition of desmoglein-3 endocytosis enhances the amount and/or availability of desmoglein-3 at the plasma membrane, which then normalizes the morphological alterations caused by a knockdown of flotillins. Furthermore the morphological alterations in the flotillin knockdown HaCaT cells were found to be similar to the localization of desmoglein-3 that was observed upon treatment of keratinocytes with PV IgG These structures have been described before as linear arrays and are assumed to be sites of endocytic uptake. This strengthens the idea that enhanced desmoglein-3 internalization takes place in the absence of flotillins, which then results in a weakened adhesion.
Altogether this study revealed flotillins as novel players in desmosome mediated cell-cell adhesion processes. By binding to desmosomal cadherins and desmosomal plaque proteins, flotillins stabilize desmosomes at the plasma membrane and are required for a proper cell-cell adhesion.
Tissue integrity is defined by the composition and connection of cells as a structural and functional unit. It is modulated by a magnitude of processes including differentiation, survival, controlled death and adhesion of cells. Besides, external factors such as physical forces are also involved. A suitable model system to study all modalities of tissue integrity is the mammary gland. Postnatally and within the reproductive phase, the mammary gland undergoes morphological and functional modifications that periodically loosen or strengthen tissue integrity. An important point in the development of the mammary gland is the regression during weaning, also termed involution. The transition from lactation to involution is important for a controlled loss of tissue integrity. In this transition, collective cell death is initiated but not yet prominent enabling the mammary gland to fully recover lactation.
In this thesis, modalities of tissue integrity were investigated using three-dimensional cell cultures (i.e. spheroids) and the mammary gland as model systems. In the context of this thesis, I established (1) an immunofluorescence staining protocol and its detailed evaluation. Furthermore, I studied (2) the role of cell survival during mammary gland development, (3) the effect of physical forces that modulate tissue integrity and (4) the contribution of proteins to cell adhesion and growth.
Since a homogeneous fluorescence stain of the specimen is necessary for quantitative analysis, an immunofluorescence staining protocol was established to stain large spheroids in toto. The evaluation contributes qualitative and quantitative criteria that judge the specificity, intensity and homogeneity of the stain. Based on this approach, it was possible to demonstrate the morphological and functional characteristics that spheroids share with the mammary gland in vivo. These characteristics included the synthesis of extracellular matrix, the development of polarized acinar structures and lactogenic differentiation.
The role of cell survival during mammary gland development was analyzed by means of the expression profile of the pro-survival protein BAG3. The expression of BAG3 differed in the progress of mammary gland development. While the expression was low during pregnancy, it rose in the lactation phase and peaked within the first days of involution, indicating that BAG3 is associated with early involution in the mammary gland. In vitro experiments related the expression of BAG3 to cell survival in mammary epithelial cells.
Physical forces naturally occur during developmental processes influence tissue integrity during the initiation of mammary gland involution. The influence of physical force applied as compression on mammary epithelial spheroids was investigated. A morphological analysis showed that following a lag, the cell nuclei volume changed upon compression. A short-term compression induced the activation of caspases. A prolonged compression reduced the activity of caspases. This suggests the induction of a process that allows cells the adaption to changing environmental conditions. BAG3 is known to be involved in mechanical stress-induced autophagy, also known as chaperone assisted selective autophagy (CASA). Compression of spheroids did not induce CASA. The experimentally applied strain was not comparable to the strain found in the alveolar cells during involution in vivo. Thus, whether or not CASA is activated during mammary gland involution remains elusive. Nevertheless, the methodical approach to apply compression on spheroids in vitro is a model to study the influence of physical forces on cell aggregates.
Apart from cell survival and physical forces, growth and adhesion of cells affect tissue integrity. A spheroid formation assay and subsequent data analysis and computational modeling enabled the investigation of these processes in a non-adhesive environment. The analysis suggested that spheroid formation follows a reaction-controlled process, in which cells do not necessarily form a connection when they collide. The loss of function of either E-cadherin or actin strongly inhibited the formation of a spheroid. The analysis further revealed that neither E-cadherin nor actin influence the chance of the cells to form a connection when they collide. Both molecules are more important in stabilizing established connections. Depolymerization of microtubules still allowed spheroids to form, but the formation was decelerated and growth of the final spheroids was inhibited. The results from computational modeling suggested that microtubules act on cell adhesion through different mechanisms, which also vary among different cell types. The inhibition of FAK phosphorylation at Y397, a downstream target of integrin signaling, and the analysis of FAK protein levels in spheroids showed that integrin-mediated signaling is not prominent in three-dimensional spheroids formed from non-invasive cells. A deletion of BAG3 gene expression increased the number of dead cells in forming spheroids suggesting that BAG3 predominantly affects cell survival.
The results of this thesis identified and characterized adhesion- and survival-associated proteins that are important for tissue integrity. This thesis suggests that a BAG3-dependent cell survival mechanism is prominent at the beginning of mammary gland involution. Future studies will have to identify the related factors and inducers of tissue integrity loss in the mammary gland. This will shed light on the physiology of the organ and could explain the disorders that destroy its integrity. In addition, this thesis contributes to a better understanding of spontaneous cell aggregation, the aggregate organization and implies a role of cell migration in these processes. Future studies that focus on three-dimensional cell migration could explain, how cell migration is promoted and to which extent it supports tissue integrity.
Bacteria are highly organized organisms which are able to adapt to and propagate under a multitude of environmental conditions. Propagation hereby requires reliable chromosome replication and segregation which has to occur cooperatively with other cellular processes such as transcription, translation or signaling. Several mechanisms were proposed for segregation of the Escherichia coli (E. coli) chromosome, for example a mitotic-like active segregation model or entropy-based passive chromosome segregation. Another segregation model suggests coupled transcription, translation and insertion of membrane proteins (termed "transertion"), which links the replicating chromosome (nucleoid) to the growing cell cylinder.
Fluorescence microscopy was widely used to provide evidence for a distinct segregation model. However, the dynamic nature of bacterial chromosomes, the small bacterial size and the optical resolution limit of ~ 200-300 nm impair unveiling the underlying mechanisms. With the emergence of super-resolution fluorescence microscopy techniques and advanced labeling methods, a new toolbox became available enabling scientists to visualize biomolecules and cellular processes in unprecedented detail. Single-molecule localization microscopy (SMLM) represents a set of super-resolution microscopy techniques which relies on the temporal separation of the fluorescence signal and detection of single fluorophores. Separation can be achieved using photoactivatable or -convertible fluorescent proteins (FPs) in photoactivated localization microscopy (PALM), photoswitchable organic dyes in direct stochastic optical reconstruction microscopy (dSTORM) or dynamically binding fluorescent probes in point accumulation for imaging in nanoscale topography (PAINT). In all these techniques, the fluorescence emission pattern of single fluorophores is spatially localized with nanometer-precision. An artificial image is finally reconstructed from the coordinates of all single fluorophores detected. This provides a spatial resolution of ~ 20 nm, which is perfectly suited to investigate cellular processes in bacteria. In this thesis, different SMLM techniques were applied to study fundamental processes in E. coli. This includes determination of protein copy numbers and distributions as well as the nanoscale organization of nucleic acids and lipids.
A novel labeling approach was applied and used for super-resolution imaging of the E. coli nucleoid. It is based on the incorporation of the modified thymidine analogue 5-ethynyl-2’- deoxyuridine (EdU) into the replicating chromosome. Azide-functionalized organic fluorophores can be covalently attached to the ethynyl group of incorporated EdU bases using a copper-catalyzed "click chemistry" reaction. Under the investigated growth condition, E. coli cells exhibited overlapping replication cycles, which is commonly referred to as multi-fork replication and enables cells to divide faster than they can replicate the entire chromosome. dSTORM imaging of such labeled nucleoids revealed chromosome features with diameters of 50 - 200 nm, representing highly condensed DNA filaments. Sorting single E. coli cells by length allowed visualizing structural changes of the nucleoid throughout the cell cycle. Replicating nucleoids segregated and expanded along the bacterial long axis, while constantly covering the entire width of the cell. Measuring cell and nucleoid length revealed a relative nucleoid expansion rate of 78 ± 6 %. At the same time, nucleoids populated 63 ± 8 % of the cell length, almost exclusively being localized to the cylindrical part of the cell. This value was hence normalized to the cylindrical fraction of the cell, yielding a value of 79 ± 10 % (nucleoid-populated fraction of the cell cylinder), which is in good agreement with the observed relative nucleoid expansion rate. These results therefore support a growth-mediated segregation model, in which the chromosome is anchored to the inner membrane and passively segregated into the prospective daughter cells upon cell growth. 3-dimensional dSTORM imaging of labeled nucleoids confirmed that compacted nucleoids helically wrap along the inner membrane. Similar results were obtained by imaging orthogonally aligned E. coli cells using a holographic optical tweezer approach.
In order to visualize particular proteins together with the nucleoid, several correlative imaging workflows were established, facilitating multi-color SMLM imaging in single E. coli cells. These workflows bypass prior limitations of SMLM, including destruction of FPs by reactive oxygen species in copper-catalyzed click reactions or incompatibility of PALM imaging with dSTORM imaging buffers. A sequential SMLM imaging routine was developed which is based on postlabeling and retrieval of previously imaged cells. Optimal imaging conditions can be maintained for each fluorophore, enabling to extract quantitative information from PALM measurements while correlating the protein distribution to the nucleoid ultrastructure within the highly resolved cell envelope. Applying this workflow to an E. coli strain carrying a chromosomal rpoC - photoactivatable mCherry (PAmCh) fusion, transcribing RNA polymerase (RNAP) was found to be localized on the surface of nucleoids, where active genes are exposed towards the cytosol. During growth in nutrient-rich medium, the majority of RNAP molecules was bound to the chromosome, thus ensuring that the RNAP pool is equally distributed to the daughter cells upon cell division. This work represented the first triple-color SMLM study performed in E. coli cells. ...
In der vorliegenden Studie wurden sieben verschiedene Biomarker (Survivin, Ki-S2, EGFR, Her2/neu, PTEN, p53, OSF-2) von Plattenepithelkarzinomen der Mundhöhle und des anterioren Oropharynx bezüglich ihres Expressionsverhaltens vor und nach Applikation einer intraarteriellen Induktionschemotherapie mit 150mg/m² Cisplatin und im Hinblick auf einen möglichen Zusammenhang des Expressionsverhaltens mit dem Chemotherapieresponse untersucht.
Mit Hilfe der TMA-Technologie wurde in Gewebeproben von 41 Patienten, welche am genannten Krebs erkrankt waren, die Expressionsraten immunhistochemisch bestimmt. Die Behandlung der Patienten erfolgte im Rahmen eines multimodalen Therapiekonzepts in der Klinik für Mund-, Kiefer- und Plastische Gesichtschirurgie am Klinikum der Johann Wolfgang Goethe-Universität in Frankfurt am Main. Alle Patienten hatten eine intraarterielle Induktionschemotherapie erhalten gefolgt von einer chirurgischen Intervention. Spätestens nach sechs Wochen erfolgte die adjuvante Bestrahlung beziehungsweise Radiochemotherapie (Maximalvariante). 56% der Patienten erhielten die Maximalvariante.
Die allgemeine pathologische Ansprechrate nach intraarterieller Induktion lag bei 39% (2%= pCR, 37%= pPR). 59% der Patienten zeigten kein Ansprechen auf die Induktion (pSD) und 2% zeigten eine Progression (pPD). Die Expressionsraten der einzelnen Biomarker wurden jeweils vor und nach intraarterieller Induktionschemotherapie bestimmt. Die statistische Analyse erfolgte univariat mittels Wilcoxon-Mann-Whitney-U-Test und Wilcoxon-matched-pairs-Test. Für Survivin, Ki-S2, OSF-2 und EGFR konnten signifikante Unterschiede nach Induktion verzeichnet werden, die Expressionsrate stieg für Survivin Kern (p= 0,0001), OSF-2 (OSF-2 Zytoplasma, p= 0,0067; OSF-2 Membran, p= 0,0001) und EGFR (p= 0,039) signifikant an. Für Ki-S2 nahm die Expressionsrate signifikant ab (p= 0,001).
In der Vergleichsgruppe Responder versus Non-Responder konnten sowohl in der diagnostischen Primärtumorbiopsie als auch im OP-Präparat des Primärtumors nach Induktion keine signifikanten Unterschiede zwischen Respondern und Non-Respondern in den Expressionsraten festgestellt werden. Für Survivin Zytoplasma lagen die Expressionsraten für die Responder-Patienten vor und nach Induktion im oberen Bereich. Für PTEN konnte bei 75% der Patienten ein Expressionsverlust verzeichnet werden. Damit konnte in der hier durchgeführten Studie kein Biomarker detektiert werden, welcher für eine signifikante Vorhersage zur Responserate herangezogen werden könnte.
Die Änderung der Expressionsraten von Biomarkern bei oralen und oropharyngealen Plattenepithelkarzinomen nach intraarterieller Induktionschemotherapie ist ein Befund, der an ähnliche Beobachtungen nach neoadjuvanter Chemotherapie z. B. beim Mammakarzinom anknüpft und darum weiter verfolgt werden sollte.
Die Modulation molekularer Systeme mit Licht ist ein in den letzten Jahren immer stärker untersuchtes Forschungsgebiet. Es existiert bereits eine große Anzahl an Publikationen, die mittels statischer Spektroskopie und anderer statischer Methoden Einblicke in die ablaufenden Prozesse gewähren konnten. Untersuchungen im Ultrakurzzeitbereich sind jedoch eher selten, liefern aber detaillierte Informationen zu den ablaufenden Prozessen. Den Wissensstand diesbezüglich zu erweitern, war Ziel dieser Dissertation.
Untersucht wurden neun photoschaltbare, molekulare Dyaden hinsichtlich ihrer Dynamik nach Photoanregung. Die Dyaden setzten sich aus einem Fluorophor (Bordipyrromethen, BODIPY), einem Photoschalter (Dithienylethen, DTE; offen oder geschlossen) und gegebenenfalls einer COOH-Ankergruppe zusammen.
Die Unterschiede in den Molekülstrukturen bestanden in der Verknüpfung der einzelnen Bauteile (kurze oder lange, beziehungsweise gerade oder gewinkelte Brücke) und der Art des Fluorophors und des Photoschalters (jeweils zwei verschiedene Strukturen).
Durch Belichtung mit UV- oder sichtbarem Licht konnten photostationäre Zustände generiert werden, die 40 – 98 % geschlossenes Isomer (je nach Molekül) beziehungsweise 100 % offenes Isomer enthielten.
Unter Verwendung von Licht verschiedener Wellenlängen konnten beide Teile der Dyade (BODIPY beziehungsweise DTE) separat angeregt und hinsichtlich der ablaufenden Photodynamik untersucht werden, wobei der Fokus der Arbeit auf transienten Absorptionsmessungen mit Anregung des BODIPY lag. Bei einem Großteil der untersuchten Moleküle kam es in diesem Fall, je nach Zustand des Photoschalters, zu einem intramolekularen Energietransfer nach der Theorie von Theodor Förster. Durch diese Energietransferprozesse kommt es zu einer drastischen Verkürzung der Lebenszeit des angeregten Zustands des BODIPY. Ausgehend von Lebenszeiten im Bereich von Nanosekunden im Falle der offenen Dyaden (entspricht der Fluoreszenzlebensdauer) reduziert sich die Lebenszeit auf wenige Pikosekunden, beziehungsweise je nach Aufbau des Moleküls sogar noch weiter. Die unterschiedlich schnellen Transferprozesse sind im Sinne der Förster-Theorie durch die unterschiedlichen Entfernungen und relativen Orientierungen der beiden beteiligten Übergangsdipolmomente (von DTE und BODIPY) erklärbar.
Neben Experimenten mit Anregung des BODIPY-Teils der Dyaden wurden weitere Experimente durchgeführt, in denen der geschlossene Photoschalter direkt angeregt wurde. Aus diesen Messungen konnten Erkenntnisse über die Relaxation des DTE erlangt werden. Auf diese Weise war es möglich, bei einigen der Moleküle die Ringöffnungsreaktion zu beobachten und zu charakterisieren. Im Fall von Dyade 4 konnten zusätzlich kohärente Schwingungen des Moleküls nach Photoanregung detektiert werden, die sich anhand einer Frequenzmodulation der Absorptionsbande des BODIPY-Teils über einen Zeitbereich von 2 ps beobachten ließen.
Cardiovascular disease is the leading cause of death worldwide. Aging is among the greatest risk factors for cardiovascular disease. Cardiovascular disease comprises several diseases, for example myocardial infarction, elevated blood pressure and stroke. Many processes are known to promote or worsen cardiovascular disease and in the present study, cellular senescence and inflammatory activation were of special interest, as they have a strong association to aging and can be seen as hallmarks of cellular aging.
Long noncoding RNAs (lncRNAs) are noncoding RNAs with a length of more than 200 nucleotides. In recent years, numerous regulatory functions were shown for these transcripts and lncRNAs were shown to directly interact with DNA, RNA and proteins. The long noncoding RNA H19 was among the first described noncoding RNAs and was initially shown to act as a tumor suppressor. More recently, several studies showed oncogenic roles for H19. In regards to the cardiovascular system, H19 was not analyzed before.
We show that H19 is the most profoundly downregulated lncRNA in endothelial cells of aged mice compared to young littermates. Microarray analysis of human primary endothelial cells upon pharmacological H19 depletion revealed an involvement of H19 in cell cycle regulation. Loss of H19 in human endothelial cells in vitro led to reduced proliferation and to increased senescence. H19 depletion was shown to counteract proliferation before, but none of the described mechanisms applied to endothelial cells. We show that the reduction in proliferative capacity and the pro-senescent function of H19 is most probably mediated by an upregulation of p16ink4A and p21 upon H19 depletion.
When we compared the angiogenic capacity of aortic endothelial cells from young and aged mice in an aortic ring assay, rings from aged mice showed a reduced cumulative sprout length. Interestingly, pharmacological inhibition of H19 in aortic rings of young animals, where H19 is highly expressed, was sufficient to reduce the cumulative sprout length to levels we observed from aged animals. Furthermore, overexpression of human H19 in aortic rings of aged mice, where H19 is poorly expressed, rescued the impaired angiogenic capacity of aged endothelial cells.
We generated inducible endothelial-specific H19 knockout mice (H19iEC-KO) and subjected these animals to hind limb ischemia surgery followed by perfusion analysis in the hind limbs by laser-doppler velocimetry and histological analysis. Perfusion in the operated hind limb was increased in H19iEC-KO compared to Ctrl littermates, which was in contrast to a reduction in capillary density in the operated hind limbs of H19iEC-KO animals compared to Ctrl littermates and to our previous results. Analysis of arteriogenesis revealed an increase in collateral growth upon EC-specific H19 depletion in the ischemic hind limbs, which explains the increase in perfusion despite the reduction in capillary density. Further characterization of the animals revealed an increase in leukocyte infiltration into the tissue in the ischemic hind limbs upon endothelial-specific H19 depletion, indicating a potential role of H19 in inflammatory tissue activation.
Reanalysis of the microarray data from human primary endothelial cells upon H19 depletion revealed an association of H19 with inflammatory signaling and more specifically with IL-6/JAK2/STAT3 signaling. Analysis of cell surface adhesion molecule expression revealed an upregulation of ICAM-1 and VCAM-1 on mRNA level and an increase of the abundance of the two proteins on the cell surface of human primary endothelial cells. Consequently, adhesion of isolated human monocytes to human primary endothelial cells was increased upon H19 depletion in vitro. Interestingly, TNF-α mediated inflammatory activation of primary human endothelial cells repressed H19 expression. H19 did not function via previously described mechanisms. We excluded a competitive endogenous RNA (ceRNA) function for H19 in endothelial cells and showed that miR-675, which is processed from H19, does not play a role in the endothelium. Furthermore, H19 did not regulate previously described genes or pathways.
Analysis of transcription factor activity upon H19 depletion and overexpression revealed a differential activity of STAT3. STAT3 phosphorylation at TYR705 and thus activation was increased upon H19 depletion. Inhibition of STAT3 activation using a small compound inhibitor abolished the effects of H19 depletion on mRNA expression of p21, ICAM-1 and VCAM-1 and on proliferation, indicating that the effects of H19 are at least partially mediated via STAT3. STAT3 was shown to have positive effects on the cardiovascular system before, most likely due to upregulation of VEGF in a STAT3-dependent manner. We were not able to confirm previously described mechanisms for STAT3 in the present study and propose a new mechanism of action for the H19-dependent regulation of STAT3. Taken together, these results identify the long noncoding RNA H19 as a pivotal regulator of endothelial cell function. Figure 38 summarizes the described functions of H19 in endothelial cells.
Heat stress transcription factors (Hsfs) play essential role in heat stress response and thermotolerance by controlling the transcriptional activation of heat stress response (HSR) genes including molecular chaperones. Plant Hsf families show a striking multiplicity, with more than 20 members in the many plant species. Among Hsfs, HsfA1s act as the master regulators of heat stress (HS) response and HsfA2 becomes one of the most abundant Hsfs during HS. Using transgenic plans with suppressed expression of HsfA2 we have shown that this Hsf is involved in acquired thermotolerance of S. lycopersicum cv Moneymaker as HsfA2 is required for high expression and maintenance of increased levels of Hsps during repeated cycles of HS treatment.
Interestingly, HsfA2 undergoes temperature-dependent alternative splicing (AS) which results in the generation of seven transcript variants. Three of these transcripts (HsfA2-Iα-γ), generated due to alternative splicing of a second, newly identified intron encode for the full length protein involved in acquired thermotolerance. Another 3 transcripts (HsfA2-IIIα-γ) are generated due to alternative splicing in intron 1, leading in all cases to a premature termination codon and targeting of these transcripts for degradation via the non-sense mRNA decay mechanism (NMD).
Interestingly, excision of intron 2, results into the generation of a second previously unreported protein isoform, annotated as HsfA2-II. HsfA2-II shows similar transcriptional activity to the full-length protein HsfA2-I in the presence of HsfA1a but lacks the nuclear export signal (NES) required for nucleocytoplasmic shuttling which allows efficient nuclear retention and stimulation of transcription of HS-induced genes. Furthermore, stability assays showed that HsfA2-II exhibits lower protein stability compared to HsfA2-I.
The presence of a second intron and the generation of a second protein isoform we identified in other Solanaceae species as well. Remarkably, we observed major differences in the splicing efficiency of HsfA2 intron 2 among different tomato species. Several wild tomato accessions exhibit higher splicing efficiency that favors the generation of HsfA2-II, while in these species the splice variant HsfA2-Iγ is absent. This natural variation in splicing efficiency specifically occurring at temperatures around 37.5oC is associated with the presence of 3 intronic polymorphisms. In the case of wild species these polymorphisms seemingly restrict the binding of RS2Z36, identified as a putative splicing silencer for HsfA2 intron 2.
Tomato accessions with the polymorphic “wild” HsfA2 show enhanced thermotolerance against a direct severe heat stress incident due to the stronger increase of Hsps and other stress induced genes. Introgression of the “wild” S. pennellii HsfA2 locus into the cultivar M82, resulted in enhanced seedling thermotolerance highlighting the potential use of the polymorphic HsfA2 for breeding.
We conclude that alterations in the splicing efficiency of HsfA2 have contributed to the adaption of tomato species to different environments and these differences might be directly related to natural variation in their thermotolerance.
In dieser Arbeit wurden thermodynamische Eigenschaften eines chiralen Quark Meson Modelles untersucht. Das chirale Quark Meson Model beschreibt die starke Wechselwirkung über den Austausch von Mesonen und zudem die thermische und dichteabhängige Entwicklung der Quarkmassen im Medium über die chirale Symmetrie.Im SU(2) Model wurde zunächst in mean field approximation gearbeitet, um im Anschluss den divergenten Vakuumterm mit einzubeziehen. Nach eingehender Untersuchung der Ergebnisse, wurden dann die thermischen Mesonenfluktuationen studiert. In beiden Ansätzen verschiebt die Nullpunktsenergie den chiralen Phasenübergang zu höheren Temperaturen, wodurch die Massen bei höheren Temperaturen entarten. Beide Ansätze wurden dann zu einem gemeinsamen Modell kombiniert, um den Einfluss der Mesonenfluktuationen auf Ordnungsparameter, Massen und thermodynamische Grössen zu untersuchen. Als Fazit der Studie kann behauptet werden, dass sich der Einfluss der Mesonenfluktuationen in grösserem Maÿ auf die Thermodynamik, als auf den Ordnungsparameter und die Massen auswirkt. Im SU(3) Modell wurden ebenfalls regularisiert und zudem Vektormesonen mitberücksichtigt, welche die Repulsion zwischen den einzelnen Freiheitsgraden modelliert. Die Zustandsgleichung wird durch den Vakuum Term etwas softer und zeigt ein ähnliches Verhalten im niederen Energiebereich. Untersucht wurde neben der Temperatur T, die Elektron Baryon Rate Ye, die Sigma Meson Masse noch der Einfluss der Vektorkopplung. Aus der Zustandsgleichung konntendann Isentropen im T-mu Phasendiagramm errechnet werden, welche in naher Zukunft Aufschluss über eine dritte Familie von kompakten Sternen in Zusammenhang mit der entsprechenden Supernova Explosion geben könnte. Um die Existenz von kompakten Sternen genauer zu analysieren, wurde das chiraleSU(3) Quark Meson Modell bei T = 0 benutzt, um über die aus dem Formalismusgewonnenen Grössen Druck und Energiedichte die Tolmann-Oppenheimer-Volkoff zu lösen. Diese stellen die Masse-Radius Beziehungen kompakter Objekte dar. Auf der Suche nach Twin Stern Lösungen aus dem chiralen SU(3) Quark Meson Model wurde zunächst ein Modell für Hybridsterne entwickelt. Im untersuchten Parameterbereich fanden wir Hybrid Stern Lösungen, bei welchen der Einfluss der Quarkmaterie auf die Stabilität des Sternes untersucht wurde, denn das Einsetzen des Phasenüberganges übt einen zusätzlichen gravitativen Zug auf die hadronische Kruste aus. Der Stern ist stabil, wenn der Druck der Quarkmaterie diesem zusätzlichen Zug standzuhalten vermag. Für einen zu grossen Sprung in der Energiedichte werden die Lösungen jedoch instabil. Zwillingssterne waren nicht unter den Lösungen, da der Übergangsdruck relativklein sein muss, während der Energiedichtesprung eher gross sein sollte. Das Auftreten zweier stabiler Äste in der Masse Radius Relation kann allerdingsmit dem SU(3) Modell und entsprechendem chiralen Phasenübergang modelliert werden. Für einen gewissen Parameterbereich einhergehend mit kleinem Wert des Vakuum Druckes B konnten Nicht-Linearitäten in der Zustangsgleichungzur Lösung der TOV Gleichung beitragen. Im Weitern ist das Zusammenspiel der Vektorkopplung und der Sigma Mesonen Masse einflussreich auf die Lösungen, welche auf Kausalität, Stabilität und neben der 2 Sonnenmassen Bedingung noch auf Restriktionen vom millisecond pulsar PSR J1748-2446ad untersucht wurden.Mit Weltraummissionen wie etwa NICER (Neutron star Interior CompositionExploreR) sollte die Radiusbestimmung kompakter Objekte in Zukunft bis auf einen Kilometer genau bestimmt werden können. Die Entdeckung von zweiSternen mit der gleichen Masse und unterschiedlichen Radien wäre in der Tat ein Beweis für die Existenz von Zwillingssternen, welche dann die Theorie des Phasenüberganges in dichter Materie untermauern würde. Das Kollaps-Szenario eines Zwillingssternes würde weiteren Aufschluss über Neutrino-Emmissivität, Gamma-ray burster und Gravitationswellen Signale geben können. Dynamische Simulationen in allgemein relativistischem Kontext für compact star merger mit den hier diskutierten Zustandsgleichungen sind bereits in Planung, um Eigenschaftenwie beispielsweise das Temperatur- und Dichteprofil solcher Objekte genauer zu analysieren.
Biophysical studies of the translation-regulating add adenine riboswitch from Vibrio vulnificus
(2017)
Bacterial gene expression can be regulated at mRNA level by cis-acting mRNA elements termed riboswitches. Riboswitches operate by conformational switching between a ligand-free and a ligand-bound state with different structures that either activate or inhibit gene expression. This PhD thesis contributes to the molecular level understanding of full-length purine riboswitches. It presents biophysical investigations on the ligand-dependent folding of the full-length translation-regulating add adenine riboswitch from the gram-negative human pathogenic marine bacterium Vibrio vulnificus (Asw). Asw has the typical bipartite riboswitch architecture with a 5’ ligand-sensing aptamer domain and a 3’ regulatory domain termed expression platform. According to the working hypothesis, Asw employs a unique thermodynamically-controlled 3-state conformational switching mechanism between an apoB, an apoA and a holo conformation to regulate translation initiation in a temperature-compensated manner. The two apo conformations are the putative translation-OFF states and the holo conformation is the putative translation-ON state of Asw. In the main project of this PhD thesis, an integrated nuclear magnetic resonance (NMR) and smFRET spectroscopic study of the full-length 112-nucleotide Asw (112Asw) was performed. The adenine-dependent folding of 112Asw was monitored at the level of base pairing interactions by NMR of the RNA imino protons, and at the level of three long-range intramolecular distances by smFRET of immobilized molecules. The integrated NMR and smFRET spectroscopic study of 112Asw yielded two major findings. First, NMR and smFRET both revealed that adenine binding to 112Asw impedes apoB formation by stabilizing the apoA secondary structure in the holo conformation without modulating tertiary structural interactions between the two riboswitch domains. This highlights the central role of competitive P1 and P4 helix formation at the interface of the aptamer and the expression platform for switching the accessibility of the ribosome binding site of 112Asw. Moreover, it strongly corroborates the hypothesis that purine riboswitches in general operate according to the key principle of a spatially decoupled secondary structural allosteric switch that proceeds without ligand-induced tertiary structural interactions between the aptamer domain and the expression platform. Second, it was uncovered by smFRET that the apoA and the holo conformation of 112Asw do not adopt a single folding state at near-physiological Mg2+ concentration. Instead, apoA and holo exhibit a persistent dynamic equilibrium between substates with an undocked (U), a short-lived docked (D1; ~s) and a Mg2+-bound long-lived docked (D2; ~10 s) aptamer kissing loop motif. In the holo conformation, the fractional population of the long-lived docked substate is ~2-fold increased compared to the apoA conformation, but undocked and docked substates are still comparably stable. The here described multiple folding states of the apoA and the holo conformation might have regulatory properties that are in between the apoB translation-OFF state and the holo-D2 translation-ON state. Additonally, an integrated NMR and smFRET analysis of 127-nucleotide Asw (127Asw) is presented. Compared to 112Asw, 127Asw is 3’-elongated by 15 nucleotides of the adenosine deaminase encoding sequence of the add gene from Vibrio vulnificus. 127Asw was chosen as mRNA template for future investigations of the interaction between Asw and the 30S ribosomal subunit. The NMR spectra of 127Asw demonstrated that 127Asw has the same overall secondary structure as 112Asw. Like for 112Asw, the combined NMR and smFRET analysis of 127Asw showed that adenine binding impedes apoB formation and stabilizes a long-lived docked aptamer kissing loop fold. However, compared to 112Asw, 127Asw has a destabilized aptamer kissing loop motif and a stabilized P4 helix in the expression platform. Finally, ligand-observed studies of the transient encounter complex between Asw and the near-cognate ligand hypoxanthine are described. By competition binding WaterLOGSY NMR experiments with hypoxanthine and the adenine analogue 2,6-diaminopurine, it could be shown that hypoxanthine binds to the same binding site of 112Asw as the cognate ligand adenine. The hypoxanthine binding constant measured with the WaterLOGSY method is in the low mM range (1.8 mM) and substantially exceeds the physiological hypoxanthine concentration in E. coli (~0.3 mM), thus ruling out that hypoxanthine binding can significantly impact the translational regulation of Asw in vivo. Also, preliminary FTIR difference spectra of 13C,15N-labelled and unlabelled hypoxanthine in complex with the pbuE adenine riboswitch aptamer and the xpt guanine riboswitch aptamer are discussed. These spectra showed a pattern of multiple IR bands that appeared to be characteristic for the respective complex.
Da die Implantologie ein fester Bestandteil der modernen Zahnheilkunde geworden ist, wird auch die Evaluation des Kieferknochens immer relevanter. Diese hohe Bedeutung des Kieferknochens ist damit zu begründen, dass für den Langzeiterfolg eines Implantates die knöcherne Einheilung im Rahmen der Osseointegration die Grundvoraussetzung bildet. Zudem erfordern verschiedene Knochenqualitäten des Kieferknochens unterschiedliche Implantatdurchmesser und Bohrprotokolle. Schon hier zeigt sich, wie relevant weitreichende Kenntnisse über den Kieferknochen sind.
Auch im Rahmen der Implantatforschung und -entwicklung ist es von großer Bedeutung, Knochen zu evaluieren und damit kalibrieren und kategorisieren zu können, um vergleichbare Versuchswerte generieren zu können. In der aktuellen Literatur liegen zahlreiche Studien zu der Knochendichte, -qualität und -quantität des Kieferknochens vor, Evaluationsmethoden des Kieferknochens sind jedoch rar. Aufgrund dessen befasst sich diese Arbeit mit der Neuentwicklung einer Evaluationsmethode von Knochen.
Zu diesem Zweck wurde in dieser Arbeit der an ein inseriertes Implantat-Dummy angrenzende Knochen mit einem Bone-Evaluation Tool bewertet und geprüft, ob eine Korrelation zwischen dem Eindrehmoment des Implantat-Dummys, der Kompaktadicke und dem Eindrehmoment des nachfolgenden Bone-Evaluation-Tools besteht. Eine bestehende Korrelation würde bedeuten, dass dieses Evaluation-Tool in der Lage ist, Knochen bezüglich seiner Güte zu bewerten und zu kalibrieren.
Durchgeführt wurden die Versuche an dem distalen Ende von bovinen Rippensegmenten sowie an Segmenten des bovinen Femurkopfes. Beide sollten den Kieferknochen der humanen Mandibula simulieren. Es wurden zwei im Durchmesser differierende Bohrprotokolle angewendet, welche als „Hard Bone Small“ (HBS) und „Hard Bone Large“ (HBL) bezeichnet wurden. Als erstes erfolgte jeweils eine Vorbohrung (ø HBS: 3,3 mm; ø HBL: 4,0 mm), gefolgt von der Insertion des Implantat-Dummys (ø HBS: 3,5 mm; ø HBL: 4,2 mm). Als nächstes erfolgte die Entfernung (Aufbohrung) der Gewindeimpressionen, die durch den Implantat-Dummy generiert wurden (ø HBS: 3,8 mm; ø HBL: 4,5 mm). Anschließend wurde das Bone-Evaluation-Tool inseriert (ø HBS: 4,0 mm; ø HBL: 4,7 mm). Zum Schluss wurden die Rippensegmente mittig der Insertionsstelle aufgehackt und an beiden Hälften jeweils median der Insertionsstelle die Kompaktadicke gemessen und die Werte gemittelt.
Anhand der Ergebnisse konnte gezeigt werden, dass beide Bohrprotolle (HBS und HBL) verwendet werden können, um bovinen Rippenknochen zu evaluieren (p<0,001), da eine statistisch signifikante Korrelation zwischen Drehmoment ID mit Drehmoment BET und der Kompaktadicke bewiesen wurde (p<0,001). In Folgearbeiten wird geprüft, ob sich diese Bohrprotokolle auch auf menschlichen Kadaverknochen übertragen lassen.
The theory of strong interactions — Quantum Chromodynamics (QCD) — is well-defined mathematically. However, direct applications of this theory to experiment are rather limited due to significant technical obstacles. Even some general features of QCD remain unclear to date.
Hence, phenomenological input is important and needed for practical applications, e.g. for theoretical analysis of the heavy-ion collision experiments. In this thesis the role of hadronic interactions is studied in the hadron resonance gas (HRG) model — a popular model for the confined phase of QCD. The description of hadronic interactions is based on the famous van der Waals (VDW) equation and its quantum statistical generalization. While this is not the conventional choice for nuclear/hadronic physicspplications, the simplicity of the VDW approach makes it extremely useful.
In particular, this framework allows to include the two most basic ingredients of hadron-hadron interaction: the short-range repulsion, modeled by excluded-volume (EV) corrections, and the intermediate range attraction. The first part of the thesis considers just the repulsive EV interactions between hadrons. A hitherto unknown, but surprisingly strong sensitivity of the long known thermal fits to heavy-ion hadron yield data to the choice of hadron eigenvolumes is uncovered. It challenges the robustness of the chemical freeze-out temperature and baryochemical potential determination from the thermal fits. However, at the same time, the extracted value of the entropy per baryon is found to be a robust observable which depends weakly on this systematic uncertainty of the HRG model.
A Monte Carlo procedure to treat EV interactions in HRG is also introduced in this thesis. It allows to study simultaneous effects of EV and of exact charge conservation in HRG for the first time. Generalizations of the classical VDW equation are required for its applications in hadronic physics. he grand canonical ensemble (GCE) formulation of the classical VDW equation is presented. Remarkably, this important aspect of the VDW equation was not discovered before. The GCE formulation yields the analytic structure of the critical fluctuations, both in the vicinity of and far off the critical point. These critical fluctuations are presently actively being used as probes for the QCD critical point. Another extension is the hitherto undiscovered generalization of the VDW equation to include quantum Bose-Einstein and Fermi-Dirac statistics. It is performed for both single-component and multi-component fluids. The Fermi-Dirac VDW equation is applied for the first time. It is used to describe nucleons and basic properties of nuclear matter. The quantum statistical generalization of the VDW equation developed in this work is quite general, and can be applied for any fluid. Thus, its applications are not restricted to QCD physics, but may also find themselves in chemistry and/or industry. The quantum statistical VDW equation is used to describe baryonic interactions in full HRG. The VDW parameters $a$ and $b$ are fixed to the nuclear ground state and the predictions of the model are confronted with lattice QCD calculations. The inclusion of baryonic interactions leads to a qualitatively different behavior of the fluctuations of conserved charges in the crossover region. In many cases it resembles the lattice data. These results suggest that hadrons do not melt quickly with increasing temperature, as one could conclude on the basis of the common simple ideal HRG model. Calculations at finite chemical potentials show that the nuclear liquid-gas transition manifests itself by non-trivial fluctuations of the net baryon number in heavy ion collisions. In the final part of the thesis the pure glue initial scenario for high-energy hadron and heavy-ion collisions is explored. This scenario is shown not to spoil the existing agreement of the hadronic and electromagnetic observables description in Pb+Pb collisions at energies available at the CERN Large Hadron Collider. Hydrodynamic calculations suggest that collisions of small-sized nuclei at lower collision energies available at the BNL Relativistic Heavy Ion Collider are promising in the search for the traces of the chemically non-equilibrium gluon-dominated phase transition.
The adult mammalian heart is unable to regenerate lost myocardial tissue after injury. In contrast, some lower vertebrates including zebrafish are able to undergo complete epimorphic regeneration following multiple types of cardiac injury. During the process of regeneration, spared zebrafish cardiomyocytes in the vicinity of the injured area undergo dedifferentiation and proliferation, thereby giving rise to new cardiomyocytes which replace the injured muscle. Insights into the molecular networks controlling these regenerative processes might help to develop novel therapeutic strategies to restore cardiac performance in humans.
While TGF-β signaling has been implicated in zebrafish cardiac regeneration, the role of individual TGF-β ligands remains to be determined. Here, I report the opposing expression response of two TGF-β ligand genes, mstnb and inhbaa, during zebrafish heart regeneration. Using gain- and loss-of-function approaches, I show that these ligands exert opposite effects on cardiac regeneration and specifically on cardiomyocyte proliferation. Notably, I show that overexpression of mstnb and loss of inhbaa negatively regulate cardiomyocyte proliferation and therefore disturb cardiac regeneration. In contrast, loss of mstnb and activation of inhbaa not only promote physiological cardiomyocyte proliferation but also enhance cardiac regeneration. I also identify Inhbaa as a mitogen which promotes cardiomyocyte proliferation independent of the well-established Nrg-ErbB signaling. Mechanistically, I unraveled that Mstnb and Inhbaa function through alternate Activin type 2 receptor complexes to control the activities of the signal transducers, Smad2 and Smad3, thereby regulating cardiomyocyte proliferation.
Altogether, I reveal novel and unidentified opposite functions of two TGF-β ligands during cardiac development and regeneration, resulting in a pro-mitogenic as well as an anti-mitogenic effect on cardiomyocytes. This study should therefore stimulate further research on targeting specific TGF-β family members to generate novel regenerative therapeutic strategies.
Software evolves. Developers and programmers manifest the needs that arise due to evolving software by making changes to the source code. While developers make such changes, reusing old code and rewriting existing code are inevitable. There are many challenges that a developer faces when manually reusing old code or rewriting existing code. Software tools and program transformation systems aid such reuse or rewriting of program source code. But there are significantly occuring development tasks that are hard to accomplish manually, where the current state-of-the-art tools are still not able to adequately automate these tasks. In this thesis, we discuss some of these unexplored challenges that a developer faces while reusing and rewriting program source code, the significance of such challenges, the existing automation support for these challenges and how we can improve upon them.
Modern software development relies on code reuse, which software developers
typically realize through hand-written abstractions, such as functions,
methods, or classes. However, such abstractions can be challenging to
develop and maintain. An alternative form of reuse is \emph{copy-paste-modify}, in which developers explicitly duplicate source code to adapt the duplicate for a new purpose. Copy-pasted code results in code clones, i.e., groups of code fragments that are similar to each other. Past research strongly suggests that copy-paste-modify is a popular technique among software developers. In this paper, we perform a small user study that shows that copy-paste-modify can be substantially faster to use than manual abstraction.
One might propose that software developers should forego hand-written abstractions in favour of copying and pasting. However, empirical evidence also shows that copy-paste-modify complicates software maintenance and increases the frequency of bugs. Furthermore, the developers in an informal poll we conducted strongly preferred to read code written using abstractions. To address the concern around copy-paste-modify, we propose a tool that merges similar pieces of code and automatically creates suitable abstractions. Our tool allows developers to get the best of both worlds: easy reuse together with custom abstractions. Because different kinds of abstractions may be beneficial in different contexts, our tool provides multiple abstraction mechanisms, which we selected based on a study of popular open-source repositories.
To demonstrate the feasibility of our approach, we have designed and implemented a prototype merging tool for C++ and evaluated our tool on a number of clones exhibiting some variation, i.e near clones, in popular Open Source packages. We observed that maintainers find our algorithmically created abstractions to be largely preferable to existing duplicated code. Rewriting existing code can be considered as a form of program transformation, where a program in one form is transformed into a program in another form. One significant form of program transformation is data representation migration that involves changing the type of a particular data structure, and then updating all of the operations that has a control or data dependence on that data structure according to the new type. Changing the data representation can provide benefits such as improving efficiency and improving the quality of the computed results. Performing such a transformation is challenging, because it requires applying data-type specific changes to code fragments that may be widely scattered throughout the source code connected by dataflow dependencies. Refactoring systems are typically sensitive to dataflow dependencies, but are not programmable with respect to the features of particular data types. Existing program transformation languages provide the needed flexibility, but do not concisely support reasoning about dataflow dependencies.
To address the needs of data representation migration, we propose a new approach to program transformation that relies on a notion of semantic dependency: every transformation step propagates the transformation process onward to code that somehow depends on the transformed code. Our approach provides a declarative transformation specification language, for expressing type-specific transformation rules. We further provide scoped rules, a mechanism for guiding rule application, and tags, a device for simple program analysis within our framework, to enable more powerful program transformations.
We have implemented a prototype transformation system based on these ideas for C and C++ code and evaluate it against three example specifications, including vectorization, transformation of integers to big integers, and transformation of array-of-structs data types to struct-of-arrays format. Our evaluation shows that our approach can improve program performance and the precision of the computed results, and that it scales to programs of at least 3700 lines.
Taxonomy, phylogeny and zoogeography of the hexaploid Torini of the Middle East and North Africa
(2017)
Fishes of the tribe Torini Karaman, 1971 (Teleostei: Cyprinidae) are a diverse group of primary freshwater fishes, distributed in Africa, the Middle East, and Indomalaya. They are an important component of the native freshwater-fish fauna of the Middle East and North Africa, and occur in most large river systems of the Levant, Arabia, Mesopotamia, southern Iran, and Morocco. They belong to the subfamily Cyprininae, are characterised by being tetraploid or hexaploid, having large scales, and a smooth and ossified last unbranched ray in the dorsal fin. As primary freshwater fishes they are not able to tolerate marine conditions and depend on direct freshwater connections for their dispersal. This makes them an ideal model for zoogeographic studies.
Prior to this study, the diversity of the Torini species in the Middle East and North Africa was not well understood. The validity of several genera and species was unclear, and the generic assignment of several species changed frequently.
In this PhD project the taxonomy, phylogeny, and zoogeography of the Torini of the Middle East and North Africa were investigated with morphological, as well as molecular methods. More than 1550 fish specimens were examined morphologically. Some of the specimens, including the types of most nominal species, were already available from museum collections. The remaining specimens were collected during expeditions to Ethiopia, Iran, Jordan, Morocco and Syria. Tissue samples were collected for molecular genetic analyses. The mitochondrial genes for cytochrome b, NADH dehydrogenase subunit 4 and the tRNAs for serine and histidine were sequenced from more than 120 specimens, representing 20 species of Torini and two small, diploid African barbs (Cyprinidae, tribe Smiliogastrini). Molecular data were analysed with Bayesian inference and other methods.
The analyses confirmed that the hexaploid Torini of Africa and the Middle East form a monophyletic group. In the Middle East and North Africa the Torini are represented by the genera Arabibarbus, Carasobarbus, Mesopotamichthys, and Pterocapoeta. These genera are each morphologically diagnosable, monophyletic, and genetically distinct. The species 'Labeobarbus' reinii cannot be assigned to any of these genera, because it is morphologically dissimilar and genetically clearly separated from each of them. A generic name for this species is presently not available and until the description of a new genus it is preliminarily assigned to the genus 'Labeobarbus'.
Out of the 28 species-group taxa described from the Middle East and North Africa until now, 15 are valid: Arabibarbus arabicus, A. grypus, A. hadhrami, Carasobarbus apoensis, C. canis, C. chantrei, C. exulatus, C. fritschii, C. harterti, C. kosswigi, C. luteus, C. sublimus, Mesopotamichthys sharpeyi, Pterocapoeta maroccana, and 'Labeobarbus' reinii.
The phylogenetic relationships between the Middle Eastern and North African Torini are well resolved, based on the analysis of mitochondrial DNA sequences from nearly all relevant species.
The interspecific and intraspecific morphological and genetic diversity is shaped by the zoogeographic history. Conclusions can be drawn about the events that shaped the evolution of this group. The Torini originated in the Indomalayan biogeographical realm and colonised the Middle East and Africa during the Miocene via the Gomphotherium landbridge. The Indomalayan Torini are tetraploid, whereas those of the Middle East and Africa are hexaploid. Molecular phylogenetic analyses showed that the hexaploid Torini cluster within the tetraploid Torini. This makes the tetraploid Torini a paraphyletic group with respect to the hexaploid Torini. Morocco was colonised in two independent waves. The first came from sub-Saharan Africa and is represented by Pterocapoeta maroccana. The second originated in the Middle East and gave rise to C. fritschii, C. harterti, and probably 'L.' reinii. The Tigris-Euphrates system is the largest freshwater system in the Middle East. Its central position between the Orontes River and Jordan River in the West, the Iranian tributaries to the Persian Gulf in the East, and the Arabian Peninsula in the South made it an important crossroad for the colonisation of the Middle East by Torini and other freshwater biota. During the Miocene the predecessors of the Jordan and Orontes rivers were connected to the Tigris-Euphrates system. The Jordan River was separated from the Euphrates before the Orontes. Arabia was colonised in two waves. The first (A. arabicus, A. hadhrami, C. exulatus) dates to the Pliocene, whereas the second (C. apoensis) ended as recently as the late Pleistocene or early Holocene.
Hintergrund: CD34+ Zellen besitzen eine essenzielle Rolle in der Hämatopoese und vaskulären Homöostase. Das Ziel unserer Studie war, erstens, in vitro die Rolle des thrombozytären JAM-C bei der Adhäsion und anschließenden Differenzierung von humanen CD34+ Zellen zu endothelialen Progenitorzellen zu analysieren sowie zweitens, seine Assoziation mit dem thrombozytären P-Selektin bei Patienten mit koronarer Herzkrankheit zu untersuchen.
Methoden und Ergebnisse: Mittels Durchflusszytometrie beobachteten wir, dass in vitro die JAM-C-Expression auf der Oberfläche von Thrombozyten, nach Thrombozytenaktivierung, erhöht ist. Die JAM-C-Expression korrelierte mit der Expression des thrombozytären P-Selektin in Patienten mit koronarer Herzkrankheit (r=0,301, P=0,01). Die Rolle des JAM-C und seines Counter-Rezeptors MAC-1 bei der Adhäsion von humanen CD34+ Zellen über immobilisierten Thrombozyten, wurde jeweils, unter Verwendung eines neutralisierenden löslichen Proteins (sJAMC-Fc) und eines monoklonalen Antikörpers gegen JAM-C oder Integrin MAC-1 (CD11b/CD18), untersucht. Die Behandlung mit löslichem JAM-C-Fc, anti-JAM-C oder anti-MAC-1 ergab, im Gegensatz zu einer Vorbehandlung mit Control-Fc oder IgG1, eine signifikant verminderte Adhäsion von humanen CD34+ Zellen an immobilisierten Thrombozyten unter statischen Bedingungen (P<0,05). Um unsere Ergebnisse unter hoher Scherspannung, ähnlich der arteriellen Strömung, zu validieren, führten wir Perfusionsexperimente in einer Flusskammer durch. Auch unter hoher Scherspannung führte die Hemmung der JAM-C/MAC-1 Interaktion zu einer signifikant verringerten Adhäsion von CD34+ Zellen über immobilisierten Thrombozyten (P<0,05). Mittels endothelialer Kolonienbildungstests und Kokulturen konnten wir zeigen, dass die Thrombozyten-vermittelte Differenzierung von CD34+ Zellen zu Endothelzellen oder Makrophagen/Schaumzellen, durch die Hemmung der JAM-C/MAC-1-Achse, unbeeinflussbar bleibt.
Schlussfolgerungen: In Anbetracht dieser Ergebnisse kann man behaupten, dass thrombozytäres JAM-C die CD34+ Zelladhäsion unterstützt. Dieser Mechanismus kann möglicherweise am Homing sowie an der Domizilierung von humanen CD34+ Zellen beteiligt sein.
Languages in general have various possibilities to express one and the same propositional content. One of these possibilities is grammatical variation. This thesis is concerned with the variation of the linear word order in a clause and the effects triggered by word order alternations. Although sharing the same propositional content, different word order variants can carry different functions; word order variation can be used to achieve certain stylistic effects. The dissertation looks at functional and stylistic preferences of English regarding variation from the canonical word order in (1).
(1) [Ernie]S [sits]V [on the table]O. (SVO)
The variation under consideration is locative inversion (LOCI), exemplified in (2).
(2) On the table sits Ernie.
As any variation from the canonical word order is said to strongly depend on the grammatical system of the language a sentence is realized in, the perspective is extended to the word order equivalent of the sentence above in German (3). The goal is to highlight possible differences/similarities between English and German with respect to one specific word order variant in a declarative main clause.
(3) Auf dem Tisch liegt ein Brief.
On the table lies a letter
‘On the table lies a letter’.
As the variation from the canonical word order is not expected to be coincidental in both languages, the features that favor the pattern under consideration are examined. This is done through a statistical analysis by employing two comparable corpora, the BNC for English and the TÜPP D/Z for German. The central questions for the thesis therefore are: What are the functions of the inverted constructions in English and German, what features favor their use in the respective languages, and how are they realized syntactically?
One finding is that German uses the syntactic pattern PP-V-NP for very similar reasons this pattern is used for in English. There seems to be a general tendency to order shorter before longer constituents. The syntactic pattern under consideration fulfills similar discourse functions in both languages. Both languages show similar preferences, they are driven by similar factors when having to decide on whether to stay with the canonical order or to prepose (respectively invert) the canonically postverbal PP.
Die Laufökonomie erfasst den Wirkungsgrad der kardiometabolischen Energiebereitstellung eines Menschen für die bipedale Fortbewegung. Ob diese, im Leistungssport häufig angewandte, Größe auch bei Amateursportlern ein leistungsbeeinflussender Faktor ist, wurde bislang noch nicht systematisch untersucht. Speziell die großen Leistungsunterschiede bei Amateursportlern und die Vielzahl an Erfassungs- und Auswertungsmethoden stellen für die interindividuelle Vergleichbarkeit in diesem Kollektiv bislang noch ungelöste Probleme dar.
Die vorliegende Untersuchung verfolgt drei Ziele: 1) Die Überprüfung der Eignung standardisierter stufenförmiger Belastungsprotokolle zur Laufökonomieermittlung; 2) Die Analyse des Einflusses der relativen Beanspruchungsintensität auf die Laufökonomie; und 3) Den Nachweis der Bedeutung der Laufökonomie für die Laufleistung von Amateursportlern unterschiedlicher Leistungsfähigkeit. Zu diesem Zweck wurden zwei unabhängige Studien im Querschnittdesign entworfen. Das erste Experiment überprüfte die Eignung spiroergometrischer Kenngrößen aus stufenförmigen Belastungstests zur Bestimmung der Laufökonomie und deren Einflüsse auf die Laufleistung bei Amateursportlern. Die zweite dieser Arbeit zugrundeliegende Studie diente zur Identifikation des optimalen Beanspruchungsniveaus zur zuverlässigen Bestimmung von Parametern der Laufökonomie bei Amateursportlern.
Die vorliegenden Ergebnisse deuten darauf hin, dass stufenförmige Belastungsprotokolle zur Laufökonomieermittlung an definierten Beanspruchungspunkten geeignet sind. Sie bestätigen den Einfluss der Laufökonomie auf die Laufleistung bei Amateursportlern unabhängig von der maximalen Sauerstoffaufnahme. Die Auswertung als Sauerstoff- (ml/kg/m) und/oder Kalorienumsetzung (kcal/kg/km) pro zurückgelegte Strecke an standardisierten submaximalen Referenzpunkten erscheint im Amateurbereich empfehlenswert. Speziell für Amateursportler können diese Größen nicht nur als leistungslimitierender Faktor interpretiert sondern auch zur Quantifizierung des bewegungsbezogenen Energieverbrauchs und des damit assoziierten Gesundheitsnutzen körperlicher Aktivität herangezogen werden.
Embedding spanning structures into the random graph G(n,p) is a well-studied problem in random graph theory, but when one turns to the random r-uniform hypergraph H(r)(n,p) much less is known. In this thesis we will examine this topic from different perspectives, providing insights into various aspects of the theory of random graphs. Our results cover the determination of existence thresholds in two models, as well as an algorithmic approach. For the embeddings, we work with random and pseudorandom structures.
Together with Person we first notice that a general result of Riordan can be adapted from random graphs to hypergraphs and provide sufficient conditions for when H(r)(n,p) contains a given spanning structure asymptotically almost surely. As applications, we discuss several spanning structures such as cubes, lattices, spheres, and Hamilton cycles in hypergraphs.
Moreover, we study universality, i.e. when does an r-uniform hypergraph contain every hypergraph on n vertices with maximum vertex degree bounded by [delta]? For H(r)(n,p), it is shown with Person that this holds for p = w(ln n/n)1/[delta]) asymptotically almost surely by combining approaches taken by Dellamonica, Kohayakawa, Rödl, and Ruciński, of Ferber, Nenadov, and Peter, and of Kim and Lee.
Any hypergraph that is universal for the family of bounded degree r-uniform hypergraphs has to contain [omega](nr-r/[delta]) edges. With Hetterich and Person we exploit constructions of Alon and Capalbo to obtain universal r-uniform hypergraphs with the optimal number of edges O(nr-r/[delta]) when r is even, r | [delta], or [delta] = 2. Furthermore, we generalise the result of Alon and Asodi about optimal universal graphs for the family of graphs with at most m edges and no isolated vertices to hypergraphs.
In an r-uniform hypergraph on n vertices a tight Hamilton cycle consists of n edges such that there exists a cyclic ordering of the vertices where the edges correspond to consecutive segments of r vertices. In collaboration with Allen, Koch, and Person we provide a first deterministic polynomial time algorithm, which finds asymptotically almost surely tight Hamilton cycles in random r-uniform hypergraphs with edge probability at least C log3 n/n. This result partially answers a question of Nenadov and Skorić and of Dudek and Frieze who proved that tight Hamilton cycles exist already for p = w(1/n) for r = 3 and p [größer/gleich] (e + o(1))/n for r [größer/gleich] 4 using a second moment argument. Moreover our algorithm is superior to previous results of Allen, Böttcher, Kohayakawa, and Person and Nenadov and Skorić.
Lastly, we study the model of randomly perturbed dense graphs introduced by Bohman, Frieze and Martin, that is, the union of any n-vertex graph G[alpha] with minimum degree at least [alpha]n and G(n,p). For any fixed [alpha] > 0, and p = w(n-2/([delta]+1)), we show with Böttcher, Montgomery, and Person that G[alpha] UG(n,p) almost surely contains any single spanning graph with maximum degree [delta], where [delta] [größer/gleich] 5. As in previous results concerning this model, the bound used for p is lower by a log-term in comparison to the conjectured threshold for the general appearance of such subgraphs in G(n,p) alone. The new techniques we introduce also give simpler proofs of related results in the literature on trees and factors.
Tissue size regulation is critical for the normal functioning of the organ as well as to prevent unwanted pathogenesis such as cancer. The Hippo signaling pathway is well known for its robust regulation of tissue growth by the negative regulation of its nuclear effectors YAP1 and WWTR1. In this study, I have described the role of Yap1/Wwtr1 in zebrafish development, with a primary emphasis on the cardiovascular system.
I have generated zebrafish yap1 and wwtr1 mutants by CRISPR/CAS9. The mutant alleles are likely to be nonfunctional due to a premature stop codon and they show evidence of nonsense-mediated decay. Given that Yap1 and Wwtr1 are closely related proteins and have overlapping functions, I am given the opportunity to perform combinatorial analysis of the mutations on zebrafish development. Together with molecular probing tools, high-throughput sequencing and high-resolution imaging, I showed that
1. Double yap1;wwtr1 mutants exhibit severe posterior elongation phenotype, but somitogenesis appears to proceed as usual.
2. Yap1 and Wwtr1 may play an important role in PCV development and secondary angiogenic sprouting. However, key experiments will be needed to elucidate the direct role of Yap1 and Wwtr1 on these processes.
3. wwtr1-/- larvae hearts have a reduction in trabeculation, but in mosaic WT hearts, mutant cardiomyocytes prefer to populate the trabecular layer. My studies revealed that the mutant compact wall could not support trabeculation, which explains the hypotrabeculation phenotype of wwtr1-/- hearts. Additionally, Wwtr1 is required for myocardial Notch activity and can inhibit compact wall cardiomyocytes from entering the trabecular layer.
In summary, the Hippo signaling pathway, through Yap1/Wwtr1 has important regulatory functions in growth control. My work has revealed a surprising role for Yap1/Wwtr1 in tissue morphogenesis such as posterior tail morphogenesis and specific developmental processes of the cardiovascular system. It will be of interest to elucidate the regulation of Yap1/Wwtr1 in individual cells that translates into the complex cellular behaviors that drives morphogenesis.
Die einzelnen Forschungsprojek
te sollen den breit aufgestellten Anwendungsbereich der Röntgenpulverdiffraktometrie im Bereich der Klärung von wissenschaftlichen Problemstellungen mit weiteren Beispielen komplementieren. Weiter soll die Nutzung der Synergie aus der kombinierten Anwendung von diversen strukturaufklärenden Methoden an polykristallinen Festkörpern aufgezeigt werden. Verwendet werden dazu Testsubstanzen aus verschiedenen, breit gefächerten Stoffklassen. Zum Einen wird die erfolgreiche Kristallstrukturbestimmung aus Röntgenpulverbeugungsdaten an einem diradikalischen Azobenzol-Derivates 1 (4-4'-Diazendiylbis[(1,4-phenyl)-bis-(carbonyloxy)]bis(2,2,6,6-tetramethylpiperidinyloxidanyl) gezeigt. Die Substanzklasse der diradikalischen Verbindungen ist für die Bestimmung von Radikal-Radikal-Abständen per EPR-Methoden (electron paramagnetic resonance) sehr wichtig. Zur Validierung der ermittelten Abstände aus den EPR-Messungen musste der Radikal-Radikal-Abstand vorab bekannt sein. Der intramolekulare Radikal-Radikal-Abstand von 23,658(6) Å. welcher im gewünschten Radikal-Radikal-Abstandsbereich für EPR-Messungen liegt, somit konnte 1 als Testsubstanz für Abstandsbestimmungen mittels EPR validiert werden. Die vorliegende
Kristallstruktur wurde in der Raumgruppe P21/c (Z = 2, Z’ = 0,5) mit a = 19,3355(5) Å, b = 5,9277(2) Å, c = 14,5264(4) Å, β = 109,22(1)° und einem Volumen V = 1572,12(8) ų ermittelt. Der Molekülmittelpunkt von 1 liegt auf einem kristallographischen Inversionszentrum und das aromatische Fragment von Estergruppe zu Estergruppe bildet annähernd eine Ebene. Anhand der Kristallstrukturbestimmung aus Röntgenpulverbeugungsdaten soll die
Lokalisierung eines Wasserstoffatoms in direkter Nachbarschaft zu Molekülfragmenten mit einer hohen Anzahl an Chlorsubstituenten untersucht werden. Am Beispiel der Bestimmung des tautomeren Zustands des achtfach chlorierten Color Index Pigment Yellow 138 (P.Y. 138) kann die Synergie aus quantenchemischen Rechnungen, Festkörper-NMR-Messungen und der Kristallstrukturbestimmung aus Röntgenpulverbeugungsdaten gezeigt werden. Hierbei wurden unter anderen unterschiedliche Kristallstrukturverfeinerungsstrategien zur Ermittlung des tautomeren Zustands entwickelt und angewendet. P.Y. 138 liegt in der monoklinen Raumgruppe P21/c (Z = 4, Z’ = 1) mit a = 19,3750(5) Å, b = 7,8516(1) Å, c = 16,9704(4) Å, β = 105,649(2)° und V = 2485,9(1) ų als NH-Tautomer vor. Es bilden sich Molekülschichten parallel zur (100)-Ebene aus. Innerhalb der Schichten wirken Van-der-Waals-Kräfte; zwischen den Schichten dominieren Typ I Cl⋯Cl-Wechselwirkungen. An dem pharmazeutisch aktiven Wirkstoffes Flupirtinmaleat wird die immer noch hohe Relevanz der Röntgenpulverdiffraktometrie bei einer Polymorphiesuche gezeigt. Flupirtinmaleat ist aufgrund seiner analgetischen Wirkung, ohne typische weitere Eigenschaften von Schmerzmittel wie beispielsweise opiode oder herzrhythmusbeeinflussende aufzuweisen, eine höchst interessante Substanz. Neue Polymorphe können bessere Eigenschaften als die Ausgangsphase aufweisen oder auch den wirtschaftlichen Nutzen erhöhen, da diese patentierbar oder kostengünstiger und ressourcenschonender in der Herstellung sein können. Für das Flupirtinmaleat-Projekt wurden Aufnahme und Auswertung von Röntgenpulverdiffraktogrammen als standardisierte analytische Methoden zur Bestimmung von neuen kristallinen Phasen bei einer sehr großen Probenanzahl von über 500 Einzelversuchen, welche bei Polymorphiesuchen aufkommt, genutzt. Von der pharmazeutisch aktiven Substanz Flupirtinmaleat ist es gelungen, die neuen Festkörperphasen C, F, G und H zu entdecken. Ebenfalls konnte durch Vermahlungsexperimente Flupirtinbromid erzeugt werden. Des Weiteren wurden die Einkristallstrukturen von Flupirtinmaleat Form A und Flupirtin Phase B bestimmt. Das letzte Projektkapitel zeigt den Beginn einer methodischen Entwicklung zur Konfigurationsbestimmung von chiralen Molekülen aus Röntgenpulverbeugungsdaten. Ziel
der Methode ist es, ein schnelles Verfahren zur Ermittlung der absoluten Konfiguration und Strukturaufklärung von neu entwickelten Substanzen beispielsweise für pharmazeutische Wirkstoffe zu haben. Bei der Einkristallstrukturanalyse kann aus dem Reflexbild anhand von Intensitätsunterschieden spezieller Reflexpaare die Konfiguration einer Verbindung direkt bestimmt werden. Da dies bei Röntgenpulverdiffraktogrammen nicht der Fall ist, kann diese
Methode nicht angewendet werden. Zur Umsetzung des Leitgedankens sollen daher chirale Salze aus der Zielsubstanz mit unbekannter Konfiguration und einem Salzbildner bekannter Chiralität erzeugt werden. Der Drehsinn des bekannten Salzbildners soll sozusagen als
Ankerpunkt für die Bestimmung der absoluten Konfiguration dienen. Da ein Anwendungsschwerpunkt die pharmazeutische Forschung sein könnte, wurden als Grundlage der Methodenentwicklung chirale Testsysteme bestehend aus pharmazeutischen Wirkstoffen und Salzbildnern jeweils mit bekannter Konfiguration. Acht neue Entitäten von verschiedenen Wirkstoff-Salzbildner-Paaren konnten erzeugt und mittels Röntgenpulverbeugungsdaten bestätigt werden. Dies zeigt, dass durch Kristallisation wahrscheinlich durch Salzbildung, neue Entitäten mit einem Ankerpunkten zur späteren Konfigurationsbestimmung erzeugbar sind. Ebenfalls konnten aus Einkristallbeugungsdaten die Kristallstruktur von R-Flurbiprofen und Kristallstrukturen der Salze aus R-Flurbiprofen mit R-Phenylpropylamin und R-Aminoglutethimid mit R-Camphersulfonsäure bestimmt werden. Diese Kristallstrukturen, ganz speziell die der Salze, können im weiteren Verlauf zum Vergleich und/oder zur Validierung mit den Kristallstrukturen aus Röntgenpulverbeugungsdaten dienen. Hervorzuheben sind die Kristallisationsprodukte aus S-Flurbiprofen bzw. R-Flurbiprofen mit R-Phenylpropylamin, da diese voneinander unterscheidbare Röntgenpulverdiffraktogramme aufweisen die enantiomeren Ausgangsstoffe S- und R-Flurbiprofen jedoch nicht. Dies legt nahe, dass es grundsätzlich möglich sein sollte eine Konfigurationsbestimmung aus Röntgenpulverbeugungsdaten durchzuführen.
Gepulste dipolare EPR-Spektroskopie ist eine wertvolle Methode, um Abstände von 1.5 bis 10 nm zwischen zwei Spinmarkern zu messen. Diese Information kann für Strukturbestimmungen hilfreich sein, wo traditionelle Methoden wie Kristallstrukturanalyse und NMR nicht angewendet werden können. Zusätzlich ist es möglich, Änderungen in Konformation und Flexibilität zu verfolgen. Für diese Studien haben sich stabile Nitroxidradikale als Spinmarker etabliert. Diese werden spezifisch durch die site-directed spin labelling Methode (SDSL) kovalent an das zu untersuchende Biomolekül gebunden. In den letzten Jahren wurden weitere Spinmarker für Abstandsbestimmungen mittels EPR-Spektroskopie entwickelt. Besonders interessant sind Triarylmethylradikale (im Folgenden abgekürzt als Trityl) und paramagnetische Metallzentren.
Im Vergleich zu Nitroxidradikalen hat das Tritylradikal einige Vorteile: Eine höhere Stabilität in einer reduzierenden Umgebung wie im Inneren von Zellen, längere Elektronenspin-Relaxationszeiten bei Raumtemperatur und ein schmaleres EPR-Spektrum. Deswegen ist dieses organische Radikal ein alternativer Spinmarker, der besonders gut für die Forschung von Biomolekülen in einer nativen Umgebung unter physiologischen Bedingungen geeignet ist. Auch paramagnetische Metallzentren sind weniger reduktionsempfindlich als Nitroxidradikale. Zusätzlich sind diese Spinmarker interessant in biologischen Fragestellungen. Zum Beispiel besitzen zahlreiche Enzyme paramagnetische Manganzentren als Cofaktoren. Zudem kann Magnesium, ein wesentlicher Cofaktor in Enzymen, Nukleinsäuren und Nukleotid-Bindungsdomänen der G- und Membranproteine, oft durch das paramagnetische Mangan ersetzt werden. Um Abstandsmessungen an Biomolekülen, die nur ein Metallzentrum besitzen, durchzuführen, können zusätzliche Spinmarker in Form eines Nitroxid-, Tritylradikals oder eines anderen paramagnetischen Metallkomplexes mithilfe der SDSL-Methode kovalent gebunden werden.
Nitroxidradikale, Tritylradikale und Metallzentren haben deutlich unterschiedliche EPR-spektroskopische Eigenschaften, welche oft als orthogonale Spinmarker bezeichnet werden. Solche Spinmarker sind nützlich für die Untersuchung von verschiedenen Untereinheiten bei makromolekularen Komplexen. Somit können die intramolekularen Abstände innerhalb einer Untereinheit sowie intermolekularen Abstände zwischen den unterschiedlichen Untereinheiten mit nur einer einzigen Probe bestimmt werden. Zusätzlich können die orthogonalen Marker sehr effektiv genutzt werden, um Metallzentren in Biomolekülen mithilfe der Trilateration-Strategie genau zu lokalisieren.
Die hier vorliegende Doktorarbeit beschäftigt sich mit der Nutzung dieser neuen Spinmarker für Abstandsmessungen. Solche Spinmarker sind noch kaum erforscht, obwohl sie für biologische Anwendungen eine große Rolle spielen könnten.
Das erste Ziel dieser Doktorarbeit war eine Studie über Tritylradikale mithilfe der dipolaren EPR-Spektroskopie. Zu diesem Zweck wurden sowohl double quantum coherence (DQC) und single frequency technique for refocussing dipolar couplings (SIFTER) Experimente als auch Hochfrequenz pulsed electron electron double resonance (PELDOR) Experimente mit einem Trityl-Modellsystem durchgeführt. Dabei wurden die Besonderheiten der unterschiedlichen dipolaren Spektroskopiemethoden mit diesem Spinmarker untersucht, um die Empfindlichkeit und Robustheit für die Abstandsmessungen zu optimieren.
Das zweite Ziel war eine Studie über den Einfluss der Hochspin-Multiplizität des Mangans auf die Abstandsbestimmungen. Für diesen Zweck wurde zuerst ein Modellsystem mit einem orthogonalen Mn2+ Ion und Nitroxidradikal mithilfe der PELDOR-Spektroskopie untersucht. Anschließend wurde ein weiteres Modellsystem mit zwei Mn2+-Ionen untersucht, um PELDOR und relaxation-induced dipolar modulation enhancement (RIDME) Experimente bezüglich ihrer Empfindlichkeit und Robustheit sowie Genauigkeit der Datenanalyse zu optimieren.
Das Trityl-Modellsystem wurde in der Arbeitsgruppe von Prof. Sigurdsson synthetisiert. Die EPR Messungen wurden bei zwei verschiedenen Mikrowellenfrequenzen (34 und 180 GHz) durchgeführt. Es wurde gezeigt, dass die Auswahl der optimalen Methode von den EPR-spektroskopischen Eigenschaften des Systems bei den jeweiligen Mikrowellenfrequenzen abhängig ist. Das EPR-Spektrum des Trityls ist bei 34 GHz so schmal, dass das ganze Spektrum von einem üblichen Mikrowellenpuls angeregt werden kann. In diesem Fall sind die DQC und SIFTER Experimente am besten geeignet. Der mit diesen Methoden bestimmte Abstand von 4.9 nm ist in guter Übereinstimmung mit Werten aus der Literatur. Es wurde festgestellt, dass die SIFTER Messung eine höhere Empfindlichkeit als DQC besitzt, da das Signal-zu-Rausch Verhältnis um den Faktor vier größer ist. Außerdem ist die SIFTER-Methode experimentell weniger anspruchsvoll, da ein deutlich kürzerer Phasenzyklus für die Mikrowellenpulse benötigt wird. ...
Research in cell and developmental biology requires the application of three-dimensional model systems that reproduce the natural environment of cells. Processes in developmental biology are therefore studied in entire systems like insects or plants. In cell biology, three-dimensional cell cultures (e.g. spheroids or organoids) model the physiology and pathology of cells, tissues or organs. In all systems, the cellular neighborhood and interactions, but also physicochemical influences, are realistically presented. The production and handling of these model systems is rather simple and allows for reproducible characterization.
Confocal and light sheet-based fluorescence microscopy (LSFM) enable the observation of these systems while maintaining their three-dimensional integrity. LSFM is applicable to imaging live samples at high spatio-temporal resolution over long periods of time. The quality of the acquired datasets enables the extraction of quantitative features about morphology, functionality and dynamics in the context of the complete system. This approach is referred to as image-based systems biology. Exploiting the potential of the generated datasets requires an image analysis pipeline for data management, visualization and the retrieval of biologically meaningful values.
The goal of this thesis was to identify, develop and optimize modules of the image analysis pipeline. The modules cover data management and reduction, visualization, reconstruction of multiview image datasets, the segmentation and tracking of cell nuclei and the extraction of quantitative features. The modules were developed in an application-driven manner to test and ensure their applicability to real datasets from three-dimensional fluorescence microscopy. The underlying datasets were taken from research projects in developmental biology in insects and plants, as well as from cell biology.
The datasets acquired in fluorescence microscopy are typically complex and require common image processing steps in order to manage, visualize, and analyze the datasets. The first module accomplishes automatic structuring of large image datasets, reduces the data amount by image cropping and compression and computes maximum projection images along different spatial directions. The second module corrects for intensity variations in the generated maximum projection images that occur as a function of time. The program was published as a part of an article in Nature Protocols. Another developed module named BugCube provides a web-based platform to visualize and share the processed image datasets.
In LSFM, samples can be rotated in-between two acquisitions enabling the generation of multiview image datasets. Prior to my work, Frederic Strobl and Alexander Ross acquired the complete embryogenesis of the red flour beetle, Tribolium castaneum, and the field cricket, Gryllus bimaculatus, with LSFM. I evaluated a plugin for the software FIJI as a module for the reconstruction of such datasets. The plugin was optimized for automation and efficiency. We obtained the first high quality three-dimensional reconstructions of Tribolium and Gryllus datasets.
Optical clearing increases the penetration depth into samples, thus providing endpoint images of entire three-dimensional objects with cellular detail. This work contributes a quantitative characterization module that was applied to endpoint images of optically cleared spheroids. A program for the generation of ground truth datasets was developed in order to evaluate the cell nuclei segmentation performance. The program was part of a paper that was published in BMC Bioinformatics. Using the program, I could show that the cell nuclei segmentation is robust and accurate. Approaches from computational topology and graph theory complete the segmentation of cell nuclei. Thus, the developed module provides a comprehensive quantitative characterization of spheroids on the level of the individual cell, the cell neighborhood and the whole cell aggregate. The module was employed in four applications to analyze the influence of different stress conditions on the morphology and cellular arrangement of cells in spheroids. The module was accepted for publication in Scientific Reports along with the results for one application. The cell nuclei segmentation further provided a data source for simulation models that used correlation functions to identify structural zones in spheroids. These results were published in Royal Society Interface.
The final part of this work presents a module for cell tracking and lineage reconstruction. In collaboration with Dr. Alexis Maizel, Dr. Jens Fangerau and Dr. Daniel von Wangenheim, I developed a module to track the positions of all cells involved in lateral root formation in Arabidopsis thaliana and used the extracted positions for extensive data analysis. We reconstructed the cell lineages and established the first atlas of all founder cells that contribute to the formation. The analysis of the retrieved data allowed us to study conserved and individual patterns in lateral root formation. The atlas and parts of the analysis presented in this thesis were published in Current Biology.
In this thesis, I developed modules for an image analysis pipeline in three-dimensional fluorescence microscopy and applied them in interdisciplinary research projects. The modules enabled the organization, processing, visualization and analysis of the datasets. The perspective of the image analysis pipeline is not restricted to image-based systems biology. With ongoing development of the image analysis pipeline, it can also be a valuable tool for medical diagnostics or industrial high-throughput approaches.
Die vorliegende Arbeit untersucht die Möglichkeiten Sozialer Arbeit in segregierten städtischen Gebieten unter den Bedingungen der Festivalisierung von Stadtentwicklungspolitik. Der Hamburger Stadtteil Wilhelmsburg, bisher vorrangig als „benachteiligtes“ oder „gefährliches“ Gebiet charakterisiert, stand bis zum Jahr 2013 im Mittelpunkt des Rahmenprogramms Sprung über die Elbe, dessen zentrale Maßnahmen eine „Internationale Bauausstellung 2013 (IBA)“ und eine „internationale gartenschau 2013 (igs)“ waren. Wenn ein solches Gebiet mit dem Repertoire der unternehmerischen Stadtpolitik entwickelt wird, verändert sich das Verhältnis von Sozialer Arbeit und Stadtentwicklungspolitik.
Eine zentrale Fragestellung der Arbeit beschäftigt sich mit der Veränderung der institutionellen Landschaft in Stadtentwicklungsprozessen: Welche Ausgangslage findet Soziale Arbeit in segregierten Gebieten unter den Bedingungen einer neoliberalisierten Stadtpolitik vor? Ein weiterer Schwerpunkt liegt auf der Untersuchung der Zugänglichkeit von Ressourcen, die die Bewohner_innen des Gebiets für ihre räumliche Reproduktion einsetzen können.
Auffällig am Vorgehen der Hamburger Stadtentwicklungspolitik im Sprung über die Elbe ist, dass sie sich zunächst durch eine veränderte Diskursstrategie definiert, die die Entwick-lungspotentiale des Gebiets hervorhebt. Zentrales Ziel ist die Veränderung der Bevölke-rungszusammensetzung, die mit einer Mischung aus Anreizpolitik für die gewünschten Be-völkerungsgruppen und der Ausrichtung anderer kommunaler Handlungsfelder wie der Kul-turförderung und der Bildungspolitik auf dieses stadtentwicklungspolitische Ziel erreicht wer-den soll. Die dabei transportierte Vorstellung von „Aufwertung“ und der Herstellung einer veränderten Sozialen Mischung geht implizit auf nachfrageorientierte Gentrifizierungstheorien zurück. Institutionen der Sozialen Arbeit sind an diesem Vorgehen nicht beteiligt. Zudem wird deutlich, dass auch die Wissenschaft Sozialer Arbeit dort eine Leerstelle aufweist, wo sie mit der Gentrifizierung städtischer Gebieten konfrontiert ist.
Die Analyse von Interviews mit Bewohner_innen des Untersuchungsgebiets ermöglichte Einblicke in die grundlegender Veränderungen, denen Mietverhältnissen als eine zentrale Form räumlicher Reproduktion unterworfen sind. Dabei ließen sich parallele Entwicklungen zu den Auswirkungen nachweisen, die ein Wandel von Produktionsweisen in Bezug auf Ar-beitsverhältnisse hat.
Die Arbeit beruht auf einem induktiven Vorgehen und besteht aus mehreren empirischen Untersuchungen, die sich auf Teilfragestellungen beziehen. Die Analyse des programmati-schen Vorgehens bedient sich einer diskursanalytischen Dokumentenanalyse und der Aus-wertung von Experteninterviews. Für Veränderungen, die auf die Ressourcenzugänge von Bewohner_innen von segregierten städtischen Gebieten abzielen, kamen leitfadengestützte narrative Interviews zum Einsatz, deren Auswertung sich an dem Dokumentierenden Inter-pretieren orientierte. Die vorliegende Fallanalyse steht in einer Tradition der Untersuchung gesellschaftlicher Veränderungen aus der Perspektive „from below“. Das konkrete und situ-ierte Beforschen eines Stadtentwicklungsprozesses, der zu einem nicht unbeträchtlichen Anteil auf der diskursiven Ebene ausgetragen wird, wird als „Eingreifende Sozialforschung“ entwickelt.
The cardiovascular system (CVS) consists of heart and blood vessels, forming a close circulatory loop. All tissues depend on the nutrients and molecular oxygen (O2) delivered by the blood. Therefore, it is not surprising that the CVS is one of the first working systems and the heart is the first functional organ in the forming embryo (Baldwin 1996). The building blocks of blood vessels are endothelial cells (ECs), which form the endothelium, a specialized epithelium that defines the luminal surface of the vessels (Pugsley and Tabrizchi 2000). The process of blood vessel development comprises several steps. The first events occurring are the formation of new vessels de novo to constitute the primary vascular loop known as vasculogenesis. During vasculogenesis the vascular precursors, known as angioblasts, migrate and coalesce to form the axial vessels. Subsequently, the main vessels undergo a specification step where they acquire either arterial or venous identity. As the embryo increases in size, the main vascular loop needs to increase in complexity. In order to reach all the different parts of the developing organs, new blood vessels are formed from pre-existing ones, a phenomenon known as angiogenesis (Gore et al. 2012).
Mature blood cells have a short lifespan. Therefore, hematopoietic stem cells (HSCs) are required throughout lifetime to constantly form new blood cells in a process called hematopoiesis. Interestingly, endothelial and immune cells development have been shown to converge at different points during their development, one of which is developmental hematopoiesis. During embryogenesis, definitive hematopoiesis occurs in a tissue called hemogenic endothelium (HE), a specialized subset of ECs at the ventral wall of the dorsal aorta (DA). HE acquires hematopoietic potentials and gives rise to HSCs, through a process known as endothelial-to-hematopoietic transition (EHT). During EHT, these specialized ECs extrude from DA and colonize the so-called aorta-gonadmesonephros (AGM) region, forming the native HSCs (Paik and Zon 2010).
As vascular development requires different steps, the molecular pathways involved are many. The Notch signaling pathway has been demonstrated to be one of the main players in vascular development. Among other functions, Notch signaling has been shown to be important during EHT. In the murine model, Runx1, a master regulator of HSC formation, has been shown to be transcriptionally regulated by NOTCH1 through GATA2 activation. This observation was later corroborated by knockdown studies for notch1a and notch1b in zebrafish (Butko, Pouget, and Traver 2016). Another essential pathway for vascular development is the HIF pathway. Hif-1α, Hif-1β and Hif-2α mouse mutants show severe vascular defects that result in early embryonic lethality (Simon and Keith 2008), which hinders a deep analysis of the phenotypes incurring in the mutant embryos. In addition, deletion of Hif-1α specifically in myeloid cells showed abnormalities in the motility, invasiveness, and adhesion of macrophages (Cramer et al. 2003). Intriguingly, Hif-1α deletion in vascular endothelial cadherin-expressing cells led to a significant but partial reduction of HSC number, suggesting that other players may be involved in this pathway (Imanirad et al. 2014).
Zebrafish embryos have been shown to be tolerant to hypoxia at very early stages of development (Padilla and Roth 2001). Also, zebrafish embryos develop externally and this allows to finely manipulate the environment where they grow (Lieschke and Currie 2007). These features make zebrafish an ideal model to investigate how hypoxia and Hif transcription factors affect vertebrate vascular development. In this study, I will examine the impact of hypoxia on zebrafish vascular development. Specifically, I will dissect the role of hif-1α in macrophage-EC interactions during vascular development and repair. Moreover, I show redundant functions for hif-1α and hif-2α in HSC development upstream of Notch signaling.
In der vorliegenden dreiteiligen Studie werden Mongolische Wüstenrennmäuse untersucht, deren Hörspektren im tieffrequenten Bereich und deren Unterscheidungsfähigkeiten von Kommunikationsrufen denen des Menschen ähneln. Die extrazelluläre Aktivität im primären auditorischen Kortex (AI) der narkotisierten Versuchstiere, evoziert durch Reintöne und arteigene Kommunikationsrufe, wird in der linken (LH) und rechten Gehirnhemisphäre (RH) aufgenommen. Es werden Multikanalelektroden (16 Eingangskanäle) verwendet, welche eine simultane Aufnahme der neuronalen Aktivitäten aller kortikalen Schichten ermöglichen. Zur Analyse der neuronalen Mechanismen werden Wellenformen einzelner Elektrodenkanäle und Aktivitätsprofile, bestehend aus den Wellenformen aller Elektrodenkanäle in einem Zeitfenster von 600 ms, auf Ebene von Aktionspotentialen (MUA), lokalen Feldpotentialen (LFP) und Current-source-density (CSD) Analysen, untersucht. Während MUAs die neuronalen Aktionspotentiale im Nahfeld der Elektrode reflektieren, umfassen die LFPs die summierten Potentiale (inhibitorisch und exzitatorisch) von Neuronen eines größeren Areals. Die CSDs hingegen werden durch die Integration von LFP-Wellenformen benachbarter, linear angeordneter Elektrodenkanäle berechnet und ermöglichen so eine Lokalisation der Ursprünge geräuschspezifischer Aktivitätsflüsse.
Im ersten Teilprojekt werden CSD-Profile in Antwort auf unterschiedliche Reintöne untersucht, um die Aktivitätskomponenten, die so genannten Sinks, für weiterführende Analysen zu quantifizieren. Es können zwei primäre (s1 und s2), drei mittlere (s3-s5) und vier späte (s6-s9) Sinks in einem Zeitfenster von 600 ms definiert werden. Eine Veränderung der Stimulusfrequenz eine Oktave über und unter der charakteristischen Frequenz (CF), beziehungsweise des Lautstärkepegels = 24 dB über der minimalen Schwelle, führt zu qualitativen Veränderungen in der CSD-Profilstruktur. Die Sink s7 wird durch Stimuli mit niedrigem Lautstärkepegel weniger verlässlich evoziert, wohingegen die Sink s9 bei Stimuli eine Oktave über der CF verlässlicher evoziert wird. Die Ergebnisse weisen darauf hin, dass im AI die spektralen Informationen eine Oktave über und unter der CF asymmetrisch integriert werden.
Auf Einzelschichtebene konnte bereits gezeigt werden, dass spektrotemporale Eigenschaften von Stimuli durch MUAs schlechter reflektiert wurden als durch LFPs, was vermutlich eine direkte Konsequenz der unterschiedlichen Ursprünge der Signaltypen ist. Daher werden im zweiten Teilprojekt die spezifischen Unterschiede der MUA-, LFP- und CSD-Antworten auf Ebene kortikaler Schichten und kompletter laminarer Profile untersucht, um die Unterschiede und den Informationsgehalt der drei Signaltypen zu charakterisieren. Signifikante Unterschiede, welche durch zwei Reintöne und sieben Kommunikationssignale evoziert werden, können verstärkt im mittleren und späten Latenzbereich und in granulären und infragranulären Schichten vorgefunden werden. Der Grad der Rufspezifizität ist in LFP und CSD-Antworten im Vergleich zu demjenigen in MUA-Antworten größer. Die Segregationsleistung ist im Vergleich zu einzelnen kortikalen Schichten in den von kortikalen Kolumnen abgeleiteten laminaren Profilen um den Faktor 1,8-2,6 erhöht. Die Neuronenpopulationen einzelner kortikaler Kolumnen sind vermutlich wichtig für die Kodierung von Geräuschen, welche sich in ihren spektrotemporalen Eigenschaften unterscheiden.
Viele vorangegangene Studien konnten zeigen, dass die Gehirnhemisphären akustische Signale asymmetrisch verarbeiten. Daher werden im dritten Hauptteil die laminaren Profile der LH und RH quantitativ und statistisch verglichen. Die MUA-, CSD-Profile und im geringeren Maße auch die LFP-Profile zeigen systematische Unterschiede auf signifikantem Niveau in der Dauer, Onset Latenz und vertikalen Ausdehnung bestimmter Aktivitäten. Kommunikationsrufe evozieren in der LH, welche beim Menschen auf Sprachstimuli spezialisiert ist, im Vergleich zur RH komplexere CSD-Profile. Die neuronale MUA-, LFP- und CSD-Aktivitätsstärke ist in der RH für weniger komplexe Stimuli teilweise signifikant erhöht. Die Asymmetrie in der Auftrittsverlässlichkeit der Sink s6 lässt vermuten, dass sich die intrakolumnäre Vernetzung in Schicht VIa zwischen der LH und RH unterscheidet. Die wenigen, signifikanten und nicht systematischen Unterschiede zwischen den Sink-Parametern der LH und RH nach kortikaler Ausschaltung mit dem GABAA-Rezeptor Agonist Muscimol weisen darauf hin, dass die Hemisphärenasymmetrie durch Prozesse des ipsilateralen Kortex maßgeblich beeinflusst wird.
Mistral and Tramontane are wind systems in southern France and the western Mediterranean Sea. Both are caused by similar synoptic situations and channeled in valleys. Their relevance for the climate of the western Mediterranean region motivated this work. The representation of Mistral and Tramontane in regional climate simulations was surveyed with the models ALADIN, WRF, PROMES, COSMO-CLM, RegCM, and LMDZ. ERA-Interim and global CMIP5 simulations (MPI-ESM, CMCC-CM, HadGEM2-ES, and CNRM-CM5) provided the lateral boundary data for the regional simulations regarding the 20th century and two representative concentration pathways for the 21st century (RCP4.5 and RCP8.5).
A Mistral and Tramontane time series, a principal component analysis of pressure fields, and a Bayesian network were combined to develop a classification algorithm to identify pressure patterns in favor of Mistral and Tramontane. The regional climate models were able to reproduce the observed climatology of Mistral and Tramontane. Compared to observational data (SAFRAN and QuikSCAT), the simulations underestimate the wind speed over the Mediterranean Sea, mainly at the borders of the main flow. Simulations with smaller grid spacing showed better agreement with the observations.
A sensitivity study tested the influence of the Charnock parameter on the Mistral wind field. Its value impacted both wind speed and wind direction. Decreasing the orographic resolution in idealized simulations using COSMO-CLM caused a reduction in wind speed and a broader flow area. Including a parameterization for subgrid scale orography improved the simulation. However, an accurate simulation of Mistral and Tramontane still requires a high-resolution orography.
The classification algorithm also was applied to pressure fields from regional climate simulations driven by global simulation data. At the end of the 21st century, only small, non-significant changes in the number of Mistral days per year occur in the projection simulations. The number of Tramontane days per year decreased significantly.
Der römische Kaiser Claudius, dritter Prinzeps nach Augustus, regierte von 41 – 54 n. Chr. und wurde vermutlich von Agrippina, seiner letzten Ehefrau, mit einem Pilzgericht vergiftet. Obwohl er wegen seiner angeborenen Körperbehinderung als dynastischer Nachfolger nicht vorgesehen war, folgte er C. Caligula unmittelbar nach dessen Ermordung auf den Kaiserthron.
Die dem Amt inhärenten strukturellen Schwierigkeiten wurden verstärkt durch seine imbecillitas, die nicht nur Seneca, seinen Zeitgenossen, sondern auch Tacitus, Sueton und Cassius Dio, die ihn nachfolgend zum Sujet ihrer Werke machen, erheblich verunsicherte.
Besonders die Vertreter der antiken Historiographie und Biographie stehen vor der Herausforderung, glaubhaft erklären zu müssen, warum ein imbecillus, der Gegenentwurf zu Augustus, an die Macht gelangen und sie 13 Jahre behalten konnte, ohne unterschiedlich motivierten Anschlägen zum Opfer zu fallen. Aus dieser Diskrepanz entstehen – abhängig von der persönlichen Vorstellung des jeweiligen Autors und den gesellschaftlich bedingten Vorurteilen über Behinderung – unterschiedliche Bilder, die nicht nur das Dilemma des behinderten Kaisers, sondern auch das seiner Interpreten illustrieren: Claudius tritt, je nach Situation und Interaktionspartnern, als willenlos Re-agierender oder als taktisch Agierender auf: Als Regierenden hingegen zeigen ihn die Berichte gar nicht oder selten. Unberechenbarkeit, Übertreibung und Wiederholung werden für die antiken Schriftsteller zum Herrschafts- und Persönlichkeitsmerkmal des Prinzeps, die Antithese zum Narrativ.
Das essentielle Kommunikationsproblem des behinderten Claudius scheint, folgt man den Berichten, aus einem bewussten oder charakterbedingten Verzicht auf die patria potestas zu resultieren, mit katastrophalen Auswirkungen auf sein Ansehen als Prinzeps. Die von allen Autoren kritisierte Abhängigkeit von den Mitgliedern seines Hofes, zu deren prominentesten Opfern die junge und unerfahrene Messalina und letztlich Claudius selbst zählen, erregt Spott und Unmut der Plebs und verunsichert die Aristokratie durch eine als willkürlich empfundene Rechtsprechung.
Andererseits verweisen die Darstellungen seiner erstaunlichen Amtserhebung, des siegreichen Britannienfeldzugs, des abrupten Sturzes Messalinas, aber auch Agrippinas plötzlicher Angst, die sie zum Gattenmord veranlasst, auf einen Kaiser, der bei Bedarf offenbar recht gezielt das Klischee des imbecillus als Mittel des Machterhalts zu bedienen vermag.
So entsteht aus Claudius, abhängig vom gesellschaftlichen Status Behinderter, in den antiken und modernen Schriften, die sich mit ihm und seiner Amtsführung befassen, die paradoxe Figur eines schuldigen Opfers bzw. unschuldigen Täters: Sowohl Opfer- als auch Täterrolle sind a priori durch die Behinderung gerechtfertigt und relativiert.
Im Weltall existieren hunderte sehr helle Objekte, die eine hohe konstante Leuchtkraft im Wellenlängenbereich von Gammastrahlung besitzen. Die konstante Leuchtkraft mancher dieser Objekte wird in regelmäßigen Abständen von starken Ausbrüchen, den sogenannten X-Ray-Bursts, unterbrochen. Hauptenergiequelle dieser X-RayBursts ist der „rapid-proton-capture“-Prozess (rp-Prozess). Dieser zeichnet sich durch eine Abfolge von (p,γ)-Reaktionen und β+-Zerfällen aus, die die charakteristischen Lichtkurven produzieren. Für viele am Prozess beteiligte Reaktionen ist der Q-Wert sehr klein, wodurch die Rate der einzelnen Reaktionen von den resonanten Einfängen in die ungebundenen Zustände dominiert wird. Die Unsicherheiten in der Beschreibung der Lichtkurve sind derzeit aufgrund fehlender kernphysikalischer Informationen von vielen am Prozess beteiligten Isotopen sehr groß. Sensitivitätsstudien zeigen, dass dabei die Unsicherheiten der 23Al(p,γ)24Si-Reaktion eine der größten Auswirkungen auf die Lichtkurve hat. Diese werden durch ungenaue und widersprüchliche Informationen zu den ungebundenen Zuständen im kurzlebigen 24Si hervorgerufen.
Um Informationen über die Kernstruktur von 24Si zu erhalten, wurde am National Superconducting Cyclotron Laboratory (NSCL), Michigan, USA, die 23Al(d,n)24Si Transferreaktion untersucht. Der in dieser Form erstmals umgesetzte Versuchsaufbau bestand aus einem Gammadetektor zur Messung der Übergangsenergien des produzierten 24Si, einem Neutronendetektor zur Messung der Winkelverteilung der emittierten Neutronen und einem Massensprektrometer zur Identifikation des produzierten Isotops. Mit diesem Aufbau, der eine Detektion der kompletten Kinematik der (d,nγ)-Reaktion ermöglichte, konnten folgende Erkentnisse gewonnen werden:
Aus der Energie der nachgewiesenen Gammas konnten die Übergänge zwischen den Kernniveaus von 24Si bestimmt und daraus die Energien der einzelnen Zustände ermittelt werden. Dabei konnte neben dem bereits bekannten gebundenen 2+-Zustand (in dieser Arbeit gemessen bei 1874 ± 2,9keV) und dem ungebundenen 2+-Zustand (3448,8 ± 4,6keV), erstmals ein weiterer ungebundener (4+,0+)-Zustand bei 3470,6 ± 6,2 keV beobachtet werden. Zusätzlich konnte die Diskrepanz, die bezüglich der Energie des ungebundenen 2+-Zustands aufgrund früherer Messungen bestand, beseitigt und die Energieunsicherheit reduziert werden.
Aus der Anzahl der nachgewiesenen Gammas konnten ebenfalls die (d,n)-Wirkungsquerschnitte in die einzelnen Zustände von 24Si bestimmt werden. Unter Verwendung der Ergebnisse von DWBA-Rechnungen konnte mithilfe dieser die spektroskopischen Faktoren berechnet werden. Für die angeregten Zustände musste dabei zwischen verschiedenen Drehimpulsüberträgen unterschieden werden. Mittels der Winkelverteilung der nachgewiesenen Neutronen konnte gezeigt werden, dass die Gewichtung anhand der theoretischen spektroskopischen Faktoren zur Berechnung der Anteile des jeweiligen Drehimpulsübertrags am gesamten Wirkungsquerschnitt für den entsprechenden Zustand gute Ergebnisse liefert. Für eine quantitative Bestimmung der spektroskopischen Faktoren der Zustände anhand der Neutronenwinkelverteilungen in 24Si war allerdings die Statistik zu gering. Für den Fall der deutlich häufiger beobachteten 22Mg(d,n)23Al-Reaktion konnte hingegen ein spektroskopischer Faktor für den 23Al-Grundzustand von 0,29 ± 0,04 bestimmt werden. Abschließend wurden die Auswirkungen der gewonnenen Erkenntnisse zur Kernstruktur von 24Si auf die Rate der 23Al(p,γ)-Reaktion untersucht. Dabei konnte aufgrund der besseren Energiebestimmung zum einen die Diskrepanz zwischen den Raten die auf Grundlage der beiden früheren Untersuchungen berechnet wurden und bis zu einem Faktor von 20 voneinander abweichen, beseitigt werden. Zum anderen konnte aufgrund der kleineren Unsicherheit in der Energiebestimmung der Fehlerbereich der Rate verkleinert werden. Die Untersuchungen zeigen, dass die Unsicherheit in der neuen Rate von der Ungenauigkeit der Massenbestimmung der beiden beteiligten Isotope und damit dem Q-Wert der Reaktion dominiert wird. Durch eine bessere Bestimmung des Q-Werts könnte die Unsicherheit in der Rate aufgrund der neuen experimentellen Ergebnisse auf ein Zehntel gesenkt werden.
Structural biology often employs a combination of experimental and computational approaches to unravel the structure-function paradigm of biological macromolecules. This thesis aims to approach this combination by the application of Pulsed Electron-Electron Double Resonance (PELDOR/DEER) spectroscopy and structural modelling. In this respect, PELDOR spectroscopy in combination with site-directed spin labelling (SDSL) of proteins is frequently used to gain distance restraints in the range from 1.8 to 8 nm. The inter-spin distance and the flexibility of the spin labelled protein domains are encoded in the oscillation and the dampening of the PELDOR signal. The intrinsic flexibility of the commonly used MTSSL (1-Oxyl-2,2,5,5-tetramethylpyrroline-3-methyl) spin label itself can be an obstacle for structural modelling if the flexibility of the label is large compared to the flexibility of the protein domains. In this thesis the investigation of two multi-domain proteins by the 4-pulse PELDOR sequence is presented. At first, the N-terminal polypeptide transport-associated (POTRA) domains of anaOmp85, a rigid three domain protein, giving well-defined PELDOR distance restraints, is investigated. The experimental restraints are used for structure refinement of the X-ray structure and reveal a strong impact of the intrinsic flexibility of MTSSL on the accuracy of structural refinement. The second example, K48-linked diubiquitin, is a highly flexible multi-domain protein on which the flexibility of MTSSL is of minor impact on structural modelling. In this case, the distance restraints are utilized to determine conformational ensembles. Due to the high intrinsic flexibility already characterizing diubiquitin the recently developed 7-pulse Carr-Purcell (CP) PELDOR sequence was applied to investigate longer ubiquitin chains. This sequence enables to measure dipolar oscillations with an extended time window, allowing a good separation between inter- and intramolecular contributions even for long distance and broad conformational distributions, thereby providing an increased accuracy of the obtained distance distributions.
The fruit fly Drosophila melanogaster is one of the most important biological model organisms, but only the comparative approach with closely related species provides insights into the evolutionary diversification of insects. Of particular interest is the live imaging of fluorophores in developing embryos. It provides data for the analysis and comparison of the threedimensional morphogenesis as a function of time. However, for all species apart from Drosophila, for example the red flour beetle Tribolium castaneum, essentially no established standard operation procedures are available and the pool of data and resources is sparse. The goal of my PhD project was to address these limitations. I was able to accomplish the following milestones:
- Development of the hemisphere and cobweb mounting methods for the non-invasive imaging of Tribolium embryos in light sheet-based fluorescence microscopes and characterization of most crucial embryogenetic events.
- Comprehensive documentation of methods as protocols that describe (i) beetle rearing in the laboratory, (ii) preparation of embryos, (ii) calibration of light sheet-based fluorescence microscopes, (iv) recording over several days, (v) embryo retrieval as a quality control as well as (vi) data processing.
- Adaption of the methods to record and analyze embryonic morphogenesis of the Mediterranean fruit fly Ceratitis capitata and the two-spotted cricket Gryllus bimaculatus as well as integration of the data into an evolutionary context.
- Further development of the hemisphere method to allow the bead-based / landmark-based registration and fusion of three-dimensional images acquired along multiple directions to compensate the shadowing effect.
- Development of the BugCube, a web-based computer program that allows to share image data, which was recorded by using light sheet-based fluorescence microscopy, with colleagues.
- Invention and experimental proof-of-principle of the (i) AGameOfClones vector concept that creates homozygous transgenic insect lines systematically. Additionally, partial proof-of-principle of the (ii) AClashOfStrings vector concept that creates double homozygous transgenic insect lines systematically, as well as preliminary evaluation of the (iii) AStormOfRecords vector concept that creates triple homozygous transgenic insect lines systematically.
- Creation and performance screening of more than fifty transgenic Tribolium lines for the long-term imaging of embryogenesis in fluorescence microscopes, including the first Lifeact and histone subunit-based lines.
My primary results contribute significantly to the advanced fluorescence imaging approaches of insect species beyond Drosophila. The image data can be used to compare different strategies of embryonic morphogenesis and thus to interpret the respective phylogenetic context. My technological developments extend the methodological arsenal for insect model organisms considerably.
Within my perspective, I emphasize the importance of non-invasive long-term fluorescence live imaging to establish speciesspecific morphogenetic standards, discuss the feasibly of a morphologic ontology on the cellular level, suggest the ‘nested linearly decreasing phylogenetic relationship’ approach for evolutionary developmental biology, propose the live imaging of species hybrids to investigate speciation and finally outline how light sheet-based fluorescence microscopy contributes to the transition from on-demand to systematic data acquisition in developmental biology.
During my PhD project, I wrote a total of ten manuscripts, six of which were already published in peer-reviewed scientific journals. Additionally, I supervised four Master and two Bachelor projects whose scientific questions were inspired by the topic of my PhD work.
Die Arbeit untersucht am Fall der Religionspolitik in den Verfassungsgebungsprozessen der deutschen Bundesländer, ob Verfassungen eher das Ergebnis von Konflikt oder Konsens sind. Die Länderverfassungen zeigen eine hohe religionspolitische Vielfalt, die in dieser Arbeit erstmals vollständig erhoben und systematisiert wird. Die religionspolitischen Normen der Verfassungen werden vier Typen von Religionspolitik zugewiesen (Statusverleihung, Redistribution, Religionsfreiheit und Restriktion). Für die Verbreitung der einzelnen Normen werden die historischen Verläufe von 1919 bis 2015 analysiert und Trends beschrieben. Für die Erklärung der Unterschiede entwickelt die Arbeit ein ökonomisches Modell des Parteienwettbewerbs, in dem religiöse Parteien, insbesondere CDU und CSU, die zentrale Rolle spielen. In dem Modell wird angenommen, dass religiöse Parteien (einschließlich der Union) nur dann die Interessen nicht- und andersreligiöser Wähler berücksichtigen – wenn dies für ihren Wahlerfolg notwendig ist. Die zentrale Idee des Modells ist, dass religionspolitische Policies unterschiedliche Kosten und Nutzen für religiöse und nichtreligiöse Wähler implizieren. Diesen Kosten und Nutzen müssten religiöse Parteien Rechnung tragen, wenn sie Politikergebnis und Wahlergebnis gleichzeitig optimieren – d.h. rational abwägend agieren. Aus der Überprüfung dieses Modells lässt sich ableiten, ob die Religionspolitik in Verfassungen das Ergebnis offener Verhandlungen mit dem Ziel der Herstellung bzw. Abbildung eines gesellschaftlichen Konsenses sind – oder ob sie vielmehr das Ergebnis harter politischer Auseinandersetzungen sind und die gesellschaftlichen Machtverhältnisse reproduzieren. Je weniger Ersteres und je mehr Zweiteres gegeben ist, desto weniger können Verfassungen voraussetzungslos als Rahmen oder Bezugspunkt eines fairen politischen Wettstreits dienen. Die Arbeit belegt dieses Modell empirisch mit einem Mixed-Methods-Ansatz aus multiplen Regressionsanalysen und fuzzy set Qualitative Comparative Analysis (fsQCA).
A great challenge in life sciences remains the site-specific modification of proteins with minimal perturbation for in vitro as well as in vivo studies. Therefore, different chemoselective reactions and semi-synthetic techniques such as native chemical ligation or intein-mediated protein splicing have been established. They enable a site-specific incorporation of chemical reporters into proteins, such as organic fluorophores or unnatural amino acids. In this PhD Thesis, protein trans-splicing was guided by minimal high-affinity interaction pairs to trace proteins in mammalian cells. In addition, the temporal modulation of cellular processes by photo-cleavable viral immune evasins was achieved.
Protein trans-splicing mediated by split inteins is a powerful technique for site-specific and 'traceless' protein modifications. Despite recent developments there is still an urgent need for ultra-small high-affinity intein tags for in vitro and in vivo approaches. So far, only a very few in-cell applications of protein trans-splicing are reported, all limited to C-terminal protein modifications. Here, a strategy for covalent N-terminal intein-mediated protein labeling at sub-nanomolar probe concentrations was developed. Combined with the minimalistic Ni-trisNTA/His-tag interaction pair, the affinity between the intein fragments was increased 50-fold (KD ~ 10 nM). Site-specific and efficient 'traceless' protein modification by high-affinity trans-splicing is demonstrated at nanomolar concentrations in mammalian cells.
High background originating from non-reacted, 'always-on' fluorescent probes still is a crucial issue in life sciences. Covalent labeling approaches with simultaneous activation of fluorescence are advantageous to increase sensitivity and to reduce background signal. Therefore, high-affinity protein trans-splicing was combined with fluorophore/quencher pairs for online detection of covalent N-terminal protein labeling in cellular environments. Substantial fluorescence enhancement at nanomolar probe concentrations was achieved. This ultra-small fluorogenic high-affinity split intein system is an unprecedented example for real-time monitoring of the trans-splicing reaction in cell-like environments as well as for protein labeling with fluorogenic probes at nanomolar concentrations.
To extend the field of chemical immunology and to address spatiotemporal aspects in adaptive immune response, new tools to control antigen processing are required. Therefore, synthetic photo-conditional viral immune evasins were designed to modulate antigen processing on demand. By using light, the time and dose controlled antigen translocation by the transporter associated with antigen processing (TAP) was triggered with response in the second regime. Peptide delivery and loading by the peptide-loading complex (PLC) was rendered inactive, whereas blocking was abolished in a light-controlled fashion to inactivate the synthetic viral immune evasin ICP47 along with simultaneous activation of the antigen presentation pathway. Lightresponsive peptide translocation by the TAP complex was assayed in vitro by utilizing microsomes isolated from professional antigen presenting B-cell lymphomas (Raji). To extend these studies, suppression and photo-controlled rescue of antigen presentation was examined at single-cell resolution in human primary immune cells.
Native chemical ligation interconnects peptide chemistry with recombinantly expressed proteins. This technique was applied to generate the semi-synthetic full-length ICP47. Although this approach was realized, the low product yield was not sufficient for further functional studies. Therefore, full-length ICP47 was consecutively generated by utilizing a full synthetic four-fragment ligation approach. However, this synthetic viral immune evasin was not able to block peptide translocation in a robust way.
In der vorliegenden Arbeit sollte der Einfluss von langjährigem Lastkraftwagenfahren auf die posturale Kontrolle untersucht werden. Hierzu wurden die Auswirkungen verschiedener Einflussfaktoren, die mit langjährigem Lastkraftwagenfahren assoziiert sind, im Hinblick auf die posturale Kontrolle analysiert. In diesem Rahmen wurden auf einer Autobahnraststätte in Deutschland 180 (179m/1w) Lastkraftwagenfahrer im Alter von 21 bis 65 Jahren mit einer Berufserfahrung von 1 bis 45 Jahren untersucht. Mit Hilfe eines Fragebogens wurden Informationen über die Arbeitszeit und den Gesundheitszustand der Lastkraftwagenfahrer, wie beispielsweise bestehende Rückenschmerzen oder Sportverhalten, erhoben. Für die Messung der Parameter der posturalen Kontrolle in habitueller Standposition wurde die Druckmessplatte GP Multisens der Firma GeBioM (Münster, Deutschland) verwendet. Es wurde die prozentuale Druckverteilung im Vorfuß-Rückfußbereich für den linken und rechten Fuß gemessen. Des Weiteren konnte die Körperschwankung in frontaler (anterior/posterior) und sagittaler (medial/lateral) Ebene aufgezeichnet werden. Dadurch lassen sich unter anderem Rückschlüsse auf eine Verlagerung des Körperschwerpunktes ziehen. Die statistische Auswertung erfolgte mit Hilfe des Statistikprogrammes BiAS Version 11.0 (2015). Die erhobenen Daten wurden unter Verwendung des Kolmogoroff-Smirnoff-Lillifors-Tests auf Normalverteilung getestet. Das Signifikanzniveau lag bei α=5%. Daneben wurde ein zweiseitiges 95%-Konfidenzintervall sowie der Toleranzbereich der Daten berechnet. Da keine Normalverteilung der Daten vorlag, wurde der Kruskal Wallis Test mit anschließender Bonferoni-Holm Korrektur zum Vergleich der Daten eingesetzt. Die Korrelationen wurden durch einfache, lineare Korrelation nach Pearson oder Rang-Korrelation nach Spearman & Kendall berechnet. Die Studienteilnehmer wurden zusätzlich gemäß ihres BMI, ihrer bereits als Lastkraftwagenfahrer geleisteten Arbeitsjahre, nach bestehenden Rückenschmerzen und nach sportlicher Betätigung jeweils verschiedenen Gruppen zugeordnet. Die Gruppen wurden anschließend hinsichtlich der gemessenen Parameter miteinander verglichen. In Bezug auf ein zunehmendes Alter konnte eine signifikant zunehmende sagittale Schwankung (p ≤ 0,01) sowie eine erhöhte Belastung des rechten Fußes (p ≤ 0,01) gemessen werden. Im Vergleich zwischen normalgewichtigen und übergewichtigen Lastkraftwagenfahrern zeigten sich signifikante Unterschiede hinsichtlich der gemessenen Parameter der posturalen Kontrolle. Es konnte beobachtet werden, dass es mit zunehmenden BMI zu einer erhöhten Schwankung in frontaler (p ≤ 0,04) und sagittaler (p ≤ 0,001) Ebene kommt. Hinsichtlich der Fußdruckbelastung kam es zu keinen signifikanten Veränderungen zwischen den BMI-Gruppen. Lastkraftwagenfahrer mit mehr Arbeitsjahren zeigten erhöhte frontale und sagittale Körperschwankungen. Es lag eine signifikante, positive Korrelation zwischen der frontalen Schwankung und einer Zunahme der Arbeitsjahre (p ≤ 0,04) vor. Auch bei der sagittalen Schwankung bestand eine signifikante Korrelation (p ≤ 0,01). Lediglich bei der Belastung des rechten Vorfußes konnte eine signifikante Korrelation nachgewiesen werden (p ≤ 0,01), während bei den anderen Parametern der Fußbelastung keine signifikante Korrelation belegt werden konnte. Im Gruppenvergleich nach Arbeitsjahren zeigte sich, dass mit ansteigenden Arbeitsjahren als Lastkraftwagenfahrer zu einem Anstieg des BMI kommt. Im Vergleich von Lastkraftwagenfahrern mit und ohne Rückenschmerzen waren keine signifikanten Unterschiede bei den gemessenen Parametern der posturalen Kontrolle nachweisbar. Auch bei der Analyse des Einflusses von sportlicher Aktivität auf die posturale Kontrolle konnte kein Unterschied zwischen der Gruppe mit sportlicher Aktivität und ohne sportliche Aktivität gemessen werden.
Mit dieser Studie konnten die gesundheitsgefährdenden Einflüsse des Lastkraftwagenfahrens auf die posturale Kontrolle nachgewiesen werden. Vor allem das langjährige Sitzen und der erhöhte BMI haben einen Einfluss auf die Körperstabilität und stören die Kompensationsmechanismen der Aufrechterhaltung der posturalen Kontrolle. Die genauen Steuerungsmechanismen der Körperstabilität sind sehr komplex und wurden in dieser Studie nicht im Einzelnen analysiert. Um welche konkreten Strukturen es sich handelt, die durch das langjährige Lastkraftwagenfahren gestört werden, kann mit den Ergebnissen dieser Studie nicht erfasst werden.
Der Kaiserschnitt ist wahrscheinlich eine der am häufigsten durchgeführten operativen Eingriffe weltweit. Noch vor einem Jahrhundert galt er als Notoperation, um das Leben des Kindes und der Mutter zu retten, heute hat er zu einer gängigen Geburtspraxis etabliert, fast jedes dritte Kind kommt mittlerweile per Sectio zu Welt. Dieser signifikante Anstieg trat in den letzten Jahren viele polarisierende Diskussionen los, die nach den Ursachen dieses Wandels forschen. Die Weltgesundheitsorganisation kritisiert, dass der unnötige Anstieg in Lateinamerika und Asien bereits epidemische Ausmaße erreicht habe. Im Mittelpunkt der Forschung stehen die diversen Indikationen, die maternalen und neonatalen Kurz- und Langzeitfolgen sowie die Vor- und Nachteile verschiedener anästhetischer Verfahren während des Eingriffs.
Ziel dieser Arbeit war es, das Forschungsaufkommen zum Thema Sectio zwischen 1900 und 2013 sowohl nach quantitativen als auch nach qualitativen Aspekten zu beleuchten, wobei auf die Daten im Web of Science zurückgegriffen wurde. Nach Festlegung eines Suchterminus mit maximaler Trefferanzahl wurde ein Datenpool von 12.608 Publikationen gewonnen, dessen bibliographische Daten im Rahmen von unterschiedlichen Fragestellungen untersucht und ausgewertet wurden. Um die Ergebnisse anschaulich zu repräsentieren, wurden diverse Diagrammarten gewählt, für globale Sachverhalte wurde Kartenanamorphoten verwendet.
Für das ausgewählte Datenkontingent ist die Sprache Englisch dominierend, es wurden 92,8 % aller identifizierten Publikationen (≙ 11.706 von 12.608) in dieser Sprache abgefasst. Hierbei stellt der Article die am häufigsten gewählte Erscheinungsform (57,4 %) dar.
Die Publikationsanzahl hat im Laufe des betrachteten Jahrhunderts stetig zugenommen. Dieser Zuwachs erfolgte vor allem in den letzten drei Dekaden, was zum einen am gestiegenen Forschungsinteresse am Thema Kaiserschnitt und zum anderen an der gestiegenen Publikationsanzahl liegt. Zudem wurde im Jahre 1991 bei der Datenbankabfrage die Topics-Suche eingeführt. Einzelne Publikationsmaxima können darauf zurückgeführt werden, dass die
Wissenschaft gesteigertes Interesse an wegweisenden Entwicklungen rund um das Thema Kaiserschnitt zeigte.
Das Land, das am meisten Publikationen (29 %) hervorbrachte, ist die USA – dort befinden sich auch die meisten Institutionen (1.517), die zum Thema Kaiserschnitt Forschung betreiben und es ist das Land mit dem höchsten h-Index (84). Resultierend aus diesen Daten kann den USA eine herausragende Position bezüglich der behandelnden Thematik zugeschrieben werden. Doch auch in europäischen Ländern wie Großbritannien und Deutschland kann eine hohe Forschungsaktivität nachgewiesen werden. Bei Betrachtung der Zitationsrate der Länder lag Schweden vorne (20,4), obwohl dort deutlich weniger publiziert wurde. Neben der renommierten Harvard University war auch die Partners Healthcare, Boston an der Forschung maßgeblich beteiligt.
Bei der Zeitschriftenanalyse ist das American Journal of Obstetrics and Gynecology mit 1.432 Publikationen das meistpublizierende Fachjournal, mit 16.446 Zitierungen ist es auch gleichzeitig das meistzitierte. Die höchste Zitationsrate von 19,97 wurde der Zeitschrift Obstetrics&Gynecology zuteil, gefolgt von Anesthesia&Analgesia.
Es konnte eine signifikante Korrelation festgestellt werden zwischen der Publikationsanzahl und dem Zeitraum, in denen diese veröffentlicht wurden
Bei den Autorenanalysen wurde die Leistung anhand von Publikationsvolumen, Zitationsrate und h-Index beurteilt. Als produktivster Autor wurde Prof. Aaron Caughey identifiziert, er publizierte 70mal zum Thema Kaiserschnitt, zum Großteil jedoch als Letztautor. Den höchsten h-Index erreicht der Wissenschaftler Kenneth Leveno mit einem Wert von 23, die höchste Zitationsrate Baha Sibai mit 42,26.
Es konnte ebenfalls aufgezeigt werden, dass die Kooperationsbeziehungen in den letzten Jahren an Bedeutung gewonnen haben und vor allem ab Beginn des 21. Jahrhunderts signifikant angestiegen sind. Zurückzuführen ist diese Entwicklung auf die vereinfachte und schnelle Kommunikation aufgrund der weiterentwickelten Technik und die vorangeschrittene Globalisierung. Die USA
ist der bedeutendste Kooperationspartner unter den Ländern, intensive Zusammenarbeit kann für Großbritannien und Kanada festgestellt werden.
Freundschaft und Liebe haben eines gemeinsam: die innige und wechselseitige Zuneigung zweier Personen zueinander. Das Mittelalter kennt die diskursive Trennung von Freundschaft und Liebe als Codes der Intimität nicht. Mit dem Terminus "minne" wird in der mittelalterlichen Literatur sowohl die Freundschaft zweier Männer als auch die Liebe zwischen Ritter und Dame beschrieben. Die Gesellschaft des Mittelalters um 1200 ist eine patriarchal organisierte und damit männlich homosozial geprägte Kriegergesellschaft. Vor diesem Hintergrund wird die These formuliert, dass Freundschaft im Mittelalter eher nicht der unwahrscheinliche Code der Intimität ist, sondern die Liebe. Mit dieser These wird die moderne Perspektive auf personale Zweierbeziehungen umgekehrt, die intuitiv die heterosoziale Beziehung und damit Liebe als Code der Intimität präferiert.
Im Zentrum des Interesses stehen männlich homosoziale Freundschaften und heterosoziale Liebesbeziehungen. Diese werden auf Basis linearer und triangulärer Figurenkonstellationen und unter Rückgriff auf Niklas Luhmanns Thesen, die er in „Liebe als Passion“ (1982) entwickelt, untersucht. Luhmann unterscheidet drei historische Stufen des Liebesdiskurses und ordnet diese Epochen zu: die höfische Liebe des Mittelalters, die passionierte Liebe der frühen Neuzeit und die romantische Liebe des 19. Jahrhunderts, die bis heute den Liebesdiskurs prägt. Die strikte Epocheneinteilung, die Luhmann vornimmt, wird für die Analyse der mittelhochdeutschen Texte aufgebrochen um zu zeigen, dass in der Literatur des Mittelalters Beispiele für alle drei Formen der Liebe zu finden sind. Die höfische Epik präsentiert Freundschaft und Liebe als Codes der Intimität, die sich einerseits wechselseitig bedingen, andererseits miteinander konkurrieren. Zwar stehen in den untersuchten Texten die heterosozialen Beziehungen im Fokus, doch mündet die Dominanz der Liebe als Code der Intimität nicht in der Verdrängung der Freundschaft. Im Gegenteil: Freundschaft dient der Liebe als Modell.
This dissertation explores the linguistic identity changes of Chinese international students in Germany, and the relationship between their identity reconstruction and their multilingual competence. With the social turn (Block, 2003) of applied linguistics, research on study abroad has shown that student sojourners abroad encounter challenges not only to their language abilities, but also to their identities, which explains the vast individual differences in the measurable outcomes of student sojourns abroad. However, the realm of learners’ linguistic identity development in the English as a lingua franca (ELF) and multilingual contexts remains to be further explored, since most existing studies examined learners in the target language community. Guided by poststructuralist views and sociocultural theories, this study is designed with a view towards investigating the lived experience of Chinese international students at German universities.
Employing a qualitative approach, my research tracked seventeen Chinese students’ experiences of language learning and use in both their social lives and academic settings over one year. The empirical work combined semi-structured, in-depth interviews and emails. Three rounds of one-to-one interviews were conducted every 6 months and each round focused on students’ respective past, present and future. The grounded theory approach (Corbin & Strauss, 2015) was used in this study to analyse the data, aiming at generating theoretical explanations for phenomena through constant comparison.
The results of the category-based analysis offer a new lens on the intricate linguistic identity development of Chinese students in the study abroad context. The construction of their new identity facets is related to various contextual elements in experiences of their language learning and use. More importantly, learners’ identity changes related to the use of ELF is conceived as within a framework of multilingualism (Jenkins, 2015). In any given social interaction, learners’ linguistic identities are influenced by a combination of factors: perceived linguistic proficiency gap, power distribution,preferred communication styles, sensitivity to second/third language self-images and openness to new cultures. It is these factors, instead of the lingua franca context or
target language context per se, that come into play in the reformation of learners’
linguistic identities. Learners’ linguistic identity changes, together with their priority setting in studying abroad, are in turn interconnected with their multilingual competence development.
The findings of my study suggest theories for understanding learners’ linguistic identity development and the outcomes of their language learning in the study abroad context in the face of the complexity of individual experiences. My study also demonstrates the importance to foster learners’ “self-presentational competence” (Pellegrino Aveni, 2005: 145-146) so that they could successfully negotiate new subject positions when crossing the borders.
The ALICE High-Level-Trigger (HLT) is a large scale computing farm designed and constructed for the purpose of the realtime reconstruction of particle interactions (events) inside the ALICE detector. The reconstruction of such events is based on the raw data produced in collisions inside the ALICE at the Large Hadron Collider. The online reconstruction in the HLT allows the triggering on certain event topologies and a significant data reduction by applying compression algorithms. Moreover, it enables a real-time verification of the quality of the data.
To receive the raw data from the various sub-detectors of ALICE, the HLT is equipped with 226 custom built FPGA-based PCI-X cards, the H-RORCs. The H-RORC interfaces the detector readout electronics to the nodes of the HLT farm. In addition to the transfer of raw data, 108 H-RORCs host 216 Fast-Cluster-Finder (FCF) processors for the Time-Projection-Chamber (TPC). The TPC is the main tracking detector of ALICE and contributes with up to 16 GB/s to over 90% of the overall data volume. The FCF processor implements the first of two steps in the data reconstruction of the TPC. It calculates the space points and their properties from charge clouds (clusters) created by charged particles traversing the TPCs gas volume. Those space points are not only the base for the tracking algorithm, but also allow for a Huffman-based data compression, which reduces the data volume by a factor of 4 to 6.
The FCF processor is designed to cope with any incoming data rate up to the maximum bandwidth of the incoming optical link (160 MB/s) without creating back-pressure to the detectors readout electronics. A performance comparison with the software implementation of the algorithm shows a speedup factor of about 20 compared with one AMD Opteron 6172 Core @ 2.1 GHz, the CPU type used in the HLT during the LHC Run1 campaign. Comparison with an Intel E5-2690 Core @ 3.0 GHz, the CPU type used by the HLT for the LHC Run2 campaign, results in a speedup factor of 8.5. In total numbers, the 216 FCF processors provide the computing performance of 4255 AMD Opteron cores or 2203 Intel cores of the previously mentioned type. The performance of the reconstruction with respect to the physics analysis is equivalent or better than the official ALICE Offline clusterizer. Therefore, ALICE data taking was switched in 2011 to FCF cluster recording and compression only, discarding the raw data from the TPC. Due to the capability to compress the clusters, the recorded data volume could be increased by a factor of 4 to 6.
For the LHC Run3 campaign, starting in 2020, the FCF builds the foundation of the ALICE data taking and processing strategy. The raw data volume (before processing) of the upgraded TPC will exceed 3 TB/s. As a consequence, online processing of the raw data and compression of the results before it enters the online computing farms is an essential and crucial part of the computing model.
Within the scope of this thesis, the H-RORC card and the FCF processor were developed and built from scratch. It covers the conceptual design, the optimisation and implementation, as well as the verification. It is completed by performance benchmarks and experiences from real data taking.
The venture capital industry holds relevance for entrepreneurs looking for money to finance an innovative project, investors seeking to make money by investing in entrepreneurial firms and governments trying to promote innovation and entrepreneurship. Venture capital investment could facilitate innovation and thus a better economy.
Venture capital has enabled the U.S. to support its entrepreneurial talent by turning ideas into world-famous products and services, building companies from mere business plans to mature and powerful organizations. Three of the five largest U.S. public companies by market capitalization – Apple, Google and Microsoft – received most of their early external funding from venture capital. Having its ups and downs, venture capital investment in the U.S. expanded from virtually zero in the mid-1970s to $8 billion in 1995 and $49.3 billion in 2014. Venture backed companies have been a prime driver of economic growth in the U.S.Across the pacific, venture capital investment in China has grown out of the transition from a centrally planned economy to a free market economy over the past three decades, becoming an important pillar supporting China’s innovation system. In 2015, a total of 2,824 venture capital investment deals provided an aggregate investment of $36.9 billion. Venture capital has long been a hot topic in China’s capital market, particularly since the government decided to boost “mass entrepreneurship and innovation” in 2014.
In the U.S., most venture capital firms are organized as limited partnerships, with the venture capitalists being general partners and the investors limited partners. Studies have shown that investors choose to invest through venture funds as an intermediary rather than placing their investments directly with the entrepreneurs; because of the high risk nature of the entrepreneur’s business, it is hard for them to get bank loans or direct equity investments. Conflicts may also arise, however, between the venture capitalists acting as agents and the investors as principals.5 This agency problem maybe particularly severe, since venture capital provides money for businesses with high potential and high risk, although the limited partnership has certain merits and is still most commonly chosen as the business form for venture capital funds.6 At the same time, the fact that general partners have total control of the partnership business necessitates that the agency problem is addressed by legal rules, contracts and other mechanisms.
Meanwhile, despite the rapid growth of venture capital investments in China, little attention has been paid to the organizational form of venture capital funds. In contrast to the U.S., most Chinese venture funds have been structured as corporations. One may argue that it was due to legislative reasons: that the limited partnership was not recognized by Chinese law when venture capital first appeared in China. However, after adopted a chapter was adopted in the Partnership Enterprise Law (PEL) governing limited partnerships in 2007, most of the venture funds abided by their choice, while those opting for the limited partnership have encountered difficulties: the limited partners are having trouble trusting the general partners with their money and are therefore interfering with the operation of the partnership business, which may lead to dissolution of the partnership.
This thesis applies transaction cost theory to explain the benefits and costs of choosing the limited partnership as a business form in the special context of venture capital investments, showing that the potential agency conflict between the general partners and the limited partners have been mitigated by legal and other mechanismsin the United States, and that the U.S. investors could therefore exploit the merit of the limited partnership form in venture capital financing. In China, investors have different answers to the agency problem. Similarly to the situation in the U.S., Chinese partners also employ contract terms to deal with agency problems, and the legislators enact laws that aim at regulating the limited partnership form; some legislation was even transplanted from the U.S., such as that part of the PEL which governs limited partnerships. It seems, then, that similar mechanisms that deal with agency problems also exist in China. However, given the unique history of the development of China’s innovation system and venture capital market, the effectiveness of these constraints is questionable. Chinese venture capital investors have therefore characteristically behaved differently to U.S. investors. Rather than relying on these questionable mechanisms, Chinese investors as well as the Chinese government have developed different approaches to addressing these agency problems.
The mainstream law and economics approach has dominated positive analysis and normative design of economic regulations. This approach represents a form of applied neoclassical and new institutional economics. Neoclassical and/or new institutional economic theories, models, and analytical concepts are applied automatically to economic regulatory problems.
This automatic application of neoclassical economics to economic regulatory problems loses sight of the valid insights of non-neoclassical schools of economic thought and theories, which may illuminate important aspects of the regulatory problems. This thesis, therefore, advocates an integrated law and economics approach to economic regulations. This approach identifies the relevant insights of neoclassical and non-neoclassical schools of thought and theories and refines them through a process of cross-criticism. In this process, the insights of each school of thought are subjected to the critiques of other schools of thought. The resulting refined insights, which are more likely to be valid, are then integrated consistently through various techniques of integration.
Not only does neoclassical (micro and macro) law and economics overlook the valid insights of non-neoclassical schools of thought, it is also highly reductionist. It ignores the interdependencies of legal institutions, highlighted mainly by the comparative capitalism literature, and the structural interlinkages among socio-economic actors, highlighted by economic sociology and complexity economics. Rather, it takes rational individuals and their interactions subject to the constraint of isolated institution(s) as its unit of analysis. In place of this reductionist perspective, the thesis argues for a systemic approach to economic regulations. This systemic perspective replaces the reductionist unit of neoclassical regulatory analysis with a systemic unit of analysis that consists of the least non-decomposable actors’ network and its associated least non-decomposable institutional network. Then, the thesis develops an operationalized and replicable systemic framework for systemic analysis and design of institutional networks.
Both the systemic and integrated approaches are theoretically consistent and complementary. The systemic approach is in essence a way of thinking that requires a broad and rich informational basis that can be secured by using the integrated approach. Due to their complementarity, they give rise to what I call “the integrated and systemic law and economics approach.” The thesis operationalizes this approach by setting out well-defined replicable steps and applying them to concrete regulatory problems, namely, the choice of a corporate governance model for developing countries and the development of a normative theory of economic regulations. These concrete applications demonstrate the critical bite of the integrated and systemic approach, which reveals significant shortcomings of mainstream law and economics’ answers to these regulatory questions. They also show the constructive potential of the integrated and systemic approach in overcoming the critiques advanced to the neoclassical regulatory conclusions.
The operationalized integrated and systemic approach is both a law and economics as well as a law and development approach. It does not only provide an alternative to mainstream law and economics analysis and design of economic regulations. It also fills a significant analytical lacuna in the law and development literature that lacks an analytical framework for analysis and design of context-specific legal institutions that can promote economic development in developing economies.
Ein Ziel dieser Arbeit war die Entwicklung und biologische Evaluierung einer Sensorik zur Verbesserung der Prognose des Apfelschorfs. Als Grundlage für die Schorfprognose dient nach dem Modell von Mills die Länge der Blattnässedauer in Abhängigkeit von der Lufttemperatur. Es wurden mehrjährige Vergleiche verschiedener käuflicher Blattnässesensoren durchgeführt und in Zusammenarbeit mit der Firma THIES Clima ein Sensor für Wasserbenetzung entwickelt. Der Vergleich der käuflichen Sensoren zeigte deutliche Unterschiede in der Anzeige der Nässedauer zwischen den verschiedenen getesteten Sensoren. Die Eignung dieser Sensoren für die Prognose war sehr verschieden. Der im Rahmen des Verbundprojektes entwickelte Sensor ist zuverlässig, wetterfest, korrosionsbeständig und wartungsarm. Die einzelnen Prototypen wurden nach der Evaluierung in der Klimakammer im Freiland getestet und die Einstellungen anhand von Bioassays auf ihre Eignung zur Prognose überprüft. Der marktreife Prototyp kann ohne weitere Modellierung zur Erfassung der Blattnässe von Apfelblättern in die Prognose eingebunden werden.
Ein weiteres Ziel der vorliegenden Arbeit war es, die Zusammenhänge der diurnalen Rhythmik der Sporenausschleuderung von Venturia inaequalis zu untersuchen. Im Freiland wurden die Ascosporenflüge unter natürlichen Bedingungen und mit Störlicht registriert. Im Labor wurde der Sporenausstoß unter dem Einfluss der Beleuchtungsstärke und Wellenlängen-Zusammensetzung untersucht. Sowohl im Freiland als auch im Labor konnte eine Aufhebung der Dunkelhemmung des Sporenausstoßes erreicht werden. Der sichtbare Anteil des Lichts konnte auch bei Helligkeiten von über 10000 Lux als Auslöser des Sporenausstoßes ausgeschlossen werden. Durch die Bestrahlung der Pseudothecien tragenden Blätter mit nicht sichtbaren infraroten Lichtanteilen wurde eine Freisetzung der Ascosporen auch im Dunkeln erreicht und die diurnale Rhythmik der Sporenausschleuderung im Freiland wurde aufgelöst.
Proteinen die ExHepatitis C ist eine entzündliche Erkrankung der Leber, die durch das Hepatitis-C-Virus (HCV) verursacht wird. Trotz vieler Bemühungen ist heutzutage immer noch keine prophylaktische Vakzinierung verfügbar. Neuartige Therapien versprechen eine hohe Heilungsrate, sind aber mit hohen Kosten verbunden. HCV induziert oxidativen Stress, welcher für das Auftreten und die Progression der Pathogenese eine zentrale Rolle spielt. Um zellulären Stress (z.B. durch ROS) entgegenzuwirken, haben Zellen cytoprotective und detoxifizierende Mechanismen entwickelt, die die zelluläre Homöostase aufrechterhalten. Dabei kontrolliert der redoxsensitive Transkriptionsfaktor Nrf2 als Heterodimer zusammen mit sMaf- pression von cytoprotective und ROS-detoxifizierenden Genen. Vorherige Studien haben gezeigt, dass HCV den Nrf2/ARE-Signalweg beeinträchtigt. Dabei induziert HCV eine Translokation der sMaf-Proteine aus dem Zellkern in das Cytoplasma, wo diese das virale Protein NS3 binden. Im Cytoplasma lokalisierte sMaf-Proteine verhindern dadurch eine Translokation von Nrf2 in den Zellkern. Folglich ist die Expression von Nrf2/ARE-abhängigen cytoprotective Genen inhibiert und intrazelluläre ROS-Spiegel dauerhaft erhöht. Ein weiterer zentraler cytoprotective Mechanismus ist die Autophagie. Sie dient der Aufrechterhaltung der zellulären Homöostase durch den Abbau von defekten Proteinen und Organellen. Des Weiteren ist bekannt, dass Autophagie nicht nur im Laufe von Nährstoffmangel induziert wird, sondern auch durch erhöhte Mengen an ROS. In sämtlichen Studien konnte beobachtet werden, dass Autophagie für die Aufrechterhaltung des viralen Lebenszyklus eine wesentliche Rolle spielt, da sie mit der Ausbildung des membranous web, der Translation, der Replikation und der Freisetzung des Virus interferiert. Ausgehend davon sollte in dieser Arbeit zunächst die Relevanz von HCV-induziertem oxidativen Stress, resultierend aus der Nrf2/ARE-Signalweginhibition, als möglicher Aktivator der Autophagie untersucht werden. Dabei wurde in HCV-positiven Zellen eine Akkumulation von LC3-II beobachtet, was auf eine Induktion der Autophagie schließen lässt. In Übereinstimmung damit wurde eine erhöhte Expression von Autophagie-Markerproteinen in HCV-infizierten PHHs detektiert. Im Laufe der Autophagie wird p62 abgebaut. Somit sollte eine Induktion der Autophagie in einer Verminderung der Menge an p62 resultieren. Nichtsdestotrotz ist eine Akkumulation von p62 in HCV-positiven Zellen nachzuweisen. Dies erscheint zunächst widersprüchlich. Aufgrund der Tatsache, dass die Expression der katalytischen Untereinheit des Proteasoms (PSMB5) Nrf2-abhängig ist, führt die beeinträchtigte Nrf2-Aktivität in HCV-positiven Zellen jedoch zu einer verringerten Aktivität des konstitutiven Proteasoms. Dieser Befund kann auch die erhöhte Halbwertzeit von p62 in HCV-positiven Zellen erklären. Kürzlich wurde ein Zusammenspiel des Nrf2/ARE-Signalwegs und der Autophagie beobachtet. Dabei kann Nrf2 nicht nur über den kanonischen Signalweg aktiviert werden, sondern auch durch eine direkte Interaktion des phosphorylierten Autophagie-Adaptorproteins p62 (pS[349] p62) mit Keap1. In HCV-positiven Zellen können nicht nur eine Zunahme der Gesamtmenge von p62 beobachtet werden, sondern auch erhöhte Mengen an pS[349] p62. Die Berechnung des Quotienten aus pS[349] p62 und p62 zeigt in etwa eine Verdopplung der Menge an pS[349] p62 , was auf eine vermehrte Phosphorylierung von p62 in HCV-positiven Zellen rückschließen lässt. Des Weiteren konnte beobachtet werden, dass erhöhte Mengen an ROS, wie sie auch in HCV-positiven Zellen vorkommen, Autophagie induzieren können, die durch eine Akkumulation von LC3-II und die Zunahme von LC3 Puncta charakterisiert ist. Auch eine Zunahme von pS[349] p62 konnte beobachtet werden. Ferner resultierte die Überexpression der phosphomimetischen Mutante (p62 [S351E]) in einer Akkumulation von LC3-II, was auf die Fähigkeit von pS[349] p62 rückschließen lässt, Autophagie zu induzieren. Eine Modulation der Autophagie mittels der Inhibitoren 3-Methyladenin und Bafilomycin führte zu einer inhibierten Freisetzung von infektiösen viralen Partikeln und unterstreicht damit, dass der Autophagie eine essentielle Bedeutung bei der Freisetzung viraler Partikel zukommt. Eine HCV-Infektion wird sowohl von erhöhten Mengen an ROS als auch von einer Induktion der Autophagie begleitet. Dementsprechend führte eine Verminderung des intrazellulären Radikalspiegels durch eine Inkubation mit den Radikalfängern PDTC und NAC zu geringeren Mengen an LC3-II und pS[349] p62. Dabei konnte auch eine Abnahme der freigesetzten infektiösen viralen Partikel beobachtet werden, was ein Zusammenspiel zwischen erhöhten Mengen an ROS, Induktion der Autophagie und Virusfreisetzung nahelegt. Vorschlag: Erhöhte Mengen an ROS werden durch eine Aktivierung des Nrf2/ARE-Signalwegs detoxifiziert und würden somit den zuvor beschriebenen viralen Mechanismus verhindern. HCV die Aktivierung Nrf2/ARE-regulierter Gene beeinträchtigt, wurde die Hypothese aufgestellt, dass in HCV-positiven Zellen dieser komplexe Mechanismus dazu dient, die Translokation des pS[349] p62-abhängig freigesetzte Nrf2 in den Zellkern zu verhindern. Das wiederum hat eine eingeschränkte Expression von Nrf2/ARE-abhängigen Genen und Detoxifizierung von ROS zur Folge. Um diese Hypothese experimentell zu untersuchen, wurden HCV-positive und negative Zellen cotransfiziert mit dem p62 Wildtyp (p62 [wt]), der p62 phosphomimetischen Mutante (p62 [S351E]) oder einem Kontrollplasmid in Kombination mit einem Reporterkonstrukt, welches die Nrf2-Aktivierung darstellt (OKD48). Während in HCV-negativen Zellen im Vergleich zum p62 [wt] eine Transfektion mit p62 [S351E] zu einer signifikanten Aktivierung des Nrf2-abhängigen Reportergens führt konnte dies in HCV-positiven Zellen nicht beobachtet werden. Zusammengenommen beschreiben diese Ergebnisse einen neuartigen Mechanismus wie HCV das Zusammenspiel zwischen dem Nrf2/ARE-Signalweg, erhöhten Mengen an ROS und Autophagie beeinflusst. Dabei übt HCV einen negativen Effekt auf den Nrf2/ARE-Signalweg aus, um dem pS[349] p62-abhängig freigesetzten Nrf2 zu entkommen. Folglich werden erhöhte Mengen an ROS aufrechterhalten, die eine Induktion der Autophagie ermöglichen, welche für die Freisetzung viraler Partikel essentiell ist.
Cancer cells, in general and especially Rhabdomyosarcoma (RMS) cells have been reported to be highly susceptible to oxidative stress. Based on this knowledge we examined whether the inhibition of the two main antioxidant defense pathways, i.e. the thioredoxin (TRX) and the glutathione (GSH) system, represents a possible new strategy to induce cell death in RMS. To do so, we combined the -glutamylcysteine synthetase (γGCL) inhibitor buthionine sulfoximine (BSO) or the cystine/glutamate antiporter (xc-) inhibitor erastin (ERA), both GSH depleting enzymes, with the thioredoxinreductase (TrxR) inhibitor auranofin (AUR) to evaluate synergistic cell death in the alveolar RMS (ARMS) cell line RH30 and the embryonal RMS (ERMS) cells RD.
Furthermore, we tried to unravel the underlying molecular mechanisms of AUR/BSO or AUR/ERA treatment in RMS cells. Thereby we showed that AUR/BSO as well as AUR/ERA treatment leads to proteasome inhibition characterized by the accumulation of ubiquitinated proteins, which is in agreement with the already published ability of AUR to inhibit proteasomeassociated deubiquitinases (DUBs) aside from TrxR. As a consequence, the protein levels of ubiquitinated short-lived proteins, like NOXA and MCL-1, increase upon treatment with AUR/BSO or AUR/ERA. Consistently, we could detect an increased binding of NOXA to MCL-1. Interestingly, not only NOXA protein levels but also mRNA levels rise upon treatment, pointing to a transcriptional regulation of pro-apoptotic NOXA through AUR/BSO or AUR/ERA combination treatment. The fact that siRNA mediated knockdown of NOXA rescues cells from combination treatment-induced cell death strengthens the role of NOXA as an important regulator of cell death induction. Apart from proteasome inhibition and subsequent NOXA accumulation, AUR cooperates with BSO or ERA to trigger BAX/BAK activation, which is needed for cell death induction, too. Additionally, loss of mitochondrial membrane potential (MMP) as well as caspase activation and PARP cleavage is detected after treatment of RMS cells with AUR/BSO or AUR/ERA.
Except of apoptotic cell death we also detected features of iron-dependent ferroptosis after treatment with AUR/BSO or AUR/ERA. This is not surprising, since BSO and ERA already have been described to induce ferroptotic cell death. Although lipid peroxidation takes place in both cell lines, only in RH30 cells, cell death seems to be partially ferroptosis-dependent, since especially in this cell line AUR/BSO- or AUR/ERA-induced cell death can be rescued with different ferroptosis inhibitors.
Although both combination treatments, AUR/BSO as well as AUR/ERA, induce production of reactive oxygen species (ROS), only the thiol-containing ROS scavengers GSH and its precursor N-acetylcysteine (NAC), but not the non-thiolcontaining antioxidant α-Tocopherol (α-Toc), consistently prevent proteasome inhibition, NOXA accumulation and cell death.
Additionally, we demonstrated that BSO and ERA abolish AUR-mediated upregulation of GSH thereby releasing the AUR cytotoxic effect on RMS cells, in line with the described ability of cysteines to inhibit the function of AUR. Together, this points to the conclusion that GSH depletion, rather than an increase in ROS levels, is important for AUR/BSO- or AUR/ERA-induced cell death.
In conclusion, through revealing that the antitumor activity of AUR is enhanced in combination with GSH depleting agents, we identified redox homeostasis as a new and promising target for the treatment of RMS cells.
Fossile Rohstoffe dienen in unserer heutigen Gesellschaft als Energiequelle und als Rohstofflieferant für Grund-, Feinchemikalien und Pharmazeutika. Sie tragen jedoch zum Klimawandel und Umweltverschmutzung bei. Lignocellulosische Biomasse ist eine erneuerbare und nachhaltige Alternative, die durch biotechnologische Prozesse erschlossen werden kann. Die Bäckerhefe Saccharomyces cerevisiae ist ein sehr gut untersuchter Modellorganismus, für den es zahlreiche genetische Werkzeuge und Analysemethoden gibt. Zudem wird S. cerevisiae häufig in biotechnologischen Prozessen eingesetzt, da diese Hefe robust gegenüber industriellen Bedingungen wie niedrigen pH-Werten, toxischen Chemikalien, osmotischem und mechanischem Stress ist. Die Pentose D-Xylose ist ein wesentlicher Bestandteil von lignocellulosischer Biomasse, die aber nicht natürlicherweise von der Bäckerhefe verwerten werden kann. Für eine kommerzielle Herstellung von Produkten aus lignocellulosischer Biomasse muss S. cerevisiae D-Xylose effektiv verwerten. Für die Bäckerhefe konnten heterologe Stoffwechselwege etabliert werden, damit diese D-Xylose verwerten kann. Für eine effiziente Xyloseverwertung bleiben dennoch zahlreiche Herausforderungen bestehen. Unter anderem nehmen die Zellen D-Xylose über ihre endogenen Hexosetransporter nur langsam auf. Die heterologe Xylose-Isomerase (XI) besitzt in S. cerevisiae eine geringe Aktivität für die Isomerisierung von D-Xylose. Unspezifische Aldosereduktasen konkurrieren mit der Xylose-Isomerase um das gleiche Substrat und produzieren Xylitol, ein starker Inhibitor der Xylose-Isomerase. Eine Möglichkeit die Umsatzrate von Enzymen zu steigern und Substrate vor Nebenreaktionen zu schützen, ist die Anwendung von Substrate Channeling Strategien. Bei Substrate Channeling befinden sich die beteiligten Enzyme in einem Komplex, wodurch die Substrate lokal angereichert werden und von einem aktiven Zentrum zum nächsten weitergeleitet werden, ohne Diffusion in den restlichen Reaktionsraum. In dieser Arbeit wurde untersucht, ob ein Komplex zwischen einem membranständigen Transporter und einem löslichen Enzym konstruiert werden kann, um durch Substrate Channeling eine verbesserte Substrat-Verwertung zu erreichen. Die Xylose-Isomerase aus C. phytofermentans und die endogene Hexose-Permease Gal2 sollten in dieser Arbeit als Modellproteine in S. cerevisiae-Zellen mit Hilfe von Protein-Protein-Interaktionsmodulen (PPIM) in räumliche Nähe zueinander gebracht werden.
Die Expression verschiedener PPIM konnte in S. cerevisiae mittels Western Blot nachgewiesen werden. Auch Fusionsproteine aus unterschiedlichen PPIM wurden in dieser Hefe exprimiert. Die PPIM binden komplementäre PPIM oder kurze Peptidliganden, welche an die Xylose-Isomerase und an den Gal2-Transporter fusioniert wurden. Die Funktionalität beider Proteine wurde mittels in vivo und in vitro Tests untersucht. Die Xylose-Isomerase mit N-terminalen Liganden des WH1-Protein-Protein-Interaktionsmoduls (WH1L-XI) und der Gal2-Transporter mit N-terminalen SYNZIP2-Protein-Protein-Interaktionsmodul (SZ2-Gal2) erwiesen sich als geeignete Kandidaten für weitere Untersuchungen. Mittels indirekter Immunfluoreszenz konnte die Ko-Lokalisierung von SZ2-Gal2 und WH1L-XI, die einander über ein Scaffold-Protein binden, nachgewiesen werden.
Transformanten, in denen ein Komplex aus Transporter, Scaffold-Protein und Xylose-Isomerase gebildet wurde, zeigten bessere Fermentationseigenschaften gegenüber der Scaffold-freien Kontrolle und dem Wildtyp: Sie verwerteten Xylose schneller, bildeten weniger vom unerwünschten Nebenprodukt Xylitol, produzierten mehr Ethanol und wiesen eine höhere Ethanolausbeute auf. Der beobachtete Substrate Channeling Effekt kompensierte die geringere Enzymaktivität der WH1L-XI im Vergleich zum Wildtyp-Protein. Die Wirksamkeit des Substrate Channeling wurde verringert, wenn die Bildung des Komplexes aus Transporter, Scaffold-Protein und Xylose-Isomerase gestört wurde, indem ein getaggtes GFP mit dem Scaffold-Protein um die Bindungsstelle an Gal2 konkurrierte. Dies zeigt, dass die positive Wirkung auf die Komplex-Bildung zwischen XI und Gal2 zurück zu führen ist. Die Fermentationseigenschaften konnten gesteigert werden, indem der zuvor zwischen SZ2-Zipper und Gal2-Transporter verwendete Linker, der aus zehn Aminosäuren von Glycin, Arginin und Prolin (GRP10) bestand, durch einen aus Glycin und Alanin (GA10) ersetzt wurde. Die verbesserten Fermentationseigenschaften beruhten auf einem Substrate Channeling Effekt und einer gesteigerten Aufnahmerate des SZ2-GA10-Gal2-Transporters. Ein Vergleich der Strukturvorhersagen von SZ2-GRP10-Gal2 und SZ2-GA10-Gal2 zeigte, dass der GRP10-Linker einen unstrukturierten, flexiblen Linker ausbildet, während der GA10-Linker eine starre α-Helix ausbildet. Die Struktur und der Transportprozess von Gal2 sind nicht aufgeklärt. Bei verwandten Transportern geht man davon aus, dass Substrate durch Konformationsänderungen ins Innere der Zelle transportiert werden, indem die beiden Domänen gegeneinander klappen. Die α-Helix könnte die Geschwindigkeit der Konformationsänderungen begünstigen.
Durch Kontrollexperimente konnte ausgeschlossen werden, dass die gesteigerten Fermentationseigenschaften eine Folge der Stabilisierung der XI- und Gal2-Fusionsproteine durch das Anfügen des Liganden oder durch Komplexbildung mit dem Scaffold-Protein waren. Substrate Channeling zwischen Gal2 und XI entsteht durch die Komplexbildung mit dem Scaffold-Protein, wodurch sich Gal2 und XI in räumlicher Nähe zueinander befinden. Dieser Effekt beruht möglicherweise zusätzlich aufgrund einer hohen örtlichen Ansammlung dieser Proteine, da die tetramere XI weitere Scaffold-Proteine binden könnte, welche weitere Gal2-Transporter binden könnte. Darüber hinaus sammeln sich Transporter an bestimmten Orten der Membran an und Transporter mit ähnlicher oder gleicher Transmembransequenz tendieren dazu zu ko-lokalisieren. Hierdurch könnten Gal2-XI-Agglomerate entstehen und Xylose wird mit hoher Wahrscheinlichkeit von einer der vielen Xylose-Isomerasen umgesetzt.
Eisnukleierende Partikel (INP) sind ein wichtiger Bestandteil des atmosphärischen Aerosols. Trotz ihrer geringen Konzentrationen in der Atmosphäre haben sie Einfluss auf die Bildung von Eiskristallen und auf den Niederschlag. Durch Änderungen in Anzahlkonzentration oder anderer Eigenschaften der INP können sich Wolkenparameter wie Lebensdauer und Tröpfchendichte ändern, was weiter eine Ursache für Änderungen im globalen Strahlungshaushalt sein kann.
Der Anteil zum globalen Strahlungshaushalt durch „Wolken-Anpassungen aufgrund von Aerosolen“, stellt weiterhin die größte Unsicherheit des Strahlungsantriebes dar. Aus diesem Grund sind Messungen und Studien über atmosphärische Aerosole und INP notwendig. Im Rahmen dieser Arbeit wurde der Eiskeimzähler FINCH („fast ice nucleus chamber“) grundlegend überholt und für Messungen von INP optimiert. FINCH ist ein in-situ Eiskeimzähler der durch Mischung unterschiedlicher Luftströme eine Übersättigung der Probeluft mit Wasserdampf erzeugt, um auf diese Weise die zu untersuchenden Aerosolpartikel zu Eiskristallen wachsen zu lassen. Am Ende einer Wachstumskammer werden die Partikel durch eine Optik, dem FINCH-OPS, anhand von Streueigenschaften klassifiziert und ausgewertet. Um FINCH im erwarteten Umfang benutzen zu können, wurden am F-OPS der Laser und die zur Detektion des Streulichts benutzen Photomultiplier ersetzt. Weiter wurde die Software zur Detektion der Partikel neu entwickelt. Durch diese Änderungen ist es möglich Partikelanzahl, Partikelgröße sowie eine Information über die Form der Partikel abzuleiten. Über einen weiteren Photomultiplier im F-OPS ist es zudem möglich eine Information über Fluoreszenz des Partikels zu gewinnen, um so auf einen biologischen Ursprung des Partikels zu schließen. Vorangegangene Probleme durch elektromagnetische Einstrahlung und dadurch entstandene Inkonsistenzen während Messungen konnten im Rahmen dieser Arbeit identifiziert und ausgeschlossen werden. Ebenfalls konnten die zur Flusskühlung benutzen Wärmetaucher als Ursache für Verunreinigungen und Kontamination ausgemacht werden. Auch dieser, für Messungen ungeeignete Zustand, wurde im Rahmen dieser Arbeit behoben.
Ausführliche Charakterisierungsmessungen konnte die Funktionsfähigkeit des F-OPS, als einzelnes Messgerät ohne FINCH-Kammer, belegen. Durch Messungen mit einer steuerbaren Lichtquelle in der Optik konnte zudem die elektrische Verarbeitung sowie die Zählqualität der Optik verifiziert werden. Weiter kann durch diese Experimente gezeigt werden, dass mit dem F-OPS größenaufgelöst gemessen werden kann.
Auch in den ersten Streulichtexperimenten mit Testaerosol kann die Funktionsfähigkeit der Optik gezeigt werden. Für Partikelgröße von Dp > 400 nm wird eine Zähleffizienz von 25% eines TSI 3025 CPCs erreicht. Die über den F-OPS abgeleitete Partikelgröße kann durch Messungen mit monodispersen Aerosolpartikeln und einer parallelen Messung mit einem TSI 3330 OPS parametrisiert werden. Weiter kann die Fluoreszenz von ausgewählten Referenzstoffen gezeigt werden.
Im Betrieb von F-OPS hinter der FINCH-Kammer, also FINCH als Komplettsystem, wurden weitere Charakterisierungsmessungen durchgeführt. Es wurde festgestellt, dass die Anzahlkonzentration der Partikel nach Schließen eines Ventils exponentiell abfällt. Die Partikel folgen demnach nicht nur einem laminaren Fluss durch die Kammer. 50% der Partikel haben nach ca. 13 s die Kammer verlassen. Auch wurde ermittelt, dass ca. 40% der Partikel in der Kammer verloren gehen.
Erste Aktivierungsexperimente zeigen, dass Eispartikel in der Kammer auf eine Größe von Dp > 6 µm anwachsen. Durch Nullfiltermessungen in Aktivierungsphasen, sowie Ändern des zur Aktivierung notwendigen feuchten Flusses, wird zudem gezeigt, dass die Aktivierung der INP durch Mischung erfolgt und außerdem keine Fremdpartikel aktiviert werden. Die neue Steuerung der Kammer lässt es zu Temperaturen in etwa einer Stunde gezielt anzusteuern. Es wird gezeigt, dass Schwankungen in der Sättigung hauptsächlich durch Temperaturphänomene beeinflusst werden.
Abschließend wurden beispielhaft Laborexperimente mit Snomax© durchgeführt, welche sehr gut mit Werten aus der Literatur verglichen werden konnten. Auch eine erste Außenluftmessung am Jungfraujoch (Schweiz) wird in dieser Arbeit präsentiert. Die gemessenen INP-Konzentrationen im gezeigten Zeitraum liegen zwischen 1,4 ± 4,1 L-1 und 53 ± 30 L-1 und entsprechen somit wiederum bekannten Literaturwerten.
The composition of cellular membranes is extremely complex and the mechanisms underlying their homeostasis are poorly understood. Organelles within a eukaryotic cell require a non-random distribution of membrane lipids and a tight regulation of the membrane lipid composition is a prerequisite for the maintenance of specific organellar functions. Physical membrane properties such as bilayer thickness, lipid packing density and surface charge are governed by the lipid composition and change gradually from the early to the late secretory pathway. As the endoplasmic reticulum (ER) is situated at the beginning of the cells secretory pathway, it has to accept and accommodate a great variety and quantity of secretory and transmembrane proteins, which enter the ER on their way to their final cellular destination. Secretory proteins can be translocated into the lumen of the ER co- or posttanslationally and membrane proteins are being inserted and released into the ER membrane. In the oxidative milieu of the ER-lumen, supported by a variety of chaperones, proteins can fold into their native form.
If the folding capacity of the ER-lumen is exceeded, an accumulation of mis- or unfolded proteins in the lumen of the ER occurs, consequently triggering the unfolded protein response (UPR). This highly conserved program activates a wide-spread transcriptional response to restore protein folding homeostasis. In fact, 7 – 8% of all genes in the yeast Saccharomyces cerevisiae (S. cerevisiae) are regulated by the UPR. The mechanism underlying the activation of the UPR by protein folding stress has been investigated thoroughly in the last decades and many of its mechanistic details have been elucidated. Recently, it became evident that aberrant lipid compositions of the ER membrane, collectively referred to as lipid bilayer stress, are equally potent in activating the UPR. The underlying molecular mechanism of this membrane-activated UPR, however, remained unclear.
This study focuses on the UPR in S. cerevisiae and characterizes the inositol requiring enzyme 1 (Ire1) as the sole UPR sensor in S. cerevisiae. Active Ire1 forms oligomers and, collaboratively with the tRNA ligase Rlg1, splices immature mRNA of the transcription factor HAC1, which results in the synthesis of mature HAC1 mRNA and the production of the active Hac1 protein, which binds to UPR-elements in the nucleus and activates the expression of UPR target genes. Here, the combination of in vivo and in vitro experiments is being used, which is supplemented by molecular dynamics (MD) simulations performed by Roberto Covino and Gerhard Hummer (MPI for Biophysics, Frankfurt), aiming to identify the molecular mechanism of Ire1 activation by lipid bilayer stress. This study focuses on the analysis of the juxta- and transmembrane region of Ire1. Bioinformatic analyses revealed a putative ER-lumenal amphipathic helix (AH) N-terminally of and partially overlapping with the transmembrane helix (TMH). This predicted AH contains a large hydrophobic face, which inserts into the ER membrane, forcing the TMH into a tilted orientation within the membrane. The resulting unusual architecture of Ire1’s AH and TMH constitutes a unique structural element required for the activation of Ire1 by lipid bilayer stress.
To investigate the function of the AH in the physiological context, different variants of Ire1 were produced under the control of their endogenous promoter and from their endogenous locus. The functional role of the AH was tested, by disrupting its amphipathic character by the introduction of charged residues into the hydrophobic face of the AH. The role of a conserved negative residue between the TMH and the AH (E540 in S. cerevisiae) was tested by substituting it by a unipolar, polar, or positively charged residue. These variants were intensively characterized using a series of assays:
This thesis provides evidence that the AH is crucial for the function of Ire1: Mutant variants with a disrupted (F531R, V535R) or otherwise modified AH (E540A) exhibited a lower degree of oligomerization and failed to catalyze the splicing of the HAC1 mRNA as the Wildtype control. Likewise, the induction of PDI1, a target gene of the UPR, was greatly reduced in mutants with a disrupted or defective AH. These data revealed an important functional role of the AH for normal Ire1 function.
An in vitro system was established to analyze the membrane-mediated oligomerization of Ire1. This system enabled the isolated functional analysis of the AH and TMH during Ire1 activation by lipid bilayer stress. A fusion construct, coding for the maltose binding protein (MBP) from Escherichia coli (E. coli), N-terminally to the AH and TMH of Ire1 was produced. The heterologous production in E. coli, the purification and reconstitution of this minimal sensor of Ire1 in liposomes was established as part of this study. To analyze the oligomeric status of the minimal sensor in different lipid environments, continuous wave electron paramagnetic resonance (cwEPR) spectroscopic experiments were performed. These experiments revealed that the molecular packing density of the lipids had a significant influence of the oligomerization of the spin-labeled membrane sensor: increasing packing densities resulted in sensor oligomerization. The AH-disruptive F531R mutant, in which the amphipathic character of the AH was destroyed, showed no membrane-sensitive changes in its oligomerization status.
Thus, the activation of Ire1 by lipid bilayer stress is achieved by a membrane-based mechanism. According to the current model, the AH induces a local membrane compression by inserting its large hydrophobic face into the membrane. As membrane thickness and acyl chain order are interconnected, this compression simultaneously results in an increased local disordering of lipid acyl chains. Supporting MD simulations performed by Roberto Covino and Gerhard Hummer revealed that the bilayer compression is significantly more pronounced in a densely packed lipid environment, than in a lipid environment of lower lipid packing density. Hence, the energetic cost of the local compression increases with the packing density of the membrane, but is compensated for by the oligomerization of Ire1. This minimization of energetic cost induced by the membrane deformation of Ire1 forms the basis for the activation of Ire1 by lipid bilayer stress.
If the biotechnological production of chemicals can further replace or support regular synthetic chemistry, industry will be able to move away from fossil oils towards renewable sources. However, in many cases the much needed adaptation of biotechnological production systems is not yet developed to the necessary level.
For processes where short fatty acids (FA) are needed, as for example in the microbial production of biofuels in the gasoline range, protein engineering had not yet delivered feasible solutions. In this thesis, several approaches to introduce chain length control on type I fatty acid synthases (FAS) were established and made available in a publication and two patents. Therein, engineering was focused on rational design based on available structural information.
First, the type I FAS from C. ammoniagenes was used as a model enzyme to probe modifications on FAS in a low complex in vitro environment in order to gain information about structure-function relationships. At this stage, engineering was conducted in several rounds, first addressing possible ways to alter product distributions by changing substrate affinities through concise mutations in binding channels. Several FAS constructs were generated ranging from first successes, where short FA were produced as side products, to FAS where native chain length programming was overwritten and only short FA were produced.
Furthermore, another engineering target was addressed with the modification of domain-domain interactions on FAS. For its exploitation to direct synthesis, contact surfaces on catalytic domains were changed to interfere with acyl carrier protein binding. This channeling of the kinetic process on the enzyme led to similar successes and short FA became the primary product.
The two approaches have proven to be potent tools to introduce systems of chain length control in FAS. This rational engineering has the big advantage that it is mostly minimally invasive and due to the high conservation of de novo FA synthesis, individual mutations could easily be used in other FAS (and their organisms) as well. Even heterologous expression of modified FAS genes is feasible.
Engineering was not only tested in a defined in vitro environment and but also in S. cerevisiae as an exemplary in vivo system. The results eventually confirmed the in vitro findings and proved that the chosen engineering could be transferred to more complex systems. Even before any optimization for highest output, the titers of short FA from S. cerevisiae fermentation matched previous reports with 118 mg/L.
In sum, this work covers several layers from basic research to preliminary applications. The presented modifications to create short FA producing FAS can be a key step in synthesis pathways and will likely enable a whole range of new succeeding research. It can be seen as a valuable contribution towards establishing novel ways for the production of chemicals from renewable sources.
We study exchangeable coalescent trees and the evolving genealogical trees in models for neutral haploid populations.
We show that every exchangeable infinite coalescent tree can be obtained as the genealogical tree of iid samples from a random marked metric measure space when the marks are added to the metric distances. We apply this representation to generalize the tree-valued Fleming-Viot process to include the case with dust in which the genealogical trees have isolated leaves.
Using the Donnelly-Kurtz lookdown approach, we describe all individuals ever alive in the population model by a random complete and separable metric space, the lookdown space, which we endow with a family of sampling measures. This yields a pathwise construction of tree-valued Fleming-Viot processes. In the case of coming down from infinity, we also read off a process whose state space is endowed with the Gromov-Hausdorff-Prohorov topology. This process has additional jumps at the extinction times of parts of the population.
In the case with only binary reproduction events, we construct the lookdown space also from the Aldous continuum random tree by removing the root and the highest leaf, and by deforming the metric in a way that corresponds to the time change that relates the Fleming-Viot process with a Dawson-Watanabe process. The sampling measures on the lookdown space are then image measures of the normalized local time measures.
We also show invariance principles for Markov chains that describe the evolving genealogy in Cannings models. For such Markov chains with values in the space of distance matrix distributions, we show convergence to tree-valued Fleming-Viot processes under the conditions of Möhle and Sagitov for the convergence of the genealogy at a fixed time to a coalescent with simultaneous multiple mergers. For the convergence of Markov chains with values in the space of marked metric measure spaces, an additional assumption is needed in the case with dust.
Staaten haben keine Freunde, sondern Interessen – das scheint sowohl unter Praktikern als auch unter Forschern der internationalen Politik allgemein bekannt zu sein. Entgegen diese weit verbreiteten Ansicht argumentiert diese Dissertation, dass es in der Tat Raum für das Konzept von Freundschaft in den internationalen Beziehungen gibt, und dass ein besseres Verständnis der hiermit verbundenen Dynamiken nicht nur dazu beiträgt, eine sich verändernde globale Ordnung besser zu verstehen, sondern auch die Beziehungen zwischen China und Afrika.
Aufbauend auf der konstruktivistischen Literatur zu staatlicher Identität sowie Erkenntnissen aus Psychologie, Soziologie und Anthropologie wird in einem ersten Schritt ein neues Modell internationaler Freundschaft entwickelt. Es bezieht sich auf eine verlässliche Beziehung zwischen Staaten, die sich gegenseitig entsprechend ihres eigenen Selbstverständnisses anerkennen, und die durch gegenseitige Identifikation sowie häufigen Austausch und enge Zusammenarbeit eine als intim zu bezeichnende Beziehung entwickelt haben. Dies bedeutet zwar nicht, dass ungleiche Macht und konkurrierende Interessen irrelevant werden; aber sie ermöglichen es den beteiligten Staaten, konstruktiv mit potenziell konfliktreichen Fragen von Macht und Interesse umzugehen, und bilden so eine zentrale Säule legitimer internationaler Ordnungen.
In einem zweiten Schritt wird dieses Modell der internationalen Freundschaft zur Analyse der chinesisch-äthiopischen und chinesisch-südafrikanischen Beziehungen herangezogen. Ausgehend von den Sichtweisen der jeweiligen Staatseliten wird das komplexe Zusammenspiel von Interessen und Identitäten in den gegenwärtigen Beziehungen zwischen China und Afrika beleuchtet, und wie die beiden bilateralen Beziehungen durch eine Reihe bewusster Entscheidungen schrittweise ihre aktuellen Qualitäten erworben haben. Heute bilden geteilte Ideen von historisch gewachsener Solidarität, überschneidendend strategischen Interessen und dem gemeinsamen Engagement für ein Projekt alternativer Modernisierung und globaler Transformation die Grundlage für zwei Beziehungen, die von China als beispielhafte „internationale Beziehungen neuen Typs“ gepriesen werden. Somit liefern die chinesisch-äthiopischen und chinesisch-südafrikanischen Beziehungen auch wichtige Einblicke, wie eine chinazentrierte internationale Ordnung aussehen könnte - zumindest für diejenigen Staaten, die diese Ordnung und ihre von Peking definierten Regeln und Rollen als legitim akzeptieren.
Ziel: Ziel dieser Arbeit ist es, mittels einer sozioökonomischen und demografischen Analyse der Praxis-Umfelder der Vertragsärzte und -psychotherapeuten festzustellen, ob innerhalb des Stadtgebietes Stuttgarts soziale Ungleichheiten beim Zugang zu ambulanter medizinischer Versorgung bestehen. Den Schwerpunkt bildet die Analyse der verschiedenen Fachgebiete. Des Weiteren werden die Geschlechterverteilung und die Fremdsprachen¬kenntnisse der Vertragsärzte und –psychotherapeuten sowie die Barrierefreiheit der Praxen in Bezug auf verschiedene Sozialindikatoren untersucht.
Methodik: Nach Bereinigung der Zweigpraxen und Nebenbetriebsstätten wurden die Daten von 1662 Vertragsärzten und –psychotherapeuten und 142 Apotheken in Stuttgart in die Analysen miteinbezogen. Jedem Eintrag wurden über die Adresse die dem jeweiligen Stadtteil zugehörigen Werte ausgewählter sozioökonomischer und demografischer Indikatoren zugeordnet. Sortiert nach den der Bedarfsplanung entsprechenden Fachgebietskategorien wurden die Sozialindikatorenwerte deskriptiv und mit dem Kruskal-Wallis-Test mit Dunn-Post-Test statistisch analysiert. Für die Analyse der Fremdsprachenkenntnisse wurde derselbe Test ausgewählt. Die statistische Analyse der Geschlechter-verteilung unter den Vertragsärzten und –psychotherapeuten sowie der Barrierefreiheit der Praxen erfolgte bei vorliegender Varianzhomogenität der Wertepaare eines Sozialindikators mittels unpaired t-test, ansonsten mittels Mann-Whitney-Test. In der abschließend durchgeführten linearen Regressions¬analyse wurden die Distanz zum Stadtzentrum sowie die Einwohnerzahl der Stadtteile als mögliche Störfaktoren untersucht.
Ergebnisse: Der Kinderanteil in den Praxis-Umfeldern der Kinder- und Jugendpsychotherapeuten ist zwar signifikant höher als in den Praxis-Umfeldern der anderen Ärzte und Psychotherapeuten, er bleibt aber ebenso wie der Kinderanteil in den Praxis-Umfeldern der Kinder- und Jugendmediziner unter dem Mittelwert aller Stadtteile. Der Anteil an Senioren liegt dagegen in allen Praxis-Umfeldern über dem stadtweiten Mittelwert. Zusätzlich weisen die Praxis-Umfelder der Fachgebiete mit einem hohen Demografie-Faktor mit Ausnahme der Internisten auch einen hohen Seniorenanteil auf. In Bezug auf die Arbeitslosenquote weichen die Praxis-Umfelder der Kinder- und Jugendpsychotherapeuten signifikant von der Gesamt-Gruppe ab. Sie liegen ebenso wie die Kinder- und Jugendmediziner unter dem stadtweiten Mittelwert. Aufgrund geografischer Überschneidungen zeigt sich bei der Analyse des Anteils an Einwohnern mit Migrationshintergrund in den Praxis-Umfeldern ein ähnliches Bild. Neben den Kinder- und Jugendpsychotherapeuten weisen hier auch die Praxis-Umfelder der medizinischen und psychologischen Psychotherapeuten einen signifikant geringeren Migrationsanteil auf. In den Praxis-Umfeldern der Ärzte und Psychotherapeuten mit Türkisch- bzw. Russischkenntnissen zeigt sich kein signifikant höherer Anteil an Einwohnern mit Migrationshintergrund. Während die Hausärzte und Apotheken sich breiter über das Stadtgebiet verteilen, praktizieren die Fachärzte gehäuft in urbaneren innenstadtnahen Stadtteilen. Ein Großteil der barrierefreien Praxen befindet sich im Stadtzentrum oder nördlich davon, in ländlicheren Stadtteilen mit höheren Seniorenanteilen gibt es signifikant weniger barrierefreie Praxen.
Schlussfolgerungen: Während sich die Ärzte der meisten Fachgebiets-kategorien dem Mehrbedarf an medizinischen Versorgungsleistungen in Stadtteilen mit hohem Seniorenanteil entsprechend verteilen, könnten vor allem die Kinder in Stadtteilen mit einem hohen Kinderanteil bei der ambulanten medizinischen Versorgung benachteiligt sein. Auffällig ist die innerhalb des Stadtgebietes bestehende Segregation bezüglich der Arbeitslosenquote und dem Migrationsanteil. Eine Benachteiligung beim Zugang zu den Psychotherapeuten der verschiedenen Fachgebietskategorien fällt in diesen Stadtteilen besonders ins Gewicht. Zudem gibt es Hinweise darauf, dass die Einwohner ländlicherer Stadtteile beim Zugang zu verschiedenen Fachärzten sowie zu barrierefreien Praxen benachteiligt sind. Diese Ergebnisse deuten darauf hin, dass die Kriterien der aktuellen Bedarfsplanung nicht ausreichen, um soziale Ungleichheiten in der ambulanten medizinischen Versorgung zu verhindern. Mögliche Ansatzpunkte zur Verbesserung der Versorgungslage könnten eine weitere Untergliederung großer Planungsbereiche oder die einheitliche Aufnahme regionaler bzw. sozioökonomischer Merkmale in die Bedarfsplanung sein.
Frontal fibrosierende Alopezie: Literaturanalyse und Vergleich des eigenen Patientenkollektivs
(2017)
Seit Steven Kossard 1994 das Krankheitsbild der frontal fibrosierenden Alopezie bei 6 postmenopausalen Frauen erstmals beschrieb, wurden zunehmend mehr Fälle und Beschreibungen größerer Kohorten publiziert. Die Diagnose wird vorrangig klinisch gestellt. Typischerweise zeigt sich eine meist asymptomatische, vernarbende Regression des temporo-frontalen Haaransatzes mit Verlust der Haarfollikel und einem perifollikulären Erythem. Des Weiteren kann es auch zu einem Haarausfall in anderen Regionen des Capillitiums, im Bereich der Augenbrauen und anderer Körperregionen kommen. Histologisch zeigen sich eine perifollikuläre Fibrose und ein lymphozytisches Infiltrat. Die Pathogenese der frontal fibrosierenden Alopezie ist ungeklärt. Da es für die Therapie kein Konzept gibt, beruhen Therapieansätzen meistens auf Behandlungskonzepten anderer Alopezieformen.
In dieser Arbeit wurden weltweit erschienene Daten von insgesamt 932 Patienten mit frontal fibrosierenden Alopezie zusammengefasst und klinische Charakteristika, Komorbiditäten, sowie krankheitsbegünstigende- und auslösende Faktoren identifiziert und Therapien und deren Erfolge systematisch erhoben und ausgewertet. Diese wurden mit Daten von 12 Patientinnen des eigenen Kollektivs verglichen.
Hier ergaben sich für die Kriterien Geschlecht, Status der Menopause, Alter bei Auftreten, Erkrankungsdauer und Ethnie ähnliche Ergebnisse. Bezüglich der Beteiligung einzelner Areale fanden sich für die Bereiche frontaler Haaransatz und Augenbrauen ähnliche Werte, während die Beteiligung der übrigen Körperstellen zum Teil stark differierte. Auch die Charakteristika perifollikuläres Erythem, Verlust von Haarfollikeln und die histologischen Kriterien perifollikuläre Fibrose und lymphozytäres Infiltrat kamen in der Gruppe der eigenen Patienten häufiger vor als in der Gruppe der Literaturpatienten. Bezüglich der Komorbiditäten fiel in beiden Gruppen eine im Vergleich zur Normalbevölkerung erhöhte Prävalenz von Schilddrüsenerkrankungen auf.
Die Auswertung der Therapieversuche ergab in beiden Gruppen in den meisten Fällen einen fortschreitenden Verlauf, allenfalls eine Stabilisierung, wobei kein Therapieversuch positiv herausstach. In Ausnahmefällen konnte ein erneutes Haarwachstum, vorrangig im Bereich der Augenbrauen, beobachtet werden.
Für die Patienten des eigenen Patientenkollektivs wurde das Vorliegen einer atopischen Hautdiathese gemessen am Erlanger Atopiescore erhoben. Hierbei konnte jedoch kein Zusammenhang gefunden werden. Mit Hilfe zweier Fragebögen- dem Functional Assessment of Non-Life Threatening Conditions (FANLTC) und dem modifizierten Hairdex- wurde die Lebensqualität in Abhängigkeit der Ausprägung der frontal fibrosierenden Alopezie und der Erkrankungsdauer ausgewertet. Die These, dass die Ausprägung der Alopezie und die Erkrankungsdauer negativ in linearem Zusammenhang mit der Lebensqualität stehen, bestätigte sich hierbei nicht. Die Lebensqualität von Patienten mit frontal fibrosierender Alopezie ist unabhängig von der Ausprägung und der Erkrankungsdauer bis auf eine Ausnahme sehr gut, was darauf hindeutet, dass sich die Erkrankung auf die Lebensqualität nicht negativ auswirkt.
Inhibition of midbrain dopamine (DA) neurons codes for negative reward prediction errors, and causally affects conditioning learning. DA neurons located in the ventral tegmental area (VTA) display two-fold longer rebound delays from hyperpolarizing inhibition in comparison to those in the substantia nigra (SN). This difference has been linked to the slow inactivation of Kv4.3-mediated A-type currents (IA). One known suppressor of Kv4.3 inactivation is a splice variant of potassium channel interacting protein 4 (KChIP4), KChIP4a, which has a unique potassium channel inactivation suppressor domain (KISD) that is coded within exon 3 of the KChIP4 gene. Previous ex vivo experiments from our lab showed that the constitutive knockout of KChIP4 (KChIP4 KO) removes the slow inactivation of IA in VTA DA neurons, with marginal effects on SN DA neurons. KChIP4 KO also increased firing pauses in response to phasic hyperpolarization in these neurons. Here I show, using extracellular recordings combined with juxtacellular labeling in anesthetized mice, that KChIP4 KO also selectively changes the number and duration spontaneous firing pauses by VTA DA neurons in vivo. Pauses were quantified with two different statistical methods, including one developed in house. No other firing parameter was affected, including mean frequency and bursting, and the activity of SN DA neurons was untouched, suggesting that KChIP4 gene products have a highly specific effect on VTA DA neuron responses to inhibitory input.
Following up on this result, I developed a new mouse line (KChIP4 Ex3d) where the KISD-coding exon 3 of KChIP4 is selectively excised by cre-recombinase expressed under the dopamine transporter (DAT) promoter, therefore disrupting the expression of KChIP4a only in midbrain DA neurons. I show that these mice have a highly selective behavioral phenotype, displaying a drastic acceleration in extinction learning, but no changes in acquisition learning, in comparison to control littermates. Computational fitting of the behavioral data with a modified Rescorla-Wagner model confirmed that this phenotype is congruent with a selective increase in learning from negative prediction errors. KChIP4 Ex3d also had normal open field exploration, novel object preference, hole board exploration and spontaneous alternation in a plus maze, indicating that exploratory drive, responses to novelty, anxiety, locomotion and working memory were not affected by the genetic manipulation. Furthermore semi-quantitative IHC revealed that KChIP4 Ex3d mice have increased Kv4.3 expression in TH+ neurons, suggesting that the absence of KChIP4a increases the binding of other KChIP variants, which known to increase surface expression of Kv4 channels.
Furthermore, in the course of my experimental study I identified that the most used mouse line where cre-recombinase is expressed under the DAT promoter (DAT-cre KI) has a different behavioral phenotype during conditioning in relation to WT littermate controls. These animals displayed increased responding during the initial trials of acquisition and delayed response latency extinction, consistent with an increase in motivation, which is in line with a decrease in DAT function.
I propose a working model where the disruption of KChIP4a expression in DA neurons leads to an increase in binding of other KChIP variants to Kv4.3 subunits, promoting their increased surface expression and increasing IA current density; this then increases firing pauses in response to synaptic inhibition, which in behaving animals translates to an increase in negative prediction error-based learning.
Terahertz (THz) physics are an emerging field of research dealing with electromagnetic radiation in the far-infrared to microwave region. The development of innovative technologies for the generation and detection of THz radiation has only in the recent past led to a tremendous rise of both fundamental research as well as investigation of possible fields of application for THz radiation. The most prominent reason has long been the scarce accessibility of the THz region of the electromagnetic spectrum - commonly loosely located between 0.1 and 30 THz - to broad research, and it was mostly limited to astronomy and high energy physics facilities. Over the recent years, numerous novel concepts on both the source and detector side have been proposed and successfully implemented to overcome this so-called THz gap. New technology has become available and paved the way for wide-spread experimental laboratory work and accompanying theoretical investigations. First application studies have emerged and in some cases even commercial development of the field of THz physics is on the rise. Despite these enormous progresses, a continuing demand for more efficient THz detectors still impels current technological research. Relatively low source powers are often a major limiting factor and the request for new detection concepts, their understanding and implementation, as well as the optimization on a device basis has been and still remains in place. One of these concepts is the use of field-effect transistors (FETs) high above their conventional cut-off frequencies as electronic THz detectors. The concept has been proposed in a number of theoretical publications by M. Dyakonov and M. Shur in the early 1990's, who pioneered to show that under certain boundary conditions, non-linear collective excitations of the charge carrier system of a two-dimensional electron gas (2DEG) by incident THz radiation can exhibit rectifying behaviour - a detection principle, which has become known as plasma wave or plasmonic mixing. Up until this day, the concept has been successfully implemented in many device realizations - most advanced in established silicon CMOS technology - and stands on the edge of becoming commercially available on a large scale. The main direction of the work presented in this thesis was the modeling and experimental characterization of antenna-coupled FETs for THz detection - termed TeraFETs in this and the author's previous works - which have been implemented in different material systems. The materials presented in this thesis are AlGaN/GaN HEMTs and graphene FETs. In a number of scientific collaborations, TeraFETs were designed based on a hydrodynamic transport model, fabricated in the respective materials, and characterized mainly in the lower THz frequency region from 0.2 to 1.2 THz. The theoretical description of the plasma wave mixing mechanism in TeraFETs, as initiated by Dyakonov and Shur, was based on a fluid-dynamic transport model for charge carriers in the transistor channel. The THz radiation induces propagating charge density oscillations (plasma waves) in the 2DEG, which via non-linear self-mixing cause rectification of the incident THz signals. Over the course of this work, it became evident in the on-going detector characterization experiments that this original theoretical model of the detection process widely applied in the respective literature does not suffice to describe some of the experimental findings in TeraFET detection signals. Thorough measurements showed signal contributions, which are identified in this work to be of thermoelectric origin arising from an inherent asymmetric local heating of charge carriers in the devices. Depending on the material, these contributions constituted a mere side effect to plasmonic detection (AlGaN/GaN) or even reached a comparable magnitude (graphene FETs). To include these effects in the detector model, the original reduced fluid-dynamic description was extended to a hydrodynamic transport model. The model yields at the current stage a reasonable qualitative agreement to the measured THz detection signals. This thesis presents the formulation of a hydrodynamic charge carrier transport model and its specific implementation in a circuit simulation tool. A second modeling aspect is that the transport equations cover only the intrinsic plasmonic detection process in the active gated part of the TeraFET's transistor channel. In order to model and simulate the behavior of real devices, extrinsic detector parts such as ungated channel regions, parasitic resistances and capacitances, integrated antenna impedance, and others must be considered. The implemented detector model allows to simulate THz detection in real devices with the above influences included. Besides presentation of the detector model, experimental THz characterization of the fabricated TeraFETs is presented in this work. Careful device design yielded record detection performance for detectors in both investigated materials. The respective results are shown and the experimental observations of the thermoelectric effect in TeraFETs are compared to modeling results. It is the goal of this work to provide a framework for further theoretical and experimental studies of the plasmonic and thermoelectric effect in TeraFETs, which could eventually lead to a new type of THz detectors particularly exploiting the thermoelectric effect to enhance the sensitivity of today's plasmonic TeraFETs.
Expression, perception and recognition of intense emotions in healthy and depressed individuals
(2017)
Die Fähigkeit die Gefühle anderer zu erkennen und einzuordnen ermöglicht es soziale Situationen richtig einzuschätzen und soziale Beziehungen aufzubauen. Da Emotionen also in unserem Leben eine wichtige Rolle spielen, kann eine Dysregulation der Emotionsverarbeitung auch zu elementaren Einschränkungen führen. Menschen, die unter depressiven Episoden leiden, durchleben beispielsweise regelmäßig Phasen intensiver und anhaltender Traurigkeit. Jedoch ist noch nicht vollständig erklärt, wie es zu dieser verzerrten Emotionswahrnehmung kommt. Diese Dissertation hatte deshalb das Ziel, den Ausdruck, die Wahrnehmung und das Erkennen extremer Emotionen genauer zu beleuchten.
In Studie 1 wurden der Ausdruck und das Erkennen extremer Emotionen untersucht.
Hierbei dienten aus dem Internet bezogene Videosequenzen von Kindern und Erwachsenen als Basis, in denen diese sich in Situationen befanden, die sie extrem negative oder extrem positive Emotionen durchleben ließen. Die Gesichtsausdrücke der Kinder und Erwachsenen wurden dann zum Zeitpunkt der stärksten emotionalen Erregung in ein Bild umgewandelt und von unabhängigen Ratern auf ihre Valenz und ihr Arousal eingeschätzt. Es wurde beobachtet, dass - entgegen der Vorhersage etablierter Emotionstheorien (z.B. Ekman, 1993) – Emotionen hoher positiver und negativer Intensität schwer auseinander zu halten sind. Tatsächlich wurden positive Emotionsausdrücke häufig als negativ eingeschätzt. Eine mögliche Erklärung dafür liefern Aragón und Kollegen (2015). Sie schätzen den Ausdruck negativer Emotionen in positiven Situationen als Emotionsregulationsstrategie ein, die dazu dient ein emotionales Equilibrium wieder herzustellen, das durch die überwältigenden positiven Emotionen aus dem Gleichgewicht gebracht wurde.
In Studie 2 und 3 wurde die Wahrnehmung negativer Emotionen bei depressiven Menschen im Vergleich zu gesunden Kontrollprobanden auf subjektiver und physiologischer Ebene untersucht. Hierbei wurde zunächst im Rahmen von Studie 2 untersucht, ob Parameter des autonomen Nervensystems (ANS) sich zwischen depressiven und gesunden Probanden unterscheiden. ANS-Parameter umfassten Hormone (Cortisol und DHEA), Herzratenvariabilität (HRV), Hautleitfähigkeit (GSR), Hauttemperatur (TEMP) und Atemfrequenz (RSP). Es konnten erhöhte DHEA-Werte, eine erhöhte Hauttemperatur und eine reduzierte Atemfrequenz in der Patientengruppe gefunden werden. Eine erhöhte Hauttemperatur korrelierte zudem mit der Ausprägung depressiver Symptome und der aktuellen Stimmung. Reduzierte HRV-Werte wurden hauptsächlich auf antidepressive Medikation zurückgeführt.
In Studie 3 wurde dann die Reaktion der Probanden auf emotionsevozierende Stimuli verschiedener Valenzkategorien (neutral, leicht negative, hoch negative) untersucht. Hierbei wurden sowohl physiologische Parameter (TEMP, HRV, GSR, RSP) als auch die subjektive Einschätzung der Stimuli bezüglich ihrer Valenz und ihres Arousal erhoben. Die Befunde bezüglich Hauttemperatur und HRV-Werte aus Studie 2 konnten in Studie 3 repliziert
werden. Zudem zeigte sich eine akzentuierte Reaktion der RSP sowie höhere Valenz- und Arousalratings in der Patientengruppe. Das subjektiv intensivere Empfinden der Stimuli bei den Patienten hing zusätzlich mit emotionaler und sozialer Kompetenz zusammen.
In dieser Dissertation konnte gezeigt werden, dass Ausdrücke intensiver Emotionen im Gesicht oft als zweideutig wahrgenommen werden. Um ein genaueres Verständnis der Emotionswahrnehmung bei depressiven Menschen zu erlangen, konnten zudem mehrere Parameter des ANS identifiziert werden, die teils noch nicht untersucht wurden und einer intensiveren Emotionswahrnehmung bei depressiven Patienten zugrunde liegen könnten.
Hierbei wurden zusätzlich Zusammenhänge zu weiteren Aspekten der Depression, wie Defiziten in sozialen Kompetenzen, aufgezeigt. Damit gibt diese Dissertation umfassende Aufschlüsse über Emotionsverarbeitungsprozesse bei gesunden und depressiven Menschen.
Introduction:
The evolutionary patterns of symbiotic organisms are inferred using cophylogenetic methods. Congruent phylogenies indicate cospeciation or host-switches to closely-related hosts, whereas incongruent topologies indicate independent speciation. Recent studies suggest that coordinated speciation is a rare event, and may not occur even in the highly specialized associations. The cospeciation hypothesis was mainly tested for free-living mutualistic associations, such as plant-pollinator interactions, and host-parasitic systems but was rarely tested on obligate, mutualistic associations involving intimate physiological interactions. Symbionts with lower partner selectivity may not experience coordinated speciation due to frequent switching of partners. On the other hand, symbionts with high partner selectivity may influence each other’s evolution owing to the highly interdependent lifestyles. Symbiont association patterns are also influenced by habitat and it has been proposed that symbiotic interactions are stronger in warm regions as compared to cooler regions (also referred as latitudinal gradient of biotic specialization). This hypothesis however, has recently been challenged and it has been suggested that a gradient of biotic specialization may not exist at all. Reliable species concepts are a prerequisite for understanding the association and evolutionary patterns of symbiotic organisms. The species concepts of many groups traditionally relied on the morphological species concept, which may not be adequate for distinguishing species due to the: i) homoplasious nature of morphological characters, an due to the inability to distinguish cryptic species. Thus phylogenetic species concept along with coalescent-based species delimitation approaches, which utilize molecular data for inferring species boundaries have been used widely for resolving taxonomic relationships. Lichens are obligatory symbiotic associations consisting of a fungal partner (mycobiont) and one or more photosynthetic partners, algae, and/or cyanobacteria (photobionts). I used the lichen forming fungal genus Protoparmelia as my study system, which consists of ~25-30 previously described species inhabiting different habitats, from the arctic to the tropics. This makes Protoparmelia an ideal system to explore the association and evolutionary patterns across different macrohabitats.
Objectives:
The objectives of this thesis were to 1. Elucidate the phylogenetic position of Protoparmelia within Lecanorales, and infer the monophyly of Protoparmelia; 2. Understand species diversity within Protoparmelia s.str. using coalescent-based species delimitation approaches; and 3. To identify the Trebouxia species associated with Protoparmelia using phylogenetic and species delimitation approaches and to infer the association and cophylogenetic patterns Protoparmelia and Trebouxia in different macrohabitats.
Results and discussion:
Chapter 1: Taxonomic position of Protoparmelia
In the first part of this study I explored the taxonomic position of Protoparmelia within the order Lecanorales. Overall this study included 54 taxa from four families, sequenced at five loci (178 sequences). I found Protoparmelia to be polyphyletic and sister to Parmeliaceae.
Chapter 2: Multilocus phylogeny and species delimitation of Protoparmelia spp.
In this part of the study, I identified and delimited the Protoparmelia species forming a monophyletic clade sister to Parmeliaceae i.e., Protoparmelia sensu stricto group, based on the multilocus phylogeny and coalescent-based species delimitation approaches. I included 18 previously described and three unidentified Protoparmelia species, which represents ~70% of the total described species, and 73 other taxa, sequenced at six loci. I found that the sensu stricto group comprised of 25 supported clades instead of 12 previously described Protoparmelia species. I tested the speciation probabilities of these 25 clades using species delimitation softwares BP&P and spedeSTEM. I found nine previously unrecognized lineages in Protoparmelia and I propose the presence of at least 23 species for Protoparmelia s.str., in contrast to the 12 described species included in the study.
Chapter 3: Association and cophylogenetic patterns of Protoparmelia and its symbiotic partner Trebouxia
...
Background: Minimally invasive coronary artery bypass grafting (MICS CABG) has been introduced to abstain from median sternotomy due to related comorbidities. The aim of this study is to report the long term results of three different MICS CABG strategies: Partial lower sternotomy (PLS), totally endoscopic coronary artery bypass grafting (TECAB) and anterolateral thoracotomy (ALT). Moreover we aimed to compare these surgical approaches in terms of quality of pain and pain intensity.
Methods: From 1997 to 2006, 126 patients underwent MICS CABG surgeries in our department through different surgical approaches: 43 PLS, 63 TECAB and 20 ALT. Preoperative characteristics were similar between groups. There were 90 males (71.4%) and 36 (28.6%) females with a mean age of 62±11 years (Range 36 to 90).
Results: There was no in-hospital mortality. Conversion to minithoracotomy was necessary in 2 (1.6%) patients and conversion to sternotomy was performed in 1 (0.8%) patient. Length of hospital stay was comparable in patients who underwent PLS or TECAB, but both groups had significantly shorter hospital stays than ALT patients (p<0.05). Two patients in group ALT developed temporary neurological complications postoperatively, which was significantly higher than that in groups TECAB (n=0) and PLS (n=0) (p<0.05). Mean follow-up was 12.2±2.1 (range 7.2 to 16.1) years with completed in 81.7 % of the patients. There were 17 late deaths. Freedom from graft problems was 87.5%, 86.5% and 94.7%; freedom from percutaneous coronary interventions (PCI) was 78.1%, 82.7% and 68.4% and freedom from Re-CABG was 100%, 96.1% and 94.7% in PLS, TECAB and ALT group, respectively. Pain intensity was similar between all three groups.
Conclusion: MICS CABG can be performed safely and effectively. Short and long-term outcomes of MICS CABG are comparable with those of the conventional CABG. There were no major differences regarding pain intensity between all three groups, although all three minimally invasive techniques have completely different surgical accesses.
Bei Knochendefekten kritischer Größe gestaltet sich die selbstständige Regeneration als nahezu unmöglich, weshalb es nötig ist die Therapie zu optimieren. Die Verwendung autologer Spongiosatransplantate stellt den aktuellen Goldstandard dar, was jedoch mit einer Reihe von Komplikationen, beispielsweise Schmerzen an der Entnahmestelle oder Wundheilungsstörungen verbunden ist. Das Knochen Tissue Engineering repräsentiert eine aussichtsreiche Alternative. Die Kombination eines osteokonduktiven Gerüststoffes mit regenerativen Zellen, wie zum Beispiel mononukleäre Zellen des Knochenmarks (BMC), stellt einen vielversprechenden Ansatz dar. Die BMCs haben im Vergleich zu anderen verwendbaren Zelltypen, z.B. mesenchymale Stammzellen (MSCs) oder endothelialen Vorläuferzellen (EPCs), den entscheidenden Vorteil einer kurzen Aufbereitungszeit, wodurch die definitive Frakturversorgung beschleunigt wird.
Mittels Inhibierung von MicroRNAs (miRNAs) mit Einfluss auf das osteogene und angiogene Potenzial der BMCs soll dieses System weiter verbessert werden. MiRNAs umfassen eine Gruppe kurzer, nicht-codierender RNAs die an der Steuerung grundlegender biologischer Prozesse beteiligt sind. Im Rahmen dieser Studie sind die MIR92A sowie MIR335 von besonderem Interesse. MIR92A blockiert die Angiogenese durch Verringerung der Expression des pro-angiogenen Proteins Integrin alpha 5 (ITGA5, CD51) sowie durch die Aktivierung des Notch-Signalweges um die Vascular endothelial growth factor (VEGF)-induzierte Blutgefäßbildung zu reduzieren. MIR335 hemmt über die Verringerung der Proteinkonzentration des Runt-related transcription factor 2 (RUNX2) die Proliferation und Differenzierung von humanen mesenchymalen Stammzellen (hMSCs) zu osteogenen Zellen. Aufgrund der erläuterten Erkenntnisse sollte in dieser Arbeit überprüft werden, ob die Neutralisation von MIR92A (Vaskularisierung) und MIR335 (osteogene Differenzierung) in BMCs mittels spezifischer antiMIR zu einer weiteren Verbesserung der BMC gestützten Therapie großer Knochendefekte führt.
Im ersten Teil der Versuche wurde das Prinzip der Lipotransfektion, zur Einbringung der Antikörper gegen die miRNAs in BMCs, optimiert und die Transfektionseffizenz bestimmt. In Abhängigkeit von der Zellsorte wurden mit 30 % - 69 % ausreichend hohe Transfektionseffizenzen erzielt, um jeweils 24 h nach Transfektion einen signifikanten Rückgang der Target-miRNA-Konzentrationen zu erreichen.
Nachdem die Wirksamkeit der Transfektion nachgewiesen war, wurden im zweiten Teil der Experimente die spezifischen Effekte der antiMIR auf die Zielgene überprüft. Der Einsatz von antiMIR92A führte nach 72 h zu einer erhöhten Genexpression von ITGA5 sowie VEGFA, zwei für die Angiogenese entscheidende Proteine. Zusätzliche konnte mittels FACS-Analyse eine signifikant gesteigerte CD51-Oberflächenexpression dokumentiert werden. Bei der Verwendung von antiMIR335 konnte eine verstärkte Expression der für die osteogene Differenzierung entscheidenden Indikatoren RUNX2 und BMP2 nachgewiesen werden. Die additionale Gabe von VEGFA (MIR92A) oder BMP2 (MIR335) konnte nach 48 h einen Trend zu verstärkter ITGA5 und VEGFA, beziehungsweise RUNX2 und BMP2 Expression erkennen lassen.
Zusammenfassend hat diese Studie verdeutlicht, dass die Inhibierung der MIR92A und MIR335 eine vielversprechende Möglichkeit bietet, das BMC gestützte Knochen Tissue Engineering weiter zu optimieren.
The topic of this thesis is the investigation of scalar tetraquark candidates from lattice QCD. It is motivated by a previous study originating in the twisted mass collaboration. The initial tetraquark candidate of choice is the $a_0(980)$, an isovector in the nonet of light scalars ($J^P=0^+$). This channel is still poorly understood. It displays an inverted mass hierarchy to what is expected from the conventional quark model and the $a_0(980)$ and $f_0(980)$ feature a surprising mass degeneracy. For this reasons the $a_0(980)$ is a long assumed tetraquark candidate in the literature.
We follow a methodological approach by studying the sensitivity of the scalar spectrum with fully dynamical quarks to a large basis of two-quark and four-quark creation operators. Ultimately, the candidate has to be identified in the direct vicinity of two two-particles states, which is understandably inevitable for a tetraquark candidate. To succeed in this difficult task two-meson creation operators are essential to employ in this channel. By localized four-quark operators we intend to probe the Hamiltonian on eigenstates with a closely bound four-quark structure.
In dieser klinischen, randomisierten, doppelverblindeten Vergleichsstudie untersuchten wir, welchen Einfluss auf die Passgenauigkeit von Einzelzahnkronen und dreigliedrigen Brücken aus Vollkeramik zum einen die Anwendung einer intraoralen Digitalisierung mithilfe eines Intraoralscanners (Lava C.O.S Scanner, 3M ESPE, D-Seefeld) und zum anderen der Einsatz einer extraoralen Digitalisierung auf Basis einer konventionellen Abformung (Impregum penta soft, 3M ESPE, D-Seefeld) hat. Als weiteres Prüfkriterium wurde die Effizienz der jeweiligen Abformmethoden untersucht. Die Fragestellung sollte eine Aussage dazu treffen können, ob die digitale Abformung im klinischen Alltag des Zahnarztes einen Vorteil gegenüber der konventionellen Abformung erbringen kann.
In der Studie wurden 25 Patienten eingeschlossen und beide Abformmethoden nach der Zahnpräparation in einer randomisierten Abfolge angewandt. Beim Intraoralscanner waren ein Ganzkieferscan für die Brückenrestaurationen und ein Quadrantenscan für Einzelzahnkronen erforderlich. Die klinischen Arbeitsschritte wurden zeitlich erfasst. Die Kronen- und Brückengerüste aus Zirkoniumdioxidkeramik basierten auf den unterschiedlichen Abformmethoden. Die Gerüste wurden vor der Anprobe verblindet und mit Hilfe von Silikonreplikas die Passgenauigkeit am marginalen Randspalt, an der axialen Wand, am axio-okklusalen Übergang, sowie am okklusalen Messpunkt unter 66x Vergrößerung ermittelt.
Der marginale Randspalt der Restaurationen auf der Basis der konventionellen Abformung betrug 68,64 μm (Medianwert), respektive 60,31 μm bei der digitalen Abformung und unterschied sich statistisch signifikant. Die Passung an der axialen Wand ergab bei der digitalen Abformung 88,27 μm, bei konventioneller 92,13 μm, am axio-okklusalen Übergang 144,78 μm vs. 155,60 μm, am okklusalen Messpunkt 155,57 μm vs. 171,51 μm. Letzter wies einen statistisch signifikanten Unterschied auf (Mann-Whitney U Test, p = 0,05). Die Zeitmessung zeigte eine Ersparnis von 5 min 6 sec beim Quadrantenscan und 1 min 34 sec beim Ganzkieferscan zu Gunsten der digitalen Abformung.
Die Studienergebnisse weisen eine effizientere klinische Arbeitsweise der digitalen gegenüber der konventionellen Abformung nach, die mit einer identischen Passungsqualität einhergeht.
Zur effizienten Beschleunigung von Ionen wird meist nach deren Erzeugung in einer Ionenquelle ein Radio Frequenz Quadrupol verwendet. Die vorliegende Dissertation befasst sich mit Entwicklung, Bau und Messung des Prototyps eines neuartigen Leiter-RFQs, der bei 325 MHz betrieben wird. Der Leiter-RFQ verfügt über ein neuartiges mechanisches Design und versucht die Vorteile der beiden vorrangig im Betrieb befindlichen RFQ Typen, des 4-Rod und 4-Vane RFQs, zu verbinden. Die physikalischen Parameter sind der Spezifikation des RFQs für den geplanten Protonenlinac (p-Linac) am FAIR-Projekt an der GSI Darmstadt entnommen. Darüber hinaus wird der aktuelle Planungs- und Simulationsstand eines modulierten Prototyps mit der vollen Länge von ca. 3,5 m zur Durchführung von Strahltests dargestellt.
Polytraumatisierte Patienten erleiden in ca. 40% der Fälle eine Verletzung des Thorax. Die Verletzung des Thorax erhöht die Dauer der Beatmungszeit, das Pneumonie-Risiko, die Intensiv- und Krankenhausverweildauer sowie das Letalitätsrisiko. Seit 2003 wurde im Universitätsklinikum Frankfurt am Main ein standardisiertes Behandlungsverfahren zur intensivmedizinischen Behandlung nach Polytrauma implementiert und weiterentwickelt. Eckpunkte des Konzeptes sind eine kinetische Therapie im Rotorest®Bett, eine initiale Beatmung mit einem PEEP von 15mbar, eine frühzeitige assistierte Spontanatmung und frühzeitige enterale Ernährung. In dieser Arbeit wurden die Auswirkungen der Weiterentwicklung des Behandlungsprotokolls, insbesondere die Auswirkungen der Ernährung und Sedierung auf die Leberfunktion und die Entwicklung einer Pneumonie, untersucht. Das Behandlungsprotokoll sah folgende Behandlungsstandards vor: 2003: Kontrollierte Beatmung und Therapie im Rotorest®Bett in den ersten Tagen, PEEP-Einstellung entsprechend der Oxygenierung, individuelle Entwöhnung von der Beatmung und der Rotorest®-Therapie. Der Kostaufbau überwiegend parenteral, Sedierung mit Propofol und Midazolam. 2006: 72h Beatmung mit einem PEEP von 15mbar, Rotorest®-Bett, zügige assistierte Beatmungsform. Individuelle Entwöhnung von der Beatmung und der Rotorest®-Therapie, der Kostaufbau parenteral und enteral, Sedierung überwiegend mit Midazolam. 2009: Reduktion der Rotorest®-Therapie mit einem PEEP von 15mbar auf 40 bis 48h, PEEP-Reduktionsprotokoll. Der Kostaufbau erfolgte primär enteral, die Sedierung mit vorwiegend Propofol und z. T. Midazolam.
Es konnten retrospektiv 108 Patienten (ISS 37+13) eingeschlossen werden. Bei 38,3% der Patienten lagen unvollständige Akten vor, oder die Rotorest® Therapie wurde erst nach 48h begonnen. Durch das Konzept konnten die Beatmungszeit von 17±15 auf 8±8 Tage und die intensivstationäre Verweildauer von 17±9 auf 10±9 Tage signifikant reduziert werden (p<0,001), die Krankenhausverweildauer blieb gleich. Die Pneumonierate fiel nicht signifikant von 25% in 2003 nach einem Anstieg auf 37% in 2006 auf 17% in 2009. Das Pneumonierisiko stieg mit der Höhe der aufgenommenen kcal/kgKG, der Gesamt-kcal/d bis Tag 7 sowie der Summe der kcal bis Tag 5 signifikant (p<0,05). Eine Leberdysfunktion erhöhte das Letalitätsrisiko signifikant (Rs 0,267; p<0,01). Die Rate an Leberdysfunktionen binnen der ersten 14 Tage fiel von 34,7% in 2003 nach einem Anstieg auf 43,4% im Jahr 2006 auf 22,1% in 2009 (p<0,001). Eine Leberdysfunktion korrelierte, bei Auftreten bis Tag 7, sowohl mit einer überwiegend parenteralen Ernährung bis Tag 5 (p=0,021) als auch der Höhe der parenteralen kcal (Rs 0,248; p=0,02) und der Höhe der Gesamt-kcal (Rs 0,201; p=0,038). Der Anteil an Patienten mit parenteraler Ernährung konnte von 92,2% (bis Tag 5) in 2003 und 97,5% in 2006 auf 65% in 2009 signifikant reduziert werden, ebenso wie die Gesamtmenge an verabreichten Kalorien bis Tag 7 (von 1210kcal/d auf 1113kcal/d und 2009 auf 851kcal/d; p<0,001). Keine Korrelation bestand zwischen der Entstehung einer Leberdysfunktion und der Beatmung, der Höhe des PEEP oder der Entwicklung einer Pneumonie. Im Gegensatz dazu erhöhte die verabreichte Menge von Midazolam in den ersten 7 Tagen (mg/kg/d) das Pneumonie-Risiko signifikant (p=0,024). Als unabhängige Risikofaktoren für die Entwicklung einer Pneumonie stellten sich die Transfusion von EKs (OR 3,646 95%CI 1,074-12,383), die Höhe der verabreichten Gesamtkalorien (>5000kcal) binnen der ersten fünf Tage (OR 3,219 95%Cl 1,033-10,034) und die Höhe des Beatmungsspitzendruckes (OR 1,135 95%Cl 1,010-1,275) dar.
Die Daten der vorliegenden Arbeit bestätigen den kritisch abzuwägenden Einsatz von Midazolam in der Intensivtherapie. Weiterhin zeigte sich ein signifikanter Einfluss der Ernährung auf die Morbidität der Patienten entsprechend der Literatur. Die vorliegenden Ergebnisse weisen weiter darauf hin, dass bei schwerverletzten Patienten auch die Gesamtkalorienzufuhr gering zu halten ist, um die Rate an Pneumonien zu reduzieren. Die Beatmung mit einem PEEP von 15mbar in den ersten Behandlungstagen unter PiCCO-Monitoring erscheint hierbei keine negativen Auswirkungen auf die Entwicklung einer Leberdysfunktion zu haben.
Zusammenfassend kann durch ein vorwiegend enterales Ernährungsschema, mit unter den Empfehlungen der AWMF liegenden Gesamtkalorien, das Auftreten von Leberdysfunktionen und die Rate an Pneumonien signifikant reduziert, durch ein strukturiertes Therapiekonzept mit u.a. reduziertem Einsatz von Midazolam eine signifikante Reduktion der Beatmungszeit sowie der Intensivverweildauer erreicht und eine Reduktion der Pneumonierate unterstützt werden.
Urn models are simple examples for random growth processes that involve various competing types. In the study of these schemes, one is generally interested in the impact of the specific form of interaction on the allocation of elements to the types. Depending on their reciprocal action, effects of cancellation and self-reinforcement become apparent in the long run of the system. For some urn models, the influencing is of a smoothing nature and the asymptotic allocation to the types is close to being a result of independent and identically distributed growth events. On the contrary, for others, almost sure random tendencies or logarithmically periodic terms emerge in the second growth order. The present thesis is devoted to the derivation of central limit theorems in the latter case. For urns of this kind, we use a "non-classical" normalisation to derive asymptotic joint normality of the types. This normalisation takes random tendencies and phases into account and consequently involves random centering and, also, possibly random scaling.
The Facility for Antiproton and Ion Research (FAIR) at GSI Darmstadt will provide unprecedented intensities of protons and heavy ions up to uranium at energies of up to 29 GeV for protons and 2.7 GeV/u for Uranium 28+. To achieve high intensities in the synchrotron accelerators, high beam currents have to be provided by the injector linear accelerators. High current heavy ion beams are provided by the Universal Linear Accelerator (UNILAC), which in its current state will not be able to provide the required FAIR beam currents. This thesis deals with the development of upgrades for the UNILAC to ensure its high current capability. The first improvement is a matching section (MEBT) for the interface between the RFQ and the IH-DTL of the existing high current injector HSI at the UNILAC. With this new MEBT section, particle losses are eliminated and the overall beam quality is improved. As a second improvement, a complete replacement of the existing Alvarez-DTL is presented. A combination of efficient IH-type cavities and KONUS beam dynamics results in a reduction of the linac length from about 60 m (Alvarez) to just 23 m (new IH-DTL) while providing the same energy and fulfilling FAIR requirements of a high beam current and beam quality. This thesis contains a detailed beam dynamics design of the new linac including some fundamental investigations of the KONUS beam dynamics concept. A cross-check of the beam dynamics design was performed with two independent multi-particle simulation codes. Detailed error studies were conducted to investigate the influence of manufacturing, alignment and operating errors on the beam dynamics performance. Additionally, all five linac cavities were designed, optimized, and their RF parameters including power requirements calculated to provide a comprehensive linac design.
Die vorliegende Arbeit hat das Ziel, Plasmen koaxialer Beschleuniger in Hinblick auf die Erzeugung hoher Elektronendichten sowie als intensive UV/VUV-Backlighterquelle zu untersuchen. Hierzu wurde zunächst die Geometrie eines einzelnen Beschleunigers charakterisiert und optimiert, um die bestmöglichen Voraussetzungen für die anschließend durchgeführten Untersuchungen zur Kollision und Kompression der erzeugten Plasmen zu schaffen.
Das Funktionsprinzip des verwendeten Plasmabeschleunigers basiert auf einer Lorentzkraft, die aus dem Stromfluss zwischen zwei koaxial angeordneten Elektroden und dem damit verbundenen Magnetfeld resultiert. Da weder Stromdichte noch Magnetfeld homogen sind, wirkt auch die Lorentzkraft inhomogen auf die Plasmaschicht. Unter Einbeziehung von Simulationen wurde der Abstand zwischen den Elektroden auf 2,5 mm gesetzt, sodass die Ausprägung dieser Inhomogenität möglichst gering gehalten wird. Um ein Pinchen des Plasmas am Ende der Elektroden zu vermeiden haben die Elektroden im Gegensatz zu Plasma Focus Devices die gleiche Länge. Der mit 130 nH niederinduktive elektrische Aufbau ermöglicht die zur Ausbildung einer Plasmaschicht erforderlichen Stromanstiegsraten in der Größenordnung von 10^11 A/s.
Die Messung der Geschwindigkeit der Plasmaschicht erfolgte mit einem Array aus sechs Dioden, die gleichzeitig die Geschwindigkeitsabnahme im Rezipienten dokumentieren. Zusätzlich wurden die Messungen mit Kameraaufnahmen verglichen. Bei einer Elektrodenlänge von 100 mm konnten mit dem verwendeten Heliumgas Schichtgeschwindigkeiten von bis zu (79,49 ± 7,98) km/s erreicht werden. Die Untersuchung von Elektroden mit 200 mm Länge verfolgte das Ziel, durch die größere Beschleunigungszeit höhere Geschwindigkeiten und kinetische Energien der austretenden Plasmaschicht zu erreichen. Es zeigte sich jedoch, dass es hierbei zur Ausbildung einer zweiten Entladung und einer damit verbundenen Abbremsung des Initialplasmas kommt. Die Untersuchungen ergaben, dass die optimale Elektrodenlänge dadurch gegeben ist, dass der Austritt des Plasmas aus dem Beschleuniger zum Zeitpunkt des ersten Stromnulldurchgangs erfolgt. Für die Berechnung der optimalen Elektrodenlänge wurde ein Skalierungsgesetz gefunden, die auf experimentellen Ergebnissen und Simulationen basiert.
Mit spektroskopische Messungen der Stark-Verbreiterung der Hβ-Linie konnte die Elektronendichte des Plasmas zeit- und ortsintegriert bestimmt werden. Die hierbei erzielte Maximaldichte von (6,83 ± 0,83) · 10^15 cm^-3 wurde bei 9 kV und 70 mbar gemessen. Die nach der Boltzmann-Methode zeit- und ortsintegriert bestimmten Elektronentemperaturen bewegt sich bei etwa 1 eV.
Nach ausreichender Charakterisierung des Einzelbeschleunigers wurde das Experiment um einen zweiten, baugleichen Plasmabeschleuniger erweitert, um die planare Kollision zweier Plasmen zu untersuchen. Die maximal gemessene Elektronendichte von n max e = (1,36 ± 0,21) · 10^16 cm^-3 bei 9 kV und 70 mbar stellt im Vergleich zum Einzelplasma eine Steigerung um einen Faktor von 2,48 dar und ist mit einer Temperaturerhöhung einhergehend. Diese Elektronendichteerhöhung lässt sich nicht durch einfaches Durchdringen der Schichten erklären. Vielmehr muss es in der Kollisionszone zu Wechselwirkungsprozesse in Form von Kompression, zur Erzeugung neuer Ladungsträger oder der Kombination aus beidem kommen.
Das Spektrum im UV/VUV-Bereich weist Linien von ab 85 nm auf. Dies stellt eine Verbesserung gegenüber dem Einzelbeschleuniger dar, bei dem die hochenergetischste Spektrallinie erst bei 97 nm gemessen wurde. In der Kollisionskonfiguration mit einem Beschleunigerabstand von 30 mm steigt die integrierte Gesamtintensität des Spektrums bis 300 nm zudem um einen Faktor von etwa 5,2.
Als Alternative zur Plasmakollision wurde die Kompression des Plasmas des Einzelbeschleunigers durch unterschiedliche Trichtergeometrien untersucht. Die untersuchten Trichter der ersten und zweiten Generation unterscheiden sich im Wesentlichen im Durchmesser der kleineren Öffnung. Dieser wurde basierend auf Simulationen von 5 mm auf 0,5 mm reduziert. Die Dichtediagnostik der ersten Trichtergeneration erfolgte hierbei über Hα-Linie, da die Verbreiterung der Hβ-Linie zu stark und daher nicht mehr anwendbar war. Die Auswertung der Halbwertsbreiten der Hα-Linie führt zu Elektronendichten in der Größenordnung von bis zu 1018 cm−3 bei Spannungen von 9 kV. Diese Steigerung um 1,5 bis 2,5 Größenordnungen im Vergleich zum Einzelbeschleuniger ist deutlich höher als das Verhältnis der Flächen des initialen Plasmas bzw. dem Ende des Trichters von etwa acht.
Der Trichter mit verringerter Öffnung wurde bei 5 kV und 5 mbar vermessen, um die mechanische Belastung durch den hohen Druck gering zu halten. Die Bestimmung der Elektronendichte erfolgte durch die Verbreiterung der Kupferlinie bei 479,4 nm nach den quadratischen Stark-Effekt. Trotz der im Vergleich zur ersten Trichtergeneration reduzierten Entladungsenergie und verringertem Druck sind die gemessenen Elektronendichten ebenfalls bei bis zu 10^18 cm^-3.
Durch die Kompression des Plasmas weist das Spektrum im UV/VUV-Bereich bereits Linien ab Wellenlängen etwa 53 nm auf, wobei es unter Berücksichtigung der Transmissionsgrenze von Helium bei 50 nm denkbar ist, dass das Plasma noch niedrigere Wellenlängen emittiert.
Aufgrund der gesammelten Ergebnisse lässt sich festhalten, dass sich die Elektronendichte sowohl durch die Kollision zweier Plasmen als auch durch die Kompression in Trichtergeometrien steigern lässt. Der Verdichtungseffekt der Trichterkompression ist hierbei um ein vielfaches höher, als bei der Plasmakollision. Dies spiegelt sich auch im UV/VUV-Spektrum wider. Beide Versuchsanordnungen eignen sich als Linienstrahler, allerdings weist das Spektrum der Trichterkompression Linien deutlich höherer Anregungszustände auf.