Universitätspublikationen
Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178)
Is part of the Bibliography
- no (178)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
Ziel. Lokoregionäre Rezidive sind der Hauptgrund für ein Therapieversagen nach primärer multimodaler Behandlung von Plattenepithelkarzinomen der Kopf-Hals-Region (SCCHN). Wir verglichen die Effektivität und Toxizität von Cisplatin oder Cetuximab simultan zur Re-Bestrahlung (ReRT) bei inoperablen SCCHN-Rezidiven. Ein prognostischer Score sollte auf Grundlage verschiedener klinischer und pathologischer Faktoren etabliert werden.
Patienten und Methoden. 66 Patienten mit in vorbestrahlten Regionen rezidivierten SCCHN wurden von 2007 bis 2014 simultan mit Cetuximab (n=33) oder cisplatin-basierter Chemotherapie (n=33) re-bestrahlt. Die Toxizität wurde wöchentlich sowie bei jedem Nachsorgetermin erfasst. Klinische Untersuchung, Endoskopie, CT- oder MRT-Untersuchungen wurden zur Beurteilung des Therapieansprechens und der Krankheitskontrolle eingesetzt.
Ergebnisse. Nach einer mittleren Nachbeobachtungszeit von 18,3 Monaten betrug das 1-Jahres-Überleben (OS) für ReRT mit Cetuximab 44,4% und mit cisplatin-basierter Chemotherapie 45,5% (p=0.352). Die lokalen Kontollraten nach einem Jahr waren jeweils 46,4% und 54,2% (p=0.625); die Raten an Metastasenfreiheit 73,6% und 81% (p=0.842). Hämatologische Toxizität ≥ Grad 3 kam in der Cisplatin-Gruppe häufiger vor (p<0.001), dagegen trat Schmerz ≥ Grad 3 in der Cetuximab-Gruppe häufiger auf (p=0.034). Ein physiologischer Hb-Wert und ein längeres Intervall zwischen primärer RT und ReRT erwiesen sich als signifikante prognostische Faktoren für das OS (multivariat: p=0.003 und p=0.002). Die Rezidivlokalisation sowie das GTV zeigten keinen signifikanten Einfluss auf das OS in der multivariaten Analyse (p=0.160 und p=0.167). Ein auf Grundlage dieser Variablen konstruierter Prognose-Score (0 bis 4 Punkte) zeigte signifikante Überlebensunterschiede: 1-Jahres-OS für 0/1/2/3/4 Prognosepunkte: 10%, 38%, 76%, 80% und 100% (p<0.001).
Schlussfolgerung. Sowohl Cetuximab- als auch Cisplatin-basierte ReRT für SCCHN-Rezidive sind gut durchführbare und effektive Behandlungsoptionen mit vergleichbaren Ergebnissen bezüglich Tumorkontrolle und Überleben. Die akuten Nebenwirkungen könnten gering variieren. Unser Prognose-Score könnte zur Identifizierung der für ReRT geeigneten Patienten sowie zur Stratifizierung in künftigen klinischen Studien dienen.
The Standard Model is one of the greatest successes of modern theoretical physics. Itl describes the physics of elementary particles by means of three forces, the electro-magnetisc, the weak and the strong interactions. The electro-magnetic and the weak interaction are rather well understood in comparison to the strong interaction.
The latest is as fundamental as the others, it is responsible for the formation of all hadrons which are classified into mesons and baryons. Well-known examples of the former is the pion and of the latter is the proton and the neutron, which form the nucleus of every atom. This fundamental force is believed to be described by the Quantum Chromodynamics (QCD) theory. According to this theory, hadrons are not elementary particles but are composed of quarks and gluons. The latter are the vector particles of the force and so are bosons of spin 1 and the former constitute the matter and are fermions with spin 1/2. To describe the interaction a new quantum number had to be introduced: the color charge which exists in three different types (blue, green and red). The name has not been chosen arbitrary as elements created from three quarks of different colors are colorless in the same way that mixing the three primary colors leads to white. However, experimentally no colored structure has ever been observed. The quarks and the gluons seem to be confined in colorless hadrons. This property of QCD is called confinement and results from a large coupling constant at low energy (or large distance). For high energy (or small distance), the perturbative analysis of QCD permits to establish the coupling constant to be small and quarks and gluons are almost free. This property is called asymptotic freedom. The possibility for QCD to describe both behaviors is one of its amazing characteristics. However, both phenomena are not well understood and one needs a method to study both the pertubative and the confining regime.
The only known method which fulfills the above criteria is Lattice QCD and more generally Lattice Quantum Field Theory (LQFT). It consists of a discretization of the spacetime and a formulation of QCD on a four-dimensional Euclidean spacetime grid of spacing a. In this way, the theory is naturally regularized and mathematically well-defined. On the other hand, the path integral formalism allows the theory to be treated as a Statistical Mechanics system which can be evaluated via a Markov chain Monte-Carlo algorithm. This method was first suggested by Wilson in 1974 [1] and shortly after Creutz performed the first numerical simulations of Yang-Mills theory [2] using a heath-bath Monte-Carlo algorithm. It appears that this method is extremely demanding in computational power. In its early days the method was criticized as the only feasible simulations involved non-physical values such as extremely large quark masses, large lattice spacing a and no dynamical quarks. With the progress of the computers and the appearance of the super-computer, the studies have come close to the physical point. But one still needs to deal with discrete space time and finite volume. Several techniques have been developed to estimate the infinite volume limit and the continuum limit. The smaller the lattice spacing and the larger the volume, the better the extrapolation to continuum and infinite volume limits is. The simulations are still very expensive and for the moment a typical length of the box is L ≈ 4fm and a ≈ 0.08fm. However, it has been realized simulating pure Yang-Mills theory and other lower dimensional models that the topology is freezing at small a [3]. It was also observed recently on full QCD simulations [4,5].
The typical lattice spacing for which this problem appears in QCD is a ≈ 0.05fm but this value depends on the quark mass used and on the algorithm. The freezing of topology leads to results which differ from physical results. Solving this issue is important for the future of LQCD [6]. Recently several methods to overcome the problem have been suggested, one of the most popular is the used of open boundary conditions [7] but this promising method has still its own issues, mainly the breaking of translation invariance.
Entwicklung und Test einer supraleitenden 217 MHz CH-Kavität für das Demonstrator-Projekt an der GSI
(2016)
In den letzten Jahrzehnten vergrößerten sich die Anwendungsgebiete von Linearbeschleunigern für Protonen und schwere Ionen, insbesondere im Nieder- und Mittelenergiebereich, stetig. Der überwiegende Teil dieser mittlerweile bewährten Anwendungen lag im Bereich der Synchrotroninjektion oder der Nachbeschleunigung von radioaktiven Ionenstrahlen. Darüber hinaus wird seit einiger Zeit die Entwicklung neuartiger, supraleitender Hochleistungslinearbeschleunigerkavitäten stark vorangetrieben, welche vor allem bei der Forschung an Spallationsneutronenquellen, in der Isotopenproduktion oder bei der Transmutation langlebiger Abfälle aus Spaltreaktoren Anwendung finden sollen. Die am Institut für Angewandte Physik der Goethe-Universität Frankfurt entwickelte CH-Kavität ist optimal für den Einsatz in derartigen Hochleistungsapplikationen geeignet. Sie ist die erste Vielzellenstruktur für den Nieder- und Mittelenergiebereich und kann sowohl normal- als auch supraleitend verwendet werden. Bislang konnten in der Vergangenheit ein supraleitender 360 MHz CH-Prototyp sowie eine für hohe Leistungen optimierte supraleitende 325 MHz CH-Struktur erfolgreich bei kryogenen Temperaturen ohne Strahl getestet werden. Um die Forschung im Bereich der Kernphysik, der Kernchemie und vor allem im Bereich der superschweren Elemente auch in Zukunft weiter fortzusetzen, ist der Bau eines neuen supraleitenden, dauerstrichbetriebenen Linearbeschleunigers an der GSI geplant. Das Kernstück des zukünftigen cw-LINAC basiert auf dem Einsatz supraleitender 217 MHz CH-Kavitäten, mit deren Hilfe ein adäquater Teilchenstrahl mit
maximal 7,5 MeV/u für die SHE-Synthese bereitgestellt werden soll. Auf dem Weg zur Realisierung des geplanten cw-LINACs wurde im Zuge des Demonstrator-Projektes die Umsetzung der ersten Sektion des gesamten Beschleunigers beschlossen. Der Fokus des Projektes liegt auf der Demonstration der Betriebstauglichkeit innerhalb einer realistischen Beschleunigerumgebung sowie insbesondere auf der erstmaligen Inbetriebnahme einer supraleitenden CH-Kavität mit Strahl. Im Rahmen der vorliegenden Arbeit wurde die erste supraleitende 217 MHz CH-Kavität für das Demonstrator-Projekt entwickelt, produziert und ihre Hochleistungseigenschaften in einem vertikalen Kryostaten bei 4,2 K getestet. Hierbei lag das Hauptaugenmerk auf der HF-Auslegung der Kavität, den begleitenden Tuningmaßnahmen während der Produktion sowie den ersten Leistungstests unter kryogenen Bedingungen. Weitere Schwerpunkte lagen auf der kompakten Bauweise, dem effektiven Tuning, der Oberflächenpräparation sowie auf dem Strahlbetrieb der Kavität mit einem dauerstrichfähigem 5 kW Hochleistungskoppler. Die Umsetzung
der Kavität beruhte auf dem geometrischen Konzept der supraleitenden, siebenzelligen 325 MHz CH-Struktur.
Ihre elektromagnetische und strukturmechanische Auslegung erfolgte mittels der Simulationsprogramme ANSYS Multiphysics und CST Studio Suite. Um während des Test- bzw. Strahlbetriebs mit der entsprechend notwendigen Kopplungsstärke die HF-Leistung in die Kavität einzuspeisen, wurden unterschiedliche Kopplerantennen für den jeweiligen Fall ausgelegt. Zum Erreichen der geforderten Zielfrequenz wurde ein Verfahren erarbeitet, welches die hierfür notwendigen Mess- und Arbeitsschritte während der einzelnen
Produktionsphasen beinhaltet. Diesbezüglich wurden während der Produktion der Kavität eine Reihe von Zwischenmessungen beim Hersteller durchgeführt, um den Frequenzverlauf innerhalb der jeweiligen Fertigungsschritte entsprechend beeinflussen zu können
und um vorangegangene Simulationswerte zu validieren. Alle untersuchten Parameter konnten während der Messungen in guter Übereinstimmung zu den Simulationen reproduziert und die Zielfrequenz der Kavität schließlich erreicht werden. Nach Abschluss der letzten Oberflächenpräparationen wurde die Kavität in einer neuen kryogenen Testumgebung innerhalb der Experimentierhalle des IAP für einen vertikalen Kalttest vorbereitet.
Daraufhin erfolgte das Evakuieren der Kavität, das Abkühlen auf 4,2 K sowie ihre Konditionierung. Anschließend erfolgte die Bestimmung der intrinsischen Güte der Kavität.
Sie betrug 1,44 x 10E9 und besitzt somit den bisher höchsten Gütewert, der jemals bei einer supraleitenden CH-Struktur erreicht wurde. Es konnte ein maximaler Beschleunigungsgradient von 7 MV/m im Dauerstrichbetrieb erreicht werden, was einer effektiven Spannung von 4,2 MV entspricht. Die zugehörigen magnetischen und elektrischen Oberflächenfelder lagen bei 39,3 mT bzw. 43,5 MV/m. Ein thermaler Zusammenbruch konnte während des gesamten Leistungstests nicht festgestellt werden, was auf eine gute thermische Eigenschaft der Kavität hindeutet. Allerdings zeigte der gemessene Verlauf ein frühes Abfallen der Güte ab 2,5 MV/m, was durch anormale Leistungsverluste aufgrund von Feldemission hervorgerufen wurde. Dies war aufgrund der unzureichenden Oberflächenbehandlung der Kavität zu erwarten, da die Hochdruckspülung aus technischen Gründen nur entlang der Strahlachse erfolgte. Dennoch konnte die Designvorgabe des geplanten cw-LINACs hinsichtlich der Güte bei 5,5 MV/m um einen Faktor 2 übertroffen werden.
Die positiven Ergebnisse der Simulationsrechnungen und der Messungen zeigen, dass die Anforderungen des Demonstrator-Projekts, insbesondere hinsichtlich des benötigten Beschleunigungsgradienten, mittels der entwickelten supraleitenden 217 MHz CH-Kavität erfüllt werden. Somit wurde im Rahmen dieser Arbeit maßgeblich an der Umsetzung des Demonstrator-Projekts bzw. an der Realisierung des geplanten cw-LINACs beigetragen und der Weg für einen Strahlbetrieb der Kavität vorbereitet.
Different approaches are possible when it comes to modeling the brain. Given its biological nature, models can be constructed out of the chemical and biological building blocks known to be at play in the brain, formulating a given mechanism in terms of the basic interactions underlying it. On the other hand, the functions of the brain can be described in a more general or macroscopic way, in terms of desirable goals. This goals may include reducing metabolic costs, being stable or robust, or being efficient in computational terms. Synaptic plasticity, that is, the study of how the connections between neurons evolve in time, is no exception to this. In the following work we formulate (and study the properties of) synaptic plasticity models, employing two complementary approaches: a top-down approach, deriving a learning rule from a guiding principle for rate-encoding neurons, and a bottom-up approach, where a simple yet biophysical rule for time-dependent plasticity is constructed.
We begin this thesis with a general overview, in Chapter 1, of the properties of neurons and their connections, clarifying notations and the jargon of the field. These will be our building blocks and will also determine the constrains we need to respect when formulating our models. We will discuss the present challenges of computational neuroscience, as well as the role of physicists in this line of research.
In Chapters 2 and 3, we develop and study a local online Hebbian self-limiting synaptic plasticity rule, employing the mentioned top-down approach. Firstly, in Chapter 2 we formulate the stationarity principle of statistical learning, in terms of the Fisher information of the output probability distribution with respect to the synaptic weights. To ensure that the learning rules are formulated in terms of information locally available to a synapse, we employ the local synapse extension to the one dimensional Fisher information. Once the objective function has been defined, we derive an online synaptic plasticity rule via stochastic gradient descent.
In order to test the computational capabilities of a neuron evolving according to this rule (combined with a preexisting intrinsic plasticity rule), we perform a series of numerical experiments, training the neuron with different input distributions.
We observe that, for input distributions closely resembling a multivariate normal distribution, the neuron robustly selects the first principal component of the distribution, showing otherwise a strong preference for directions of large negative excess kurtosis.
In Chapter 3 we study the robustness of the learning rule derived in Chapter 2 with respect to variations in the neural model’s transfer function. In particular, we find an equivalent cubic form of the rule which, given its functional simplicity, permits to analytically compute the attractors (stationary solutions) of the learning procedure, as a function of the statistical moments of the input distribution. In this way, we manage to explain the numerical findings of Chapter 2 analytically, and formulate a prediction: if the neuron is selective to non-Gaussian input directions, it should be suitable for applications to independent component analysis. We close this section by showing how indeed, a neuron operating under these rules can learn the independent components in the non-linear bars problem.
A simple biophysical model for time-dependent plasticity (STDP) is developed in Chapter 4. The model is formulated in terms of two decaying traces present in the synapse, namely the fraction of activated NMDA receptors and the calcium concentration, which serve as clocks, measuring the time of pre- and postsynaptic spikes. While constructed in terms of the key biological elements thought to be involved in the process, we have kept the functional dependencies of the variables as simple as possible to allow for analytic tractability. Despite its simplicity, the model is able to reproduce several experimental results, including the typical pairwise STDP curve and triplet results, in both hippocampal culture and layer 2/3 cortical neurons. Thanks to the model’s functional simplicity, we are able to compute these results analytically, establishing a direct and transparent connection between the model’s internal parameters and the qualitative features of the results.
Finally, in order to make a connection to synaptic plasticity for rate encoding neural models, we train the synapse with Poisson uncorrelated pre- and postsynaptic spike trains and compute the expected synaptic weight change as a function of the frequencies of these spike trains. Interestingly, a Hebbian (in the rate encoding sense of the word) BCM-like behavior is recovered in this setup for hippocampal neurons, while dominating depression seems unavoidable for parameter configurations reproducing experimentally observed triplet nonlinearities in layer 2/3 cortical neurons. Potentiation can however be recovered in these neurons when correlations between pre- and postsynaptic spikes are present. We end this chapter by discussing the relation to existing experimental results, leaving open questions and predictions for future experiments.
A set of summary cards of the models employed, together with listings of the relevant variables and parameters, are presented at the end of the thesis, for easier access and permanent reference for the reader.
To understand neurodegenerative diseases is one of the major challenges of the 21st century. This also includes Alzheimer´s disease (AD), which represents a chronic neurodegenerative disorder, with long preclinical and prodromal phases (approx. 20 years) and an average clinical duration of 8–10 years. In the early phase of this disease, patients show deterioration of memory, difficulties in finding the right words for everyday objects or mood swings. The risk of AD grows exponentially with age, doubling approximately every 5 to 6 years. AD may contribute to 60–70% of all dementia cases, being the most common cause of this disease. Dementia is one of the major causes of disability and dependency among older people worldwide. The causes of the sporadic form of AD with late onset (LOAD) are not yet known, but it seems to be a result of multiple factors. Neuropathological features are extracellular senile plaques, containing beta-amyloid peptides (Aβ) and intracellular neurofibrillary tangles, containing paired helical tau proteins, which have been associated with neuronal loss and atrophy of the cerebral cortex. Thus, misfolded proteins seem to contribute to the pathogenesis, but are not the only players in the disease process. Developing feasible therapies is difficult due to the multifactorial pathology of AD. Currently approved drugs only attenuate symptoms, but do not cure the disease. Research into AD also has had several failures in terms of developing disease-modifying therapies. Thus, new therapeutic targets in order to develop a causal therapy are desperately needed. Since AD starts many years far before the first symptoms occur, new scientific approaches focus on the early stage, which are discussed to be important in aging and the onset of AD. Today, the hypothesis of the advanced mitochondrial cascade becomes more and more the leading model for LOAD, integrating physiological aging as the main risk factor. Thus, new interventions targeting mitochondrial dysfunction are of substantial interest. Accordingly, the efficacy of Dimebon and TRO19622 to ameliorate mitochondrial dysfunction in cellular and murine models of AD were investigated. Dimebon (Latrepirdine) was, originally developed in Russia as an H1-antiallergic drug. It might specifically interfere with mechanisms relevant for the cognitive decline, especially by improving impaired mitochondrial function and/or dynamics in AD. TRO19622 (Olesoxim) has been identified in a phenotypic screening approach to promote the survival of primary motor neurons. Olesoxim is easily absorbed by cells and accumulates in mitochondria. Olesoxim’s mode of action is not fully understood, however it has been shown to modulate mitochondrial membranes and interact with the voltage-dependent anion channel (VDAC) and the translocator protein (TSPO; also known as PBR). Thereby it inhibits mitochondrial permeability transition. In this study, the effects of Aβ overproduction on mitochondrial function were investigated. The effects of Dimebon and Olesoxim were examined, using a HEK cell line stably transfected with the Swedish APP double mutation (HEKsw) and un-transfected control cells (HEKut). Mitochondrial membrane potential, ATP concentrations, and respirometry were measured. Western Blot analysis of marker proteins for fission & fusion, autophagy, mitogenesis and mPTP formation were performed. Confocal laser scanning microscopy was introduced as a novel method to visualize mitochondrial dynamics. Olesoxim was also tested in Thy-1-C57BJ/6-APPSL mice representing a murine model of AD. For the in vivo model mitochondria from brain tissue were isolated and dissociated brain cells were prepared to determine respiration, lipid peroxidation, MMP, and ATP-levels. Both, the in vitro and in vivo models were compared and discussed in relation to human post-mortem data. The research was conducted in frame of the EU-project entitled „MITOTARGET“ (Mitochondrial dysfunction in neurodegenerative diseases: towards new therapeutics) funded under FP7-Health (http://cordis.europa.eu/result/rcn/54471_en.html). HEKsw cells showed an overall reduction in the mitochondrial respiration, a significant lower MMP, and significantly reduced ATP levels compared to HEKut cells. Mitochondrial mass was equal in both cell lines. In addition most mitochondria in HEKsw cells showed truncated morphology, followed by punctuated mitochondria. Levels of the fission related protein Drp were significantly elevated in HEKsw cells whereas protein levels of fusion related OPA were strongly reduced, leading to a shift in the distribution pattern towards shorter mitochondria. Moreover, HEKsw cells showed reduced mitochondrial density. Protein levels of the translocase of the inner mitochondrial membrane (TIMM50) were strongly diminished in HEKsw cells. The OXPHOS machinery is located in the inner membrane, where the MMP is build up and ATP is generated. Reduced TIMM50 levels in HEKsw indicated a reduction of the inner mitochondrial membrane, which could explain the described deficits in OXPHOS, MMP, ATP and mitochondrial morphology and density. Concentration of both mPTP markers, the voltage-depended anion channel (VDAC) and the peripheral benzodiazepine receptor (PBR), were broadly increased in HEKsw cells. Thy1-APPSL transgenic mice were characterized as in vivo model of AD. Those mice are modified to express the human form of APP, containing both, the Swedish (KM670/671NL) and the London (V717L) double mutations under the murine Thy1 promotor. Beginning at the age of 3 months, Thy1-APPSL mice develop elevated Aβ levels and mitochondrial dysfunction. Mitochondria isolated from brains of Thy-1-C57BJ/6-APPSL mice showed significant impaired respiration, resulting in a reduced MMP. However, ATP levels in dissociated brain cells did not differ compared to controls. Protein levels of FIS were unchanged, whereas Drp levels were significantly increased. Levels of the mitochondrial fusion marker optic atrophie-1 (Opa) protein were significantly reduced. Peroxisome proliferation-activated receptor gamma coactivator 1-alpha (PGC1) is a transcription factor, which represents a master regulator of mitochondrial biogenesis. PGC1 expression was significantly elevated in brains of Thy-1-C57BJ/6-APPSL mice. However, mitochondrial mass seemed to be equal in both mouse lines. Both LC3-Isoforms, the cytosolic and the autophagosomal form, were not changed in brains of Thy-1-C57BJ/6-APPSL mice, which indicates equal mitophagic activity. In brain homogenates, isolated from Thy-1-C57BJ/6-APPSL mice, both mPTP marker, VDAC and PBR, were considerably increased, which is in accordance with the findings in HEKsw cells. In conclusion, both, the cellular (HEKsw) and the animal model of AD (Thy1-APPSL) broadly match pathophysiological features, which have been found in post-mortem samples from AD patients. Thus, HEKsw cells and Thy1-APPSL mice seem to be suitable models to study new treatments against AD. Incubation of HEKsw cells with Dimebon resulted in a remarkable increase in respiratory activity and restored the MMP after impairing the cells with rotenon. Dimebon had no effects on ATP levels in both cell lines, neither after challenging cells with rotenon, nor under basal conditions. By adding Dimebon, citrate synthase (CS) activity in HEKsw cells was increased and mitochondrial morphology was shifted to a tubular shape. Dimebon further enhanced protein levels of Drp and resulted in the compensation of reduced OPA levels. Moreover, Dimebon restored the increased expression levels of the mPTP markers VDAC and PBR. Aβ1-40 levels were significantly decreased in HEKsw cells. However, changes in Aβ1-40 levels seemed to be too small, to solely explain the much larger effects of Dimebon on impaired mitochondrial function. In conclusion, Dimebon treatment restored diverse defects in Aβ overexpressing cells: Aβ levels were reduced, autophagy marker were increased, mitophagy as repair and renewal mechanism was elevated, mitochondrial mass and density were increased, OXPHOS capacity was restored, mitochondrial dynamics were balanced, mitochondrial shape showed a normal distribution, expression levels of the mPTP constituents were reduced, TIMM50 levels augmented to control levels and stress induced MMP and ROS levels were reduced. All these effects were observed after incubation of cells with a rather low concentration of 100 nmol/L. Based on these findings and in addition to already existing literature, Dimebon presents a potential therapeutic option for diseases with accompanied mitochondrial dysfunction. Although, clinical findings published so far are inconsistent. Olesoxim induced a general increase in respiratory activity and enhanced the electron transport (ETS) capacity in HEKsw cells. In addition it normalized the OXPHOS activity almost to control levels. However, incubation using different Olesoxim concentrations led to a dose independent decline in the MMP and decreased ATP levels. Adding Olesoxim caused a dose-dependent change in the length of mitochondria strongly shifting the pattern towards longer mitochondria. In HEKsw cells a reduced mitochondrial density was observed which was reversed by Olesoxim dose-dependently. Olesoxim completely compensated the severely reduced expression levels of TIMM50, but had no effects on TOMM22 levels. An unexpected finding was that 10 µM Olesoxim significantly increased Aβ1-40 levels. Effects of Olesoxim were also tested in vivo. Treatment of Thy-1-C57BJ/6-APPSL mice with Olesoxim restored the impaired MMP in dissociated brain cells, but had no effects on ATP-levels. Olesoxim increased the respiratory activity in isolated brain mitochondria and restored impaired respiration complex activities almost to control levels, without having an effect on CS activity. However, treatment with Olesoxim caused an increase of PGC1 protein levels in brains of Thy-1-C57BJ/6-APPSL mice,beyond basal levels of littermate controls. The mPTP marker proteins voltage-depended anion channel (VDAC) and peripheral benzodiazepine receptor (PBR) were significantly reduced. As well as in the cell models, treatment of Thy-1-C57 BJ/6-APPSL mice with Olesoxim significantly enhanced total human, soluble human and soluble mouse Aβ1-40 levels. Further investigation needs the observation that Olesoxim caused partly negative effects in controls. For instance, Olesoxim reduced the OXPHOS capacity and enhanced protein levels of VADAC and PBR in brains of C57BJ/6 littermate control mice, which could limit the applicability of Olesoxim in further preclinical studies.
Mikroalgen wird aufgrund ihrer photoautotrophen Lebensweise, ihrer meist einfachen Anzucht und ihres schnellen Wachstums ein großes Potential als Produzenten verschiedener Stoffe, wie beispielsweise den Sekundärmetaboliten der Carotinoidbiosynthese, zugesprochen. Zur Produktion solcher Stoffe bedarf es der Aufklärung der in einem Biosyntheseweg operierenden Enzyme und ihrer zugehörigen Gene.
In dieser Arbeit sollte einerseits durch genetische Modifikation der Carotinoidbiosynthese der Fucoxanthingehalt erhöht und andererseits die Produktion von Astaxanthin in P. tricornutum erreicht werden. Bisher fehlen experimentelle Nachweise über die Funktion, Regulation und die limitierenden Eigenschaften daran beteiligter Gene und deren Enzyme. Um dem Ziel der Arbeit näher zu kommen, wurden zuerst potentiell an der Regulation der Carotinoidbiosynthese beteiligte Gene ausgewählt und deren Enzyme funktionell charakterisiert. Eines dieser Enzyme ist das Eingangsenzym der Carotinoidbiosynthese, die Phytoen-Synthase. Die entsprechend annotierte putative Sequenz (psy #Pt56881) wurde zur Analyse herangezogen. Nachdem im Rahmen dieser Arbeit über die Komplementation in einem dafür ausgerichteten E. coli Stamm der funktionelle Nachweis der Phytoen-Synthase erbracht werden konnte, wurde untersucht, ob die Phytoen-Synthase einer lichtabhängigen Expression unterliegt und somit die Carotinoidsynthese im WT von P. tricornutum limitiert. Durch die Inhibierung der Phytoen-Desaturase mittels Norflurazon konnte die verstärkte Akkumulation des Produktes der Phytoen-Synthase, Phytoen, bei einem Transfer der P. tricornutum-Kulturen von Schwach- in Starklicht gezeigt werden. Die Expression der Phytoen-Synthase von P. tricornutum wird demnach durch die Lichtbedingungen reguliert und limitiert auch die Carotinoidsynthese. Ein weiteres an der Carotinoidsynthese beteiligtes Enzym ist die Zeaxanthin-Epoxidase. Sie bietet zugleich eine Möglichkeit, an dieser Stelle die Carotinoidsynthese in Richtung Astaxanthinproduktion umzulenken. Für P. tricornutum sind drei potentielle Genkandidaten (zep1: #Pt45845; zep2: #Pt56488; zep3: #Pt56792) annotiert, welche ebenfalls im Rahmen dieser Arbeit funktionell charakterisiert wurden. Der funktionelle Nachweis erfolgte dabei ebenfalls mittels eines Komplementationsansatzes in einem damit neu etablierten Expressionssystem mit npq2-Mutanten aus der Modellpflanze A. thaliana. Die Analyse der Transformanden zeigte eine Epoxidase-Aktivität des Produktes aus zep2 und zep3. Das Enzym Zeaxanthin-Epoxidase 2 weist dabei eine andere Spezifität auf als die Zeaxanthin-Epoxidase 3, welche funktionell betrachtet der Zeaxanthin-Epoxidase aus A. thaliana am nächsten kommt. Die Zeaxanthin-Epoxidase 2 akzeptiert im Unterschied zu Zeaxanthin-Epoxidase 3 neben Zeaxanthin auch andere Substrate wie Lutein mit nur einem 3 Hydroxy-β-Iononring und stellt damit einen validen Kandidaten für die Umwandlung von Diatoxanthin in Diadinoxanthin in P. tricornutum dar. Obwohl die Transkriptanalysen ausreichende Mengen an RNA von zep1 in A. thaliana zeigen und anhand eines zusätzlichen mit der Sequenz für GFP markierten zep1-Konstruktes in WT-Protoplasten von A. thaliana der Import in den Chloroplasten und die Expression nachgewiesen werden konnte, weist die Zeaxanthin-Epoxidase 1 zumindest in den A. thaliana-Transformanden keine Epoxidase-Aktivität auf. Des Weiteren zeigt die diurnale Expression in P. tricornutum, dass die Regulation der Zeaxanthin-Epoxidasen an den Bedarf photoprotektiver Pigmente angepasst wird. Während die Regulation des Transkript-Levels von zep2 und zep3 nahezu parallel laufen und ein gemeinsames Maximum aufweisen, zeigt das Transkript-Level von zep1 ein anderes Maximum.
Die gewonnenen Erkenntnisse wurden dann zur Steigerung der Synthesekapazität mittels genetischer Modifikation des Carotinoidsyntheseweges in P. tricornutum angewendet. Durch das Einbringen zusätzlicher Genkopien der Phytoen-Synthase in P. tricornutum konnte dabei eine deutliche Steigerung des Fucoxanthingehalts unter Schwachlichtbedingungen erreicht werden. Gleichzeitig konnte durch weitere inhibitorische Versuche mittels Norflurazon beim Transfer von Schwach- zu Starklicht demonstriert werden, dass die Carotinoidsynthese durch die Kombination der genetischen Modifikation mit der Phytoen-Synthase und Starklicht per se weiterhin gesteigert werden kann. Zusammen mit den Transkriptanalysen zeigen die Pigmentanalysen, dass es einen nicht-linearen Zusammenhang zwischen RNA-Menge und gebildeter Phytoenmenge gibt, welcher durch eine zusätzliche Substratlimitierung der Phytoen-Synthase erklärt werden kann.
Bevor das Herunterregulieren der Zeaxanthin-Epoxidasen in P. tricornutum durchgeführt und damit ein verstärkter Fluss zur Astaxanthinbildung erreicht werden sollte, wurde das Potential von P. tricornutum zur Astaxanthinproduktion überprüft. Hierfür wurde die β-Carotin-Ketolase (bkt #CrAEA35045.1) aus C. reinhardtii einmal ohne und zusätzlich mit verschiedenen Präsequenzen fusioniert separat in P. tricornutum eingebracht. Astaxanthin konnte trotz Nutzung funktionell bestätigter Präsequenzen aus der Literatur nicht nachgewiesen werden. Die Versuche zeigen damit, dass hier noch weitere Untersuchungen nötig sind, um mittels eines geeigneten Transportsystems Fremd-Proteine in den Chloroplasten von P. tricornutum einzubringen. Das Ausbleiben der Astaxanthinproduktion konnte an dieser Stelle nicht hinreichend geklärt werden.
Insgesamt schaffen die Ergebnisse dieser Arbeit eine weitere Grundlage, um die Carotinoidbiosynthese in P. tricornutum besser zu verstehen und diese mittels genetischer Modifikationen biotechnologisch nutzbar zu machen.
Die letzten Jahrzehnte brachten einen enormen Zuwachs des Wissens und Verständnisses über die molekularen Prozesse des Lebens.Möglich wurde dieser Zuwachs durch die Entwicklung diverser Methoden, mit denen beispielsweise gezielt die Konzentration einzelner Stoffe gemessen werden kann oder gar alle anwesenden Metaboliten eines biologischen Systems erfasst werden können. Die großflächige Anwendung dieser Methoden führte zur Ansammlung vieler unterschiedlicher -om-Daten, wie zum Beispiel Metabolom-, Proteom- oder Transkriptoms-Datensätzen. Die Systembiologie greift auf solche Daten zurück, um mathematische Modelle biologischer Systeme zu erstellen, und ermöglicht so ein Studium biologischer Systeme auch außerhalb des Labors.
Für größere biologische Systeme stehen jedoch meistens nicht alle Informationen über Stoffkonzentrationen oder Reaktionsgeschwindigkeiten zur Verfügung, um eine quantitative Modellierung, also die Beschreibung von Änderungsraten kontinuierlicher Variablen, durchführen zu können. In einem solchen Fall wird auf Methoden der qualitativen Modellierung zurückgegriffen. Eine dieser Methoden sind die Petrinetze (PN), welche in den 1960er Jahren von Carl Adam Petri entwickelt wurden, um nebenläufige Prozesse im technischen Umfeld zu beschreiben. Seit Anfang der 1990er Jahre finden PN auch Anwendung in der Systembiologie, um zum Beispiel metabolische Systeme oder Signaltransduktionswege zu modellieren. Einer der Vorteile dieser Methode ist zudem, dass Modelle als qualitative Beschreibung des Systems begonnen werden können und im Laufe der Zeit um quantitative Beschreibungen ergänzt werden können.
Zur Modellierung und Analyse von PN existieren bereits viele Anwendungen. Da das Konzept der PN jedoch ursprünglich nicht für die Systembiologie entwickelt wurde und meist im technischen Bereich verwendet wird, existierten kaum Anwendungen, die für den Einsatz in der Systembiologie entwickelt wurden. Daher ist auch die Durchführung der für die Systembiologie entwickelten Analysemethoden für PN nicht mit diesen Anwendungen möglich. Die Motivation des ersten Teiles dieser Arbeit war daher, eine Anwendung zu schaffen, die speziell für die PN-Modellierung und Analyse in der Systembiologie gedacht ist, also in ihren Analysemethoden und ihrer Terminologie sich an den Bedürfnissen der Systembiologie orientiert. Zudem sollte die Anwendung den Anwender bei der Auswertung der Resultate der Analysemethoden visuell unterstützen, indem diese direkt visuell im Kontext des PN gesetzt werden. Da bei komplexeren PN die Resultate der Analysemethoden in ihrer Zahl drastisch anwachsen, wird eine solche Auswertung dieser notwendig. Aus dieser Motivation heraus entstand die Anwendung MonaLisa, dessen Implementierung und Funktionen im ersten Teil der vorliegenden Arbeit beschrieben werden. Neben den klassischen Analysemethoden für PN, wie den Transitions- und Platz-Invarianten, mit denen grundlegende funktionale Module innerhalb eines PN gefunden werden können, wurden weitere, meist durch die Systembiologie entwickelte, Analysemethoden implementiert. Dazu zählen zum Beispiel die Minimal Cut Sets, die Maximal Common Transitions Sets oder Knock-out-Analysen. Mit MonaLisa ist aber auch die Simulation des dynamischen Verhaltens des modellierten biologischen Systems möglich. Hierzu stehen sowohl deterministische als auch stochastische Verfahren, beispielsweise der Algorithmus von Gillespie zur Simulation chemischer Systeme, zur Verfügung. Für alle zur Verfügung gestellten Analysemethoden wird ebenfalls eine visuelle Repräsentation ihrer Resultate bereitgestellt. Im Falle der Invarianten werden deren Elemente beispielsweise in der Visualisierung des PN eingefärbt. Die Resultate der Simulationen oder der topologischen Analyse können durch verschiedene Graphen ausgewertet werden. Um eine Schnittstelle zu anderen Anwendungen zu schaffen, wurde für MonaLisa eine Unterstützung einiger gängiger Dateiformate der Systembiologie geschaffen, so z.B. für SBML und KGML.
Der zweite Teil der Arbeit beschäftigt sich mit der topologischen Analyse eines Datensatzes von 2641 Gesamtgenom Modellen aus der path2models-Datenbank. Diese Modelle wurden automatisiert aus dem vorhandenen Wissen der KEGG- und der MetaCyc-Datenbank erstellt. Die Analyse der topologischen Eigenschaften eines Graphen ermöglicht es, grundlegende Aussagen über die globalen Eigenschaften des modellierten Systems und dessen Entstehungsprozesses zu treffen. Daher ist eine solche Analyse oft der erste Schritt für das Verständnis eines komplexen biologischen Systems. Für die Analyse der Knotengrade aller Reaktionen und Metaboliten dieser Modelle wurden sie in einem ersten Schritt in PN transformiert. Die topologischen Eigenschaften von metabolischen Systemen werden in der Literatur schon sehr gut beschrieben, wobei die Untersuchungen meist auf einem Netzwerk der Metaboliten oder der Reaktionen basieren. Durch die Verwendung von PN wird es möglich, die topologischen Eigenschaften von Metaboliten und Reaktionen in einem gemeinsamen Netzwerk zu untersuchen. Die Motivation hinter diesen Untersuchungen war, zu überprüfen, ob die schon beschriebenen Eigenschaften auch für eine Darstellung als PN zutreffen und welche neuen Eigenschaften gefunden werden können. Untersucht wurden der Knotengrad und der Clusterkoeffizient der Modelle. Es wird gezeigt, dass einige wenige Metaboliten mit sehr hohem Knotengrad für eine ganze Reihe von Effekten verantwortlich sind, wie beispielsweise dass die Verteilung des Knotengrades und des Clusterkoeffizienten, im Bezug auf Metaboliten, skalenfrei sind und dass sie für die Vernetzung der Nachbarschaft von Reaktionen verantwortlich sind. Weiter wird gezeigt, dass die Größe eines Modelles Einfluss auf dessen topologische Eigenschaften hat. So steigt die Vernetzung der Nachbarschaft eines Metaboliten, je mehr Metaboliten in einem biologischen System vorhanden sind, gleiches gilt für den durchschnittlichen Knotengrad der Metaboliten.
Weltweit sind ca. 130–180 Millionen Menschen mit HCV infiziert und jährlich sterben etwa 500.000 Menschen an dessen Folgen. Die neuartigen Therapien versprechen zwar eine sehr hohe Heilungsrate, sind aber aufgrund ihrer enorm hohen Kosten nur in Industrieländern verfügbar. Noch immer gibt es keine prophylaktische Vakzinierung gegen HCV. Deshalb ist es wichtig, den HCV-Lebenszyklus und die Interaktion zwischen Wirtszelle und Virus detailliert zu verstehen, um die Entwicklung von Therapien und Impfungen zu ermöglichen. Außerdem kann ein fundiertes Wissen von HCV translatiert werden und auf neuartige Erreger der Familie der Flaviviridae, wie Denguevirus und Zikavirus, angewendet werden. Während der Zelleintritt und die Replikation von HCV relativ gut charakterisiert sind, bleiben die Assemblierung und Freisetzung der viralen Partikel schlecht verstandene Schritte des HCV-Lebenszyklus. In dieser Arbeit sollte die Rolle des zellulären Proteins α-Taxilin im Lebenszyklus von HCV untersucht werden. In einer späteren Phase der Arbeit wurde der endosomale Freisetzungsweg von HCV untersucht. Dazu wurden HCV Varianten generiert und charakterisiert, die Fluoreszenz-Proteine im NS5A- und E1-Protein enthalten, durch die es möglich ist, den Replikationskomplex und die Viruspartikel zu visualisieren und zu quantifizieren und den viralen Lebenszyklus dadurch besser untersuchen zu können...
Heutzutage unterliegen insbesondere aquatische Ökosysteme durch den permanenten Anstieg nicht-heimischer Arten einem folgenreichen Wandel. Dabei stellt der Biodiversitätsverlust nur den Endpunkt einer biologischen Invasion dar. Dazwischen wirken sich Faktoren wie Konkurrenz-, Prädationsdruck oder die Übertragung von Krankheitserregern wie z.B. Parasiten auf den Rückgang der Arten aus. Als integraler Bestandteil eines jeden Ökosystems spielen Parasiten bei Invasionsprozessen eine entscheidende Rolle und können durch ihren Einfluss auf heimische und nicht-heimischen Arten Invasionen begünstigen. Fische übernehmen aufgrund ihrer vielseitigen Bedeutung im Nahrungsnetz eine Schlüsselfunktion als Wirte diverser Parasitenarten und sind deshalb ausgezeichnete Untersuchungsobjekte, um durch nicht-heimische Arten verursachte Veränderungen in Nahrungsnetzstrukturen oder Parasitenfaunen aquatischer Ökosysteme aufzudecken.
Vor diesem Hintergrund wurde die vorliegende kumulative Dissertation angefertigt, welche auf drei (ISI-) Einzelpublikationen basiert. Die Arbeit beschäftigte sich unter Verwendung morphologischer und molekularbiologischer Methoden schwerpunktmäßig mit der Parasitendiversität und Nahrungsökologie zweier eingeschleppter Fischarten in stark anthropogen beeinflussten deutschen Fließgewässern. Dabei handelte es sich um die hauptsächlich durch das Ballastwasser von Schiffen verbreitete invasive Schwarzmundgrundel Neogobius melanostomus aus den Flüssen Rhein und Main sowie den von Hobby-Aquarianern in den durch Industrieabwässer thermisch belasteten Gillbach ausgesetzten Zebrabuntbarsch Amatitlania nigrofasciata. Unter Berücksichtigung nahrungsökologischer und räumlich-zeitlicher Aspekte sollten die parasitologischen Risiken und Konsequenzen, welche durch das Einschleppen nicht-heimischer Fischarten auftreten, aufgezeigt werden, um übergeordnet die Folgenabschätzung auf dem Gebiet der Invasionsbiologie zu verbessern. Das Nahrungsspektrum beider Fischarten wies sowohl räumliche (zwischen den Flüssen und Standorten), als auch zeitliche (monatlich) Variationen auf, was die Anpassungsfähigkeit bzw. die optimale Nutzung zur Verfügung stehender Ressourcen von invasiven Arten verdeutlicht. Ebenso wurden Unterschiede in der Parasitierung nachgewiesen, was die Notwendigkeit räumlicher und zeitlicher Analysen zur Erfassung der vollständigen Parasitenfauna einer invasiven Art, inklusive aller Variationen der Befallszahlen, unterstreicht. Beide Fischarten bilden zudem Zwischenwirte für heimische, als auch nicht-heimische Parasitenarten, wobei die direkte Einschleppung von nicht-heimischen Parasiten aus dem ursprünglichen Verbreitungsgebiet der Fische auszuschießen ist und somit die Enemy-Release-Hypothese (Verlust ursprünglicher Gegenspieler wie Prädatoren oder Parasiten) unterstützt. Dies könnte zusammen mit der opportunistischen Ernährungsweise ein Grund für die starke Ausbreitung sowie die anhaltend hohen Individuenzahlen dieser Arten im jeweils betrachteten Verbreitungsgebiet (Rhein, Main sowie Gillbach) sein.
Besonders hervorzuheben ist der Nachweis der nicht-heimischen Nematoden Anguillicoloides crassus und Camallanus cotti. Durch die Aufdeckung einer besonderen Form von Hyperparasitismus konnten erstmalig hohe Befallszahlen von A. crassus in N. melanostomus dokumentiert werden. Die hoch abundante Grundelart gilt somit potentiell als entscheidender Überträger des invasiven Parasiten auf den Europäischen Aal. Der durch seine hohe Virulenz in der Aquaristik bekannte C. cotti gelangte durch das Aussetzen von Zierfischen in den Gillbach und trat mit hohen Befallszahlen in A. nigrofasciata auf und wird bereits auf die heimische Fischfauna übertragen (z.B. auf den Gründling Gobio gobio und den Döbel Squalius cephalus). Ebenso ist der starke Befall der heimischen Parasiten Pomphorhynchus sp. (Acanthocephala) und Raphidascaris acus (Nematoda) bei N. melanostomus sowie A. anguillae (Acanthocephala) bei A. nigrofasciata zu nennen. Durch die zusätzliche Wirtfunktion der Neozoen und die hohen Befallsintensitäten ist mit einem verstärkten Spillback-Effekt (Rückinfizierung) auf heimische Fischarten zu rechnen.
Die stetig steigende Anzahl biologischer Invasionen führt zu immer weitreichenderen Veränderungen heimischer Ökosysteme. Für den Erhalt der Biodiversität sowie einhergehender Ökosystemfunktionen rückt auch die Forschung über Neobiota immer mehr in den Mittelpunkt. In diesem Zusammenhang gewinnen auch Pathogene wie Parasiten immer mehr an Bedeutung, welche durch gebietsfremde Arten eingeschleppt werden und die bestehende Biodiversität gefährden können. Die Ergebnisse der durchgeführten Studien haben gezeigt, dass die Verknüpfung von parasitologischen und nahrungsökologischen Untersuchungen Einblicke in die hoch dynamischen Prozesse der Invasionsbiologie geben können, was ein Vorantreiben der Forschung und Folgenabschätzungen auf diesem Gebiet ermöglicht.
Diese Dissertation geht der Frage nach, wie die Literacy-Förderung der Kinder im Kindergartenalter in türkischstämmigen Familien in Deutschland stattfindet. Es wird der Frage nachgegangen, wie sich sozioökonomische und soziokulturelle Verhältnisse der Familien die Literacy-Förderung beeinflussen. Es wurden zwei qualitative Untersuchungen durchgeführt. Im ersten Teil der Arbeit wurden zwölf Mütter anhand halbstrukturierter Interviews befragt. Die Daten wurden anhand der qualitativen Inhaltsanalyse ausgewertet. Im zweiten Teil wurde als nichtteilnehmende, offene Beobachtung der Vorlesesituation durchgeführt. Anhand der Sequenzanalyse wurde die Vorgehensweise der Mütter während des Vorleseprozesses ausgewertet.
Es wurde untersucht, inwieweit der ökonomische Status und das kulturelle Kapital der Eltern für die Literacy-Förderung prägend sind. In den untersuchten Familien sind sowohl die literacy-bezogenen Aktivitäten als auch die Erziehung insgesamt stark an den Normen der Mehrheitsgesellschaft orientiert. Entscheidend sind nicht auf Ethnizität bezogene Zuschreibungen, sondern die sozioökonomische Stellung und das kulturelle Kapital der Eltern bei der Literacy-Förderung in den türkischstämmigen Familien.
Die Untersuchung zeigt im ersten Teil, dass die untersuchten Familien bei der Literacy-Förderung mit zahlreichen Hindernissen konfrontiert sind, die nicht primär ethnisch begründet sind, sondern vielmehr auf sozioökonomische und soziokulturelle Faktoren zurückgeführt werden müssen. Die berufliche Situation und Arbeitsbedingungen der Eltern erschweren die Durchführung der literacy-bezogenen Aktivitäten. Der ökonomische Status und der Bildungsstand sowie das kulturelle Kapital der Eltern ist der Grund für Hindernisse. Das macht sich bemerkbar in drei Gesichtspunkten: (i) Bei der direkten Anregung des Kindes zu Literacy, wenn das Kind zum Schreiben initiiert wird, sein Interesse für Bücher geweckt oder bei alltäglichen Aktivitäten zum Schriftentdecken herangeführt wird. Die Mütter, die über kulturelles Kapital verfügen, führen diese Aktivitäten regelmäßig und effizient durch. (ii) Bei der Gestaltung der Literacy-Umgebung, wenn diese vielfältig gestaltet wird (z.B. die Auswahl elektronischer Medien). Hierbei macht sich der sozioökonomische Status am deutlichsten bemerkbar. (iii) Auch bei der die Vorbildfunktion der Eltern als indirekte Anregung macht sich kulturelles Kapital bemerkbar. Im zweiten Teil der empirischen Untersuchung zur Vorlesesituation sind zwei Handlungsmuster festgestellt worden, die dem Vorleseverhalten der Mütter zugrundeliegen. Dabei ist das kulturelle Kapital entscheidend. Die Mütter mit niedrigem Kulturkapital führen den Vorleseprozess monologisch und einseitig, sodass die Kinder nicht oder nicht hinreichend einbezogen werden. Die Mütter mit höherem Kulturkapital dagegen gestalten den Vorleseprozess dialogisch, sodass das Kind eingebunden wird. Der wichtigste Unterschied zwischen den beiden Handlungsmustern ist die Vermittlung der Erzählung. Im dialogischen Handlungsmuster wird der Vorleseprozess interaktiv gestaltet und die Haupthandlung der Geschichte im Blick behalten. Im monologischen Handlungsmuster aber hoffen die Vorlesenden, dass die Kinder durch bloßes Zuhören die Geschichte begreifen. Hier dominiert die Fokussierung auf die Einzelhandlungen. Während die Mütter höherem Kulturkapital die Vermittlung der Erzählung als ein zu erreichendes Ziel begreifen, tritt dies bei denen mit geringem Kulturkapital in den Hintergrund.
Recently, two of the most common types of bone cancers in children and young adults have been proven to exhibit vulnerability to poly(ADP)-ribose polymerase, (PARP) inhibitors (e.g. olaparib, talazoparib). Ewing’s sarcoma (ES) are reported to harbor a fusion gene EWS-FLI1 (85%), inducing tumorigenesis. Additional, as the fusion gene acts as aberrant transcription factor, it similarly induces elevated PARP expression levels sensitizing ES to PARP inhibition. Second, by an exome sequencing approach in a set of primary osteosarcomas (OS) we identified mutation signatures being reminiscent of BRCA deficiency. Therefore, the sensitivity of a panel of OS cell lines to either talazoparib single treatment or in combination with several chemotherapeutic drugs was investigated.
To screen ES tumor cell lines against PARP inhibitors we applied four different PARP inhibitors (talazoparib, olaparib, niraparib and veliparib) that are frequently being used for clinical studies. We combined those PARP inhibitors with a set of chemotherapeutics (temozolomide (TMZ), SN-38, etoposide, ifosfamide, doxorubicin, vincristine and actinomycin D) that are part of the first-line therapy of ES patients. Here, we demonstrate how PARP inhibitors synergize with TMZ or SN-38 to induce apoptosis, whereas the combination of PARP inhibitors with the other drugs are not favorable. By investigation of key checkpoints in the molecular mechanisms of cell death, the pivotal role of the mitochondrial pathway of apoptosis mediating the synergy between olaparib and TMZ was revealed.
Employing talazoparib monotherapy in combination with or without several chemotherapeutic drugs (TMZ, SN-38, cisplatin, doxorubicin, methotrexate and etoposide/carboplatin), the correlation between homologous recombination (HR) repair deficiency (BRCAness) and the response to talazoparib as prototypical PARP inhibitor was validated in different OS cell lines. By calculation of combination indices (CI) and fraction affected (Fa) values, we identified TMZ as the most potent chemotherapeutic drug in combination with talazoparib inducing the mitochondrial apoptotic pathway in OS.
In our studies of two independent tumor entities with contrary genetic background we identified the combination of PARP inhibitor and TMZ as being most effective. Our studies point out that after TMZ induced DNA methylation and concomitant PARP trapping, DNA damage-imposed checkpoint kinase activation consequently induces G2-cell cycle arrest. Subsequent, PARP inhibitor/TMZ causes MCL-1 degradation, followed by activation of BAK and BAX, succeeding in loss of mitochondrial outer membrane potential (LMMP) and activation of downstream effector-caspases in mitochondrial apoptosis. Our findings emphasize the importance of PARP inhibition in order to chemosensitize ES, which express high PARP levels, or OS that bear features of BRCAness.
Already today modern driver assistance systems contribute more and more to make individual mobility in road traffic safer and more comfortable. For this purpose, modern vehicles are equipped with a multitude of sensors and actuators which perceive, interpret and react to the environment of the vehicle. In order to reach the next set of goals along this path, for example to be able to assist the driver in increasingly complex situations or to reach a higher degree of autonomy of driver assistance systems, a detailed understanding of the vehicle environment and especially of other moving traffic participants is necessary.
It is known that motion information plays a key role for human object recognition [Spelke, 1990]. However, full 3D motion information is mostly not taken into account for Stereo Vision-based object segmentation in literature. In this thesis, novel approaches for motion-based object segmentation of stereo image sequences are proposed from which a generic environmental model is derived that contributes to a more precise analysis and understanding of the respective traffic scene. The aim of the environmental model is to yield a minimal scene description in terms of a few moving objects and stationary background such as houses, crash barriers or parking vehicles. A minimal scene description aggregates as much information as possible and it is characterized by its stability, precision and efficiency.
Instead of dense stereo and optical flow information, the proposed object segmentation builds on the so-called Stixel World, an efficient superpixel-like representation of space-time stereo data. As it turns out this step substantially increases stability of the segmentation and it reduces the computational time by several orders of magnitude, thus enabling real-time automotive use in the first place. Besides the efficient, real-time capable optimization, the object segmentation has to be able to cope with significant noise which is due to the measurement principle of the used stereo camera system. For that reason, in order to obtain an optimal solution under the given extreme conditions, the segmentation task is formulated as a Bayesian optimization problem which allows to incorporate regularizing prior knowledge and redundancies into the object segmentation.
Object segmentation as it is discussed here means unsupervised segmentation since typically the number of objects in the scene and their individual object parameters are not known in advance. This information has to be estimated from the input data as well.
For inference, two approaches with their individual pros and cons are proposed, evaluated and compared. The first approach is based on dynamic programming. The key advantage of this approach is the possibility to take into account non-local priors such as shape or object size information which is impossible or which is prohibitively expensive with more local, conventional graph optimization approaches such as graphcut or belief propagation.
In the first instance, the Dynamic Programming approach is limited to one-dimensional data structures, in this case to the first Stixel row. A possible extension to capture multiple Stixel rows is discussed at the end of this thesis.
Further novel contributions include a special outlier concept to handle gross stereo errors associated with so-called stereo tear-off edges. Additionally, object-object interactions are taken into account by explicitly modeling object occlusions. These extensions prove to be dramatic improvements in practice.
This first approach is compared with a second approach that is based on an alternating optimization of the Stixel segmentation and of the relevant object parameters in an expectation maximization (EM) sense. The labeling step is performed by means of the _−expansion graphcut algorithm, the parameter estimation step is done via one-dimensional sampling and multidimensional gradient descent. By using the Stixel World and due to an efficient implementation, one step of the optimization only takes about one millisecond on a standard single CPU core. To the knowledge of the author, at the time of development there was no faster global optimization in a demonstrator car.
For both approaches, various testing scenarios have been carefully selected and allow to examine the proposed methods thoroughly under different real-world conditions with limited groundtruth at hand. As an additional innovative application, the first approach was successfully implemented in a demonstrator car that drove the so-called Bertha Benz Memorial Route from Mannheim to Pforzheim autonomously in real traffic.
At the end of this thesis, the limits of the proposed systems are discussed and a prospect on possible future work is given.
Die mitochondriale Innenmembran (IM) besteht aus zwei Subkompartimenten. Der
Cristae Membran (CM) und der inneren Grenzmembran (IBM), welche durch die runden und
schlitzartige Strukturen der Christa Junctions (CJs) verbunden werden Der MICOS-Komplex
ist an den CJs lokalisiert und besteht aus mindestens 6 Komponenten, Mic60, Mic27, Mic26,
Mic19, Mic12 und Mic10. Es ist bekannt, dass der MICOS-Komplex essentiell für die Stabilität der CJs ist. Die in dieser Arbeit gezeigten Ergebnisse, geben Aufschluss darüber, wie sich
einzelne MICOS-Komponenten auf die Stabilität von Cristae und CJs im Modellsystem Hefe (S
cerevisiae) auswirken. Zu Beginn dieser Arbeit war zum einen bekannt, dass die MICOSKomponente
Mic60 essentiell für die Bildung von CJs ist. Zum Anderen wurden im Vorfeld
dieser Arbeit Interaktionen von Mic60 mit Proteinen in der mitochondrialen Außenmembran,
vor allem Proteinkomplexe mit ȕ-barrel-Proteinen identifiziert. Diese Interaktionen werden
über den evolutionär, konservierten C-Terminus von Mic60 vermittelt.
ȕ-barrel Proteine besitzen eine charakteristische Peptidsequenz, die ȕ-Sequenz. Diese
dient nach dem Import der ȕ-barrel Proteine in die Mitochondrien als Signalpeptid für den
SAM-/TOB-Komplex, welcher daraufhin die Proteine in die Außenmembran insertiert. In
dieser Arbeit wurde ebenfalls eine ȕ-Sequenz im C-Terminus von Mic60 identifiziert, diese
zeigte einen Einfluss auf die Cristae-Stabilität. Zellen die eine Mic60-Variante mit einer
Deletion oder Punktmutation der ȕ- Domäne exprimieren, zeigten eine reduzierte Anzahl an
CJs. Auch das Verkürzen des C-Terminus von Mic60 hatte diesen Effekt auf die mitochondriale
Ultrastruktur. So konnte gezeigt werden, dass die ȕ-Domäne und die Integrität des C-Terminus
essentiell für die Stabilität von CJs sind.
Der Fokus dieser Arbeit lag in der Charakterisierung der MICOS-Komponenten Mic26
und Mic27. Es konnte bewiesen werden, dass beide Proteine genetisch mit der MICOSKernkomponente
Mic60 interagieren. Die Untersuchung der mitochondrialen Ultrastruktur von
Δmicβ6- und Δmicβ7-Zellen zeigte, dass eine Deletion vom Mic26 keinen Einfluss auf die
Organisation der mitochondrialen Innenmembran hat. Im Gegensatz dazu, ist im Vergleich zum
Wildtyp die Anzahl an CJs in Δmicβ7-Zellen um zwei Drittel reduziert. Auch die
Innenmembranoberfläche ist in diesen Zellen stark vergrößert. Die Untersuchung der
Morphologie der mitochondrialen Innenmembran in Zellen ohne Mic27 durch KryoElektronentomographie
isolierter Mitochondrien, veranschaulichte die Struktur der CJs in
diesen Zellen genauer. Es zeigten sich hier breitere CJs, und der Übergang von der
Cristaemembran in den Bereich der inneren Grenzmembran ist sehr flach und undefiniert. In
Wildtyp-Mitochondrien waren die CJs schmal und schlitzartig und haben einen scharfkantigen
Übergang von der Cristaemembran zur inneren Grenzmembran. Des Weiteren wies die
Cristaemembran in Δmicβ7-Zellen unregelmäßige zackige Strukturelemente auf, was auf eine
Anhäufung an Dimeren der F1FO-ATP Synthase hinweist.
Diese Beobachtungen in den Kryo-Tomogrammen, wurde durch Analysen des sich deutlich weniger höhere Oligomere und vermehrt Dimere. So kann aus diesen Befunden
geschlossen werden, dass Mic27 die Oligomere der F1FO-ATP Synthase stabilisiert.
Um zu untersuchen, wie der MICOS-Komplex mit der F1FO-ATP Synthase in
Verbindung steht, wurde mittels 2D-BNE-Analysen und einem Complexome Profiling die
Komplexierung der nativen Komplexe in Wildtyp- und Δmicβ7-Mitochondrien analysiert. Zum
einen konnte durch diese Untersuchungen gezeigt werden, dass Mic27 neben der F1FO-ATP
Synthase auch stabilisierend auf den MICOS-Komplex wirkt. Die Komplexe im
hochmolekularen Bereich der MICOS-Komponenten zerfielen in Δmicβ7-Zellen, was darauf
hinweist, dass die anderen MICOS-Komponenten hier nicht mehr assemblieren können. Mic10
war die einzige MICOS-Komponente die in Δmicβ7-Zellen noch stabile Komplexe im hohen
Massenbereich ausbildete. Mic10 findet sich zudem nicht nur in Klustern mit anderen MICOSKomponenten
sondern auch mit der F1FO-ATP Synthase.
Die Interaktion von Mic10 und der F1FO-ATP Synthase wurde auch biochemisch,
mittels chemischer Quervernetzern und Ko-Immunpräzipitationsexperimenten bestätigt. Dies
legt nahe, dass Mic10 die CJs mit hoher Wahrscheinlichkeit, durch die Verbindung mit der
F1FO-ATP Synthase, mit der Cristaemembran verbindet und so stabilisiert.
Aufgrund der Erkenntnisse dieser Arbeit konnte ein neuartiges Modell postuliert
werden. Die MICOS-Komponente Mic60 stabilisiert die CJs durch eine Interaktion seines CTerminus
mit Proteinen in der Außenmembran. Mic27 vermittelt über Mic10 die Interaktion
zur F1FO-ATP Synthase. Somit ist diese neu identifizierte Interaktion des MICOS-Komplex zur
F1FO-ATP Synthase essentiell für die Stabilität von CJs ist, indem es den MICOS-Komplex mit
den Oligomeren der F1FO-ATP Synthase verbindet.
Oligomerisierungszustands der F1FO-ATP Synthase in Δmicβ7-Zellen, bestätigt. Hier fanden
sich deutlich weniger höhere Oligomere und vermehrt Dimere. So kann aus diesen Befunden
geschlossen werden, dass Mic27 die Oligomere der F1FO-ATP Synthase stabilisiert.
Um zu untersuchen, wie der MICOS-Komplex mit der F1FO-ATP Synthase in
Verbindung steht, wurde mittels 2D-BNE-Analysen und einem Complexome Profiling die
Komplexierung der nativen Komplexe in Wildtyp- und Δmicβ7-Mitochondrien analysiert. Zum
einen konnte durch diese Untersuchungen gezeigt werden, dass Mic27 neben der F1FO-ATP
Synthase auch stabilisierend auf den MICOS-Komplex wirkt. Die Komplexe im
hochmolekularen Bereich der MICOS-Komponenten zerfielen in Δmicβ7-Zellen, was darauf
hinweist, dass die anderen MICOS-Komponenten hier nicht mehr assemblieren können. Mic10
war die einzige MICOS-Komponente die in Δmicβ7-Zellen noch stabile Komplexe im hohen
Massenbereich ausbildete. Mic10 findet sich zudem nicht nur in Klustern mit anderen MICOSKomponenten
sondern auch mit der F1FO-ATP Synthase.
Die Interaktion von Mic10 und der F1FO-ATP Synthase wurde auch biochemisch,
mittels chemischer Quervernetzern und Ko-Immunpräzipitationsexperimenten bestätigt. Dies
legt nahe, dass Mic10 die CJs mit hoher Wahrscheinlichkeit, durch die Verbindung mit der
F1FO-ATP Synthase, mit der Cristaemembran verbindet und so stabilisiert.
Aufgrund der Erkenntnisse dieser Arbeit konnte ein neuartiges Modell postuliert
werden. Die MICOS-Komponente Mic60 stabilisiert die CJs durch eine Interaktion seines CTerminus
mit Proteinen in der Außenmembran. Mic27 vermittelt über Mic10 die Interaktion
zur F1FO-ATP Synthase. Somit ist diese neu identifizierte Interaktion des MICOS-Komplex zur
F1FO-ATP Synthase essentiell für die Stabilität von CJs ist, indem es den MICOS-Komplex mit
den Oligomeren der F1FO-ATP Synthase verbindet.
Die mitochondriale Innenmembran (IM) besteht aus zwei Subkompartimenten. Der Cristae Membran (CM) und der inneren Grenzmembran (IBM), welche durch die runden und schlitzartige Strukturen der Christa Junctions (CJs) verbunden werden Der MICOS-Komplex ist an den CJs lokalisiert und besteht aus mindestens 6 Komponenten, Mic60, Mic27, Mic26, Mic19, Mic12 und Mic10. Es ist bekannt, dass der MICOS-Komplex essentiell für die Stabilität der CJs ist. Die in dieser Arbeit gezeigten Ergebnisse, geben Aufschluss darüber, wie sich einzelne MICOS-Komponenten auf die Stabilität von Cristae und CJs im Modellsystem Hefe (S cerevisiae) auswirken. Zu Beginn dieser Arbeit war zum einen bekannt, dass die MICOS-Komponente Mic60 essentiell für die Bildung von CJs ist. Zum Anderen wurden im Vorfeld dieser Arbeit Interaktionen von Mic60 mit Proteinen in der mitochondrialen Außenmembran, vor allem Proteinkomplexe mit β-barrel-Proteinen identifiziert. Diese Interaktionen werden über den evolutionär, konservierten C-Terminus von Mic60 vermittelt.
β-barrel Proteine besitzen eine charakteristische Peptidsequenz, die β-Sequenz. Diese dient nach dem Import der β-barrel Proteine in die Mitochondrien als Signalpeptid für den SAM-/TOB-Komplex, welcher daraufhin die Proteine in die Außenmembran insertiert. In dieser Arbeit wurde ebenfalls eine β-Sequenz im C-Terminus von Mic60 identifiziert, diese zeigte einen Einfluss auf die Cristae-Stabilität. Zellen die eine Mic60-Variante mit einer Deletion oder Punktmutation der β- Domäne exprimieren, zeigten eine reduzierte Anzahl an CJs. Auch das Verkürzen des C-Terminus von Mic60 hatte diesen Effekt auf die mitochondriale Ultrastruktur. So konnte gezeigt werden, dass die β-Domäne und die Integrität des C-Terminus essentiell für die Stabilität von CJs sind.
Der Fokus dieser Arbeit lag in der Charakterisierung der MICOS-Komponenten Mic26 und Mic27. Es konnte bewiesen werden, dass beide Proteine genetisch mit der MICOS-Kernkomponente Mic60 interagieren. Die Untersuchung der mitochondrialen Ultrastruktur von Δmic26- und Δmic27-Zellen zeigte, dass eine Deletion vom Mic26 keinen Einfluss auf die Organisation der mitochondrialen Innenmembran hat. Im Gegensatz dazu, ist im Vergleich zum Wildtyp die Anzahl an CJs in Δmic27-Zellen um zwei Drittel reduziert. Auch die Innenmembranoberfläche ist in diesen Zellen stark vergrößert. Die Untersuchung der Morphologie der mitochondrialen Innenmembran in Zellen ohne Mic27 durch Kryo-Elektronentomographie isolierter Mitochondrien, veranschaulichte die Struktur der CJs in diesen Zellen genauer. Es zeigten sich hier breitere CJs, und der Übergang von der Cristaemembran in den Bereich der inneren Grenzmembran ist sehr flach und undefiniert. In Wildtyp-Mitochondrien waren die CJs schmal und schlitzartig und haben einen scharfkantigen Übergang von der Cristaemembran zur inneren Grenzmembran. Des Weiteren wies die Cristaemembran in Δmic27-Zellen unregelmäßige zackige Strukturelemente auf, was auf eine Anhäufung an Dimeren der F1FO-ATP Synthase hinweist.
Diese Beobachtungen in den Kryo-Tomogrammen, wurde durch Analysen des Oligomerisierungszustands der F1FO-ATP Synthase in Δmic27-Zellen, bestätigt. Hier fanden sich deutlich weniger höhere Oligomere und vermehrt Dimere. So kann aus diesen Befunden geschlossen werden, dass Mic27 die Oligomere der F1FO-ATP Synthase stabilisiert.
Um zu untersuchen, wie der MICOS-Komplex mit der F1FO-ATP Synthase in Verbindung steht, wurde mittels 2D-BNE-Analysen und einem Complexome Profiling die Komplexierung der nativen Komplexe in Wildtyp- und Δmic27-Mitochondrien analysiert. Zum einen konnte durch diese Untersuchungen gezeigt werden, dass Mic27 neben der F1FO-ATP Synthase auch stabilisierend auf den MICOS-Komplex wirkt. Die Komplexe im hochmolekularen Bereich der MICOS-Komponenten zerfielen in Δmic27-Zellen, was darauf hinweist, dass die anderen MICOS-Komponenten hier nicht mehr assemblieren können. Mic10 war die einzige MICOS-Komponente die in Δmic27-Zellen noch stabile Komplexe im hohen Massenbereich ausbildete. Mic10 findet sich zudem nicht nur in Klustern mit anderen MICOS-Komponenten sondern auch mit der F1FO-ATP Synthase.
Die Interaktion von Mic10 und der F1FO-ATP Synthase wurde auch biochemisch, mittels chemischer Quervernetzern und Ko-Immunpräzipitationsexperimenten bestätigt. Dies legt nahe, dass Mic10 die CJs mit hoher Wahrscheinlichkeit, durch die Verbindung mit der F1FO-ATP Synthase, mit der Cristaemembran verbindet und so stabilisiert.
Aufgrund der Erkenntnisse dieser Arbeit konnte ein neuartiges Modell postuliert werden. Die MICOS-Komponente Mic60 stabilisiert die CJs durch eine Interaktion seines C-Terminus mit Proteinen in der Außenmembran. Mic27 vermittelt über Mic10 die Interaktion zur F1FO-ATP Synthase. Somit ist diese neu identifizierte Interaktion des MICOS-Komplex zur F1FO-ATP Synthase essentiell für die Stabilität von CJs ist, indem es den MICOS-Komplex mit den Oligomeren der F1FO-ATP Synthase verbindet.
Um die Funktionsweise von biologischen Prozessen zu untersuchen, werden Trigger-Signale benötigt, die die Prozesse initiieren können, ohne dabei dem Organismus zu schaden oder Nebenreaktionen hervorzurufen. Ein geeignetes Trigger-Signal stellt Licht dar, da es bei geeigneter Wellenlänge nichtinvasiv ist und nur wenige biologische Prozesse durch Licht gesteuert werden. Um einen Prozess mit Licht aktivierbar zu machen, benötigt man eine lichtsensitive Einheit, beispielsweise eine photolabile Schutzgruppe, die durch die Bestrahlung mit Licht einen zuvor blockierten Bereich freisetzt.
Hauptziel dieser Arbeit war es die Zweiphotonen-Technik für die Photolyse von photolabil geschützten Oligonukleotiden nutzbar zu machen und das Photolyseergebnis zu visualisieren.
Dazu wurden zunächst verschiedene mit Zweiphotonen-sensitiven Schutzgruppen modifizierte Phosphoramidite synthetisiert und über Festphasensynthese in Oligonukleotide eingebaut. Die Oligonukleotide mit den erstmals neu eingebauten Schutzgruppen ANBP und hNDBF wurden zunächst auf ihre Einphotonen-Eigenschaften, wie Schmelzpunkt, Absorptionsverhalten und Quantenausbeute untersucht. Weiterhin wurden erste Versuche zur wellenlängenselektiven Photolyse von hNDBF- und ANBP-geschützten Oligonukleotiden durchgeführt.
Die Existenz eines Zweiphotonen-induzierten Effekts kann durch die quadratische Abhängigkeit des erzeugten Effekts von der eingestrahlten Leistung nachgewiesen werden. Dazu wurde ein Verdrängungs-Assay entwickelt, dessen Doppelstrang-Sonde aus einem FRET-Paar besteht. Der Fluorophor-markierte Strang dient dabei als Gegenstrang zum photolabil geschützten Strang. Durch einen Thiol-Linker am photolabil geschützten Oligonukleotid konnte dieses erfolgreich in Maleimid-Hydrogele immobilisiert werden und der Verdrängungs-Assay im Gel durchgeführt werden. Die immobilisierten Stränge enthielten DEACM bzw. ANBP Schutzgruppen. Neben der quadratischen Abhängigkeit der Photolyse von der eingestrahlten Leistung konnten in diesen Hydrogelen auch 3D-aufgelöste Photolysen realisiert werden, die eindeutig die Zwei-Photonen-Photolyse belegen. Diese 3D-Experimente wurden zusammen mit Dr. Stephan Junek am MPI für Hirnforschung durchgeführt. Durch die Wahl zweier unterschiedlicher Sequenzen für die dTDEACM und dGANBP modifizierten Stränge und zwei unterschiedlicher Fluorophore für die Doppelstrang-Sonden, konnte die orthogonale Zweiphotonen-Photolyse gezeigt werden. Um zu zeigen, dass die Zweiphotonen-Photolyse von Oligonukleotiden auch in Organismen realisiert werden kann ohne das biologische System zu schädigen, wurde versucht den Verdrängungs-Assay auch in Zellen durchzuführen. Durch die Verwendung der Patch-Clamp-Technik in Zusammenarbeit mit Dr. Stephan Junek am MPI für Hirnforschung konnten die Stränge über die Elektrolyt-Lösung in Hippocampus-Neuronen eingebracht werden und durch Zweiphotonen-Bestrahlung dort photolysiert werden, was zu einem deutlichen Fluoreszenzanstieg führte. Durch die angeschlossene Patch-Clamp-Pipette konnten so zusätzlich elektrophysiologische Messungen durchgeführt werden, die zeigten, dass die durchgeführte Zweiphotonen-Bestrahlung nicht invasiv für die Zellen ist.
Die durchgeführten Experimente beweisen, dass Zweiphotonen-sensitive Schutzgruppen auf Oligonukleotiden photolysiert werden können und dass ihr Einsatz auch in biologischen Systemen möglich ist. Der entwickelte Verdrängungs-Assay ermöglicht es weiterhin neue photolabile Schutzgruppen auf Oligonukleotiden auf ihre Zweiphotonen-Sensitivität zu untersuchen.
Ein weiteres Projekt beschäftigte sich mit der Synthese der neuen Schutzgruppe DMA-NDBF-OH, die in-silico von der Arbeitsgruppe von Prof. Andreas Dreuw aus Heidelberg als effiziente Zweiphotonen-sensitive Schutzgruppe beschrieben wird. Es wurde versucht DMA-NDBF-OH über zwei Syntheserouten herzustellen. Eine Route basierte auf der Einführung der Funktionalitäten an einem unmodifizierten Dibenzofuran, die leider an der Bromierung der Seitenkette scheiterte. Die zweite Syntheseroute wurde in Anlehnung an die NDBF-Synthese von Deiters et al., bei der das Dibenzofuran durch eine Kondensation zweier modifizierter Benzolringe und einem Pd-katalysierten Ringschluss aufgebaut wird, durchgeführt. Mit dieser Syntheseroute konnte das DMA-NDBF-OH erfolgreich synthetisiert werden. Aufgrund ihrer starken bathochromen Verschiebung sollte sich diese Schutzgruppe hervorragend für die wellenlängenselektive Photolyse auf Ein- und Zweiphotonenebene eignen.
Fettsäuresynthasen vom Typ I (FAS I), hier bezeichnet als Fettsäuremegasynthasen,sind Multienzymkomplexe, in denen sämtliche funktionellen Domänen für die de-novo-Synthese von Fettsäuren einen strukturellen Verbund eingehen. Auch das für den Transport von Edukten und Intermediaten nötige Acyl Carrier Protein (ACP) ist kovalent gebundener Teil dieses Komplexes, der so zu einer hocheffizienten molekularen Maschine zur Massenproduktion dieser grundlegend essentiellen Zellbausteine wird. Die FAS I aus Pilzen (fFAS), als Gegenstand dieser Arbeit, mit einer Masse von bis zu 2,7 MDa ist heute in ihrer Struktur durch Röntgenkristallographische sowie elektronenmikroskopische Methoden gut charakterisiert. 48 funktionelle Domänen sind zu einem geschlossenen Reaktionskörper angeordnet, indem sie in einer strukturgebenden Matrix aus Expansionen und Insertionen bzgl. der enzymatischen Kerndomänen eingebettet sind, die 50% des gesamten Proteins ausmacht. Neben den zahlreichen strukturellen Informationen über fFAS ist jedoch noch wenig über ihre Assemblierung verstanden. Dabei ist sie nicht nur als ein Beispiel für das generelle Verständnis von Assemblierungsmechanismen von Multienzymkomplexen interessant, sondern wird hier auch als Ziel eines inhibitorischen Eingriffs betrachtet, um eine neue antimykotische Wirkstrategie abseits des Ausschaltens aktiver Zentren zu evaluieren. Nur wenn die Mechanismen und Wechselwirkungen im Assemblierungsprozess offen gelegt sind, lassen sie sich später gezielt attackieren. Essentielle Sekundärstrukturmotive müssen identifiziert und bewertet werden, um sie einer weiteren Evaluation als Drug-Target-Kandidaten zugänglich zu machen. In dieser Arbeit werden Resultate aus in-vivo-Experimenten an rational mutierten fFAS-Konstrukten unter Zuhilfenahme einer evolutionären Betrachtung der fFAS gemeinsam mit Erkenntnissen aus andernorts geleisteten in-vitro-Experimenten an fFAS-Fragmenten zu einem geordneten Assemblierungsweg der fFAS zusammengeführt. Dabei werden Evidenzen aus den Kausaltäten zentraler Anforderungen an einen Assemblierungsmechanismus der fFAS zu drei konsequenten Schlüsselschritten verdichtet, die (i) eine frühe Interaktion zweier komplementärer Polypeptidketten zu einer Pseudo-Einzelkette, (ii) eine posttranslationale Modifikation von ACP und (iii) die geordnete Reifung zum fertigen Komplex durch Selbstassemblierung der beteiligten Domänen umfassen. Durch rationale Mutationen an den Schnittstellenmotiven für die Pseudo-Einzelkettenbildung, werden diese als Schwachstelle der Assemblierung unterschiedlicher fFAS-Typen charakterisiert, wobei für S. cerevisiae nicht weniger als zwei gezielte Punktmutationen ausreichen, um die Assemblierung des gesamten Komplexes zu verhindern. Darüber hinaus zeigen Experimente mit fFAS-Konstrukten, deren Schnittstellenmotive einer intramolekular kompetitiven Wechselwirkung ausgesetzt sind, prinzipiell die Möglichkeit zur Inhibierung der fFAS-Assemblierung durch Störung der Pseudo-Einzelkettenbildung.
In den vergangen Jahren wurde erkannt, dass eine Quantenfeldtheorie (QFT) namens Quantenchromodynamik (QCD) die richtige Theorie der starken Wechselwirkungen ist. QCD beschreibt erfolgreich die starken Wechselwirkungen, die Quarks zu Nukleonen und Nukleonen zu Atomkernen zusammenbinden. Jedoch ist die theoretische Beschreibung vieler Phänomene der starken Wechselwirkung aufgrund des starken Kopplungsverhaltens bei niedrigen Energien schwierig. Stoßexperimente mit Schwerionen sind ein möglicher Weg, um die charakteristischen Phänomene und Eigenschaften der QCD-Materie zu untersuchen. In Stoßexperimenten mit Schwerionen werden schwere (d.h. große) Atomkerne aufeinander geschossen, beispielsweise Gold (am RHIC) oder Blei (am CERN, LHC), mit einer ultrarelativistischen Energie √s im Schwerpunktsystem. Auf diese Art ist es möglich, eine große Menge von Materie mit hoher Energiedichte hervorzubringen. Das Ziel von Schwerionenkollisionen ist die Erzeugung und Charakterisierung einer makroskopischen Phase von freien Quarks und Gluonen im lokalen thermischen Gleichgewicht. Ein solcher Aggregatzustand kann neue Informationen über das QCD-Phasendiagramm und den QCD-Phasenübergang liefern. Man nimmt an, dass ein solcher Übergang stattfand, als sich die Materie des frühen Universums von einem Plasma aus Quarks und Gluonen (QGP) in ein Gas von Hadronen umwandelte...
The constantly increasing memory density and performance of recent Field Programmable Gate Arrays (FPGA) has boosted a usage in many technical applications such as particle accelerators, automotive industry as well as defense and space. Some of these fields of interest are characterized by the presence of ionizing radiation as caused by natural decay or artificial excitation processes. Unfortunately, this type of radiation affects various digital circuits, including transistors forming Static Random Access Memory (SRAM) storage cells that constitute the technology node for high performance FPGAs. Various digital misbehavior in temporal or permanent manner as well as physical destruction of transistors are the consequence. Therefore, the mitigation of such effects becomes an essential design rule when using SRAM FPGAs in ionizing radiation environments. Tolerance against soft errors can be handled across various layers of modern FPGA design, starting with the most basic silicon manufacturing process, towards configuration, firmware, and system design, until finally ending up with application and software engineering. But only a highly optimized, joint concept of system-wide fault tolerance provides sufficient resilience against ionizing radiation effects without losing too much valuable device resources to the safety approach. This concept is introduced, analyzed, improved and validated in the present work. It includes, but is not limited to, static configuration scrubbing, various firmware redundancy approaches, dynamic memory conservation as well as state machine protection. Guidelines are given to improve manual design practices concerning fault tolerance and tools are shown to reduce necessary efforts. Finally, the SysCore development platform has been maintained to support the recommended design methods and act as Device Under Test (DUT) for all particle irradiation experiments that prove the efficiency of the proposed concept of system-wide fault tolerance for SRAM FPGAs in ionizing radiation environments.
In etwa 40% der Fälle erleiden Patienten bei einem Polytrauma eine Verletzung des Thorax. Diese Patienten haben im Verlau ein erhöhtes Pneumonierisiko, eine längere Beatmungs-, Intensiv- und Krankenhausverweildauer sowie ein erhöhtes Letalitätsrisiko. Um eine optimierte Versorgung dieser Patienten zu erreichen wurde seit 2003 im Universitätsklinikum Frankfurt ein standardisiertes Behandlungsverfahren durchgeführt und über die Jahre weiterentwickelt. Grundlage dieses Konzepts ist die Behandlung des Patienten mittels kinetischer Therapie im Rotorest®Bett sowie den drei Kern-Maßnahmen: Beatmung mit einem PEEP von 15mbar, frühzeitige assistierte Spontanatmung und frühzeitige enterale Ernährung. Ziel der Arbeit war die Weiterentwicklung des Behandlungsstandards wissenschaftlich unter besonderem Fokus auf die Entwicklung einer Pneumonie aufzuarbeiten. Das Konzept sah 2003 eine Beatmung, mit einem an die Oxygenierung adaptierten PEEP vor. Die Dauer der Therapie im Rotorest®Bett wurde nach Klinik entschieden. 2006 wurde standardmäßig die Therapie im Rotorest®Bett für mindestens 72h mit einem PEEP von 15mbar durchgeführt. Eine assistierte Beatmungsform sollte zeitnah etabliert werden. Im Jahr 2009, wurde das Behandlungsschema verkürzt, die Therapiedauer mit einem PEEP von 15mbar wurde auf 40 bis 48 Stunden reduziert sowie der PEEP danach initial um 4mbar reduziert. Im Anschluss erfolgte alle 8 Stunden eine weitere Reduktion des PEEP um 2mbar. Weiterhin wurde in diesem Zeitraum auf eine Antiinfektivaprophylaxe verzichtet. 108 Patienten (61,7%; ISS 37±13 Punkte) konnten in diese retrospektive Studie eingeschlossen werden. 38,3% der Patienten mussten ausgeschlossen werden, einerseits auf Grund fehlender Krankenakten oder anderseits auf Grund des Beginns der Therapie im RotoRest®Bett erst nach >48h. Durch die Anpassung des Therapiestandards über die Jahre reduzierte sich die Beatmungszeit von 17±15 Tage auf 8±8 Tage (p<0,001), die Verweildauer auf ITS von 17±9 auf 10±9 Tage (p<0,001), während die Krankenhausverweildauer unverändert blieb. Dies war begleitet von einer Reduktion der Therapiedauer im Rotorest®Bett von im Median 5 auf 3 Tage (p=0,017) sowie einer Reduktion des Anteils an Patienten mit mandatorischer Beatmung in den ersten drei Behandlungstagen von 87% (95% CI 78-96%) im Jahr 2003 auf 38,6% (95% CI 29-49%) im Jahr 2009. Die Rate an Pneumonien konnte von 25% in 2003 über 37% in 2006 auf 17% in 2009 gesenkt werden, der Unterschied war jedoch nicht signifikant. Das Risiko zu versterben war bei Entwicklung einer Pneumonie signifikant erhöht (24% vs. 4,5%, p=0,006). In der univariaten Analyse waren relevante Faktoren für die Entwicklung einer Pneumonie ein höheres Alter der Patienten (48 Jahre vs. 36 Jahre; p = 0,018), die zunehmende Höhe des Beatmungsspitzendruckes (p<0,01) sowie der Hämoglobinwert bei Aufnahme (Rs -0,28; p=0,004). Umgekehrt war eine Transfusion von Blutprodukten am ersten Behandlungstag mit einem erhöhten Pneumonierisiko verbunden (p<0,05), dies galt auch für die Verabreichung der einzelnen Komponenten, EKs (p=0,027), FFP (p=0,037) sowie von TKs (p=0,046). Keine signifikante Korrelation zur Entwicklung einer Pneumonie hatte die Verletzungsschwere (ISS) sowie die Höhe des PEEP oder der Grad der Oxygenierungsstörung (paO2/FiO2) in den ersten fünf Behandlungstagen. In der multivariaten Analyse, mit der Entwicklung einer Pneumonie als abhängigen Faktor, adjustiert auf ISS und Alter der Patienten zeigte sich als unabhängige Risikofaktoren die Gabe von EKs (OR 3,646 95%CI 1,074-12,383), die Ernährung mit >5000kcal in den ersten fünf Behandlungstagen (OR 3,219 95%CI 1,033-10,034) sowie die Höhe des Beatmungsspitzendruckes (OR 1,135 95%CI 1,010-1,275).
In Zusammenschau war ein primärer Erfolg des Konzeptes, dass kein Patient im Verlauf ein moderates oder schweres ARDS entwickelt hat. Es konnte durch die Anpassung des Behandlungsstandards sowohl die Beatmungszeit als auch die Verweildauer auf der ITS signifikant reduziert werden. Auch die Pneumonierate konnte nach einem Anstieg im Jahr 2006 bis 2009 deutlich reduziert werden. Als Risikofaktoren für die Entwicklung einer Pneumonie zeigten sich aus der Literatur bekannte Parameter wie das Alter der Patienten und die Invasivität der Beatmung sowie die Transfusion von Blutprodukten. In der multivariaten Analyse bestätigte sich dies für die Gabe von EKs, die Invasivität der Beatmung sowie der Ernährung mit kumulativ > 5000 kcal in den ersten fünf Tagen.
Patienten, die mit dem in dieser Arbeit beschrieben Protokoll behandelt wurden, zeigten aber kein signifikant erhöhtes Pneumonierisiko in Abhängigkeit zur Verletzungsschwere als Polytrauma (ISS) oder zum Grad der Oxygenierungsstörung in den ersten Tagen.
In this thesis we explore the characteristics of strongly interacting matter, described by Quantum Chromodynamics (QCD). In particular, we investigate the properties of QCD at extreme densities, a region yet to be explored by first principle methods. We base the study on lattice gauge theory with Wilson fermions in the strong coupling, heavy quark regime. We expand the lattice action around this limit, and carry out analytic integrals over the gauge links to obtain an effective, dimensionally reduced, theory of Polyakov loop interactions.
The 3D effective theory suffers only from a mild sign problem, and we briefly outline how it can be simulated using either Monte Carlo techniques with reweighting, or the Complex Langevin flow. We then continue to the main topic of the thesis, namely the analytic treatment of the effective theory. We introduce the linked cluster expansion, a method ideal for studying thermodynamic expansions. The complex nature of the effective theory action requires the development of a generalisation of the linked cluster expansion. We find a mapping between generalised linked cluster expansion and our effective theory, and use this to compute the thermodynamic quantities.
Lastly, various resummation techniques are explored, and a chain resummation is implemented on the level of the effective theory itself. The resummed effective theory describes not only nearest neighbour, next to nearest neighbour, and so on, interactions, but couplings at all distances, making it well suited for describing macroscopic effects. We compute the equation of state for cold and dense heavy QCD, and find a correspondence with that of non-relativistic free fermions, indicating a shift of the dynamics in the continuum.
We conclude this thesis by presenting two possible extensions to new physics using the techniques outlined within. First is the application of the effective theory in the large-$N_c$ limit, of particular interest to the study of conformal field theory. Second is the computation of analytic Yang Lee zeros, which can be applied in the search for real phase transitions.
Die Dissertation greift das innerhalb der Verkehrs- und Mobilitätsforschung populär diskutierte Thema rund um einen Übergang von der automobilen hin zur multimodalen Gesellschaft auf. Mit Blick auf den individuellen Mobilitätsalltag geht es in dieser Diskussion um eine mögliche Abwendung von der tendenziell exklusiven Autonutzung für alle Wege hin zur flexiblen Nutzung unterschiedlicher Verkehrsmittel. Dabei wird der übergeordneten Frage nachgegangen, inwiefern sich ein potentieller Übergang in individuellen Voraussetzungen für multimodales Verhalten widerspiegelt. Ausgang ist die Annahme, dass multimodales Verhalten stets von einer materiellen und mentalen Multioptionalität bei den Verkehrsteilnehmenden abhängt, d.h. einerseits dem ‚materiellen‘ Zugang zu mehreren Mobilitätsressourcen (Führerschein, Auto, ÖV-Zeitkarte, Fahrrad usw.) und andererseits eine ‚mentale‘ Offenheit gegenüber der Nutzung mehrerer Verkehrsmittel. Zur Überprüfung dieser These wurde im Frühjahr 2013 in Kooperation mit der sozialwissenschaftlichen und ökologischen Begleitforschung der Allianz Elektromobilität Rhein-Main eine Personenbefragung in der Großstadt Offenbach a.M. (rd. 115.000 EW) durchgeführt, bei der insgesamt 620 Personen zu ihrem Mobilitätsverhalten sowie ihren materiellen und mentalen Mobilitätsoptionen befragt wurden. Die Auswertungen ermöglichen die Aufstellung einer Reihe von neuen Thesen, mit denen der potentielle Übergang hin zur multimodalen Gesellschaft kritischer eingeordnet werden muss.
The ability of endothelial cells to properly adapt to changes in a dynamic blood perfused environment is essential to maintain the physiological function of the vascular system and of the organs. Epigenetic control of gene expression is believed to be the mechanism controlling cell-fate determination and cell-phenotype maintenance. In the thesis, two JmjC demethylases were screened for their function in endothelial biology. Both of them were proved to play a central role in angiogenesis.
The histone 3 lysine 4 demethylase JARID1B was identified as the most highly expressed demethylase in endothelial cell. Knockdown of JARID1B in human umbilical vein endothelial cells (HUVEC) attenuated cell migration, angiogenic sprouting and tube formation. Jarid1b null mice exhibited attenuated retinal angiogenesis and reduced endothelial sprout outgrowth from aortic segments. Microarray data identified that the antiangiogenic transcription factor HOXA5 was suppressed by JARID1B. Consistently, chromatin immunoprecipitation experiment revealed that JARID1B occupies and reduces the histone 3 lysine 4 methylation levels at the HOXA5 promoter, demonstrating a direct function of JARID1B in endothelial HOXA5 gene regulation. Hence, as a highly expressed JmjC protein in endothelial cells, JARID1B fundamentally maintains endothelial angiogenic phenotypes perhaps through suppression of HOXA5.
As second enzyme it was identified that the histone plant homeodomain finger protein 8 (PHF8) plays a role in endothelial angiogenic sprouting as well as tube formation and cell migration. Overexpression of PHF8 catalyzed the removal of methyl-groups from histone 3 lysine 9 (H3K9) and H4K20, whereas knockdown of the enzyme increased H3K9 methylation. Knockdown of PHF8 by RNAi also attenuated endothelial proliferation and survival. To characterize the underlying mechanism, E2F transcription factors were screened, which led to the identification of the gene repressor E2F4 to be controlled by PHF8. Importantly, PHF8 maintains E2F4, but not E2F1, expression in endothelial cells. Likewise, chromatin immunoprecipitation revealed that PHF8 reduces the H3K9me2 level at the E2F4 transcriptional start site, demonstrating a direct function of PHF8 in endothelial E2F4 gene regulation. Thus, it is proposed that PHF8 maintains endothelial function by controlling E2F4 expression. On the other hand, microarray and subsequent qPCR validation revealed that the expressions of small nuclear RNAs (snRNAs) were regulated by PHF8. Co-immunoprecipitation experiment demonstrated that PHF8 interacts with spliceosome related proteins SNRP70 and SRPK1 as well as snRNA. Indeed, PHF8 contributed to splicing: GLS and VEGF-A displayed alternative splicing in PHF8 depleted cells. In addition, c-FOS introns were showed to be retained after knockdown of PHF8 in endothelial cells. These results demonstrated that, by controlling angiogenic mRNA splicing, PHF8 could affect endothelial properties.
Collectively, the results uncover the important roles of JARID1B and PHF8 in endothelial cells in the control of angiogenesis. Changing histone modifiers appears as an attractive concept for pro- and antiangiogenic therapy. The present work adds JARID1B and PHF8 as novel potential targets to this emerging field.
The high selectivity of biological transformations taking place in Nature have long inspired synthetic chemists to develop analogous chemical processes. Similarly, transient intermediates identified in chemical transformations often provide a basis to understand biological processes. Therefore, new insights gained in biological studies are often useful for chemistry and vice versa.
Proteins, and catalytically active enzymes, are among the most essential units of living cells. Metalloproteins or -enzymes, i.e., proteins or enzymes that contain transition metal ions such as copper, nickel, iron or zinc are often involved in processes like (1) metal-ion storage and transport, (2) exchange of electrons with the environment in catalysis and electron transfer reactions, and (3) dioxygen storage, transport, and metabolization.
For decades, copper-mediated biological oxidations have spurred a great deal of interest among synthetic and catalytic chemists. Copper enzymes such as dopamine β-monooxygenase (DβM), peptidylglycine α-hydroxylating monooxygenase (PHM),particulate methane monooxygenase (pMMO) and tyrosinase activate molecular oxygen (O2) and incorporate one of the oxygen atoms selectively into C−H bonds yielding hydroxylated organic substrates. Remarkable progress in bioinorganic research has led to the development of a large number of copper-based model systems supported by various nitrogen donor ligands that bind O2, cleave the O−O bond, and/or afford hydroxylation reactions similar to copper enzymes. These synthetic model systems have helped to understand the structureactivity relationships of their biological role models and supporting theoretical studies have contributed substantially to the development of the field. Specifically, several density functional theory (DFT) studies have provided detailed mechanistic insights into coppermediated aliphatic and aromatic hydroxylation reactions. Until to date, however, pertinent quantum chemical research still suffers from severe problems as to identify sufficiently accurate and efficient methods for mechanistic studies, and conflicting literature reports have created confusions within the scientific community. Therefore, the first aim of this thesis is to identify a DFT method well suited to describe copper-mediated hydroxylation reactions. With this method at hand a number of interesting hydroxylation reactions is investigated aiming at a detailed understanding of the underlying reaction mechanisms.
The thesis is divided into four chapters of which the first, the introductory chapter, is further divided into three sections (1) copper proteins and enzymes, (2) copper-O2 reactivity in enzymes and (3) biomimetic Cu/O2 chemistry. The first section gives a brief overview of a number of copper enzymes. The second section provides a concise introduction to the biochemical transformations brought about by those copper enzymes that perform aliphatic and aromatic hydroxylation reactions. It is shown that such copper enzymes carry different types of active sites which are responsible for their specific biological functions. These copper enzymes with their biological function are the role models for synthetic chemistry. In the third section, biomimetic Cu/O2 chemistry, the insights gathered in the past 35 years of extensive research on copper-based synthetic model systems that mimic various aspects of copper-enzyme reactivity are reviewed. Various types of active copper sites have been realized in these synthetic model systems and a brief introduction to the respective reactivities towards C−H bonds is presented. We will specifically focus on isomerization processes of dinuclear active Cu2O2 sites and the specific reactivity aspects of these isomers, as these phenomena have been the subject of enormous research efforts aiming at the understanding of the function of the enzyme tyrosinase.
Theory has been integral part of this research and density functional theory (DFT) has effectively taken over the role as a working horse in most studies. Therefore, the second chapter is devoted to an exposition of earlier DFT applications in mechanistic studies of Cu/O2 chemistry. We specifically highlight the problems related to the use of DFT in this field and illustrate the present state of knowledge.
The third chapter of this thesis provides results and discussion of (1) DFT benchmark studies and (2) mechanistic studies. In the first section, the results of a careful benchmark study on the performance of various DFT methods to study the μ-η2:η2-peroxodicopper(II)/bis(μ-oxo)dicopper(III) core isomerization and the C–H hydroxylation processes are compared with available experimental reference data. We provide an assessment of the effects of relativity, counteranions, and dispersion on the reference reactions. The most suitable DFT method evolving from this study, BLYP-D/def2-TZVP including solvent and relativistic corrections, is applied in the next sections to investigate the mechanistic scenario underlying three copper-dioxygen mediated hydroxylation reactions of aliphatic and aromatic C–H bonds. Our mechanistic studies show that bis(μ-oxo)dicopper(III) complexes are capable of achieving selective aliphatic and aromatic C–H hydroxylations. The study of substituent effects in these reactions has further shown that the bis(μ-oxo)dicopper complex acts as an electrophile in hydroxylation.
The fourth chapter presents the conclusions of our investigations. Part of the work presented in this thesis has been published in a peer reviewed journal and enclosed in appendix 1. Further research work, not presented in chapters 1-4, was conducted during my PhD time. This has led to two publications which are added in the appendix.
The term superconductivity describes the phenomenon of vanishing electrical resistivity in a certain material, then called a superconductor, below a critical typically very low temperature. Since the discovery of superconductivity in mercury in 1911 many other superconductors have been found and the critical temperature below which superconductivity occurs could recently be raised to the temperatures encountered in a cold antarctic winter.
Superconductors are promising materials for applications. They can serve as nearly loss-free cables for energy transmission, in coils for the generation of high magnetic fields or in various electronic devices, such as detectors for magnetic fields. Despite their obvious advantages, the cost for using superconductors, however, depends a lot on the cooling effort needed to realize the superconducting state. Therefore, the search for a superconductor with critical temperature above room-temperature, which would avoid the need for any specialized cooling system, is one of the main projects of contemporary research in condensed matter physics.
While a theory of superconductivity in simple metals has already been developed in the 1950s, it has meanwhile been recognized that many superconductors are unconventional in the sense that their behavior does not follow the aforementioned theory. Unconventional superconductors differ from conventional superconductors mainly by the momentum- and real-space symmetry of the order parameter, which is associated with the superconducting state. While conventional superconductors have a uniform order parameter, unconventional superconductors can have an order parameter that bears structure. Of course, alternative theoretical descriptions have been suggested, but the discussion on the right theory for unconventional superconductivity has not yet been settled. Ultimately, this lack of a general theory of superconductivity prevents a targeted search for the room-temperature superconductor. Any new theoretical approach must, however, prove its value by correctly predicting the structure of the superconducting order parameter and further material properties.
In this work we participate in the search for a theory of unconventional superconductivity. We discuss the theory of superconductivity mediated by electron-electron interactions, which has been popular in the last few decades due to its success in explaining various properties of the copper-based superconductors that emerged in the 1980s. We give a detailed derivation of the so-called random phase approximation for the Hubbard model in terms of a diagrammatic many-body theory and apply it in conjunction with low-energy kinetic Hamiltonians, which we construct from first principles calculations in the framework of density functional theory. Density functional theory is an established technique for calculating the electronic and magnetic properties of materials solely based on their crystal structure. Its practical implementations in computer codes, however, do for example not describe complicated many-electron phenomena like the superconducting state that we are interested in here. Nevertheless, it can provide important information about the properties of the normal state of the material, which superconductivity emerges from. In our theory we use these information and approach the superconducting state from the normal state.
Such an interfacing of different calculational techniques requires a lot of implementation work in the form of computer code. Inclusion of the computer code into this work would consume by far too much space, but since some of the decisions on approximations in the calculational formalism are guided by the feasibility of the associated computer calculations, we discuss the numerical implementation in great detail.
We apply the developed methods to quasi-two-dimensional organic charge transfer salts and iron-based superconductors. Finally, we discuss implications of our findings for the interpretation of various experiments.
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
Der Sufi-Meister und Dichter Ken’ân Rifâî gilt als eine der bedeutendsten und einflussreichsten Persönlichkeiten der osmanisch-türkischen Sufi-Tradition im 20. Jahrhundert. Sein Leben zwischen den Jahren 1867-1950, welches die vier Phasen, die Monarchie, die erste und zweite Verfassungsperiode (1876 und 1908), die Republik (1923) und auch die Anfangsphase der Demokratie (1950) umfasst, und seine Lehre reflektieren die Entwicklung, die Umwälzung und den letzten Zustand, die das sufische Leben im letzten Zeitabschnitt des Osmanischen Reiches und nach der Ṭarīqa-Phase in der Periode der Republik erlebt und erreicht hat. Ken’ân Rifâî fungierte zwischen den Jahren 1908-1925 als Tekke-Scheich, und zwar bis 1925, wo alle vorhandenen Tekkes in der Türkei gesetzlich verboten und dementsprechend geschlossen wurden...
The brain is a highly dynamic and variable system: when the same stimulus is presented to the same animal on the same day multiple times, the neural responses show high trial-to-trial variability. In addition, even in the absence of sensory stimulation neural recordings spontaneously show seemingly random activity patterns. Evoked and spontaneous neural variability is not restricted to activity but is also found in structure: most synapses do not survive for longer than two weeks and even those that do show high fluctuations in their efficacy.
Both forms of variability are further affected by stochastic components of neural processing such as frequent transmission failure. At present it is unclear how these observations relate to each other and how they arise in cortical circuits.
Here, we will investigate how the self-organizational processes of neural circuits affect the high variability in two different directions: First, we will show that recurrent dynamics of self-organizing neural networks can account for key features of neural variability. This is achieved in the absence of any intrinsic noise sources by the neural network models learning a predictive model of their environment with sampling-like dynamics. Second, we will show that the same self-organizational processes can compensate for intrinsic noise sources. For this, an analytical model and more biologically plausible models are established to explain the alignment of parallel synapses in the presence of synaptic failure.
Both modeling studies predict properties of neural variability, of which two are subsequently tested on a synapse database from a dense electron microscopy reconstruction from mouse somatosensory cortex and on multi-unit recordings from the visual cortex of macaque monkeys during a passive viewing task. While both analyses yield interesting results, the predicted properties were not confirmed, guiding the next iteration of experiments and modeling studies.
FUSE Binding Protein 1 (FUBP1) is a transcriptional regulator, which is overexpressed in various cancer entities, including hepatocellular carcinoma (HCC) and colorectal cancer (CRC). It fulfills pro-proliferative and anti-apoptotic functions in cancer cells, resulting in increased proliferation and reduced sensitivity towards apoptotic stimuli.
Previously, camptothecin (CPT) and its clinically used analog 7-ethyl 10hydroxycamptothecin (SN-38) were shown to inhibit FUBP1 in biophysical interaction displacement assays (AlphaScreen; surface plasmon resonance, SPR), and first insights into the cellular effects of FUBP1 inhibition were obtained. CPT and SN-38 are known to potently inhibit topoisomerase 1 (TOP 1), and until today, these inhibitors were thought to be specific for this target. This could be disproved by our FUBP1 binding studies. An open issue, which is addressed in this thesis, was the contribution of FUBP1 inhibition to SN-38-mediated apoptosis apoptosis.
During this thesis, a low micromolar efficacy of CPT/SN-38-induced inhibition of FUBP1 binding to the Far Upstream Sequence Element (FUSE) oligonucleotide of p21 was determined. Furthermore, FUBP1 was for the first time shown to directly interact with a potential FUSE sequence upstream of the transcription start in pro-apoptotic gene BIK. In proof of-principle experiments, an effective inhibition of the binding of FUBP1 to the FUSE BIK DNA by CPT/SN-38 was verified.
One of the main goals of this thesis was to further elucidate the contribution of cellular FUBP1-inhibition by CPT/SN-38 to the anti-cancer potential of these substances. For this purpose, the TOP 1 mutant and TOP 1 wild type colorectal cancer sub-cell lines HCT116 G7 and HCT116 S were used. CPT/SN-38 was shown to induce apoptosis in single and combinatorial treatments with mitomycin c (MMC), independently of the TOP 1 mutation status of the cells. Furthermore, a prominent induction of a FUBP1 target gene signature was observed upon treatment of both cell lines with CPT/SN-38. Consequently, CPT/SN-38 was able to fulfill its anticancer effects in these cells, although TOP 1 could not be the main target in the mutant cell line.
In a second approach to gain indirect evidence for FUBP1 dependent effects of CPT/SN-38, the TOP 1-specific inhibitors topotecan (TTN) and β lapachone (BL) were used for the treatment of HCC and CRC cell lines. Interestingly, the TOP 1 inhibitors TTN and BL exhibited a reduced potency in apoptosis induction compared to the dual (FUBP1 and TOP 1) inhibitor SN-38.
Finally, two independent screens for a specific FUBP1 inhibitor were performed. In the first approach, a small number of structural and functional CPT-derivatives that exhibited a reduced inhibitory potential against TOP 1, were tested for their ability to interfere with the FUBP1/FUSE binding. Two particular indenoisoquinoline derivatives revealed potent in vitro inhibition of FUBP1 with low micromolar IC50 values.
In a second approach, previously identified candidate FUBP1 inhibitors that had been isolated from the Maybridge Hit Finder library served as lead structures for a structure activity relationship (SAR) study of the inhibition of FUBP1 binding to the FUSE oligonucleotide. After two cycles of optimization, a medium-potent FUBP1 inhibitor was obtained that induced effective deregulation of FUBP1 target genes in cell culture experiments.
Many natural minerals exist in the form of a solid solution. The systematic changes in structural and physical properties of oxide solid solutions are of geological importance and allow for wide applications. In order to understand the composition-structureproperty relations, substitutional solid solutions of CuxZn2−xTiO4, ZnxMg1−xTi2O5 and CuxMg1−xTi2O5 have been synthesised by mechanochemical activation assisted solid state synthesis. Self-propagating high-temperature synthesis has been employed to achieve the interstitial solid solutions of Ti5Si3Zx (Z refers to the element boron or oxygen).
The changes in the crystal structure and physical properties due to the formation of solid solutions are investigated by employing X-ray diffraction, neutron diffraction, Raman spectroscopy, low-temperature heat capacity, thermal expansion, scanning electron microscopy, UV-vis spectroscopy, plane-wave ultrasound spectroscopy and density functional theory calculations.
Das Hören hat für den Menschen eine maßgebliche Bedeutung hinsichtlich Kommunikation und Orientierung. Auch wenn sich der Mensch stark auf seinen visuellen Sinn verlässt, wird mit dem Ausfall des Hörvermögens deutlich, wie viele Informationen oft unterbewusst über die Analyse von Schallsignalen gezogen werden. Trotz dieser grundlegenden Relevanz sind bis heute noch nicht alle Komponenten, die dem Hörprozess zugrunde liegen, entschlüsselt.
Um sich diesen offenen Fragestellungen anzunähern, müssen Forscher oft auf Tiermodelle zurückgreifen. Auf Grund ihres exzellenten Gehörs haben sich hier in den letzten Jahrzehnten Fledermäuse als taugliche Versuchstiere qualifiziert. Diese Tiere sind in der Lage sich ohne Verwendung des visuellen Systems in absoluter Dunkelheit zu orientieren, indem sie mit Hilfe der wiederkehrenden Echos ihrer ausgesendeten Ultraschalllaute die Umgebungsstrukturen analysieren. Weiterhin umfasst der zur Kommunikation und Ortung verwendete Frequenzbereich bei Fledermäusen ein Vielfaches von dem des menschlichen, was ebenfalls verschiedene Aspekte der Hörforschung begünstigt. Die in dieser Studie verwendete fruchtfressende Fledermausart Carollia perspicillata eignet sich hervorragend für akustische Untersuchungen, da ihr Innenohr keine speziellen morphologischen Spezialisierungen aufweist.
Anhand der Fledermausart C. perspicillata sollen innerhalb der vorliegenden Studie verschiedene offene Fragestellungen bezüglich der Innenohrmechanik näher beleuchtet werden. Um sich diesen Fragestellungen anzunähern, wurde eine Kombination aus zwei etablierten Methoden verwendet. Zum einen die Messung von Distortions-Produkt otoakustischen Emissionen (DPOAEs), welche auf Grund ihrer Generierung durch aktive Prozesse innerhalb der Kochlea die Möglichkeit bietet, Veränderungen im Innenohr festzustellen und zum anderen kontralaterale akustische Stimulation (KAS), welche eine erprobte Methode zur Aktivierung des efferenten Systems darstellt. Dadurch, dass die äußeren Haarsinneszellen in der Kochlea direkte synaptische Kontakte mit efferenten Fasern der absteigenden Hörbahn eingehen, kann eine Aktivierung des efferenten Systems Modulationen des kochleären Verstärkers bewirken, wodurch sich wiederum die Antworteigenschaften der Kochlea verändern. Mit einer Kombination dieser beiden Methoden lassen sich demnach zum einen höhere Zentren der Hörbahn aktivieren, die über efferente Fasern einen direkten Einfluss auf das Innenohr nehmen, zum anderen die induzierten Modulationen in Form von DPOAEs mit Hilfe eines sensitiven Mikrofons aufnehmen. Die Grundvoraussetzung für die Funktionalität dieser Methodenkombination ist das Vorhandensein von efferenten Fasern innerhalb der Kochlea. Da das efferente System verschiedener Säuger eine große Diversität aufweist, wurden innerhalb dieser Arbeit zusätzlich zu den akustischen Untersuchungen histologische Schnittserien der Kochlea von C. perspicillata angefertigt. Hierbei lag das Hauptaugenmerk auf dem Verlauf der efferenten Fasern innerhalb der Kochlea. Mit Hilfe der Thiocholinmethode wurde der Ort der Umsetzung des Achetylcholinabbauenden Enzyms Achetylcholin-esterase angefärbt. Achetylcholin ist der vorranig vorkommende Transmitter an den efferenten Synapsen.
Diese Studie untersucht weiter den Einfluss der Narkose auf das Innenohr. In zahlreichen Studien, die Innenohrmechanik betreffend, wurden die Untersuchungen an narkotisierten Tieren durchgeführt. Oftmals wird zwar die Problematik der möglichen Beeinflussung des Innenohres durch das verwendete Narkosemittel diskutiert, aber meisthin als unumgänglich eingestuft. Innerhalb der vorliegenden Studie wurde ein Großteil der Experimente an narkotisierten und auch wachen Tieren durchgeführt, um die Auswirkungen der häufig verwendeten Ketamin-Xylazin-Narkose auf die Innenohr-aktivität zu verdeutlichen.
In der Literatur lässt sich eine Vielzahl von akustischen Untersuchungen finden, in denen artifizielle Stimuli wie Reintöne oder Rauschen verwendet werden. Die Problematik dahinter ergibt sich daraus, dass diese Art der Töne in der Natur selten zu finden sind. Derartige Studien werfen daher die Frage auf, ob das Innenohr beispielsweise Rauschstimuli auf die gleiche Weise verarbeitet wie natürliche, komplexere Stimuli. Innerhalb der vorliegenden Studie wurden demzufolge im Vergleich zu artifiziellen Stimuli arteigene Rufe der Fledermausspezies C. perspicillata aufgenommen und als akustische Stimuli während der Messungen verwendet.
Im Zuge dieser Fragestellung wurde in einem weiteren Teilprojekt versucht ein neues Verfahren zur Messung von OAEs zu etablieren, mit dem es möglich ist das Ohr nicht ausschließlich mit den herkömmlich verwendeten Reintönen zu stimulieren, sondern ebenfalls mit komplexen Lauten, wie arteigenen Kommunikations- und Echo-ortungsrufen. Hierfür wurde ein von Douglas Keefe vorgestelltes Paradigma zur Messung von OAE-Residualen herangezogen, welches die am Trommelfell gemessenen akustischen Signale von den Trommelfellantworten auf einzelne Komponenten dieser Signale subtrahiert.
Anhand der in dieser Studie gewonnenen Ergebnisse kann deutlich gezeigt werden, dass eine akustische Stimulation der kontralateralen Kochlea mit verschiedenen artifiziellen sowie arteigenen Stimuli zuverlässig eine Änderung des Pegels der 2f1-f2 DPOAE von bis zu 37,3 dB in der ipsilateralen Kochlea bei wachen Tieren bewirkt. Dabei unterscheidet sich die Art der Beeinflussung deutlich je nach verwendetem kontralateralem Stimulus. Die Stimulation mit artifiziellem Breitbandrauschen supprimiert den Emissionspegel über den gesamten getesteten Frequenzbereich um etwa 11,6 dB, während die verwendeten arteigenen Laute eine vergleichbare Beeinflussung des DPOAE-Pegels ausschließlich in einem Frequenzbereich zwischen 50 und 70 kHz bewirken. Im Frequenzbereich von 20 bis 30 kHz verursachen die arteigenen Laute nahezu keine Pegelabsenkung, was im deutlichen Kontrast zu den Ergebnissen unter KAS mit Breitbandrauschen steht. Unter Narkoseeinfluss konnte, unabhängig vom verwendeten Stimulus, keine Beeinflussung des DPOAE-Pegels festgestellt werden, was die Annahme bestätigt, dass die verwendete Ketamin-Xylazin-Narkose einen drastischen Einfluss auf den Hörprozess und insbesondere auf das efferente System nimmt. Die Ursache dafür, dass arteigene Stimuli anders verarbeitet werden als artifizielle Stimuli (wie z. B. Breitbandrauschen) konnte zwar nicht abschließend geklärt werden, aber die Vermutung liegt nahe, dass in diesem Verarbeitungsprozess höhere Zentren der Hörbahn involviert sind und selektiven Einfluss auf die ablaufenden Prozesse nehmen.
Die Etablierung des OAE-Residual-Messparadigmas auf der Basis der Methode von Keefe und Ling (1998) sollte die Möglichkeit bieten sowohl Reintöne als auch komplexe, arteigene Stimuli zu verwenden und so eine Erweiterung des herkömmlich verwendeten Messverfahrens darstellen. Über verschiedene Vorversuche unter Anwendung einer Zweitonreizung konnte gezeigt werden, dass die Ergebnisse des neu entwickelten Paradigmas mit denen der herkömmlichen DPOAE-Messungen hinsichtlich Reintonstimuli vergleichbar sind. Anhand der gewonnenen Ergebnisse mit einer Stimulation mit komplexen Signalen zeigen sich allerdings die Schwierigkeiten der neuen Methode. Die bisher erhobenen Daten zeigen keine klaren, reproduzierbare Ergebnisse, sollten aber die Grundbedingungen für die weiterführenden Versuche ebnen.
The humanized non-depleting anti-CD4 monoclonal antibody Tregalizumab (BT-061) is able to selectively activate the suppressive function of regulatory T cells and has been investigated up to phase 2b in clinical trials in patients suffering from rheumatoid arthritis (RA).
A pharmacokinetic-pharmacodynamic model, which is based on clinical data from RA and healthy subjects, used the cell surface CD4-down-modulation as marker of the antibodies' activity. This model surprisingly revealed a stronger effect of Tregalizumab in healthy subjects compared to RA patients. This thesis presents a series of experiments performed to understand this phenomenon.
To counteract oxidative stress, which is strongly associated with RA pathophysiology, the organism employs the small oxidoreductase thioredoxin-1 (Trx1). Therefore, augmented expression and secretion of Trx1 was seen in many studies the synovial fluid and plasma of RA patients. Moreover, the binding site of Tregalizumab is in close proximity to a disulfide bond in domain 2 (D2) of CD4, which is a known target for a reduction by Trx1. So, this thesis also evaluated the influence of Trx1 on binding of Tregalizumab to its target CD4.
With the experiments reported herein, it was possible to demonstrate that specific reduction of the D2 disulfide bond of CD4 by Trx1 led to diminished binding of Tregalizumab to recombinant human soluble CD4 (rh sCD4) and membrane-bound CD4 on T cells from a human leukemia cell line and peripheral blood mononuclear cells (PBMC). Moreover, the experiments revealed that this caused changes in the Tregalizumab-induced CD4 signalling pathway via the lymphocyte-specific protein tyrosine kinase p56Lck.
In summary, this thesis provides evidence that high Trx1 levels in RA patients compared to healthy subjects are a potential valid reason for diminished binding of Tregalizumab to CD4-positive T cells and offers an explanation for the observed decreased CD4 down-modulation in RA patients in comparison with healthy subjects. It emphasizes that binding of Tregalizumab is impaired in a particular way in RA patients.
Random constraint satisfaction problems have been on the agenda of various sciences such as discrete mathematics, computer science, statistical physics and a whole series of additional areas of application since the 1990s at least. The objective is to find a state of a system, for instance an assignment of a set of variables, satisfying a bunch of constraints. To understand the computational hardness as well as the underlying random discrete structures of these problems analytically and to develop efficient algorithms that find optimal solutions has triggered a huge amount of work on random constraint satisfaction problems up to this day. Referring to this context in this thesis we present three results for two random constraint satisfaction problems. ...
Ziel der vorliegenden Arbeit war es, vor- und nachbereitenden Unterricht zu Biodiversitätsführungen an den vier außerschulischen Lernorten Palmengarten, Senckenbergmuseum, Stadtwaldhaus und Zoo Frankfurt zu evaluieren. Durch den Unterricht mithilfe neu entwickelter Arbeitsmaterialien sollte die aktuelle Motivation der Schüler und weitere pädagogisch-psychologische Lernvariablen gefördert werden. Es stellte sich die Frage, ob so eine erhöhte Auseinandersetzung mit dem Themenkomplex Biodiversität erreicht werden kann und welche Einflussfaktoren dabei eine Rolle spielen.
Theoretische Grundlage war dabei das Risikowahlmodell der Leistungsmotivation nach Atkinson, das von Rheinberg zum handlungstheoretischen Modell der Motivation erweitert wurde (Rheinberg & Vollmeyer, 2012). Auf dieses bezieht sich der von Rheinberg et al. (2001) entwickelte und hier eingesetzte Fragebogen zur aktuellen Motivation (FAM).
Die Stichprobe setzte sich aus insgesamt 523 Schülern der Klassen 5 bis 9 zusammen. Davon nahm jeweils die Hälfte mit (Versuchsgruppe) und die andere ohne (Kontrollgruppe) vor- und nachbereitendem Unterricht an den Biodiversitätsführungen teil. Die Erhebung der aktuellen Motivation, des erworbenen Fachwissens und weiterer Variablen erfolgte in einem Pre/Post/Follow-Up-Design mit Fragebögen, deren Auswertung analytisch statistisch durgeführt wurde.
Es zeigte sich, dass in der Gesamtstichprobe die Teilnahme an der Biodiversitätsführung die aktuelle Motivation der Schüler erhöhte. Dauerhafte Lernparameter wie die Biologieeinstellung und die Interessenshandlung wurden jedoch nicht signifikant verändert. Ein eindeutiger Effekt der unterrichtlichen Vorbereitung konnte jedoch nicht ermittelt werden. Einzig beim gemessen Fachwissen zu den Führungsinhalten schnitt die Versuchsgruppe signifikant besser ab. Insgesamt wird angenommen, dass der Effekt des Besuchs des außerschulischen Lernortes an sich den Effekt der Vor- und Nachbereitung überdeckt oder vom Einfluss anderer Parameter beeinflusst wird. Hier stach besonders das Alter der Jugendlichen hervor, das vor allem in der hier evaluierten Schülergruppe bedingt durch die Pubertät eine große Rolle spielt. Weitere Einflussfaktoren waren die Biologieeinstellung und die Unterrichtsvariablen der Führung. In den Stichproben der einzelnen außerschulischen Lernorte zeigten sich leichte Abweichungen von der Gesamtstichprobe. Diese waren meist auf die leicht unterschiedliche Zusammensetzung der Stichproben zurückzuführen. Aber auch Besonderheiten der Lernorte hatten dabei ein bedeutendes Gewicht.
Bezüglich der Lernbedingungen für die Lernorte ließen sich aus den Ergebnissen vor allem zwei Komponenten ermitteln: Zum einen die Architektur/räumliche Struktur der Lernorte. Hier können Faktoren wie drinnen/ draußen, Größe und die räumliche Orientierung unterschieden werden. All dies hat Auswirkungen auf das physische Wohlbefinden der Schüler, was wiederum eine Voraussetzung für eine hohe Lernmotivation ist. Die andere Hauptkomponente ist das am Lernort behandelte Thema. Hier kann grob zwischen Pflanzen und Tieren unterschieden werden. Pflanzen wurden dabei in mehreren Studien von den Schülern als weniger attraktiv eingeschätzt. Trotzdem sollten aber die Möglichkeiten, auch botanische Themen außerhalb der Schule zu behandeln, von den Lehrkräften zur Vermittlung biologischer Vielfalt genutzt werden.
Als Konsequenz der Ergebnisse kann der Besuch eines außerschulischen Lernrotes im Biologieunterricht bezüglich der Förderung der Lernmotivation unbedingt empfohlen werden. Da kein klarer Effekt des vor- und nachbereitenden Unterrichts der Biodiversitätsführungen erkennbar war, wären hier weitere Untersuchungen vonnöten, um genauere Aussagen machen zu können. Hier böten sich Studien mit Schülern anderer Altersgruppen und der Vergleich nur zweier außerschulischer Lernorte an.
Phenology is the study of periodic life cycle events of living organisms and how these are influenced by environmental factors. Late phenological phases such as the timing of seed release and subsequent seed dispersal considerably affect ecology and evolution in plants. Since plants are mostly sessile organisms, seed dispersal is a crucial life cycle event for the ecology and evolution of plants. In fact, long-distance seed dispersal (LDD) is a very complex process in plant biology and significantly shapes the spatial and temporal dynamics of plant populations. For example, wind dispersal in plants is influenced by a variety of factors such as plant traits, habitat type and environmental conditions (e.g. wind speed). Considering the variability of wind conditions throughout the year, the timing of seed release and dispersal is known to have considerable effects on LDD. Even though late phenologies such as ripening duration and timing of seed release and subsequent dispersal are vital in estimating ecologically highly relevant LDD, these phenologies are not appropriately addressed in ecological research. The aim of this thesis is to gain insights into the factors that shape late plant phenologies. In particular, we address the following questions: which ecologically or evolutionary parameters drive the ripening process of plant species? How does the seasonal variability of wind affect the seed release phenology of plant species? How do these factors interact for plant species in different habitat types?
In order to address these questions, we applied different methodological approaches, ranging from fieldwork and monitoring phenology to computational simulation studies and statistical modeling. To study the ripening process of species, we monitored the flowering, ripening and seed release phenology of more than 100 Central European plant species. We conducted computational simulation studies for estimating LDD by wind to study the phenology of seed release and the parameters determining LDD by wind. In conjunction with phenological data from literature, we used the obtained simulation results to investigate evidence for the existence of phenological adaptations towards LDD in 165 plant species. Further, we used the results from simulation studies of LDD by wind to disentangle the effects of species, habitat types and meteorological conditions and their interactions on the spatial spread of plant species.
The results of the relationship between plant traits, phylogeny, the ripening process and climatic factors provide insights into the basic understanding of the ripening process of plants. We identified ecological factors that shape species’ ripening phenology and seed release timing. In particular, we suggest that the species’ seed weight, life form and phylogeny shapes ripening and seed release phenology. With the statistical models on species’ temperature demands for reproduction, we introduce data that that are well suitable for parametrization and further development of plant dispersal models. The results from the simulation study based on a seasonal perspective showed that heavier seeded tree species with medium wind dispersal potential (including genera Abies, Acer, Fraxinus and Larix) have a clear synchronisation of seed abscission with periods favouring LDD. These species, which are both ecologically and economically important, showed significant synchronisation of the highest rate of seed release with high wind-speed that promoted LDD by wind in wintertime. For the tree species mentioned, we suggest strong seasonal synchronisation as evidence for phenological adaptations in order to match favourable conditions during seed release. With a closer look at the wind conditions that promote LDD by wind, our results showed considerable differences in how specific wind conditions affect LDD in different species and habitat types. We suggest that LDD by wind in species from open habitats with high wind dispersal potential is likely to be driven by thermal updrafts that are mainly driven by the sun providing energy to the ground. By contrast, LDD of heavier-seeded species from open and forested habitats is more likely to be driven by storms that produce shear-driven turbulence. The results from this thesis contribute to an increased understanding of the complete dispersal process of plants and to making more realistic projections of (future) plant distribution.
The results obtained on factors driving ripening and release phenology provide valuable insights into their ecological and phylogenetic factor constraints. The implementation of more realistic assumptions in assessing species’ dispersal potential throughout the year could help considerably in improving landscape management (e.g. timing of mowing) and in the conservation of plant populations. The evidence found for phenological adaptations towards LDD in plants is an important step in understanding the evolutionary basis of LDD in these species.
Die paravertebralen Grenzstränge entwickeln sich aus Neuralleistenzellen des Rumpf- und Lendenbereichs. Diese sammeln sich im Hühnerembryo an Embryonaltag 2,5-3 an der dorsalen Aorta und formen die primären sympathischen Ganglien. Die dorsale Aorta sezerniert Morphogene, welche einen Teil der Vorläuferzellen zur Differenzierung zu Neuroblasten anregt. Die sympathischen Neuroblasten sind, obgleich sie bereits neurale und noradrenerge Marker exprimieren, zur Zellteilung fähig. Sie unterscheiden sich darin von anderen Neuralleistenderivaten wie beispielsweise den Neuronen der parasympathischen Ziliarganglien und der sensorischen Hinterwurzelganglien. Schließlich wandern die primären sympathischen Ganglien weiter und bilden lateral zum Notochord die paravertebralen Grenzstränge (Rohrer, 2011).
Der Homöodomänen-Transkriptionsfaktor PROX1 wird im Laufe der Entwicklung höherer Vertebraten in vielen Geweben exprimiert. Welche Wirkung PROX1 dabei auf Überleben, Migration, Proliferation und Differenzierung hat, hängt davon ab, in welchem Zelltyp er aktiv ist (Dyer et al., 2003; Lavado et al., 2010). Im peripheren Nervensystem konnte PROX1 embryonal in den Hinterwurzelganglien und den sympathischen Ganglien nachgewiesen werden (Becker et al., 2009; Diplomarbeit Julia Holzmann, 2010). Zielsetzung dieser Dissertation war es, die Expression und die Funktion von PROX1 in sympathischen Ganglien von Hühnerembryonen zu analysieren.
Die Expressionsanalyse von PROX1 zeigte, dass der Anteil der PROX1-positiven Neurone an Embryonaltag 5 (E5) ein Maximum erreicht und danach im Laufe der Entwicklung stetig abnimmt. Dies gilt ebenso für die Population der proliferierenden Neuroblasten, welche ebenfalls im Laufe der Hühnerentwicklung erstmals detailliert untersucht wurde. Diese Korrelation führte zu der Vermutung, dass PROX1 hauptsächlich in proliferierenden Zellen exprimiert wird, welche anschließend experimentell bestätigt werden konnte. Die Population der PROX1-positiven und die der p27-negativen Neuroblasten haben in allen untersuchten Hamburger Hamilton-Stadien (HH-St 21-37) eine vergleichbare Größe. Dennoch ist PROX1 durchgehend in einem kleinen Teil der p27-positiven Neurone enthalten. Diese Population verändert sich im Laufe der Entwicklung kaum und das Fluoreszenzsignal eines oder beider Proteine ist bei doppelpositiven Zellen deutlich schwächer. Diese und andere Daten dieser Arbeit weisen darauf hin, dass es sich um Neuroblasten handelt, welche gerade aus dem Zellzyklus austreten. In postmitotischen Neuronen geht PROX1 verloren. Obwohl PROX1 in allen untersuchten HH-Stadien stark in der Population proliferierender Neurone exprimiert wird, zeichnet sich ab E7 eine kleinere Population von Neuroblasten in S-Phase ab, welche kein PROX1 enthalten.
Die Vorläuferzellen von Ziliarganglien werden, ähnlich wie die der sympathischen Ganglien, durch BMP-Proteine zur Differenzierung angeregt (Müller und Rohrer, 2002). Aufgrund der Ähnlichkeiten in der Entwicklung beider Neuralleistenderivate wurde die Expression von PROX1 in dieser Dissertation auch in Ziliarganglien untersucht: Der Transkriptionsfaktor wird dort nur an E4 und E5 vereinzelt in Neuronen exprimiert und nahezu gar nicht in Vorläuferzellen. In späteren HH-Stadien ist PROX1 in Ziliarganglien nicht mehr nachweisbar.
Ebenfalls konnte hier gezeigt werden, dass PROX1 in primären sympathischen Ganglien an E3 (HH-St 21) in Vorläuferzellen exprimiert wird, welche bereits begonnen haben, sich zu Neuroblasten zu differenzieren. Noch bevor die Differenzierung dieser Zellen jedoch abgeschlossen ist, wird PROX1 transient herunterreguliert. Die entstehenden Neuroblasten treten in dieser Phase kurzzeitig aus dem Zellzyklus aus. Da sich die Größe der p27-negativen und der PROX1-positiven Population auch an E3 stark ähnelt, kann man schließen, dass die Zellteilung in den Neuroblasten erst bei erneuter PROX1-Expression wieder aufgenommen wird. Ab E5 ist PROX1 fast ausschließlich in Neuroblasten nachweisbar.
Eine Funktionsanalyse von PROX1 unter Kulturbedingungen und im Hühnerembryo sollte durch Knockdown und Überexpression zeigen, welchen Einfluss der Transkriptionsfaktor auf die Proliferation der Neuroblasten nimmt. Die Manipulation der PROX1-Expression hatte in vitro einen proproliferativen Effekt. In vivo unterschieden sich Knockdown und Überexpression aber nicht von der Kontrolle.
Zusammenfassend wurde in dieser Doktorarbeit die Expression von PROX1 in sympathischen Ganglien von Hühnerembryonen im Detail analysiert. Der Transkriptionsfaktor ist sowohl in Vorläuferzellen als auch in Neuroblasten nur transient vorhanden. Zwar konnte eine klare Korrelation zwischen der Expression von PROX1 und der Proliferation der sympathischen Neuroblasten festgestellt werden, allerdings konnte eine Wirkung von PROX1 auf die Proliferation durch Funktionsanalysen nur teilweise bestätigt werden. Zusammen weisen die Daten darauf hin, dass PROX1 eine Rolle in der Feinregulation der Proliferation spielt.
Das Ziel dieser Arbeit ist die Entwicklung von neuen, experimentellen Ansätzen zur Thematisierung von Siliciumverbindungen im Chemieunterricht, die einen deutlichen lebensweltlichen Bezug aufweisen und moderne Entwicklungen berücksichtigen.
Die Bandbreite der Siliciumverbindungen reicht von den Silicaten im Bereich der Anorganik über elementares Silicium bis hin zu den polymeren Siliconen im Grenzbereich zu der Organik. Diese
große Vielfalt an Verbindungen hat eine Vielzahl von Anwendungen in tagtäglichen Produkten zur Folge. Dies sind einerseits relativ bekannte anorganische Baustoffe, wie Zement oder Sand, die schon seit der Antike von der Menschheit genutzt werden. Andererseits werden kontinuierlich neue Anwendungsmöglichkeiten in Alltag und Industrie für Siliciumverbindungen entwickelt, die in der modernen Lebenswelt der SchülerInnen einen festen Platz haben.
Oft ist das Vorhandensein der Siliciumverbindung gar nicht auf den ersten Blick erkennbar, obwohl sie die Eigenschaften eines Alltagsprodukts maßgeblich beeinflussen kann. Dies ist beispielsweise bei Silica-Verbindungen in der Zahncreme der Fall.
Im Chemieunterricht werden, wenn überhaupt, die „traditionellen“ Verwendungszwecke, wie in der Baustoffchemie, thematisiert, weniger dagegen die Funktion von Siliciumverbindungen in innovativen Produkten neueren Datums. Nur zögerlich werden Ansätze zur Thematisierung von Verbindungen, wie Siliconen, im Chemieunterricht etabliert.
Im Rahmen dieser Forschungsarbeit wurden daher auf der Grundlage einer fachdidaktischen Analyse und Diskussion Experimente zu ausgewählten Siliciumverbindungen entwickelt. Dies sind die Silicone, die Silica-Verbindungen und elementares Silicium. Die Experimente lassen sich größtenteils in der Sekundarstufe II in Anlehnung an verbindlich im Lehrplan thematisierte Inhalte in den Unterricht einbinden. Einige Experimente können nach einer angemessenen didaktischen Reduktion auch bereits in der Sekundarstufe I eingesetzt werden.
Die im Rahmen dieser Arbeit entwickelten Experimente wurden von LehrerInnen und SchülerInnen gleichermaßen erprobt. Es wurden Rückmeldungen zur Versuchen und Versuchsvorschriften eingeholt. Die Ergebnisse der Auswertung wurden zur Optimierung herangezogen.
At sufficiently high temperatures and baryon densities, nuclear matter is expected to undergo a transition into the Quark-Gluon-Plasma (QGP) consisting of deconfined quarks and gluons and accompanied by chiral symmetry restoration. Signals of these two fundamental characteristics of Quantum-Chromo-Dynamics (QCD) can be studied in ultra-relativistic heavy-ion collisions producing a relatively large volume of high energy and nucleon densities as existent in the early universe. Dileptons are unique bulk-penetrating sources for this purpose since they penetrate through the surrounding medium with negligible interaction and are created throughout the entire evolution of the initially created fireball. A multitude of experiments at SIS18, SPS and RHIC have taken on the challenging task to measure these rare probes in a heavy-ion environment. NA60's results from high-quality dimuon measurements have identified the broadened ρ spectral function as favorable scenario to explain the low-mass dilepton excess, and partonic sources as dominant at intermediate dilepton masses.
Enabled by the addition of a TOF detector system in 2010, the first phase of the Beam Energy Scan (BES-I) at RHIC allows STAR to conduct an unprecedented energy-dependent study of dielectron production within a homogeneous experimental environment, and hence close the wide gap in the QCD phase diagram between SPS and top RHIC energies. This thesis concentrates on the understanding of the LMR enhancement regarding its invariant mass, transverse momentum and energy dependence. It studies dielectron production in Au+Au collisions at beam energies of 19.6, 27, 39, and 62.4 GeV with sufficient statistics. In conjunction with the published STAR results at top RHIC energy, this thesis presents results on the first comprehensive energy-dependent study of dielectron production.
This includes invariant mass- and transverse momenta-spectra for the four beam energies measured in 0-80% minimum-bias Au+Au collisions with high statistics up to 3.5 GeV/c² and 2.2 GeV/c, respectively. Their comparison with cocktail simulations of hadronic sources reveals a sizeable and steadily increasing excess yield in the LMR at all beam energies. The scenario of broadened in-medium ρ spectral functions proves to not only serve well as dominating underlying source but also to be universal in nature since it quantitatively and qualitatively explains the LMR enhancements measured over the wide range from SPS to top RHIC energies. It shows that most of the enhancement is governed by interactions of the ρ meson with thermal resonance excitations in the late(r)-stage hot and dense hadronic phase. This conclusion is supported by the energy-dependent measurement of integrated LMR excess yields and enhancement factors. The former do not exhibit a strong dependence on beam energy as expected from the approximately constant total baryon density above 20 GeV, and the latter show agreement with the CERES measurement at SPS energy. The consistency in excess yields and agreement with model calculations over the wide RHIC energy regime makes a strong case for LMR enhancements on the order of a factor 2-3.
The extent of the results presented here enables a more solid discussion of its relation to chiral symmetry restoration from a theoretical point of view. High-statistics measurements at BES-II hold the promise to confirm these conclusions along with the LMR enhancment's relation to total baryon density with decreasing beam energy.
Basierend auf den Daten der Erhebung „Gesundheit in Deutschland Aktuell“ von 2010 (GEDA2010)vom Robert Koch-Institut wird in dieser Dissertation der Frage nachgegangen, wie sich
Arbeitsbedingungen auf die Gesundheit und das Gesundheitsverhalten auswirken und eine systematische Analyse für Deutschland durchgeführt. Dabei werden sowohl Aspekte der Geschlechterforschung als auch der Erforschung sozialer Ungleichheiten mitbetrachtet. Die Ergebnisse liefern unteranderem Hinweise darauf, dass Gesundheitsverhalten als Coping-Strategie in stressreichen Arbeitssituationen, die beispielsweise durch Leistungsdruck oder Schichtarbeit gekennzeichnet sind, genutzt wird.
In light of the global sea-level rise and climate change of the 21th century, it is important to look back into the recent past in order to understand what the future might hold. A multi-proxy data set was compiled to evaluate the influence of geomorphological and environmental factors, such as antecedent topography, subsidence, sea level and climate, on reef, sand apron and lagoon development in modern carbonate platforms through the Holocene. Therefore, a combination of remote sensing and morphological data from 122 modern carbonate platforms and atolls in the Atlantic, Indian and Pacific Oceans were conducted, along with a case study from the oceanic (Darwinian) barrier-reef system of Bora Bora, French Polynesia, South Pacific.
The influence of antecedent topography and platform size as factors controlling Holocene sand apron development and extension in modern atolls and carbonate platforms is hypothesized. Antecedent topography describes the elevation and relief of the underlying Pleistocene topography (karst) and determines the distance from the sea floor to the rising postglacial sea level. Maximum lagoon depth and marginal reef thickness, when available in literature, were used as proxies for antecedent topography. Sand apron proportions of 122 atolls and carbonate platforms from the Atlantic, Indian and Pacific Oceans were quantified and correlated to maximum lagoon depth, total platform area and marginal reef thickness. This study shows that sand apron proportions increase with decreasing lagoon depths. Sand apron proportions also increase with decreasing platform area. The interaction of antecedent topography and Holocene sea-level rise is responsible for variations in accommodation space and at least determines the extension of the lateral expansion of sand aprons. In general, sand apron formation started when marginal reefs approached relative sea level. Spatial and regional variations in sea-level history let sand apron formation start earlier in the Indo-Pacific region (transgressive-regressive) than in the Western Atlantic Ocean (transgressive).
The influence of sea level, antecedent topography and subsidence of a volcanic island on late Quaternary reef development was evaluated based on six rotary core transects on the barrier and fringing reefs of Bora Bora. This study was designed to revalue the Darwinian model, the subsidence theory of reef development, which genetically connects fringing reef, barrier reef and atoll development by continuous subsidence of the volcanic basement. Postglacial sea-level rise, and to a minor degree subsidence, were identified as major factors controlling Holocene reef development in that they have created accommodation space and controlled reef architecture. Antecedent topography was also an important factor because the Holocene barrier reef is located on a Pleistocene barrier reef forming a topographic high. Pleistocene soil and basalt formed the pedestal of the fringing reef. Uranium-Thorium dating shows that barrier and fringing reefs developed contemporaneously during the Holocene.
In the barrier–reef lagoon of Bora Bora, the influence of environmental factors, such as sea level and climate, tsunamis and tropical cyclones controlling Holocene sediment dynamics was evaluated based on sedimentological, paleontological, geochronological and geochemical data. The lagoonal succession comprises mixed carbonate-siliciclastic sediments overlying peat and Pleistocene soil. The multi-proxy data set shows variations in grain-size, total organic carbon (proxy for primary productivity), Ca and Cl element intensities (proxies for carbonate availability and lagoonal salinity) during the mid-late Holocene. These patterns could result from event sedimentation during storms and correlate to event deposits found in nearby Tahaa, probably induced by elevated cyclone activity. Accordingly, elevated erosion and runoff from the volcanic island and lower lagoonal salinity would be a result of rainfall during repeated cyclone landfall. However, Ti/Ca and Fe/Ca ratios as proxies for terrigenous sediment delivery peaked out in the early Holocene and declined since the mid-Holocene. Benthic foraminifera assemblages do not indicate reef-to-lagoon transport. Alternatively, higher and sustained hydrodynamic energy is probably induced by stronger trade winds and a higher-than-present sea level during the mid-late Holocene. The increase in mid-late Holocene sediment dynamics within the back-reef lagoon is supposed to display sediment-load shedding of sand aprons due to the oversteepening of slopes at sand apron/lagoon edges during their progradation rather than an increase in tropical storm activity during that time.
The influence of sea-level and climate changes on sediment import, composition and distribution in the Bora Bora lagoon during the Holocene is validated. Lagoonal facies succession comprises siderite-rich marly wackestones, foraminifera-siderite wackestones, mollusk-foraminifera marly packstones and mollusk-rich wackestones during the early-mid Holocene, and mudstones since the mid-late Holocene. During the early Holocene, enhanced weathering and iron input from the volcanic island due to wetter climate conditions led to the formation of siderite within the lagoonal sediments. The geochemical composition of these siderites shows that precipitation was driven by microbial activity and iron reduction in the presence of dissolved bicarbonate. Chemical substitutions at grain margins illustrate changes in the oxidation state and probably reflect changes in pore water chemistry due to sea-level rise and climate change (rainfall). In the late Holocene, sediment transport into the lagoon is hampered by motus on the windward side of the lagoon, which led to early submarine lithification within the lagoon.
The lung comprises more than 40 different cell types, from epithelial cells to resident mesenchymal cells. These cells arise from the foregut endoderm and differentiate into specialized cell types that form the respiratory and conducting airways, and the trachea. However, the molecular pathways underlying these differentiation processes are poorly understood, and may be relevant to pathological conditions. According to the World Health Organization (WHO), while the respiratory disease rate is increasing, limited treatment and therapies are available. Thus, there is a growing need for new treatment strategies and alternative therapies. Various in vivo and in vitro studies in the model organism mus musculus have already provided valuable information on lung cell lineages and their differentiation and/ or dedifferentiation during development and pathological conditions. However, there remain many questions regarding the key regulators and molecular machinery driving lung cell differentiation and underlying lung progenitor/stem cell biology.
Aiming to develop new animal models for lung diseases, we used a forward genetic careening approach, which provides an unbiased method for identifying genes with important roles in lung cell differentiation, and thus probable contributors to pathological conditions. We conducted an N-ethyl-N-nitrosourea (ENU) mutagenesis screen in mice and used several histological and immunohistochemical approaches to identify and isolate mutants, focusing on mutations associated with cell differentiation rather than those affecting early development and patterning of the respiratory system. Thus, we screened for phenotypes in the respiratory system of pups from the F2 generation at postnatal day 7 and 0 (P7; P0). I specifically screened 114 families. Each F1 male animal is the founder of 5 to 6 F2 female daughters. For each family, at least 4 F2 females per male founder were analyzed. In total, I screened 630 litters at P7 and P0 with 7 pups on average for each litter. As a result of this extensive screening, 11 different phenotypes in 42 different F2s were discovered at primary screen and later just 2 phenotypes recovered in F3 generation of identified carriers. To identify the causative genes for each of these phenotypes, whole exome sequencing will be conducted in the future to identify recurring SNPs; these can subsequently be linked causatively to the resultant phenotype(s) via complementation studies. In turn, these linkages would enable the creation of mutant mice using CRISPR/Cas9 genomic engineering, which would be invaluable to the further study of respiratory development and disease.
Da HRS-Zellen im cHL nur eine Minderheit und CD4+ T-Zellen die Mehrheit im Begleitinfiltrat ausmachen, wurde innerhalb der vorliegenden Dissertation das Begleitinfiltrat und der Tumorzellgehalt von 24 HIV-assoziierten cHL-Fällen mit 15 HIV-negativen cHL-Fällen immunhistochemisch verglichen. Das reaktive Begleitinfiltrat im HIV-assoziierten cHL zeigte eine deutlich geringere Anzahl an CD4+ T-Zellen und einen höheren Gehalt an CD163+ Makrophagen als das HIV-negative cHL. Es konnte kein Unterschied in der Anzahl der CD30+ HRS-Zellen und S100+ dendritischen Zellen zwischen beiden Gruppen festgestellt werden. Mit Kokultur-Versuchen im Labor und darauf folgenden Zellausstrichen dieser Kokulturen konnte bestätigt werden, dass sich CD14+ Monozyten ebenso gut wie CD4+ T-Zellen als Rosetten um HRS-Zellen anordnen können. Im immunkomprimierten HIV-Patienten ersetzen die langlebigen CD163+ Makrophagen die CD4+ T-Zellen. Die Makrophagen werden vermutlich ebenso wie CD4+ T-Zellen mittels Zytokine/Chemokine (z. B. CCL5) zum Tumorgewebe rekrutiert, bilden Rosetten um die Tumorzellen und unterstützen diese in ihrer Proliferation.
Aufgrund der besonderen Zusammensetzung des Begleitinfiltrats sollte das HIV-assoziierte cHL von Pathologen als eigenständiger Subtyp des cHL betrachtet werden.
Des Weiteren wurde das Begleitinfiltrat der typisch knotigen NLPHL Typen A und C mit dem des diffusen NLPHL Typen E (THRLBCL-like NLPHL) und dem THRLBCL immunhistochemisch verglichen. Aufgrund histologischer und klinischer Ähnlichkeiten zwischen dem diffusen NLPHL und dem THRLBCL fällt eine Differenzierung dieser Entitäten schwer. Es konnte festgestellt werden, dass das Begleitinfiltrat im THRLBCL-like NLPHL dem Begleitinfiltrat im THRLBCL mehr ähnelt als dem typischen NLPHL und zwar in Bezug auf Makrophagengehalt und Anzahl der follikulären TFH-Zellen. Es konnten Rosetten im Begleitinfiltrat von THRLBCL nachgewiesen werden, obwohl Rosettenformationen um Tumorzellen im THRLBCL in der Literatur kein charakteristisches Merkmal darstellen. Es ist naheliegend, dass das THRLBCL-like NLPHL und das THRLBCL ein und dieselbe Krankheit ist und möglicherweise eine aggressivere Variante des NLPHL darstellt.
Im Anbetracht aller Ergebnisse kommt dem Immunstatus eines Patienten eine ausschlaggebende Rolle auf das Begleitinfiltrat im Tumorgewebe zu und dieser beeinflusst so auch den klinischen Verlauf der Lymphomerkrankung.
Nach der Revolution 1917 schlossen sich mehrere russische Avantgardekünstler den kollektiven geistigen Anstrengungen ein, um ein revolutionäres Gesamtkunstwerk der neuen Menschheit zu gestalten. Sie nutzten alle Medien der Kunst, um ihre innovativen Ideen in diesem Experimentierfeld zu verwirklichen. Die Keramik wurde von ihnen als eines der bedeutenden Experimentierfelder und eine zukunftsweisende Kunstgattung gesehen, die durch den alltäglichen Gebrauch das Bewusstsein und die Wahrnehmung der Menschen entscheidend revolutionieren sollte.
Die vorliegende Dissertation untersucht erstmals die Keramik der russischen Avantgarde als eigenständiges künstlerisches Phänomen. Alle dokumentarisch belegten Entwürfe und Keramiken der russischen Avantgardisten werden zusammengefasst sowie alle bekannten Marken der Keramik aufgeführt. Die Autorin systematisiert die Formensprache und Dekormotive der avantgardistischen Keramikwerke und hebt Hintergrunde sowie theoretische Grundlagen der jeweiligen avantgardistischen Gruppen im Bereich Keramik hervor.
Die vorliegende vergleichende Analyse der russischen und westeuropäischen Keramikkunst des ersten Drittels des 20. Jahrhunderts deckt zum ersten Mal in der kunsthistorischen Forschung ihre Gemeinsamkeiten sowie die gegenseitigen Einflüsse auf, dabei werden die Unterschiede der russischen und europäischen avantgardistischen Keramikkunst deutlich reflektiert.
Die neuronalen Mechanismen, welche den meisten kognitiven Prozessen zu Grunde liegen, bestehen aus dem Zusammenspiel verschiedener Neuronen-Typen und deren spezifischen Funktionsmechanismen, sowohl in lokalen, als auch in globalen neuronalen Netzwerken. Eine funktionelle Interaktion mit diesen Netzwerken ist unumgänglich um das „kognitive“ Gehirn zu studieren, da neuronale Gruppen in einer hierarchischen, nicht linearen Weise miteinander interagieren, und dabei charakteristische raum-zeitliche Muster aufweisen. In dieser Arbeit untersuchten wir die Struktur und Funktion eines wichtigen Merkmals kortikaler Prozesse: Die neuronale gamma-Band Oszillation.
One of the most important shifts in mathematics learning and instruction in the last decades has taken place in the conception of the subject matter, changing from a perspective of mathematics as composed of concepts and skills to be learned, to a new one emphasizing the mathematical modelling of the reality (De Corte, 2004). This shift has had, as it is to be expected, an impact on classroom processes, and changed instructional settings and practices.
Instructional explanations, the object of study in the present work, are an interesting topic in that landscape, since they continue to be a typical form of classroom discourse, especially −but no exclusively−when new contents are introduced to the students (e.g. Leinhardt, 2001; Perry, 2000; Wittwer & Renkl, 2008). Consequently, good teachers are also supposed to be good explainers, independently whether they are the main speaker, or play the role of moderator in exchange between students (e.g. Charalambous, Hill, & Ball, 2011; Danielson, 1996; Inoue, 2009).
Despite the central role that instructional explanations play in classroom practices, current instructional quality models, which describe how effective teaching practices should look like, do not consider instructional explanations as a key element (Danielson, 1996; Klieme, Lipowsky, Rakoczy, & Ratzka, 2006; Pianta & Hamre, 2009). Moreover, aside from a few notable exceptions (Duffy, Roehler, Meloth, & Vavrus, 1986; Leinhardt & Steele, 2005; Perry, 2000), instructional explanations have not been investigated empirically within other traditions either. Thus, there is scarce of empirical work about instructional explanations and their potential contribution to promote students’ learning.
The purpose of the present work is to examine instructional explanations from a theoretical perspective as well as empirically, in order to characterize them and investigate their association with students’ learning outcomes. The underlying theoretical framework chosen to organize the study is the one proposed by Leinhardt (2001) with some adaptations according to pertinent complementary literature (Drollinger-Vetter & Lipowsky, 2006; Leinhardt & Steele, 2005).
The empirical work of this dissertation was carried out in the context of the project “Analysis of mathematic lessons” (FONIDE 209) funded by the Chilean Ministry of Education during 2007. This study, in turn, was embedded in the international extension of the research project the ‘‘Quality of instruction, learning, and mathematical understanding’’ carried out between 2000 and 2006 by the German Institute for International Educational Research (DIPF) in Frankfurt, Germany, and the University of Zurich in Switzerland (e.g. Klieme & Reusser, 2003; Klieme et al., 2006). According to the design of the original project, the study considers the inclusion of different perspectives, namely, teachers, students and external observers, by means of questionnaires, tests and classroom observation protocols.
The examination of instructional explanations in this dissertation begins in chapter 2 with the review of relevant literature and introduction of the theoretical background underpinning the study of instructional explanations. This theoretical review comprises three subsections, the first one describing the evolution of the process-product-paradigm into the actual instructional quality models that are presented in a next step. The second subsection includes a detailed theoretical presentation of explanations and instructional explanations, addressing the main theoretical issues and giving examples of the few empirical works about instructional explanations found in the literature. Finally, the third subsection with the description of Chilean teaching practices in order to contextualize the study.
Chapter 3 presents the research questions and lists the associated work hypotheses that are investigated throughout this work. Chapter 4 includes the methodological aspects of the work, indicating the description of the sample, design of the study, the methods used the gather the data and the analyses chosen to answer the proposed research questions.
Chapter 5 contains the presentation of results, which are organized by research question, starting with the results from quantitative analyses and continuing with the results from qualitative analyses. This chapter closes with a general summary of the results organized according to the central themes of the study. Finally, chapter 6 concludes with a discussion of the link between the results and the instructional explanations literature and research, or lack thereof, that originally motivated the research questions addressed in this study. This chapter finishes with a discussion of the limitations of the study and the implications of its results, as well as an examination of areas where the research on instructional explanations can be fruitfully expanded in the future.
Invasive non-native species are key components of human-induced global environmen-tal change and lead to a loss of biodiversity, alterations of species interactions and changes of ecosystem services. Freshwater ecosystems in particular are strongly affect-ed by biological invasions, since they are spatially restricted environments and often already heavily impacted by anthropogenic activities. Recent human-induced species invasions are often characterized by long-distance dispersal, with many species having extended their native distribution range within a very short time frame. However, a long term view into the past shows that biological invasions are common phenomena in nature—representing the arrival of a species into a location in which it did not originally evolve—as a result of climatic changes, geotectonic activity or other natural events. Once a species arrives in a new habitat, it may experience an array of novel selection pressures resulting from abiotic and biotic environmental factors and simultaneously act as a novel selective agent on the native fauna. Consequences of species invasions are manifold. My thesis, which combines seven studies on different aspects of biological invasions, aims to explore the influence of abiotic stressors and biotic interactions during species introductions and range expansions, as well as the consequences of biological invasions on evolutionary and ecosystem processes.
The first part of my thesis examines human-induced biological invasions, dealing with basic ecological characteristics of invaded ecosystems, novel predator-prey interactions, functional consequences of species invasions and certain behavioral traits that may contribute to the invasiveness of some species. The second part of my thesis examined distribution patterns and phenotypic trait divergence in species that historically invaded new geographical areas. I investigated variation of abiotic and biotic selection factors along a stream gradient as well as ecological and evolutionary consequences of species invasions to extreme habitats. The results highlight the importance of simultaneously considering processes involved in natural invasions and during human-induced invasions to understand the success of invading species.
We often lack detailed information on the impacts of historical biological inva-sions. Also, we are currently lacking crucial knowledge about the time scales during which different mechanisms (behavioral flexibility, plastic phenotypic changes, and ge-netic adaptation) play a role during biological invasions and affect species exchange and establishment. Comparative analyses of historical, natural invasion and recent (man-made) invasions can provide insights into the relative importance of the processes governing adaptation to abiotic stressors and selection resulting from biotic interactions. Beyond their negative effects, the establishment of invasive species and the subsequent range expansion represent “natural experiments” to investigate fundamental questions in ecology and evolution. My comparison of natural and human-induced biological invasions revealed that in many cases preadaptation to altered abiotic conditions plays a key role during early stages of invasions and range expansions. Considering the evolutionary history of invasive species and the evolutionary history of the recipient native fauna might therefore help predict the consequences of biological invasions for the ecosystem under consideration and the future success of the invading species. This knowledge can also be implemented when formulating conservation strategies, including methods to mitigate and manage human-induced biological invasions.
The fungal genus Pestalotiopsis s.l. contains approximately 300 described species and is globally distributed. The monotypic genus Pestalotia is considered the closest relative of Pestalotiopsis s.l. This study aims to investigate the diversity and systematics within Pestalotiopsis s.l. and its relation to Pestalotia. Therefore, an integrative approach is used considering molecular phylogeny methods as well as examination of morphological characters.
Recently, Pestalotiopsis s.l. was split into three genera with the addition of the newly erected Neopestalotiopsis and Pseudopestalotiopsis. The species of these genera are usually saprotrophic, phytoparasitic, or endophytic, and have been isolated from soil, air, and many kinds of anorganic material. The asexual fruiting bodies appear on infected plant material as black acervuli that release conidia. The conidia are important to examine for morphological taxon recognition. The number of conidial cells is the feature that distinguishes Pestalotiopsis s.l. spp. with five celled conidia, from Pestalotia pezizoides with six celled conidia. However, the significance of morphological characters is controversially discussed among mycologists. In recent years, 55 new species were described based on minor genetic distances and marginal or no morphological differences. Thus, the value of certain morphological characters and genetic markers need to be reconsidered.
In this study, 102 herbarium specimens of 26 described species, with an emphasis on plant pathogenic species from North America, have been morphologically examined and documented through drawings and photographs. Morphological examination was complemented with a comprehensive molecular dataset obtained from 191 cultures representing the genera Neopestalotiopsis, Pestalotia, Pestalotiopsis, Pseudopestalotiopsis, and Truncatella. One novelty of this work is that, besides the well-established markers ITS, TEF1, and ß-tubulin, the protein-coding genes MCM7 and TSR1 were successfully sequenced and included in the analyses. Phylogenies using Maximum Likelihood and Bayesian inference methods of single loci and the combined dataset were calculated. By comparison of these phylogenies, MCM7 was identified as the most powerful one in terms of phylogenetic resolution and statistical support of nodes and is proposed as an additional barcoding marker in Pestalotiopsis s.l.
In Pestalotiopsis, species delimitation was tested using the Baysian Phylogenetics and Phylogeography (BP&P) program that tests an existing species scenario against Bayesian inference methods under a multispecies coalescent model. The program supported only ten species out of the predetermined 19 species scenario. Measurements of conidia for species detected by BP&P were explored using a TukeyHSD-Test in the program R to find means that are significantly different from each other. This test revealed that combinations of morphological characters are required to distinguish between the ten species found by BP&P.
Another purpose of this work was to clarify the status of Pestalotia with regard to Pestalotiopsis s.l. Therefore, fresh epitypic material of Pestalotia pezizoides, was collected, isolated, and cultivated. The molecular analysis of a combined dataset of the gene regions ITS and LSU for species of Amphisphaeriales nested P. pezizoides in the genus Seiridium. Thus, synonymy of Pestalotia with Seiridium is proposed here. This is supported by morphology of the conidia. Further, an epitype is proposed for the type species of Pestalotiopsis, P. maculans. On the other hand, the recently proposed epitype of P. adusta is rejected here as it conflicts with the taxonomic hypothesis obtained in this study and its introduction is inconsistent with the formal requirements for epitypification. A new topotypic specimen is proposed instead. Additionally, several nomenclatural changes become necessary in many species examined. These include three new combinations and six synonyms of species of Pestalotiopsis s.l.
The conclusion of this work is that morphological data have potential as a valuable, inexpensive and easy way to recognize species. However, it is not the best method for species discovery and delimitation bearing in mind that in microfungi and many other organisms, individual plasticity and analogous structures are inadequately investigated. By phylogenetic analyses of molecular sequence data, it is possible to compare a great amount of equivalent characters and to delimit species that are morphologically cryptic. This is especially important since species of Pestalotiopsis s.l. mostly lack sexual structures that are helpful for morphological species delimitation in other groups of fungi. Thus, the Genealogical Concordance Species Concept (GCSC) finds its application in many fungal taxa. Conflicts in the genealogy between phylogenetic trees of different markers are interpreted as recombination of the genetic material within a linage. Accordingly, the change from conflict to congruence in a set of different phylogenetic trees can be seen as the species limit. It can be expected that increased application of the GCSC will lead to further approximation of described species numbers to the real number of species, especially in complicated groups like asexual microfungi.
Kardiovaskuläre Erkrankungen stellen in Deutschland die häufigste Todesursache dar [1]. Eine Schlüsselrolle wird hierbei der koronaren Herzkrankheit (KHK) auf dem Boden einer Atherosklerose zuteil. Die Prävalenz der koronaren Herzkrankheit in Deutschland lag 2012 laut Zahlen des Robert Koch-Instituts bei 8,3 %; dies entspricht 6,64 Millionen Menschen. Die Spitzengruppe bilden die über 65-Jährigen mit einer Erkrankungshäufigkeit von 18,3 % bei Frauen und 27,8 % bei Männern. Oberstes Therapieziel bei der Behandlung der KHK ist die Prävention von Myokardinfarkten und Herzinsuffizienz. Wegweisend für das therapeutische Procedere sind die klinische Situation des Patienten und die Ergebnisse der kardialen Diagnostik. Sind mehrere Koronargefäße betroffen oder bestehen komplizierte Gefäßverengungen ist die Indikation zur operativen Myokardrevaskularisierung gegeben. Im Jahr 2015 unterzogen sich in Deutschland 51.941 Patienten einem solchen Eingriff [2]; weltweit erhalten jährlich fast eine Millionen Patienten eine Bypass-Operation [3]. Für den Therapieerfolg ist postoperativ eine suffiziente Thrombozytenaggregationshemmung von essentieller Bedeutung. Daher wird zur Sekundärprophylaxe eine lebenslange antiaggregatorische Medikation empfohlen; das am häufigsten hierfür genutzte Medikament ist Acetylsalicylsäure (ASS) [4]....
Ziel der vorliegenden Studie war, mittels MEA, die Prävalenz und mögliche Prädiktoren einer ASS-Nonresponse in einer Kohorte kardiochirurgischer Patienten zu analysieren.
Es wurden folgende Nullhypothesen aufgestellt:
- Die tägliche Einnahme von 100 mg ASS ist ausreichend, um bei allen Patienten eine therapeutische Thrombozytenaggregationshemmung zu erreichen.
- Es existieren keine Prädiktoren für die mittels MEA detektierte ASSNonresponse.
Melt segregation inside the earth consists of two different processes: 1) Generation of partially molten rock and 2) separation of melt, produced from partially molten rock, from the solid residual matrix. This thesis focuses on the later process. The 2 phase flow dynamics combines the study of flow dynamics of melt and matrix. Several studies have given the background theoretical frameworks for the flow dynamics of melt inside the earth. [McKenzie, 1984] summarizes the studies of [Ahern and Turcotte, 1979; Frank, 1968; Sleep, 1975] and gives a complete set of governing equations for the 2-phase flow problem.
[Bercovici et al., 2001] gives a general formulation considering the univariate system of equations related to matrix and melt flow which includes the interfacial surface force. The assumption of melt having negligible viscosity compare to the matrix has been abandoned. Therefore, based on these formulations, we have constructed our numerical model and thereafter a fortran code PERCOL2D to get an insight of melt percolation process through porous media. Additionally, we have used the Helmhotz decomposition, which splits a smooth and rapidly decaying vector field into an irrotational vector field and an incompressible vector field [Srámek, 2007], for matrix and fluid viscosity in order to lower the number of linearly independent variables to minimize the computational complications. The melt residing at inter-granular areas of lithosphere, forms an interconnected network even at low porosity. Therefore, being less dense than the matrix, melt moves up through porous media due to its buoyancy. Compaction of matrix, which occurs to compensate the melt separation, is considered in this thesis, where the effective bulk and shear viscosity of matrix are function of melt fraction. We have effective bulk viscosity of matrix as inversely proportional to melt fraction. Porosity dependence of effective bulk and shear viscosity leads to stronger melt focusing in highly porous region like mid ocean ridges [Katz, 2008] since the ratio of bulk and shear viscosity is smaller (< 10) than the constant viscosity case for the porous waves having non dimensional amplitude 5% or higher. Moreover, it is observed in [Richard et al., 2012] that the solitary wave formed in porosity dependent viscous matrix settings are steeper than the one formed in the constant matrix viscosity setting.
Firstly some 1D numerical experiments with PERCOL2D have been carried out using fixed and periodic boundary conditions for zero source term (i.e. no melting or no freezing) and negligible surface tension.
3 series of model setups with different initial conditions have been carried out varying the width, non-dimensional amplitude and the background porosity value of the initial input of porous wave.
A mathematical derivation for 1D solitary wave solution for the two phase flow through porosity dependent compacting media, is obtained in this thesis which is different than the study of [Barcilon and Lovera, 1989; Barcilon and Richter, 1986; Scott and Stevenson, 1984; Spiegelman, 1993a,b] as the effective viscosity of matrix is constant there.
Although [Simpson and Spiegelman, 2011] gives the solitary wave solutions in 1D, 2D and 3D considering the porosity dependent effective viscosity of the matrix, but using the small background porosity approximation, they neglect the background porosity (i.e φ0) and therefore the effect of variation of compaction lengths, which causes variation in the shape and dynamics of the solitary wave. Therefore, the study [This thesis, Richard et al., 2012] can be used for more general purpose. Solitary waves in varying viscous medium, are steeper (cf fig.5.1) compared to the one in constant viscous medium and their speed decreases as an inverse function of the background porosity. Additionally, this analytical solution is used in our code PERCOL2D and also in FDCON for numerical benchmarking (1D) of PERCOL2D.
The role of melt grain contiguity is considered in the revised viscosity formulation [Schmeling et al., 2012] based on elastic moduli theory of a fluid filled poro-elastic medium. This formulation is used in this thesis to produce a comparative dispersion relationship between speed of the wave and the non dimensional amplitude of porous wave, based on both the viscosity formulations (fig. 6.20) where one can see that the model based on [Bercovici et al., 2001] formulation, converges to the same dispersion relationship obtained from [Simpson and Spiegelman, 2011]. Whereas, the dispersion relationship using [Schmeling et al., 2012] formulations, shows time-dependent decrease of phase velocity with increasing amplitude and it is not yet clear that whether these solutions converge to steady state porosity waves before the porosity becomes 1.
Development of the flash-heating method for measuring melting temperatures in the diamond anvil cell
(2016)
A new ‘laser flash-heating’ method has been developed for measuring melting temperatures above 2000 K in a diamond anvil cell at gigapascals of pressure. It overcomes the general difficulties in detecting an onset of melting in a diamond anvil cell. It also circumvents the notorious experimental difficulties associated with the long heating durations of the CW laser-heating and the short timescales in the pulsed laser-heating and shock-compression experiments.
In this method, the duration of heating a sample is tuned to avoid chemical reactions of the sample with the diamond anvils and the surrounding pressure medium, while maintaining the accuracy of the temperature measurements. The absence of chemical reactions is confirmed by the EDS technique. Melt detection is now unambiguous from the analysis of textures on the surface and in depth of the recovered samples using the SEM and FIBM techniques, respectively. Using this method, the following has been achieved.
1. The melting curve of hcp-Re has been measured to 48 GPa, 4200 K for the first time. It has a significantly steeper slope than those observed for other transition metals like W and Mo with bcc structures. Above 20 GPa, Re becomes the most refractory metal surpassing W.
2. The melting curve of bcc-Mo has been measured to 45 GPa, 3100 K. It agrees with previous melt-slopes approaching zero value with pressure as reported in the LHDAC experiments using ADXRD and visual observation techniques for inferring the onset of melting. Flash-heating experiments at pressures higher than 50 GPa are required to further corroborate the flat melt-slope and resolve the long standing controversy about melting of Mo.
3. The melting curve of bcc-Ta has been measured to 85 GPa, 4300 K. Unlike in previous experiments using ADXRD and visual observation as probes, it has been tightly bracketed with an unambiguous detection of the onset of melting, without any chemical reaction. The present melting curve cannot be reconciled with shock measurements and theoretical predictions, and the precision of measurements calls for a reevaluation of theoretical, shock compression, and other DAC approaches to determine melting at high pressures. A further analysis with TEM technique for investigating the structure of the heated portion below and above melting temperatures of Ta may benefit in resolving various phase transitions predicted to explain the vast discrepancies in the reported melt-slopes.
When extrapolated to one atmosphere pressure, all the measured flashmelting curves agree with the known melting points.