Universitätspublikationen
Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178)
Is part of the Bibliography
- no (178)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
- Alzheimer (1)
- Amphisphaeriales (1)
- Angiogenesis (1)
- Arbeitsbedingungen (1)
- Asian Tiger Mosquito (1)
- Asiatische Tigermücke (1)
- Außerschulisches Lernen (1)
- Batten disease (1)
- Beatmung (1)
- Biodiversität (1)
- Biomoleküle (1)
- Blockplay (1)
- Broken symmetry (1)
- CCLM (1)
- CORDEX-EAS (1)
- Call Center (1)
- Carotinoidbiosynthese (1)
- Computerkompetenz (1)
- Conformational Dynamics (1)
- DDX6 (1)
- DFT (1)
- DPOAE (1)
- Delegation (1)
- Density Functional Theory (1)
- Deutschland (1)
- ESD (1)
- Early Childhood (1)
- Emittanz (1)
- Enzymes and Biomimetic Systems (1)
- Epigenetik (1)
- Error Mitigation (1)
- Erythropoetin (1)
- Exercise (1)
- Exercise Metabolism (1)
- Eye Tracking (1)
- FPGA (1)
- FRANZ-Projekt (1)
- Familie (1)
- Family (1)
- Fault Tolerance (1)
- Fettsäuresynthase (1)
- Forschungsbohrung Sichenhausen (1)
- Fragmentierungsquerschnitte (1)
- Freiheit (1)
- Gas Chromatography (1)
- Geoelektrik (1)
- Geometrie (1)
- Geometry (1)
- Germanistik (1)
- Geschichte 1966-2001 (1)
- Geschlechterforschung (1)
- Gespräch (1)
- Gesundheitliche Ungleichheit (1)
- Gesundheitsverhalten (1)
- Grundschule (1)
- HIV (1)
- Halocarbons (1)
- Halogenated Trace Gases (1)
- Handlung (1)
- Hausarztpraxis (1)
- Hegel (1)
- HepG2 Zellen (1)
- Hodgkin-Lymphom (1)
- Holzklötzchen (1)
- Hydroxylation (1)
- Immigration (1)
- Integral Geometry (1)
- Intelligence (1)
- Interaction (1)
- Invariant object recognition (1)
- Inversion (1)
- Ionenquelle (1)
- Ionizing Radiation (1)
- Iran (1)
- Juvenile neuronal ceroid lipofuscinosis (1)
- Karotte (1)
- Kinzigtal (1)
- Konstruktvalidität (1)
- Kurdistan (1)
- LINE-1 (1)
- LU-102 (1)
- Lernen (1)
- Lungenkontusion (1)
- Lösungsprozess (1)
- Material Flow Analysis (1)
- Mathematics Learning (1)
- Mathematik (1)
- Medizinische Fachangestellte (1)
- Mehrsprachigkeit (1)
- Mitochondria (1)
- Mitochondrium (1)
- Modellorganismus (1)
- Moesia Superior (1)
- Molarenevolution (1)
- Monsun (1)
- Multikomponentenreaktion (1)
- Mycophenolat Mofetil (1)
- NMR shift calculation (1)
- Nahrungsmittelallergie (1)
- Namibia (1)
- Nok Culture (1)
- Oligonukleotide (1)
- Optical Spectroscopy (1)
- Ostasien (1)
- P-TEFb (1)
- Palladium-Katalyse (1)
- Participation (1)
- Partizipation (1)
- Pb-Ag (1)
- Pepperpot (1)
- Pestalotia (1)
- Pestalotiopsis (1)
- Phaeodactylum tricornutum (1)
- Pharmacology (1)
- Photodynamics (1)
- Primärversorgung (1)
- Proteine (1)
- Prozedurales Wissen (1)
- Qualifikation (1)
- RCM (1)
- RNAPII (1)
- Rainwater Harvesting (1)
- Reasoning (1)
- Republik Moldau (1)
- Retrotransposition (1)
- Ribonucleic Acids (1)
- Roman (1)
- Rotorest (1)
- SORN (1)
- STARS (1)
- STDP (1)
- Saccharomyces cerevisiae (1)
- Schlitz-Gitter (1)
- Scientific Materials Analysis (1)
- Sellerie (1)
- Single Event Effects (1)
- Single-particle (1)
- Skeletal muscle fiber-type switching (1)
- Soziolinguistik (1)
- Spiel (1)
- Sportunterricht (1)
- Sprachliche Minderheiten (1)
- Staatstheorie (1)
- Stahlenschäden (1)
- Strafrecht (1)
- Strukturwandel (1)
- Support (1)
- Sustainability Evaluation (1)
- Talk (1)
- Technologiebasiertes Problemlösen (1)
- Terracotta Figurines (1)
- Time-of-Flight Mass Spectrometry (1)
- Time-resolved Fluorescence (1)
- Trace Gas Analysis (1)
- Transfer learning (1)
- Transition Metals (1)
- Turkish immigrants (1)
- Türkisch (1)
- Universa feature extraxtion (1)
- Unternehmensstrafrecht (1)
- Unterstützung (1)
- Valuation Theory (1)
- Verankerung (1)
- Verbandsstrafrecht (1)
- Vogelsberg (1)
- Water Reuse (1)
- Wirtschaftsstrafrecht (1)
- Working Memory (1)
- Zelle (1)
- Zellfusion (1)
- Zurechnung (1)
- Zweiphotonen (1)
- archaeometallurgy (1)
- categorisation-elaboration model (1)
- cell biology (1)
- cryo-EM (1)
- drug discovery (1)
- enantioselektive Synthese (1)
- episodic team process model (1)
- frühkindliche Erziehung (1)
- fungi (1)
- global and virtual teams (1)
- high-content screening (1)
- ibrutinib (1)
- ionisierende Strahlung (1)
- kinetische Therapie (1)
- lattice (1)
- magnetic exchange coupling constants (1)
- magnon condensation (1)
- magnon-phonon interactions (1)
- medieval/early modern (1)
- microRNA (1)
- molecular phylogenetics (1)
- multiple myeloma (1)
- neural networks (1)
- phase transitions (1)
- photolabile Schutzgruppe (1)
- plasticity (1)
- proteasom inhibitor (1)
- quantum chromodynamics (1)
- regionale Klimasimulation (1)
- steroid (1)
- synaptic normalization (1)
- team innovation (1)
- unterrichtliche Vor- und Nachbereitung (1)
- variability (1)
- yttrium-iron garnet (1)
- Übergewicht und Adipositas im Kindesalter (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
The lung comprises more than 40 different cell types, from epithelial cells to resident mesenchymal cells. These cells arise from the foregut endoderm and differentiate into specialized cell types that form the respiratory and conducting airways, and the trachea. However, the molecular pathways underlying these differentiation processes are poorly understood, and may be relevant to pathological conditions. According to the World Health Organization (WHO), while the respiratory disease rate is increasing, limited treatment and therapies are available. Thus, there is a growing need for new treatment strategies and alternative therapies. Various in vivo and in vitro studies in the model organism mus musculus have already provided valuable information on lung cell lineages and their differentiation and/ or dedifferentiation during development and pathological conditions. However, there remain many questions regarding the key regulators and molecular machinery driving lung cell differentiation and underlying lung progenitor/stem cell biology.
Aiming to develop new animal models for lung diseases, we used a forward genetic careening approach, which provides an unbiased method for identifying genes with important roles in lung cell differentiation, and thus probable contributors to pathological conditions. We conducted an N-ethyl-N-nitrosourea (ENU) mutagenesis screen in mice and used several histological and immunohistochemical approaches to identify and isolate mutants, focusing on mutations associated with cell differentiation rather than those affecting early development and patterning of the respiratory system. Thus, we screened for phenotypes in the respiratory system of pups from the F2 generation at postnatal day 7 and 0 (P7; P0). I specifically screened 114 families. Each F1 male animal is the founder of 5 to 6 F2 female daughters. For each family, at least 4 F2 females per male founder were analyzed. In total, I screened 630 litters at P7 and P0 with 7 pups on average for each litter. As a result of this extensive screening, 11 different phenotypes in 42 different F2s were discovered at primary screen and later just 2 phenotypes recovered in F3 generation of identified carriers. To identify the causative genes for each of these phenotypes, whole exome sequencing will be conducted in the future to identify recurring SNPs; these can subsequently be linked causatively to the resultant phenotype(s) via complementation studies. In turn, these linkages would enable the creation of mutant mice using CRISPR/Cas9 genomic engineering, which would be invaluable to the further study of respiratory development and disease.
Da HRS-Zellen im cHL nur eine Minderheit und CD4+ T-Zellen die Mehrheit im Begleitinfiltrat ausmachen, wurde innerhalb der vorliegenden Dissertation das Begleitinfiltrat und der Tumorzellgehalt von 24 HIV-assoziierten cHL-Fällen mit 15 HIV-negativen cHL-Fällen immunhistochemisch verglichen. Das reaktive Begleitinfiltrat im HIV-assoziierten cHL zeigte eine deutlich geringere Anzahl an CD4+ T-Zellen und einen höheren Gehalt an CD163+ Makrophagen als das HIV-negative cHL. Es konnte kein Unterschied in der Anzahl der CD30+ HRS-Zellen und S100+ dendritischen Zellen zwischen beiden Gruppen festgestellt werden. Mit Kokultur-Versuchen im Labor und darauf folgenden Zellausstrichen dieser Kokulturen konnte bestätigt werden, dass sich CD14+ Monozyten ebenso gut wie CD4+ T-Zellen als Rosetten um HRS-Zellen anordnen können. Im immunkomprimierten HIV-Patienten ersetzen die langlebigen CD163+ Makrophagen die CD4+ T-Zellen. Die Makrophagen werden vermutlich ebenso wie CD4+ T-Zellen mittels Zytokine/Chemokine (z. B. CCL5) zum Tumorgewebe rekrutiert, bilden Rosetten um die Tumorzellen und unterstützen diese in ihrer Proliferation.
Aufgrund der besonderen Zusammensetzung des Begleitinfiltrats sollte das HIV-assoziierte cHL von Pathologen als eigenständiger Subtyp des cHL betrachtet werden.
Des Weiteren wurde das Begleitinfiltrat der typisch knotigen NLPHL Typen A und C mit dem des diffusen NLPHL Typen E (THRLBCL-like NLPHL) und dem THRLBCL immunhistochemisch verglichen. Aufgrund histologischer und klinischer Ähnlichkeiten zwischen dem diffusen NLPHL und dem THRLBCL fällt eine Differenzierung dieser Entitäten schwer. Es konnte festgestellt werden, dass das Begleitinfiltrat im THRLBCL-like NLPHL dem Begleitinfiltrat im THRLBCL mehr ähnelt als dem typischen NLPHL und zwar in Bezug auf Makrophagengehalt und Anzahl der follikulären TFH-Zellen. Es konnten Rosetten im Begleitinfiltrat von THRLBCL nachgewiesen werden, obwohl Rosettenformationen um Tumorzellen im THRLBCL in der Literatur kein charakteristisches Merkmal darstellen. Es ist naheliegend, dass das THRLBCL-like NLPHL und das THRLBCL ein und dieselbe Krankheit ist und möglicherweise eine aggressivere Variante des NLPHL darstellt.
Im Anbetracht aller Ergebnisse kommt dem Immunstatus eines Patienten eine ausschlaggebende Rolle auf das Begleitinfiltrat im Tumorgewebe zu und dieser beeinflusst so auch den klinischen Verlauf der Lymphomerkrankung.
Nach der Revolution 1917 schlossen sich mehrere russische Avantgardekünstler den kollektiven geistigen Anstrengungen ein, um ein revolutionäres Gesamtkunstwerk der neuen Menschheit zu gestalten. Sie nutzten alle Medien der Kunst, um ihre innovativen Ideen in diesem Experimentierfeld zu verwirklichen. Die Keramik wurde von ihnen als eines der bedeutenden Experimentierfelder und eine zukunftsweisende Kunstgattung gesehen, die durch den alltäglichen Gebrauch das Bewusstsein und die Wahrnehmung der Menschen entscheidend revolutionieren sollte.
Die vorliegende Dissertation untersucht erstmals die Keramik der russischen Avantgarde als eigenständiges künstlerisches Phänomen. Alle dokumentarisch belegten Entwürfe und Keramiken der russischen Avantgardisten werden zusammengefasst sowie alle bekannten Marken der Keramik aufgeführt. Die Autorin systematisiert die Formensprache und Dekormotive der avantgardistischen Keramikwerke und hebt Hintergrunde sowie theoretische Grundlagen der jeweiligen avantgardistischen Gruppen im Bereich Keramik hervor.
Die vorliegende vergleichende Analyse der russischen und westeuropäischen Keramikkunst des ersten Drittels des 20. Jahrhunderts deckt zum ersten Mal in der kunsthistorischen Forschung ihre Gemeinsamkeiten sowie die gegenseitigen Einflüsse auf, dabei werden die Unterschiede der russischen und europäischen avantgardistischen Keramikkunst deutlich reflektiert.
Die neuronalen Mechanismen, welche den meisten kognitiven Prozessen zu Grunde liegen, bestehen aus dem Zusammenspiel verschiedener Neuronen-Typen und deren spezifischen Funktionsmechanismen, sowohl in lokalen, als auch in globalen neuronalen Netzwerken. Eine funktionelle Interaktion mit diesen Netzwerken ist unumgänglich um das „kognitive“ Gehirn zu studieren, da neuronale Gruppen in einer hierarchischen, nicht linearen Weise miteinander interagieren, und dabei charakteristische raum-zeitliche Muster aufweisen. In dieser Arbeit untersuchten wir die Struktur und Funktion eines wichtigen Merkmals kortikaler Prozesse: Die neuronale gamma-Band Oszillation.
One of the most important shifts in mathematics learning and instruction in the last decades has taken place in the conception of the subject matter, changing from a perspective of mathematics as composed of concepts and skills to be learned, to a new one emphasizing the mathematical modelling of the reality (De Corte, 2004). This shift has had, as it is to be expected, an impact on classroom processes, and changed instructional settings and practices.
Instructional explanations, the object of study in the present work, are an interesting topic in that landscape, since they continue to be a typical form of classroom discourse, especially −but no exclusively−when new contents are introduced to the students (e.g. Leinhardt, 2001; Perry, 2000; Wittwer & Renkl, 2008). Consequently, good teachers are also supposed to be good explainers, independently whether they are the main speaker, or play the role of moderator in exchange between students (e.g. Charalambous, Hill, & Ball, 2011; Danielson, 1996; Inoue, 2009).
Despite the central role that instructional explanations play in classroom practices, current instructional quality models, which describe how effective teaching practices should look like, do not consider instructional explanations as a key element (Danielson, 1996; Klieme, Lipowsky, Rakoczy, & Ratzka, 2006; Pianta & Hamre, 2009). Moreover, aside from a few notable exceptions (Duffy, Roehler, Meloth, & Vavrus, 1986; Leinhardt & Steele, 2005; Perry, 2000), instructional explanations have not been investigated empirically within other traditions either. Thus, there is scarce of empirical work about instructional explanations and their potential contribution to promote students’ learning.
The purpose of the present work is to examine instructional explanations from a theoretical perspective as well as empirically, in order to characterize them and investigate their association with students’ learning outcomes. The underlying theoretical framework chosen to organize the study is the one proposed by Leinhardt (2001) with some adaptations according to pertinent complementary literature (Drollinger-Vetter & Lipowsky, 2006; Leinhardt & Steele, 2005).
The empirical work of this dissertation was carried out in the context of the project “Analysis of mathematic lessons” (FONIDE 209) funded by the Chilean Ministry of Education during 2007. This study, in turn, was embedded in the international extension of the research project the ‘‘Quality of instruction, learning, and mathematical understanding’’ carried out between 2000 and 2006 by the German Institute for International Educational Research (DIPF) in Frankfurt, Germany, and the University of Zurich in Switzerland (e.g. Klieme & Reusser, 2003; Klieme et al., 2006). According to the design of the original project, the study considers the inclusion of different perspectives, namely, teachers, students and external observers, by means of questionnaires, tests and classroom observation protocols.
The examination of instructional explanations in this dissertation begins in chapter 2 with the review of relevant literature and introduction of the theoretical background underpinning the study of instructional explanations. This theoretical review comprises three subsections, the first one describing the evolution of the process-product-paradigm into the actual instructional quality models that are presented in a next step. The second subsection includes a detailed theoretical presentation of explanations and instructional explanations, addressing the main theoretical issues and giving examples of the few empirical works about instructional explanations found in the literature. Finally, the third subsection with the description of Chilean teaching practices in order to contextualize the study.
Chapter 3 presents the research questions and lists the associated work hypotheses that are investigated throughout this work. Chapter 4 includes the methodological aspects of the work, indicating the description of the sample, design of the study, the methods used the gather the data and the analyses chosen to answer the proposed research questions.
Chapter 5 contains the presentation of results, which are organized by research question, starting with the results from quantitative analyses and continuing with the results from qualitative analyses. This chapter closes with a general summary of the results organized according to the central themes of the study. Finally, chapter 6 concludes with a discussion of the link between the results and the instructional explanations literature and research, or lack thereof, that originally motivated the research questions addressed in this study. This chapter finishes with a discussion of the limitations of the study and the implications of its results, as well as an examination of areas where the research on instructional explanations can be fruitfully expanded in the future.
Invasive non-native species are key components of human-induced global environmen-tal change and lead to a loss of biodiversity, alterations of species interactions and changes of ecosystem services. Freshwater ecosystems in particular are strongly affect-ed by biological invasions, since they are spatially restricted environments and often already heavily impacted by anthropogenic activities. Recent human-induced species invasions are often characterized by long-distance dispersal, with many species having extended their native distribution range within a very short time frame. However, a long term view into the past shows that biological invasions are common phenomena in nature—representing the arrival of a species into a location in which it did not originally evolve—as a result of climatic changes, geotectonic activity or other natural events. Once a species arrives in a new habitat, it may experience an array of novel selection pressures resulting from abiotic and biotic environmental factors and simultaneously act as a novel selective agent on the native fauna. Consequences of species invasions are manifold. My thesis, which combines seven studies on different aspects of biological invasions, aims to explore the influence of abiotic stressors and biotic interactions during species introductions and range expansions, as well as the consequences of biological invasions on evolutionary and ecosystem processes.
The first part of my thesis examines human-induced biological invasions, dealing with basic ecological characteristics of invaded ecosystems, novel predator-prey interactions, functional consequences of species invasions and certain behavioral traits that may contribute to the invasiveness of some species. The second part of my thesis examined distribution patterns and phenotypic trait divergence in species that historically invaded new geographical areas. I investigated variation of abiotic and biotic selection factors along a stream gradient as well as ecological and evolutionary consequences of species invasions to extreme habitats. The results highlight the importance of simultaneously considering processes involved in natural invasions and during human-induced invasions to understand the success of invading species.
We often lack detailed information on the impacts of historical biological inva-sions. Also, we are currently lacking crucial knowledge about the time scales during which different mechanisms (behavioral flexibility, plastic phenotypic changes, and ge-netic adaptation) play a role during biological invasions and affect species exchange and establishment. Comparative analyses of historical, natural invasion and recent (man-made) invasions can provide insights into the relative importance of the processes governing adaptation to abiotic stressors and selection resulting from biotic interactions. Beyond their negative effects, the establishment of invasive species and the subsequent range expansion represent “natural experiments” to investigate fundamental questions in ecology and evolution. My comparison of natural and human-induced biological invasions revealed that in many cases preadaptation to altered abiotic conditions plays a key role during early stages of invasions and range expansions. Considering the evolutionary history of invasive species and the evolutionary history of the recipient native fauna might therefore help predict the consequences of biological invasions for the ecosystem under consideration and the future success of the invading species. This knowledge can also be implemented when formulating conservation strategies, including methods to mitigate and manage human-induced biological invasions.
The fungal genus Pestalotiopsis s.l. contains approximately 300 described species and is globally distributed. The monotypic genus Pestalotia is considered the closest relative of Pestalotiopsis s.l. This study aims to investigate the diversity and systematics within Pestalotiopsis s.l. and its relation to Pestalotia. Therefore, an integrative approach is used considering molecular phylogeny methods as well as examination of morphological characters.
Recently, Pestalotiopsis s.l. was split into three genera with the addition of the newly erected Neopestalotiopsis and Pseudopestalotiopsis. The species of these genera are usually saprotrophic, phytoparasitic, or endophytic, and have been isolated from soil, air, and many kinds of anorganic material. The asexual fruiting bodies appear on infected plant material as black acervuli that release conidia. The conidia are important to examine for morphological taxon recognition. The number of conidial cells is the feature that distinguishes Pestalotiopsis s.l. spp. with five celled conidia, from Pestalotia pezizoides with six celled conidia. However, the significance of morphological characters is controversially discussed among mycologists. In recent years, 55 new species were described based on minor genetic distances and marginal or no morphological differences. Thus, the value of certain morphological characters and genetic markers need to be reconsidered.
In this study, 102 herbarium specimens of 26 described species, with an emphasis on plant pathogenic species from North America, have been morphologically examined and documented through drawings and photographs. Morphological examination was complemented with a comprehensive molecular dataset obtained from 191 cultures representing the genera Neopestalotiopsis, Pestalotia, Pestalotiopsis, Pseudopestalotiopsis, and Truncatella. One novelty of this work is that, besides the well-established markers ITS, TEF1, and ß-tubulin, the protein-coding genes MCM7 and TSR1 were successfully sequenced and included in the analyses. Phylogenies using Maximum Likelihood and Bayesian inference methods of single loci and the combined dataset were calculated. By comparison of these phylogenies, MCM7 was identified as the most powerful one in terms of phylogenetic resolution and statistical support of nodes and is proposed as an additional barcoding marker in Pestalotiopsis s.l.
In Pestalotiopsis, species delimitation was tested using the Baysian Phylogenetics and Phylogeography (BP&P) program that tests an existing species scenario against Bayesian inference methods under a multispecies coalescent model. The program supported only ten species out of the predetermined 19 species scenario. Measurements of conidia for species detected by BP&P were explored using a TukeyHSD-Test in the program R to find means that are significantly different from each other. This test revealed that combinations of morphological characters are required to distinguish between the ten species found by BP&P.
Another purpose of this work was to clarify the status of Pestalotia with regard to Pestalotiopsis s.l. Therefore, fresh epitypic material of Pestalotia pezizoides, was collected, isolated, and cultivated. The molecular analysis of a combined dataset of the gene regions ITS and LSU for species of Amphisphaeriales nested P. pezizoides in the genus Seiridium. Thus, synonymy of Pestalotia with Seiridium is proposed here. This is supported by morphology of the conidia. Further, an epitype is proposed for the type species of Pestalotiopsis, P. maculans. On the other hand, the recently proposed epitype of P. adusta is rejected here as it conflicts with the taxonomic hypothesis obtained in this study and its introduction is inconsistent with the formal requirements for epitypification. A new topotypic specimen is proposed instead. Additionally, several nomenclatural changes become necessary in many species examined. These include three new combinations and six synonyms of species of Pestalotiopsis s.l.
The conclusion of this work is that morphological data have potential as a valuable, inexpensive and easy way to recognize species. However, it is not the best method for species discovery and delimitation bearing in mind that in microfungi and many other organisms, individual plasticity and analogous structures are inadequately investigated. By phylogenetic analyses of molecular sequence data, it is possible to compare a great amount of equivalent characters and to delimit species that are morphologically cryptic. This is especially important since species of Pestalotiopsis s.l. mostly lack sexual structures that are helpful for morphological species delimitation in other groups of fungi. Thus, the Genealogical Concordance Species Concept (GCSC) finds its application in many fungal taxa. Conflicts in the genealogy between phylogenetic trees of different markers are interpreted as recombination of the genetic material within a linage. Accordingly, the change from conflict to congruence in a set of different phylogenetic trees can be seen as the species limit. It can be expected that increased application of the GCSC will lead to further approximation of described species numbers to the real number of species, especially in complicated groups like asexual microfungi.
Kardiovaskuläre Erkrankungen stellen in Deutschland die häufigste Todesursache dar [1]. Eine Schlüsselrolle wird hierbei der koronaren Herzkrankheit (KHK) auf dem Boden einer Atherosklerose zuteil. Die Prävalenz der koronaren Herzkrankheit in Deutschland lag 2012 laut Zahlen des Robert Koch-Instituts bei 8,3 %; dies entspricht 6,64 Millionen Menschen. Die Spitzengruppe bilden die über 65-Jährigen mit einer Erkrankungshäufigkeit von 18,3 % bei Frauen und 27,8 % bei Männern. Oberstes Therapieziel bei der Behandlung der KHK ist die Prävention von Myokardinfarkten und Herzinsuffizienz. Wegweisend für das therapeutische Procedere sind die klinische Situation des Patienten und die Ergebnisse der kardialen Diagnostik. Sind mehrere Koronargefäße betroffen oder bestehen komplizierte Gefäßverengungen ist die Indikation zur operativen Myokardrevaskularisierung gegeben. Im Jahr 2015 unterzogen sich in Deutschland 51.941 Patienten einem solchen Eingriff [2]; weltweit erhalten jährlich fast eine Millionen Patienten eine Bypass-Operation [3]. Für den Therapieerfolg ist postoperativ eine suffiziente Thrombozytenaggregationshemmung von essentieller Bedeutung. Daher wird zur Sekundärprophylaxe eine lebenslange antiaggregatorische Medikation empfohlen; das am häufigsten hierfür genutzte Medikament ist Acetylsalicylsäure (ASS) [4]....
Ziel der vorliegenden Studie war, mittels MEA, die Prävalenz und mögliche Prädiktoren einer ASS-Nonresponse in einer Kohorte kardiochirurgischer Patienten zu analysieren.
Es wurden folgende Nullhypothesen aufgestellt:
- Die tägliche Einnahme von 100 mg ASS ist ausreichend, um bei allen Patienten eine therapeutische Thrombozytenaggregationshemmung zu erreichen.
- Es existieren keine Prädiktoren für die mittels MEA detektierte ASSNonresponse.
Melt segregation inside the earth consists of two different processes: 1) Generation of partially molten rock and 2) separation of melt, produced from partially molten rock, from the solid residual matrix. This thesis focuses on the later process. The 2 phase flow dynamics combines the study of flow dynamics of melt and matrix. Several studies have given the background theoretical frameworks for the flow dynamics of melt inside the earth. [McKenzie, 1984] summarizes the studies of [Ahern and Turcotte, 1979; Frank, 1968; Sleep, 1975] and gives a complete set of governing equations for the 2-phase flow problem.
[Bercovici et al., 2001] gives a general formulation considering the univariate system of equations related to matrix and melt flow which includes the interfacial surface force. The assumption of melt having negligible viscosity compare to the matrix has been abandoned. Therefore, based on these formulations, we have constructed our numerical model and thereafter a fortran code PERCOL2D to get an insight of melt percolation process through porous media. Additionally, we have used the Helmhotz decomposition, which splits a smooth and rapidly decaying vector field into an irrotational vector field and an incompressible vector field [Srámek, 2007], for matrix and fluid viscosity in order to lower the number of linearly independent variables to minimize the computational complications. The melt residing at inter-granular areas of lithosphere, forms an interconnected network even at low porosity. Therefore, being less dense than the matrix, melt moves up through porous media due to its buoyancy. Compaction of matrix, which occurs to compensate the melt separation, is considered in this thesis, where the effective bulk and shear viscosity of matrix are function of melt fraction. We have effective bulk viscosity of matrix as inversely proportional to melt fraction. Porosity dependence of effective bulk and shear viscosity leads to stronger melt focusing in highly porous region like mid ocean ridges [Katz, 2008] since the ratio of bulk and shear viscosity is smaller (< 10) than the constant viscosity case for the porous waves having non dimensional amplitude 5% or higher. Moreover, it is observed in [Richard et al., 2012] that the solitary wave formed in porosity dependent viscous matrix settings are steeper than the one formed in the constant matrix viscosity setting.
Firstly some 1D numerical experiments with PERCOL2D have been carried out using fixed and periodic boundary conditions for zero source term (i.e. no melting or no freezing) and negligible surface tension.
3 series of model setups with different initial conditions have been carried out varying the width, non-dimensional amplitude and the background porosity value of the initial input of porous wave.
A mathematical derivation for 1D solitary wave solution for the two phase flow through porosity dependent compacting media, is obtained in this thesis which is different than the study of [Barcilon and Lovera, 1989; Barcilon and Richter, 1986; Scott and Stevenson, 1984; Spiegelman, 1993a,b] as the effective viscosity of matrix is constant there.
Although [Simpson and Spiegelman, 2011] gives the solitary wave solutions in 1D, 2D and 3D considering the porosity dependent effective viscosity of the matrix, but using the small background porosity approximation, they neglect the background porosity (i.e φ0) and therefore the effect of variation of compaction lengths, which causes variation in the shape and dynamics of the solitary wave. Therefore, the study [This thesis, Richard et al., 2012] can be used for more general purpose. Solitary waves in varying viscous medium, are steeper (cf fig.5.1) compared to the one in constant viscous medium and their speed decreases as an inverse function of the background porosity. Additionally, this analytical solution is used in our code PERCOL2D and also in FDCON for numerical benchmarking (1D) of PERCOL2D.
The role of melt grain contiguity is considered in the revised viscosity formulation [Schmeling et al., 2012] based on elastic moduli theory of a fluid filled poro-elastic medium. This formulation is used in this thesis to produce a comparative dispersion relationship between speed of the wave and the non dimensional amplitude of porous wave, based on both the viscosity formulations (fig. 6.20) where one can see that the model based on [Bercovici et al., 2001] formulation, converges to the same dispersion relationship obtained from [Simpson and Spiegelman, 2011]. Whereas, the dispersion relationship using [Schmeling et al., 2012] formulations, shows time-dependent decrease of phase velocity with increasing amplitude and it is not yet clear that whether these solutions converge to steady state porosity waves before the porosity becomes 1.
Development of the flash-heating method for measuring melting temperatures in the diamond anvil cell
(2016)
A new ‘laser flash-heating’ method has been developed for measuring melting temperatures above 2000 K in a diamond anvil cell at gigapascals of pressure. It overcomes the general difficulties in detecting an onset of melting in a diamond anvil cell. It also circumvents the notorious experimental difficulties associated with the long heating durations of the CW laser-heating and the short timescales in the pulsed laser-heating and shock-compression experiments.
In this method, the duration of heating a sample is tuned to avoid chemical reactions of the sample with the diamond anvils and the surrounding pressure medium, while maintaining the accuracy of the temperature measurements. The absence of chemical reactions is confirmed by the EDS technique. Melt detection is now unambiguous from the analysis of textures on the surface and in depth of the recovered samples using the SEM and FIBM techniques, respectively. Using this method, the following has been achieved.
1. The melting curve of hcp-Re has been measured to 48 GPa, 4200 K for the first time. It has a significantly steeper slope than those observed for other transition metals like W and Mo with bcc structures. Above 20 GPa, Re becomes the most refractory metal surpassing W.
2. The melting curve of bcc-Mo has been measured to 45 GPa, 3100 K. It agrees with previous melt-slopes approaching zero value with pressure as reported in the LHDAC experiments using ADXRD and visual observation techniques for inferring the onset of melting. Flash-heating experiments at pressures higher than 50 GPa are required to further corroborate the flat melt-slope and resolve the long standing controversy about melting of Mo.
3. The melting curve of bcc-Ta has been measured to 85 GPa, 4300 K. Unlike in previous experiments using ADXRD and visual observation as probes, it has been tightly bracketed with an unambiguous detection of the onset of melting, without any chemical reaction. The present melting curve cannot be reconciled with shock measurements and theoretical predictions, and the precision of measurements calls for a reevaluation of theoretical, shock compression, and other DAC approaches to determine melting at high pressures. A further analysis with TEM technique for investigating the structure of the heated portion below and above melting temperatures of Ta may benefit in resolving various phase transitions predicted to explain the vast discrepancies in the reported melt-slopes.
When extrapolated to one atmosphere pressure, all the measured flashmelting curves agree with the known melting points.
Protein synthesis is a central process within every living cell, where information embodied in the nucleotide sequence of the mRNA is translated into the primary sequence of proteins. The translation procedure comprises four steps: initiation, elongation, termination, and recycling. Ribosome recycling orchestrated by the ATP‐binding cassette (ABC) protein ABCE1, renders mRNA translation into a cyclic process, connecting termination with re initiation. In Archaea and Eukarya, the ABC protein ABCE1 catalyzes ribosome recycling by splitting the ribosome (80S/70S) into the small 40S/30S and large 60S/50S subunits, providing them for the next translation round.
The ABC‐type ATPase one of the most conserved proteins, present in all Archaea and Eukarya, but not in Bacteria, is essential for life in all organisms examined so far. ABCE1 was initially identified as RNase L inhibitor (Rli1), involved in the antiviral RNA immunity, and as host protein 68 (HP68) playing a role in HIV capsid assembly. However, the strong sequence conservation of ABCE1 points towards a more fundamental function within cell homeostasis, which was found by its involvement in various translation processes. ABCE1 turned out to be the major ribosome recycling factor indispensable for life in Eukarya and Archaea, being involved in canonical translation, mRNA surveillance, ribosome biogenesis, and translation initiation.
Recent functional and structural data provided first insights into the mechanism of ABCE1 in ribosome recycling. The nucleotide‐binding domains (NBDs) sandwich two ATP molecules in the NBD1‐NBD2 interface causing an NBD engagement, which is released upon ATP hydrolysis. In case of ABCE1, this ATP‐dependent tweezer‐like motion of the NBDs transfers mechanical energy to the ribosome and tears the subunits apart. The FeS‐cluster domain may swing out of the NBD cleft into the inter‐subunit space of the ribosome, which drives the subunits apart either directly or via the bound a/eRF1. Hence, the subunits are released and the post‐splitting complex (PSC, 40S/30S∙ABCE1∙ATP) is available for re‐initiation events, presumably occurring via the known interactions of ABCE1with initiation factors.
One of the most crucial aspects of this model is the nucleotide‐dependent conformational switch of ABCE1, which drives ribosomal subunit splitting. However, the conformational states, which ABCE1 undergoes during ribosome recycling, including their mechanistic importance for its diverse functions, remain unknown. Further, the exact role and movement of the essential FeScluster domain during ribosome recycling are not yet understood. Additional, it remains elusive where ABCE1 is bound in the post‐splitting complex and how the splitting mechanism is regulated concerning the asymmetric NBDs and the coupling of nucleotide binding with NBD closing and ATP hydrolysis.
Thus, in order to monitor the conformational dynamics of the ribosome recycling factor ABCE1 two complementing methods in structural biology, namely single‐molecule based Förster resonance energy transfer (smFRET) and pulsed electron‐electron double resonance (PELDOR) spectroscopy were applied.
Single‐molecule FRET as an integrated biophysical approach based on Förster resonance energy transfer and single‐molecule detection was used to understand the fundamental molecular principles of ABCE1. Contrary to the anticipated two‐state model of ABC proteins, it was shown in this thesis that both nucleotide‐binding sites of ABCE1 are always in a dynamic equilibrium between conformational states with distinct properties: open, intermediate, and closed. The equilibrium in the two nucleotide‐binding sites is distinctly affected when ABCE1 interacts with ribosomal subunits and nucleotides. While ABCE1 can adopt all three conformational states in its free or 30S bound situation, the closed state has the highest affinity for 30S subunit. Further, dissociation of ABCE1 from the small ribosomal subunit, a step that completes the recycling process, is followed by the opening of the NBSs. Hence, the current findings have important implications not only for ribosome recycling but represent a new paradigm for the molecular mechanisms of twin‐ATPases.
The complementing PELDOR measurements provide the advantage of high distance precision and reliability studying macromolecular complexes. Distance distributions of a number of ABCE1 variants even bound to the 1‐MDa post‐splitting complex (30S∙ABCE1∙AMP‐PNP), composed of the 16S rRNA, 28 ribosomal proteins, and ABCE1, was analyzed. Thus, the available crystal structures of ABCE1 in the open state were validated, since all distances of ABCE1 measured in this study perfectly correspond to this crystallized state. Unfortunately, ABCE1 could not be trapped in the closed state under the experimental conditions applied, although plenty different approaches to stabilize this state were performed.
In the second part of this study the architecture yet unknown of the 1‐MDa post splitting complex (40S/30S∙ABCE1∙ATP), concerning especially the ABCE1 binding site and its interactions with translational proteins, was probed by a method, which combines chemical cross linking with mass‐spectrometry (XL‐MS). Following this approach, it was demonstrated that ABCE1 remains bound at the translational GTPase‐binding site after ribosome splitting, contacting the S24e protein of the small subunit. The platform for the intensive contacts to the small ribosomal subunit is thereby provided by the unique helix‐loop‐helix motif of ABCE1. Notably, the FeScluster domain of ABCE1 undergoes a large rotational and translational rearrangement towards the small ribosomal subunit S12 upon nucleotide‐dependent closure of the NBDs. Thus, a key complex in the translational cycle, resembling the link between translation initiation and ribosome recycling processes, was reconstituted and structurally analyzed.
This thesis is concerned with protein structures determined by nuclear magnetic resonance (NMR), and the text focuses on their analysis in terms of accuracy, gauged by the correspondence between the structural model and the experimental data it was calculated from, and in terms of precision, i.e. the degree of uncertainty of the atomic positions. Additionally, two protein structure calculation projects are described...
Zur vollständigen Charakterisierung der Hochstrom-Protonenquelle im Rahmen des FRANZ-Projektes war es notwendig, die Emittanz dieser zu bestimmen. Die vorliegende Arbeit befasst sich mit der Entwicklung zweier unterschiedlicher Emittanz-Messsysteme, welche in der Lage sind, im kritischen Einsatzbereich hinter der Ionenquelle die Emittanz zu bestimmen.
Die grundsätzliche Problematik der Emittanzmessung an Hochstrom-Ionenquellen liegt in den besonderen Anforderungen, die an diese Messsysteme gestellt werden. Zum einen müssen diese extrem hohe Strahlleistungsdichten und Strahlströme verarbeiten können, ohne Schaden zu nehmen. Zum anderen, was die besondere Herausforderung darstellt, ist es notwendig, dass sie unempfindlich gegenüber Hochspannungsüberschläge sind, da es naturgemäß an einer Ionenquelle zu Hochspannungsüberschlägen kommen kann, welche die sensible und teure Messelektronik schädigen können.
Aus diesem Grund wurde eine Pepperpot-Emittanz-Messanlage weiterentwickelt, welche komplett ohne hochspannungsempfindliche Elektronik auskommt. Diese besteht aus einem effizient wassergekühlten Messkopf mit einer Lochblende aus einer Wolframlegierung. Die Lochgeometrie wurde an die zu vermessende Ionenquelle angepasst. Anstelle einer Multichannelplate und / oder eines Leuchtschirms kommt eine mit Öl vorbehandelte Aluminiumplatte als Schirm zum Einsatz. Aufgrund der Wechselwirkung der, durch die Lochblende hindurch driftenden, Teilstrahlen mit der Oberfläche des Schirms, bilden sich auf diesem, mit bloÿem Auge sichtbare, Kohlenstoffabdrücke aus. Aus der Lage im Ortsraum und der Intensitätsverteilung der einzelnen Abdrücke kann die Phasenraum-Verteilung berechnet werden. Der Nachweis, dass die Intensitätsverteilung der Kohlenstoffabdrücke proportional zur Strahlstromdichtenverteilung eines jeden Abdrucks ist, wurde im Rahmen der Grundlagenuntersuchungen erbracht. Parallel wurde eine zweite, konventionelle Schlitz-Gitter-Emittanz-Messanlage entwickelt und aufgebaut.
Für die Auswertung der Rohdaten wurde eine Analysesoftware entwickelt, welche kompatibel zu beiden Messsystemen ist. Mittels dieser kann aus den Rohdaten die Phasenraum-Verteilung, die Emittanzen (Lage und Fläche) berechnet und in verschiedenen Schnittebenen graphisch dargestellt werden. Ein Hauptaspekt lag in der notwendigen Untergrundreduktion. Insbesondere bei der Analyse der Pepperpot-Schirme tritt bei der Digitalisierung derselben eine nicht physikalische Veränderung der Intensitätsverteilung der Kohlenstoffabdrücke auf. Die erfolgreiche Separation der Abdrücke vom Hintergrund war von entscheidender Bedeutung.
Mit beiden Emittanzmesssystemen konnte im Rahmen dieser Arbeit die Emittanz der FRANZ-Hochstrom-Protonenquelle bestimmt und Abhängigkeiten diverser Strahlparameter untersucht werden. Dabei zeigen die Ergebnisse beider Messsysteme eine sehr gute Übereinstimmung, was die Leistungsfähigkeit des Pepperpot-Messsystems in diesem Einsatzbereich bestätigt.
Für die Erzeugung der, im Rahmen verschiedener Emittanzmessungen, benötigten Plasmadichten wurde die eingespeiste Bogenleistung um 265% von 2.85kW auf 7.56kW erhöht. Die geringe Varianz der gemessenen Emittanzen lässt den Schluss zu, dass sich die Ionentemperatur im Rahmen der Messgenauigkeit in dem untersuchten Bereich nicht merklich ändert. Dies ist insofern bemerkenswert, da dies bedeutet, dass sich die Ionentemperatur nicht signifikant verändert hat, obwohl die Leistung im Plasma stark erhöht wurde.
Im Laufe der Grundlagenuntersuchungen des Pepperpot-Systems wurde festgestellt, dass es unter bestimmten Voraussetzungen zur Bildung von zwei Kohlenstoffabdrücken pro Blendenloch kommen kann. Mit Hilfe von Strahlsimulationen mittels dem Code IGUN sowie vergleichenden Emittanzmessungen konnte nachgewiesen werden, dass bei der Extraktion im sogenannten angepassten Fall zwei Teilstrahlen extrahiert werden. Durch eine geringfügige Erhöhung der Perveanz können diese beiden Teilstrahlen in einen laminaren Ionenstrahl überführt werden.
Im Hinblick auf die Konditionierung der FRANZ-LEBT wurde erstmals im Institut der Transport eines Hochstrom-Ionenstrahls durch einen Solenoiden sowie die Auswirkungen dessen auf die Strahlemittanz untersucht. Aufgrund des projektierten Protonenstroms von Ip = 50mA wurden diese Untersuchungen mit einem vergleichbaren Protonenstrom und einer Strahlenergie von E = 55keV durchgeführt.
Darüber hinaus wurde die zeitliche Entwicklung der Emittanz innerhalb eines Strahlpulses (80Hz,1ms,Ip = 56mA,It = 70mA) hinter dem Solenoiden untersucht. Eine Analyse zeigt, dass die Strahlemittanz innerhalb der Messgenauigkeit entlang des Pulsplateus nahezu konstant bleibt. Jedoch ändert sich die Divergenz des Strahlkerns innerhalb des Zeitraumes des Pulsanstiegs, aufgrund der Raumladungskompensation sowie des ansteigenden Stroms.
This thesis contributes to the field of machine learning with a specific focus on the methods for learning relations between the inputs. Learning relationships between images is the most common primitive in vision. There are many vision tasks in which relationships across images play an important role. Some of them are motion estimation, activity recognition, stereo vision, multi-view geometry and visual odometry. Many of such tasks mainly depend on motion and disparity cues, which are inferred based on the relations across multiple image pairs. The approaches presented in this thesis mainly deal with, but are not limited to, learning of the representations for motion and depth. This thesis by articles consists of five articles which present relational feature learning models along with their applications in computer vision. In the first article, we present an approach for encoding motion in videos. To this end, we show that the detection of spatial transformations can be viewed as detection of coincidence or synchrony between the given sequence of frames and a sequence of features which are related by the transformation we wish to detect. Learning to detect synchrony is possible by introducing "multiplicative interactions'' into the hidden units of single layered sparse coding models.
We show that the learned motion representations employed for the task of activity recognition achieve competitive performance on multiple benchmarks. Stereo vision is an important challenge in computer vision and useful for many applications in that field. In the second article, we extend the energy based learning models, which were previously used for motion encoding, to the context of depth perception. Given the common architecture of the models for encoding motion and depth, we show that it is possible to define a single model for learning a unified representation for both the cues. Our experimental results show that learning a combined representation for depth and motion makes it possible to achieve state-of-the-art performance at the task of 3-D activity analysis, and to perform better than the existing hand-engineered 3-D motion features. Autoencoder is a popular unsupervised learning method for learning efficient encoding for a given set of data samples. Typically, regularized autoencoders which are used to learn over-complete and sparse representations for the input data, were shown to fail on intrinsically high dimensional data like videos. In the third article, we investigate the reason for such a behavior. It can be observed that the regularized autoencoders typically learn negative hidden unit biases. We show that the learning of negative biases is the result of hidden units being responsible for both the sparsity and the representation of the input data. It is shown that, as a result, the behavior of the model resembles clustering methods which would require exponentially large number of features to model intrinsically high dimensional data. Based on this understanding, we propose a new activation function which decouples the roles of hidden layer and uses linear encoding. This allows to learn representations on data with very high intrinsic dimensionality. We also show that gating connections in the bi-linear models and the single layer models from articles one and two of this thesis can be thought of as a way to attain a linear encoding scheme which allows them to learn good representations on videos. Visual odometry is the task of inferring egomotion of a moving object from visual information such as images and videos. It can primarily be used for the task of localization and has many applications in the fields of robotics and navigation. The work in article four was motivated by the idea of using deep learning techniques, which are successful methods for many vision tasks, for visual odometry. The visual odometry task mainly requires inference of motion and depth information from visual input which can then be mapped to velocity and change in direction. We use relational feature models presented in the articles one and two for inferring a combined motion and depth representation from stereo video sequences. The combined representation is then mapped to discrete velocity and change in direction labels using convolutional neural networks. Our approach is an end-to-end deep learning-based architecture which uses a single type of computational model and learning rule. Preliminary results show that the architecture is capable of learning the mapping from input video to egomotion. Activity recognition is a challenging computer vision task with many real world applications. It is well know that it is a hard task to use computer vision research for real-time applications. In the fifth article of this thesis, we present a real-time activity recognition system based on deep learning based methods. Our approach uses energy based relational feature learning models for the computation of local motion features directly from videos. A bag-of-words over the local motion features is used for the analysis of activity in a given video sequence. We implement this system on a distributed computational platform and demonstrate its performance on the iCub robot. Using GPUs we demonstrate real time performance which makes the deployment of activity recognition systems in real world scenarios possible.
Das Multiple Myelom (MM) macht ungefähr 15 % aller hämatologischen Neoplasien aus. Die Einführung neuer Therapieoptionen wie der Hochdosis-Chemotherapie, der immunmodulatorischen Medikamente und der Proteasominhibitoren (PI) haben die Behandlung des MM revolutioniert. Der PI Bortezomib (BTZ) ist zu einem Grundstein der Therapie des MM geworden, aber auch der neu zugelassene PI Carfilzomib (CFZ) wird inzwischen eingesetzt. Trotz dieser Fortschritte treten Resistenzen gegen PIs zu Therapiebeginn, beziehungsweise fast unweigerlich im Verlauf der Therapie auf und das MM bleibt größtenteils unheilbar. Gegenüber PIs resistente Myelomzellen zeigen Merkmale von Pre-Plasmablasten, welche die Proteasominhibition überleben. Um mit einer Therapie auch diese resistenten Zellen zu erreichen, ist es notwendig, die PIs mit Substanzen zu kombinieren, die sich gegen die gesamte B-Zell-Linie richten. Ein neuer Hoffnungsträger in der Behandlung von B-Zell-Leukämien ist der Bruton’s Tyrosinkinase Inhibitor Ibrutinib (IBR). IBR greift die in der gesamten B-Zell-Linie exprimierte Bruton’s Tyrosinkinase an, die als Teil des B-Zell-Rezeptor Signalweges eine Schlüsselrolle bei der Entwicklung und Funktionalität normaler B-Zellen einnimmt. Die zytotoxische Aktivität von IBR in MM korreliert speziell mit der Hemmung des nachgeschalteten Signalwegs NF-κB. Die Kombination von PIs mit IBR wird bereits in klinischen Studien getestet. Allerdings fehlen zurzeit die molekularen Grundlagen für den therapeutischen Erfolg dieser Kombination. Zielsetzung dieser Dissertation war es deshalb die drei PIs BTZ, CFZ und das experimentelle, β2-selektive LU-102 hinsichtlich deren Wirkung auf den NF-κB Signalweg und in Kombination mit IBR zu untersuchen. Der präklinisch erprobte PI LU-102 wurde hier für den Vergleich mit den aktuell in der MM Therapie verwendeten Inhibitoren BTZ und CFZ hinzugezogen, da er im Gegensatz zu diesen sehr selektiv die β2-Untereinheit des Proteasom hemmt und damit einen alternativen Ansatz verfolgt. Es konnte gezeigt werden, dass der β2-selektive PI LU-102 den NF-κB Signalweg hemmt und so die Wirkung von IBR unterstützt. Im Gegensatz dazu aktivierten BTZ und CFZ diesen Signalweg und antagonisierten in diesem Punkt die Wirkung von IBR. Weiterhin konnte veranschaulicht werden, dass BTZ in Kombination mit IBR antagonistisch auf die Zytotoxizität in MM Zelllinien wirkt, während CFZ einen grenzwertigen Synergismus mit IBR bei MM Zelllinien zeigt. Den deutlich stärksten Synergismus in Kombination mit IBR zeigte sich bei LU-102. Übereinstimmend mit diesen Ergebnissen konnte für die Kombination von IBR mit LU-102 im Vergleich zu den Kombinationen mit BTZ oder CFZ eine deutlich stärkere Hemmung des NF-κB Signalweges, eine deutlichere Hemmung des Proliferationsmarkers p-STAT3 und eine robustere Aktivierung der Apoptose-Kaskade beobachtet werden. Zudem konnte nachgewiesen werden, dass LU-102 in Kombination mit IBR in vitro die Resistenz gegenüber BTZ oder CFZ überwindet; dieses Ergebnis ließ sich auch an primären Myelomzellen dreier BTZ-refraktären Patienten reproduzieren. In der Diskussion wurden Hypothesen zum unterschiedlichen Wirkverhalten von BTZ und CFZ sowie LU-102 auf den NF-κB Signalweg entwickelt: BTZ und CFZ aktivieren den NF-κB Signalweg, da diese durch Hemmung der für die Proteolyse des Proteasoms geschwindigkeitsbestimmenden β5-Untereinheit den Abbau von IκB im kompensatorisch aktivierten lysosomalen System fördern. Das β2-selektive LU-102 hingegen lässt die proteasomale Proteolyse quantitativ weitgehend unangetastet und führt somit nicht zum lysosomalen Abbau von IκB. Zudem sorgt LU-102 über einen bisher unbekannten Mechanismus für eine Hemmung des NF-κB Signalweges.
Zusammenfassend ist durch die vorliegenden Ergebnisse eine weitere klinische Entwicklung der Kombination von β2-inhibierenden Proteasominhibitoren, wie LU-102 oder Carfilzomib, mit Ibrutinib im Gegensatz zur Kombination von Bortezomib, welches die β2-Aktivität nicht inhibiert, mit Ibrutinib für das Multiple Myelom zu empfehlen.
Technology integration in physical education : examining the physical education teachers' domain
(2016)
Physical education (PE), in the meantime, has evolved as school subject that willingly adapts to technology trends to foster student learning. Several efforts to nurture and facilitate technology integration in PE indicate the growth in interest in this topic over the past years: multiple physical education teacher education (PETE) programs, textbooks, and journal papers have adopted technology issues as a regular topic in the realm of PE research and practice. Although there are plenty of conceptual papers and technology teaching tips available in common publication outputs, empirical evidence on technology integration in PE is still a rare sight. Empirical evidence on technology integration in PE is still limited. However, available studies reported vastly positive findings, favorably of a mutual linking of technology and PE Scanning through the various articles that described pedagogical scenarios for technology integration in PE, five pedagogical scenarios that stand for a typical and most beneficiary use of technology integration in PE classes in regard to student learning: a) homework and theory, b) informational Input, c) learning stations, d) feedback, and e) physical activity tracking. Focusing on the PE teachers? perspective, two empirical studies were carried out. The theoretical framework consists of three building blocks: the a) significance of technology in everyday life and school, b) organizational development and agents of school development and change, and c) determinants of technology integration in schools and in the classroom ? emphasizing the teacher as an agent of change. The first study examined PE teachers? subjective theories toward technology integration in PE. Findings indicated that a) computer literacy, b) household computer ownership, c) professional experience, as well as d) gender had an effect on PE teachers? subjective theories toward technology integration in PE. The second study surveyed PE teachers? computer literacy, and instructional technology and media use in PE. The majority of the PE teachers seldom used technology in PE classes. PE teachers? computer literacy had a statistically significant effect on their technology use in PE class for information and communications technology (ICT) such as laptops, Internet, and digital cameras. PE teachers who showed higher levels of computer literacy were more likely to use technology in the classroom. However, the sample tended to consist of PE teachers that do not use technology often. No statistical relation was found for the link of PE teachers? computer literacy and the use of traditional media (e.g., printed images, chalkboard) in the classroom. Conclusively summing up the discussion, the following developmental areas in the field of technology can be posited: a) curriculum development, b) media database, c) documentation, d) empirical research, e) PE environment, f) dissemination, g) implementation strategies, and g) professional development and PETE. Nonetheless, several concerns against technology integration in PE can be stated: a) Physical activity levels and physical activity time, b) sedentary lifestyle, c) empirical evidence, d) unfiltered experience and alienation, and e) preparation time and budget.
Es wird davon ausgegangen, dass das ehemalige Larven-Mikrohabitat der Asiatische Tigermücke Aedes albopictus (synonym: Stegomyia albopicta) die Phytotelmata in den Waldgebieten von Südostasien darstellte. In den letzten vier Jahrzehnten adaptierte sich die Art jedoch an urbanere Regionen und ihre Antrotelmata. Dank ihrer Eigenschaft, Eier mit einer gewissen Trocken- und Kältetoleranz zu produzieren, verbreitete sich die Art zusammen mit den international gehandelten Waren weltweit. Zudem ist Ae. albopictus ein theoretischer Vektor für mindestens 27 Viren sowie Parasiten und spielt eine Hauptrolle bei der Übertragung von Dengue-Viren und Chikungunya-Viren und Zika-Vieren. Daher wird die Art als große Gefahr für die öffentliche Gesundheit betrachtet.
Die vorliegende Arbeit thematisiert drei Untersuchungen zum Anpassungs- und Etablierungs-potential der invasiven Asiatischen Tigermücke.
In einem ersten Ansatz wurde das Problem behandelt, dass es lediglich zwei standardisierte toxikologische Testverfahren für Culicidae gab. Daher wurde ein Dosis-Wirkungs-Testsystem entwickelt, das den Weg für weitere biologische Endpunkte und ihre integrativen Parameter freimachte und dadurch ein besseres Verständnis für die Wirkweisen von Insektiziden ermöglicht. Hierdurch konnte nun der Frage nachgegangen werden, ob es Unterschiede in der ökotoxikologischen Reaktion zwischen der invasiven tropisch-subtropischen Asiatischen Tigermücke und der einheimischen nördlichen Hausstechmücke Culex pipiens auf das Insektizid λ-Cyhalothrin gibt. Weiter wurde der Einfluss von Temperatur und die Verfügbarkeit von Nahrung auf die Insektizidsensitivitäten der Arten getestet. Schließlich konnte in einer Risikobewertung festgestellt werden, dass bei falsch angewendeten Bekämpfungsmaßnahmen höhere Temperaturen sowie der Ausfall von aquatischen Top-Prädatoren zu Fitnessvorteilen für die Art führen können.
In einer zweiten Untersuchung wurde der Mechanismus der Kältetoleranz der Eier (Kälteakklimatisierung und Diapause) näher untersucht, da dieser für die erfolgreiche Invasion in gemäßigten Breitengraden verantwortlich gemacht wird. Nachdem eine lang vorherrschende Hypothese verworfen wurde, dass die Einlagerung von Polyolen die Frosttoleranz bewirken würde, war der aktuelle Stand der Wissenschaft, dass eine Verdickung der Wachsschicht des Chorions dafür verantwortlich sei. Jedoch lag keine detaillierte Evaluierung von Stechmücken-Eihüllen vor. Mittels einer transmissionselektronenmikroskopischen Studie konnte gezeigt werden, dass nicht nur die Wachsschicht nicht in der Serosa-Cuticula zu verorten ist, sondern im Endochorion und sie zudem im Zuge der Diapause in der Mächtigkeit schrumpft. Daher wird auf Basis der gewonnenen Erkenntnisse auf eine Kompaktierung der Schicht geschlossen.
Die dritte Untersuchung schließlich hatte das hohe Adaptationspotential in gemäßigten Breiten zum Gegenstand. Eine Adaptation auf genetischen Level gilt als unwahrscheinlich, da Gründerpopulationen in den neu besiedelten Gebieten eine niedrige genetische Diversität aufwiesen und ein regelmäßiger Neueintrag von Allelen unwahrscheinlich ist. Jedoch bietet das Konzept der epigenetischen Temperatur-Adaptation einen Erklärungsansatz für dieses Phänomen. Daher wurde die Frage gestellt, ob es möglich ist, eine vererbbare Diversifizierung dieses kältetoleranten Phänotyps nach einer randomisierten epigenetischen Behandlung der DNA zu detektieren. Es wurde eine transgenerationale Untersuchung der Effekte von zwei epigenetischen Agenzien (und einem Lösemittel) auf die Kältetoleranz der Eier durchgeführt. Die Ergebnisse zeigten ein Korrelationsmuster, das den durch die Agenzien veränderten Methylierungsgrad der DNA mit der Forsttoleranz verband, was die gestellte Hypothese unterstützte.
In Folge dieser drei Untersuchungen wurde festgestellt, dass Ae. albopictus ein hohes Potential hat, in weiteren Ländern – vor allem in gemäßigten Breiten – ein Gesundheitsrisiko darzustellen. Da die Art einerseits Fitnessvorteile durch falsche Bekämpfungsmaßnahmen und andererseits möglicherweise eine hohes epigenetisches Adaptationspotential besitzt, kann zusammenfassend empfohlen werden, dass der Fokus für weitere Forschung maßgeblich auf der Entwicklung von Impfstoffen für die übertragenen Viren und Pathogene liegen sollte. Dadurch kann die Bevölkerung geschützt werden, ohne Ökosysteme und ihre Dienstleistungen zu gefährden, und dies wäre zudem ökonomisch gesehen die effektivere Lösung.
Bei Cryptochromen handelt es sich um Blaulichtrezeptoren der Cryptochrom-Photolyase-Proteinfamilie (CPF). Mitglieder dieser Proteinfamilie sind in allen Domänen des Lebens zu finden und haben eine essentielle Rolle in der Reparatur der DNA sowie der lichtgesteuerten Regulation der Expression. Cryptochrome sind in der Regel keine DNA-reparierenden Proteine. Sie sind regulativ an der Steuerung der inneren Uhr und des Zellzyklus der Organismen beteiligt. In der Kieselalge Phaeodactylum tricornutum konnten bisher sechs phylogenetisch unterschiedliche Mitglieder der CPF identifiziert werden. Bei CryP handelt es sich um das einzige pflanzenähnliche Cryptochrom der photoautotrophen Diatomee. Für das Protein CryP konnte bereits ein blaulichtinduzierter Photozyklus durch die Absorption der Chromophore 5-Methenlytetrahydrofolat (MTHF) und Flavinadenindinukleotid (FAD) gezeigt werden. Außerdem ist eine regulative Wirkung des Proteins auf die Lichtsammelkomplexe (Lhc) der Diatomee bekannt. Für eine weitere Charakterisierung des CryPs wurde in dieser Arbeit zunächst das Absorptionsverhalten unter verschiedenen Wellenlängen beobachtet, um so einen Einblick in eine mögliche Aktivierung und Deaktivierung des Proteins durch Licht unterschiedlicher Wellenlängen zu erlangen. Es zeigte sich hierbei eine mit pflanzlichen Cryptochromen vergleichbare Anreicherung verschiedener Redoxzustände des FADs in Abhängigkeit von der Wellenlänge.
Für eine Aufklärung der Wirkungsweise des CryP-Proteins wurden verschiedene Hypothesen untersucht: Die phylogenetische Nähe und ein ähnliches Absorptionsverhalten des CryPs zu Cryptochromen mit Reparaturfähigkeit für einzelsträngige DNA (Cry-DASH) führte zu einer Untersuchung des Proteins als möglicher Transkriptionsfaktor. Hierfür konnte eine Kernlokalisation des Proteins nachgewiesen werden, was Rückschlüsse auf eine potentielle Regulation der Expression mittels DNA-Bindung zulässt. Außerdem wurde gezeigt, dass CryP DNA-Bindefähigkeit besitzt. Die bisher nachgewiesenen Bindungen waren jedoch unspezifischer Art. Dies konnte auch für die Promotersequenz eines der durch CryP regulierten Gene lhcf1 festgestellt werden. Auf Grund der unspezifischen DNA-Bindung wurde eine zweite Hypothese für CryP untersucht: CryP wirkt regulativ auf die Expression verschiedener Gene durch Protein-Protein-Interaktionen und ist Teil einer Reaktionskaskade zur Signalweiterleitung in P. tricornutum.
Durch die Untersuchung der zweiten Hypothese konnten drei Interaktionspartner für CryP identifiziert und eine Interaktion verifiziert werden. Hierbei handelt es sich um das Protein AAA mit einer bisher unbekannten Funktion und das Protein BolA, welches Teil der zuerst in Escherichia coli identifizierten BolA-like-Proteinfamilie ist. Außerdem konnte eine Interaktion mit dem Cold-Shock-Domänen-Protein CSDP gezeigt werden. Bei den Proteinen BolA und CSDP handelt es sich um potentiell regulierende Faktoren der Transkription und Translation, was Teil einer Reaktionskaskade sein kann. Die aus anderen Organismen bekannten Funktionen des BolA-Proteins überschneiden sich mit den in CryP-Knockdown-Mutanten beobachteten Effekten. Sie zeigen eine erhöhte Sensitivität für Stresssituationen wie abweichende Nährstoffkonzentration, Osmolaritäten und Temperaturen. Diese Beobachtungen stellen einen Zusammenhang der durch einen CryP-Knockdown beobachteten Effekte und der CryP-BolA-Interaktion her. Durch Homologien zu Cold-Shock-Proteinen aus Chlamydomonas reinhardtii gibt die CryP-Interaktion mit dem Protein CSDP Hinweise auf einen potentiellen Mechanismus zur Regulation der Lhc-Proteine, für welche zuvor ein CryP-abhängiger Effekt beschrieben war.
Über die Protein-Protein-Interaktionen hinaus wurde die Phosphorylierung des CryPs als Möglichkeit der Signalweiterleitung untersucht. Es konnte eine reversible Phosphorylierung des heterolog aus E. coli isolierten CryPs gezeigt werden. Diese zeigt Ähnlichkeiten zu bekannten Phosphorylierungen pflanzlicher Cryptochrome und gibt Hinweise auf einen Mechanismus der Signalweiterleitung.
Durch die Untersuchung der CryP-regulierten Transkription mit P. tricornutum CryP-Knockdown-Mutanten durch Next-Generation-Sequencing (NGS) konnte die Hypothese der regulativen Proteinkaskade und der Signalweiterleitung weiter bestätigt werden. Die Auswirkungen des CryPs auf die Transkription erwiesen sich als nicht auf einen Teilbereich des Metabolismus begrenzt, sondern sind in einem großen Teil der funktionellen Gengruppen in P. tricornutum zu sehen. Außerdem konnten drei Klassen CryP-regulierter Gene festgestellt werden. Kategorie 1: die ausschließlich unter Blaulicht regulierten Gene; Kategorie 2: die sowohl unter Blaulicht als auch im Dunkeln regulierten Gene und Kategorie 3: die ausschließlich im Dunkeln regulierten Gene. Ein im Dunkeln und unter Blaulicht jeweils unterschiedlicher regulativer Effekt deutet auf eine Doppelfunktion des CryPs hin. Möglicherweise hat das Cryptochrom unterschiedliche lichtabhängige und lichtunabhängige Funktionen.
Durch die Analyse der CryP-regulierten Genexpression konnte außerdem ein Zusammenhang zwischen CryP und weiteren Photorezeptoren gezeigt werden. Der CryP-Proteingehalt in der Zelle hat einen regulativen Einfluss auf das CPF1-Protein, eine Photolyase mit dualer Funktion aus der gleichen Proteinfamilie. Zusätzlich konnte auch ein Einfluss auf die Lichtsensitivität der Genexpression des Rotlichtrezeptors Phytochrom (DPH) durch CryP gezeigt werden. Vergleichbar mit höheren Pflanzen scheint ein regulatives Netzwerk der Photorezeptoren auch in der Diatomee P. tricornutum vorhanden zu sein.
To survive and thrive in nature, animals need to adapt their behavior to their environment. Behavioral adaptation is primarily due to changes within the brain and involves changes in the brain proteome (the collection of proteins in the brain). However, thus far very few studies have examined the proteomic changes during behavioral adaptation. Hence, with this work I set out to determine the proteomic changes induced in the brain of zebrafish larvae undergoing behavioral adaptation. Specifically, I examined the changes induced by adaptation to the natural challenge of strong water currents. To this end I took advantage of an assay developed by my collaborators Luis Castillo and Soojin Ryu. In this assay 5 days old zebrafish larvae were exposed to strong water currents. Subsequently they exhibited a reduction in cortisol response and initial locomotion, and increased rheotaxis, as defined by increased swimming directly against the water current when re-exposed to the water current. I employed this assay to investigate the changes to the larval zebrafish brain proteome during behavioral adaptation. Furthermore, I developed a method for extracting larval brains and prepare them for mass-spectrometric analysis. This work not only allowed the comparison of the brain proteome of naïve and behaviorally-adapted larvae, but also resulted in the most comprehensive proteome of the zebrafish brain observed to date and the first proteome of the larval zebrafish brain. In total 4309 proteins were identified in the brain. When the proteome of naïve and behaviorally adapted larvae were compared 41 proteins were found to be more abundant and 16 to be less abundant in the pre-exposed larvae. Of these 57 proteins, 28 have previously been found to have functions in the brain, 17 with functions identified in other tissues, and 12 proteins that have yet to be described. From examining the most relevant function of each protein I propose a speculative model in which the larval brain undergoes behavioral adaptation and becomes less susceptible to stress (reduction in mecp2 and hsp90 protein), form new neuronal connections (regulation of arid1b, fmn2b, ptpra, mycbp2, and pcyt2), modulate existing connections (regulation of asic1b, calsenilin, ptpra, aplp2, dag1, olfm1b, mycbp2, smad3a, and acvr2a abundance), undergo spatial learning in form of navigating the water vortex (increases in calsenilin, ptpra, and pcyt2), show an elevation in protein turnover (increases in lamp2, Ublcp1, larp4b, and ublcp1), have increased and regulated energy production (increases or reduction in rpia, ldhbb, and mitochondrial proteins; nfs1, eci1, MRPS2B, MRPL4, and mrps2), and a decrease in neurogenesis (reduction in smad3a, and ric8a).
To further investigate proteomic changes during behavioral adaptation, I investigated the translational response by metabolically labeling the larval forebrain with ANL and visualizing the labeled proteins using the fluorescent non-canonical amino acid tagging (FUNCAT). I detected a general increase in translation within the forebrain as a result of the water vortex adaptation, which correlated well with the range of changes observed in the brain proteome. Specifically, a region within the forebrain correlated with a region in the adult zebrafish that is homologous to the mammalian limbic region.
Taken together these results show that during behavioral adaptation, protein synthesis is significantly increased in the larval forebrain, and that throughout the brain regulation of the proteome includes proteins that could support the following functions: changes or modifications in neuronal connectivity, the stress response, spatial learning, changes in energy metabolism and changes in neurogenesis.
Lastly, I set out to provide a new tool for zebrafish researchers. Together with Güney Akbalik I introduced metabolic labeling of newly synthesized RNA using 5-ethynyluridine (EU) and subsequent visualization with a copper catalyzed clickreaction to the zebrafish larvae. With 5 hours of EU incubation I was able to visualize newly synthesized RNA and identify pentylenetetrazole-induced transcriptional increases. With this I showed that EU labeling could be implemented to examining transcriptional changes within the brain of zebrafish larvae.
The human Long Interspersed Nuclear Element-1 (LINE-1, L1) is a member of the group of autonomous non-LTR retrotransposons found in almost every eukaryotic genome. L1 elements generate copies of themselves by reverse transcription of an RNA intermediate and integrate into the host genome by a process called Target Primed Reverse Transcription (TPRT). They are responsible for the generation of approximately 35% of the human genome, cover about 17% of the genome and represent the only group of active autonomous transposable elements in humans. L1 activity bears several risks for the integrity of the human genome, since the L1-encoded protein machinery generates DNA double-strand breaks (DSBs) and is capable of conducting numerous genome-destabilizing effects, e.g. causing deletions at insertion sites, disrupting or rearranging coding sequences and deregulating transcription of functional host genes. On the other side, L1 elements have had and still exert a great impact on human genome structure and evolution by increasing the genome size and rearranging and modulating gene expression. Furthermore, due to its endogenous and generally non-pathogenic nature, L1 is a promising candidate as vector for gene delivery in somatic gene therapy. The structure of the flanking regions between de novo L1 integrants and the genomic sequence suggests an involvement of cellular DSB repair pathways in L1 mobilization. To elucidate the role of DSB repair proteins in L1 retrotransposition, I disabled DSB repair factors ATM, ATR, DNA-PK, p53 and Ku70 by knock down (KD) using short hairpin RNA (shRNA) expression constructs. To inhibit the function of DSB repair factors PARP and Rad51, I used dominant negative (DN) PARP and Rad51 mutants. Applying a well established L1-retrotransposition reporter assay in HeLa cells, de novo retrotransposition events were launched in order to test L1 for its retrotransposition activity in the context of altered DSB repair conditions. I could show that L1 retrotransposition frequency after ATM KD had increased by 3-fold, while ATR and p53 KD reduced L1 retrotransposition by approximately one third. Unfortunately, the cytotoxic effects of the DNA-PK and Ku70 shRNA expression constructs were too strong to determine potential effects of DNA-PK and Ku70 KD on L1 retrotransposition. Inhibition of PARP function by expression of the DN mutant and overexpression of wild type PARP were found to increase L1 retrotransposition by 1.8 and 1.5, respectively, while Rad51 DN had no detectable effect. Interestingly, overexpression of wild type Rad51 seemed to roughly double L1 retrotransposition frequencies. Since in my experiments KD or expression of DN mutants was time-delayed to the onset of L1 retrotransposition after transfection into the cells, I developed a temporally controllable, tetracyclin transactivator (tTA)-dependent L1 retrotransposition reporter assay which will be of great value for future L1 retrotransposition studies that rely on temporally controllable retrotransposition. Due to a previously published hypothesis of L1 playing a role in brain development by contributing to somatic mosaicism in neuronal precursor cells, I generated a transgenic mouse (LORFUS) using the tTA-dependent L1 construct to further test this hypothesis. LORFUS harbors a bidirectional cassette driving simultaneous expression of a GFP-tagged L1 retrotransposition reporter and beta-galactosidase. It was bred to another transgenic mouse line expressing tTA in the forebrain. The double transgenic offspring was used to characterize L1 expression and retrotransposition patterns in the brain at postnatal day 15 (P15). General transgene expression indicated by beta-galactosidase activity was found in hippocampus, cortex and striatum, while retrotransposition events revealed by GFP expression were found in hippocampus, cortex, striatum, olfactory bulb and brainstem. These results suggested L1 retrotransposition in the granule layer of the dentate gyrus earlier than P15 and migration of cells carrying these events along the rostral migratory stream into the olfactory bulb. To facilitate the use of L1 as gene delivery tool in gene therapy or genetic engineering, I furthermore intended to manipulate the L1 target site recognition to allow the site-specific integration into defined genomic locations. To this end, I performed crystal structure-guided mutational analysis exchanging single amino acid residues within the endonuclease (EN) domain of L1 to identify residues influencing target site recognition. However, individual point mutations did not change the nicking pattern of L1-EN, but resulted in a reduction of endonucleolytic activity reflected by a reduced retrotransposition frequency. This suggests that additional factors other than the DNA nicking specificity of L1-EN contribute to the targeted integration of non-LTR retrotransposons in the host genomes.
Das idiopathische Parkinsonsyndrom (IPS) wurde durch James Parkinson im Jahr 18171 vornehmlich als neurologische Bewegungsstörung beschrieben. Durch die Verdienste umfassender Forschung und klinischer Diagnostik der letzten Jahrzehnte wird das IPS heute als Syndrom aufgefasst, das neben motorischen auch durch neuropsychiatrische, vegetative und sensible Symptome charakterisiert ist. Eines dieser sogenannten „nicht-motorischen Symptome“ bildet die (milde) kognitive Beeinträchtigung, die jeden vierten nicht-dementen Parkinsonpatienten betrifft2 und die im oft langjährigen Krankheitsverlauf in eine Parkinsondemenz münden kann, an der 8 Jahre nach Krankheitsbeginn bis zu 78% der Parkinsonpatienten leiden.3 Durch die steigende Lebenserwartung der Patienten und die besseren Therapieoptionen der motorischen Komponente eines IPS finden derzeit gerade die nicht-motorischen Symptome sowohl in der Forschung als auch der Klinik zunehmend stärkere Beachtung.
Die motorische Symptomatik des IPS wird vorrangig durch die Degeneration dopaminerger Neuronen in bestimmten Strukturen des Hirnstamms hervorgerufen.4 Die Entwicklung kognitiver Symptome ist komplexer und umfasst vermutlich neben der (genannten) dopaminergen Degeneration die Beeinträchtigung weiterer Neurotransmitter sowie degenerative Prozesse an anderer Stelle des ZNS.5 Insbesondere die Atrophie von frontalem, parietalem und (medio-) temporalem Cortex scheint mit der Parkinsondemenz assoziiert.6–8 Auch gleichzeitig auftretende histopathologische Prozesse, die für die Alzheimer-Demenz charakteristisch sind, werden diskutiert.9
Der Hippocampus, eine Struktur des Mediotemporallappens, leistet einen bedeutenden Beitrag zum deklarativen räumlichen Gedächtnis und zum Arbeitsgedächtnis sowie zur Verarbeitung von Emotionen, sodass er beim normalen Altern, aber auch vielen Erkrankungen, eine wichtige Rolle einnimmt.10–12 Vor allem bei der Alzheimer-Demenz ist der Hippocampus eine sehr früh von der Atrophie betroffene Struktur.13 In den letzten Jahren mehren sich die Hinweise, dass dies auch bei der Parkinsondemenz der Fall ist.14–16 Aus diesem Grund wird im Folgenden ein besonderes Augenmerk auf diese Struktur gelegt.
Die vorliegende Studie setzt sich mit der Fragestellung auseinander, ob und inwiefern sich Parkinsonpatienten mit unterschiedlich ausgeprägten kognitiven Einschränkungen in den Volumina ausgewählter Hirnstrukturen – darunter die corticale graue und weiße 8 Substanz, der Hippocampus und die Hirnventrikel – sowie in den neuropsychologischen Domänen Gedächtnis, Exekutivfunktionen und Aufmerksamkeit, Sprache und visuell-räumliche Funktionen unterscheiden. Außerdem wird untersucht, ob zwischen den Hirnvolumina und dem Grad der kognitiven Einschränkung ein Zusammenhang besteht. Hierzu werden Parkinsonpatienten ohne Demenz (PD), Parkinsonpatienten mit milder kognitiver Beeinträchtigung (PD-MCI) und Patienten mit Parkinsondemenz (PDD) neuropsychologisch untersucht und magnetresonanztomographische Aufnahmen des Gehirns erstellt. Die mit einem automatisierten Messprogramm ermittelten Hirnvolumina werden in Korrelation zu Testungen des Gedächtnisses, der Exekutive und Aufmerksamkeit, der Sprache und visuell-räumlicher Funktionen gesetzt.
Die Arbeit gliedert sich wie folgt: Zum besseren Verständnis der kognitiven Symptomatik werden im ersten Kapitel die nicht-kognitiven Symptome des IPS charakterisiert sowie der aktuelle Wissensstand über Kognition beim IPS wiedergegeben. Anschließend werden die technischen Grundlagen der Magnetresonanztomographie und Methoden zur Auswertung struktureller MRT-Bilder erläutert. Darauf aufbauend wird die Fragestellung konkretisiert, bevor im zweiten Teil der Arbeit die Vorstellung des Studiendesigns, die Präsentation der Ergebnisse und im letzten Teil die Diskussion erfolgen.
The transporter associated with antigen processing (TAP) is a heterodimeric ATP-binding cassette (ABC) transport complex, which selects peptides for export into the endoplasmic reticulum (ER) and subsequent loading onto major histocompatibility complex class I (MHC I) molecules to trigger adaptive immune responses against virally or malignantly transformed cells. Due to its pivotal role in adaptive immunity, TAP is a target for infectious diseases and malignant disorders, such as bare lymphocyte syndrome type I and cancer. A detailed knowledge about the TAP structure and transport mechanism is fundamental for the development of therapies or drugs against such diseases, but numerous aspects are insufficiently determined to date. The aim of this PhD thesis was to elucidate several structural details of TAP using powerful biochemical and biophysical methods and thereby to contribute to the understanding of the translocation machinery functionality.
High protein yields, an efficient isolation from the lipid environment and subsequent purification of a stoichiometric, stable, and functional TAP complex are prerequisites to get detailed insights into TAP functionality. The natural product digitonin is typically used as detergent to isolate TAP, but suffered from fluctuating purity and high costs. The novel detergent GDN was selected from a number of potential detergents upon their ability to isolate and purify TAP overcoming the limitations of digitonin without compromising on functional integrity. State-of-the-art biophysical techniques, such as solid-state nuclear magnetic resonance (NMR), require highly concentrated protein samples. A new and mild procedure to concentrate TAP was established within this thesis. Freeze drying is superior to conventional concentration techniques, such as ultrafiltration, resulting in TAP inactivation and aggregation already at concentrations of 10 mg/mL. This new procedure enables stabilizing TAP in a condensed glycerol matrix and to concentrate the transport complex up to 30 mg/mL active transporter. The functional integrity of the freeze-dried TAP complex was verified by determining equilibrium dissociation constants, peptide dissociation and ATP-hydrolysis rates as well as long-term stabilities identical to untreated TAP. The combined application of the detergent GDN and the freeze drying procedure facilitates the cost-efficient isolation of functional and highly concentrated TAP and enables to study the structure and mechanism of the peptide transporter TAP using modern analyses methods.
Information on peptide-TAP interactions at atomic level have not been obtained so far. This lack of knowledge hampered the mechanistic understanding of the initial steps of substrate translocation catalyzed by TAP. Dynamic nuclear polarization (DNP) enhanced magic angle spinning (MAS) solid-state NMR on highly concentrated TAP samples prepared with the freeze-drying procedure was used within this thesis to study this challenging membrane protein-substrate complex. The affinity and specificity of peptide binding by TAP are mediated by multiple recognition sites in the N- and C-terminal regions. Side-chains of positions 1, 3, and 9 are most substantially affected upon binding to TAP, revealing recognition principles of the translocation machinery. The nonamer peptide binds to TAP in an extended conformation with an N-to-C terminus distance of ~2.5 nm. Molecular docking revealed that the peptide substrate is locked with its N and C termini between TAP1 and TAP2 and adopts a tilted pose with respect to the membrane plane. The identified contact sites of TAP are consistent with results from earlier crosslinking and mutational analyses on the TAP complex.
The inadequate structure determination and insufficient knowledge about the dynamics of substrate translocation impedes a detailed comprehension of the TAP transport mechanism. Advanced biophysical methods, such as pulsed electron paramagnetic resonance (EPR) or single-molecule Förster resonance energy transfer (FRET), enable to locate the peptide-binding pocket and to elucidate dwell-times, conformational states and dynamics within the translocation cycle of TAP. The specific introduction of spin or fluorescent labels via single cysteines for such studies requires a cysteine-less TAP complex. The endogenous cysteine 213 in TAP2 remained to create a pseudo Cys-less TAP complex within this thesis due to its altered substrate repertoire when mutated to serine as shown in previous studies. Latter complex was used to introduce single-Cys mutations in the cytosolic extensions of transmembrane helices of TAP1. Their functional integrity with respect to peptide binding and translocation was comparable to pseudo Cys-less TAP. All pseudo single cysteines were efficiently labeled, but unintentionally C213TAP2 was labeled as well and TAP concomitantly inactivated. These unsatisfactory initial experiments required the generation of a functional, entirely Cys-less TAP transporter within this thesis. Therefore, C213TAP2 was replaced by all 19 proteinogenic amino acids. All analyzed mutants were capable to bind a high-affinity peptide of TAP, but with varying affinities and binding capacities. The replacement of C213 by isoleucine enabled the generation of a cysteine-less TAP complex with functional characteristics similar to the wild-type transporter and will promote the elucidation of the translocation mechanism of the peptide transporter TAP in future studies using pulsed EPR and single-molecule FRET.
Human MSCs are currently deployed in a wide range of clinical applications and disease models, because of their regenerative and immune modulatory potential. Unfortunately, the fate of MSCs after systemic administration and the related interactions within the blood circulation are still not fully understood. The majority of i.v. or i.a administered MSCs accumulate in the lungs and loose traceability after 3-4 days in vivo144. Since engraftment rate and long term persistence of injected MSCs seems rather low, we tried to improve in vivo kinetics by using hyperosmolaric injection media (HyperHAES) in order to describe the impact on biodistribution, cell morphology and survival rate. In vitro culture related changes in morphology and surface expression patterns were analysed using flow cytometry and brightfield morphology scan in correlation with calibrated microbeads. In vivo tracking of male PKH67 labeled human MSCs in an immunecompetent mouse model were achieved using SRY-gene qRT-PCR analysis and flow cytometry/fluorescence microscopy at different time points. Kinetics, viability and cell-cell interaction of HyperHAES coinjected MSCs in comparison to NaCl 0.9% injection media were assessed with a combination of altering mitochondrial membrane potential (MMP), caspase 3/7-activity, additional survival and surface markers. Incubation of human MSCs in hyperosmolaric injection media (HyperHAES) shortly before i.v. injection decreased average diameter of culture expanded MSCs about 30% (from 48.7±2.29μm to 34.6±2.04μm) and improved viability and retrieval rate of injected MSCs within 24h. HyperHAES decreased significantly the loss of MMP and the signal intensity of the dead cell marker PI in comparison to isotonic control. HyperHAES treated MSCs are detected at higher frequencies in most murine tissues but didn`t result in alterations of interaction with the host immune system or caspase activation. Additionally, HyperHAES seemed to enable MSCs to reach organs with smaller microcirculation like the spleen. Functional impairment of MSC in HyperHAES was analysed with Phalloidin A staining for cytoskeletal activation and showed no signs of disturbed actin polymerization, whereas nuisance of migration and immunemodulatory characteristics were not addressed. PKH67 labeled MSCs decrease in size after i.v. injection in mice, acquire apoptotic and phagocytic cell markers, and accumulate in lungs and liver. This process could be delayed but not reverted by preincubation of MSCs in HyperHAES. Our findings help to explain the rapid loss of traceable MSCs after systemic delivery.
Die Populationsgenetik beschäftigt sich mit dem Einfluss von zufälliger Reproduktion, Rekombination, Migration, Mutation und Selektion auf die genetische Struktur einer Population.
In dieser Arbeit mit dem englischen Titel "Ancestral lines under mutation and selection" wird das Zusammenspiel von zufälliger Reproduktion, gerichteter Selektion und Zweiwegmutation untersucht.
Dazu betrachten wir eine haploide Population in der jedes Individuum zu jedem Zeitpunkt genau einen von zwei Typen aus S:={0,1} trägt. Dabei sei 1 der neutrale und 0 der selektiv bevorzugte Typ. Im Diffusionslimes sehr großer Populationen modellieren wir den Prozess der Frequenz der Typ-0-Individuen durch eine Wright-Fisher-Diffusion X:=(X_t) mit Mutation und gerichteter Selektion.
Zu jedem Zeitpunkt s gibt es genau ein Individuum, dessen Nachkommen ab einem bestimmten zukünftigen Zeitpunkt t>s die gesamte Population ausmachen werden. Wir nennen dieses Individuum den gemeinsamen Vorfahren zum Zeitpunkt s, da alle Individuen zu allen Zeitpunkten r>t von ihm abstammen. Sei R_{s} dessen Typ zum Zeitpunkt s. Wir nehmen an, dass der Prozess X zum Zeitpunkt 0 im Gleichgewicht ist und definieren die Wahrscheinlichkeit, dass der gemeinsame Vorfahre zum Zeitpunkt 0 Typ 0 hat, durch h(x):= P(R_{0}=0|X_{0}=x). Eine Darstellung von h(x) wurde bereits von Fearnhead (2002) und Taylor (2007) gefunden und dort mit vorwiegend analytischen Methoden bewiesen. In dieser Arbeit entwickeln wir in Kapitel 3 ein neues Teilchenbild, den pruned lookdown ancestral selection graph (pruned LD-ASG), der für sich selbst genommen interessant ist und eine neue probabilistische Interpretation der Darstellung von h(x) liefert.
Durch Erweiterung des Teilchenbildes auf Nachkommenverteilungen mit schweren Tails und mit Hilfe einer Siegmund Dualität gelingt es uns in Kapitel 4 das Resultat für h(x) von klassischen Wright-Fisher-Diffusionen auf Lambda-Wright-Fisher-Diffuison zu erweitern.
Eine Verbindung zwischen Ideen von Taylor (2007), der den gemeinsamen Prozess (X,R) untersucht hat, und einem von Fearnhead (2002) betrachteten Prozess (R,V), der die Entwicklung des Typs R des gemeinsamen Vorfahren in einer Umgebung von V sogenannten virtuellen Linien beschreibt, stellen wir in Kapitel 6 her. Wir bestimmen die gemeinsame Dynamik des Tripels (X,R,V). In Kapitel 7 betrachten wir ein diskretes Bild mit endlicher Populationsgröße N und schlagen dort eine Brücke zu Resultaten von Kluth, Hustedt und Baake (2013).
Des Weiteren entwickeln wir in Kapitel 5 dieser Arbeit einen Algorithmus zur Simulation der Typen einer Stichprobe von m Individuen, die aus einer Wright-Fisher-Population mit Mutation und Selektion im Gleichgewicht gezogen wird. Mittels dieses Algorithmus illustrieren wir die Typenverteilung für verschiedene Parameterwerte und Stichprobengrößen.
Great interest has emerged recently in the search for Kitaev spin liquid states in real materials. Such states rely on strongly anisotropic magnetic interactions, which have been suggested to exist in a number of candidate materials based on Ir and Ru. This thesis concentrates on two priority purposes. The first is the investigation of electronic and magnetic properties of candidate materials Na2IrO3, α-Li2IrO3, α-RuCl3, γ-Li2IrO3, and Ba3YIr2O9 for Kitaev physics where both spin-orbit coupling and correlation effects are important. The second is the method development for the microscopic description of correlated materials combining many-body methods and density functional theory (DFT). ...
Die Dissertation befasst sich mit den kognitiven Prozessen die Intelligenz ausmachen und ist in drei Teile aufgeteilt. Der erste Teil rezensiert den Beitrag kognitiver und nicht-kognitiver Variablen zur Vorhersage von Hochbegabung in einer Altersspanne die von der Geburt bis zur Einschulung reicht. Aus dem nicht-kognitiven Bereich stammen Konstrukte wie Schlafverhalten, motivationale Faktoren wie Neugier und Interesse, und deren Interaktion mit dem sozialen Umfeld. Kognitive Variablen stellen frühe, außergewöhnliche Sprach-, Lese-, Schreib- und Rechenfähigkeiten dar, sowie Intelligenzquotienten, die mit den gängigsten testpsychologischen Verfahren ermittelt werden, und Komponenten der Informationsverarbeitung wie Habituation und Arbeitsgedächtnis. Trotz der Berichte über mittlere Korrelation ist die aktuelle Datenlage kritisch zu betrachten und weist eine niedrige Vorhersagevalidität der Frühprognose von Hochbegabung auf. Es wird mit dem dynamischen Modell der Intelligenz argumentiert, nach dem die mangelnde prognostische Validität und die Unzuverlässigkeit der kognitiven Vorhersageindikatoren auf die Annahme zurückzuführen sind, dass kognitive Prozesse unabhängig voneinander sind. Erst im Laufe des Lebens werden diese immer häufiger miteinander verknüpft und korreliert (Mutualismus). Das bedeutet, es findet eine zunehmende Integration kognitiver Prozesse statt und daraus resultiert der g-Faktor.
Doch das Arbeitsgedächtnis spielt weiterhin eine zentrale Rolle in Bezug auf Intelligenz, wenn nicht im Säuglingsalter, dann zumindest ab dem Vorschulalter und besonders im Erwachsenenalter. Arbeitsgedächtniskapazität stellt das Ausmaß an Fähigkeit dar, Informationen simultan zu speichern und zu verarbeiten, ohne die Notwendigkeit auf Vorwissen zurückzugreifen. Es kann damit als eng umschriebener kognitiver Prozess aufgefasst werden. Vorherige Forschungsarbeiten haben bereits deutlich gezeigt, dass Arbeitsgedächtnis und Intelligenz korrelativ stark zusammenhängen. Das ist durchaus überraschend, denn die Aufgaben und Tests mit denen die Konstrukte jeweils erfasst werden können sich oberflächlich stark unterscheiden. Um fluide Intelligenz valide erfassen zu können, sind Aufgaben zum induktiven Denken, wie zum Beispiel Matrix-Aufgaben, sehr beliebt. Im Rahmen der zweiten Arbeit hat man sich dem Einfluss der Prozesse Zielmanagement und Regel-Induktion auf den Zusammenhang zwischen Arbeitsgedächtnis und Problemlösung der Matrix-Aufgaben gewidmet. Zielmanagement wurde bereits zuvor mit dem Arbeitsgedächtnis in Verbindung gebracht jedoch war die Befundlage hinsichtlich der Regel-Induktion unklar. Daher sollte die Hypothese ob Regel-Induktion unabhängig vom Arbeitsgedächtnis ist, in einem kritischen Experiment überprüft werden. Bei Neutralisierung der Notwendigkeit für Regelinduktion, indem den Probanden die Regeln im Voraus erklärt wurden, konnte man einen erhöhten Zusammenhang zwischen dem Arbeitsgedächtnis und der Leistung in der Matrix-Aufgabe erkennen. Das deutete in der Tat darauf hin, dass Regel-Induktion nicht vom Arbeitsgedächtnis abhängig ist, zumindest nicht im gleichen Maße wie Zielmanagement. Darüber hinaus zeigte sich: Die Kenntnis der Regeln beeinflusst den Problemlöseprozess. Eye-Tracking-Messungen weisen auf eine konstruktive Anpassungsstrategie in der Experimentalbedingung (mit Regelwissen) hin. Basierend auf den Erkenntnissen aus vier Experimenten, wird mit zwei möglichen Mechanismen argumentiert, die die Steigerung des Zusammenhangs zwischen Arbeitsgedächtnis und Matrix-Problemlösen in der Experimentalgruppe erklären könnten.
Alternativ zur zuvor angenommenen Unabhängigkeit von Regel-Induktion und Arbeitsgedächtnis, könnte die erhöhte Korrelation bei bekannten Regeln auch mit der beobachteten Strategieänderung erklärbar sein. Die dritte und letzte Arbeit widmete sich deshalb erneut dieser Fragestellung. Erneut kamen Matrix-Aufgaben zum Einsatz und es wurden Testleistung, Augenbewegung und Reaktionszeiten erhoben, um den Einfluss von Regelwissen zu erfassen. Es zeigte sich die Anwendung einer effektiveren Lösungsstrategie in der Experimentalbedingung. Anhand der Eye-Tracking Messung wurde gezeigt, dass Probanden mit Regelwissen über einen längeren Zeitraum das problemrelevante Areal der Matrix-Aufgabe fixieren, und eine niedrigere Frequenz an Sakkaden zwischen diesem Areal und den Antwortalternativen aufwiesen.
Weitere Einflussvariablen auf die Lösestrategie stellen Schwierigkeit der Aufgabe und Fähigkeiten des Probanden dar. Diese weisen einen differenziellen Einfluss auf zwei Subgruppen von Indikatoren der Augenbewegungsmessung auf, die in Relation zu den Reaktionszeiten gesetzt wurden um ein besseres Verständnis dieser Variablen zu erzielen. Es wird vermutet, dass Variablen wie Augenbewegungen und Reaktionszeiten das Ausmaß des Entstehens von mentalen Modellen während des logischen Denkens widerspiegeln. Unter der Annahme dass die Komplexität von Mentalen Modellen mit einer gewissen Belastung für das Arbeitsgedächtnis einhergeht, lassen sich auch vorherige Ergebnisse mit dieser Hypothese in Einklang bringen. Abschließend werden die grundlegenden kognitiven Prozesse des induktiven Denkens diskutiert und ein Ausblick auf zukünftige Intelligenzmessung angeboten.
In Anbetracht der wachsenden soziokulturellen Vielfalt in Deutschland und in anderen europäischen Ländern wächst die Relevanz pädagogischer Ansätze zur kulturellen Verständigung und somit auch der soziokulturellen Kommunikation und Sozialisationsforschung.
D. Kumbier und F. Schulz von Thun beschreiben diese Situation in folgender Weise: "Wenn Menschen miteinander in Kontakt treten, prallen Welten aufeinander. Das ist schon innerhalb einer Kultur der Fall, weil jeder mit einem persönlichen mentalen System ausgestattet ist, das ihn zu einem einmaligen und einsamen Inselbewohner macht. Unsere ganze Kommunikationspsychologie legt es darauf an, für diesen Prozess der Bewegung von Welten ein Bewusstsein zu schaffen und auf diese Grundlage kompetente Umgangsformen aufzubauen" (Kumbier/Schulz von Thun 2008, S. 9).
Hier begegnen sich zwei Welten, die auf zwei verschiedenen Kontinenten liegen, deren Werteorientierungen und kulturelle Normen und Gebräuche auf verschiedenen Weltreligionen basieren, die sich im Laufe der Jahrhunderte anders entwickelt haben. Hier ist die Rede von Asien und Europa, vom Christentum und Islam, von einem Entwicklungsland und einem Industrieland, nämlich von Afghanistan und Deutschland.
Eine nähere Betrachtung zeigt, dass das Christentum, das Judentum und der Islam eine gemeinsame Wurzel haben und sich von dem gemeinsamen Stammvater Abraham herleiten. Der große Unterschied besteht darin, dass Europa die Aufklärung erlebt hat und Religion heute überwiegend als eine Option empfunden wird. ...
Die Beobachtung, dass Tumorzellen häufig eine Abhängigkeit gegenüber einer einzelnen und treibenden Mutation entwickeln, obwohl sie zahlreiche Mutationen aufweisen, bildet die Grundlage der mittlerweile etablierten, zielgerichteten Tumortherapie (Weinstein, 2002). Mit der Identifikation verantwortlicher Signalwege sowie beteiligter Signalkomponenten, sind Ansatzpunkte für diese Therapieform geschaffen worden, die bereits zu einigen Erfolgen in der Leukämie-, Brustkrebs- oder Lungenkrebsbehandlung geführt haben (Druker et al., 2001; Slamon et al., 2001; Kwak et al., 2010) . In vielen Fällen stellt sich jedoch ein Rückfall aufgrund der Ausbildung von Resistenzen ein oder auch das Nichtanschlagen der Therapien wird beobachtet (Ramos & Bentires-Alj, 2015).
Verschiedenste Mechanismen kommen dabei in Frage, doch häufig werden kompensatorische Veränderungen in den Signalwegen beobachtet, die schließlich zur Umgehung der Inhibition führen (Holohan et al., 2013). Grundlage hierfür ist die Redundanz und Verknüpfung der Signalwege mit- und untereinander, die es der Zelle im Sinne der Homöostase ermöglichen sich flexibel an ihre Umgebung anzupassen (Rosell et al., 2013; Sun & Bernards, 2014) . Daher ist es von äußerster Wichtigkeit, die Mechanismen der Inhibition im Hinblick auf die Signalwege der Zellen genauer zu verstehen, und dabei nicht nur die direkten, sondern auch die indirekten Effekte der Inhibition zu analysieren. So lassen sich Rückschlüsse auf den Einsatz zielgerichteter Medikamenten ziehen, die in besseren Therapiekombinationen resultieren und dadurch die Entstehung von Resistenzen verhindern.
Eine Hyper-Aktivierung von STAT3 sowie das dadurch induzierte Genmuster sind als starkes onkogenes Signal identifiziert worden, und spielen darüber hinaus an der Vermittlung von Resistenzen gegenüber Tumortherapien eine entscheidende Rolle. Durch seine Rolle in diversen zellulären Prozessen, beeinflusst STAT3 die Proliferation und das Überleben von Tumorzellen, ihr migratorisches und invasives Verhalten sowie ihre Kommunikation mit Stroma- und Immunzellen. (Bromberg et al., 1999; Wake & Watson, 2015) Sehr selten ist die aberrante Aktivierung des Transkriptionsfaktors auf eigene Mutationen zurückzuführen, vielmehr sorgen Treiber überhalb für diese (Johnston & Grandis, 2011; Kucuk et al., 2015).
In der vorliegenden Arbeit wurden verschiedene STAT3-Inhibitionen in unterschiedlichen Modellen verglichen um darüber Rückschlüsse auf Kriterien einer Therapie zu ziehen. In einem Gliommodell aus der Maus, dem eine v-SRC-Expression als Treiber zu Grunde liegt (Smilowitz et al., 2007), wurde eine indirekte, BMX-vermittelte STAT3-Inhibition mit einer zielgerichteten STAT3-Hemmung verglichen. BMX, die zur TEC-Kinase-Familie gehört, wird als STAT3-aktivierende Kinase beschrieben. In letzter Zeit wurde ihr Einfluss bei der Tumorentwicklung immer deutlicher (Dai et al., 2006; Hart et al., 2011; Holopainen et al., 2012). Unter anderem konnte in Glioblastom-Stammzellen eine BMX-vermittelte STAT3-Aktivierung als Treiber für die Selbsterneurungskapazität und das tumorigene Potential identifiziert werden (Guryanova et al., 2011). Mit dem Tyrosinkinase-Inhibitor Canertinib ist es gelungen, in den murinen Tu-2449-Gliomzellen eine BMX-vermittelte STAT3-Aktivierung nachzuweisen und zu inhibieren. Dies ist damit die erste Arbeit, in der Canertinib als BMX-Inhibitor in einem endogenen Zellsystem getestet wurde. Die einmalige Canertinib-Gabe resultierte in einem Zellzyklusarrest der G1-Phase und die Aufrechterhaltung der Inhibitorwirkung im Zelltod. Im Vergleich dazu konnte eine RNAivermittelte STAT3-Stilllegung nicht das Absterben dieser Zellen induzieren. Mit der Suche weiterer Zielstrukturen von Canertinib, die die Grundlage dieser unterschiedlichen Phänotypen bilden, konnte eine zusätzliche AKT-Inhibition identifiziert werden. Sehr wahrscheinlich wird die AKT-Inhibition ebenfalls durch BMX vermittelt, da keine Inhibition der ERBB-Familie bestätigt werden konnte. Um die Effekte weiter abzugleichen wurden Canertinib-Versuche mit einem humanen Brustkrebsmodell durchgeführt, das als Treiber eine Überexpression des EGFR aufweist.
In MDA-MB-468-Zellen, in denen keine BMX-Aktivierung vorliegt, resultierte eine Canertinib-Behandlung in der sehr prominenten Inhibition des ERK-Signalweges und in einer weniger ausgeprägten Verminderung der STAT3- und AKT-Aktivierung. Auch in diesen Zellen führte die Canertinib-Behandlung zum Zelltod. Diese Effekte werden sehr wahrscheinlich durch die Inhibition des EGFR induziert, da Canertinib als pan-ERBBInhibitor beschrieben ist (Slichenmyer et al., 2001; Djerf Severinsson et al., 2011) .
Resultate die früher in der Arbeitsgruppe gewonnen wurden, beweisen, dass eine Herunterregulation von STAT3 in der Brustkrebszelllinie MDA-MB-468 ausreicht um ein Absterben der Zellen zu induzieren (Groner et al., 2008).
Die Ergebnisse dieser Arbeit zeigen, dass eine Canertinib-Behandlung über die Inhibition unterschiedlicher Signalwege den Zelltod in beiden Zelllinien induziert. Obwohl beide Zelllinien Treiber-vermitteltes, konstitutiv aktives STAT3 aufweisen, stellt nur in den Brustkrebszellen seine Inhibition eine ausreichende Therapiebedingung dar. Somit sind die Unterschiede zwischen den beiden Zelllinien essentiell für ein Überleben der Zellen nach einer STAT3-Inhibition. In Zukunft ist es wichtig, diese Unterschiede zu identifizieren um damit zu definieren, in welchen Patientengruppen eine STAT3-Inhibition zum Erfolg führt.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von regionalen Klimasimulationen für die Region Ostasien. Hierfür werden zwei verschiedene Modellierungsansätze verwendet. Der dynamische Regionalmodellierungsansatz, vertreten durch COSMO CLM (CCLM), und der statistische Modellierungsansatz, vertreten durch STARS. Die Simulationen erfolgten unter den Rahmenbedingungen des Coordinated Regional Climate Downscaling Experiment (CORDEX). Beide Regionalmodelle wurden im Rahmen dieser Arbeit umfassend für die Region CORDEX-Ostasien kalibriert und evaluiert. Das statistische Modell STARS wurde hierbei erstmals auf kontinentaler Ebene angewendet. Auf Basis der kalibrierten Modelle wurden Projektionen der zukünftigen klimatischen Entwicklung der Region durchgeführt.
Zur Auswertung der einzelnen Kalibrierungsläufe wurde ein komplexes Evaluierungsschema, mit einem Gütekennzahlensystem basierend auf einer linearisierten Form der relativen Modelldifferenz, entwickelt. Neben den etablierten univariaten statistischen Kennwerten (Mittelwert, Varianz, Trend) enthält das Gütekennzahlensystem auch ein bivariates statistisches Maß, welches die zweidimensionalen Stichprobenverteilungen zweier Variablen (beispielsweise Temperatur und Niederschlag) bewertet.
Im Rahmen der Kalibrierung konnte ein Großteil des Parameterraums des statistischen Modells STARS systematisch untersucht werden. Es zeigte sich, dass nur wenige Parameter einen Einfluss auf die Simulationen haben. Die meisten Parameter zeigten eine geringe und teilweise unsystematische Beeinflussung. Es konnte zudem eine Schwachstelle des Modells in Bezug auf die Variablenkorrelationen identifiziert werden. Bei der Kalibrierung des dynamischen Regionalmodells CCLM zeigte sich, dass aufgrund der groben horizontalen Auflösung des Modells eine signifikante Verbesserung der Simulationen durch eine Anpassung der physikalischen Parametrisierungen erfolgen kann.
Im Rahmen einer abschließenden Evaluierung wurden beide Modelle hinsichtlich ihres räumlichen Bias, des simulierten Jahresgangs und der Abbildung des asiatischen Monsunphänomens untersucht. Im ersten Punkt ergab sich kein qualitativer Unterschied zwischen CCLM und STARS. Beide Modelle zeigen eine deutliche Überschätzung der 2m-Temperatur im Winter über dem nördlichen Teil CORDEX-Ostasiens und eine Überschätzung des Luftdrucks über dem Hochland von Tibet im Sommer. Unterschiede zwischen beiden Modellen ergaben sich hingegen beim simulierten Jahresgang.
In Bezug auf die Modellierung des Monsunphänomens zeigt CCLM eine Unterschätzung der Intensität des indischen Sommermonsuns und eine Überschätzung des Sommermonsuns über dem westlichen Nordpazifik. Das statistische Modell STARS zeigte eine Auffälligkeit bei der Simulation des Jahresgangs sowie der räumlichen und zeitlichen Entwicklung des Sommermonsuns. Aufgrund der Konzeption des Modells ergab sich in einzelnen Regionen eine systematische Deformation des Jahresgangs. Trotz der identifizierten Schwachstellen von CCLM und STARS, bilden beide Modelle das Klima über der Region CORDEX-Ostasien qualitativ ähnlich gut ab wie aktuelle Reanalysen (ERA-Interim).
Auf Basis der kalibrierten und evaluierten Modelle wurden Klimaprojektionen für einen nahen (2020-2046), mittleren (2041-2070), und späten (2071-2100) Projektionszeitraum unter den Emissionsszenarien RCP2.6, RCP4.5 und RCP8.5 durchgeführt. Aufgrund von Modellbeschränkungen begrenzen sich die Rechnungen des Modells STARS auf den nahen Projektionszeitraum und die Emissionsszenarien RCP2.6 und RCP4.5. Die Projektionen beider Modelle zeigen eine deutliche und statistisch signifikante Erhöhung der 2m-Temperatur über der gesamten Region mit einer stärkeren Erwärmung über dem Kontinent gegenüber dem Meer. Aufgrund der relativ großen interannulären Variabilität des Niederschlags und des Luftdrucks werden statistisch nicht signifikante Änderungssignale und teils widersprüchliche Änderungen für den nahen Projektionszeitraum simuliert. Für den späten Projektionszeitraum ergeben sich jedoch deutliche Änderungssignale in den Simulationen des Modells CCLM. Insbesondere über dem Hochland von Tibet wird für den Zeitraum von 2071-2100 eine Temperaturerhöhung von über 7.0°C simuliert. Der Luftdruck und der Niederschlag zeigen räumlich heterogene Änderungssignale. Die spezifische Ausprägung der Luftdruckänderungen deutet auf eine Abschwächung der indischen Sommermonsunzirkulation und eine deutlichen Intensivierung des Sommermonsun über dem westlichen Nordpazifik hin. Die Niederschlagsänderungen über dem ostasiatischen Monsungebiet lassen auf eine Entkopplung der östlichen Monsunsysteme schließen. Trotz der heterogenen Änderungssignale im Niederschlag wird in den meisten Regionen eine Zunahme der Intensität von Extremniederschlägen simuliert. Dies gilt selbst für Regionen mit einer simulierten Abnahme der jährlichen Niederschlagssumme wie Westindonesien.
In der vorliegenden Arbeit werden funktionale Details der Okklusion während der Mastikation bei ausgewählten fossilen und rezenten Primaten quantitativ vergleichend untersucht. Dazu wurden die Okklusionsflächen von antagonistischen Molarenpaaren mit modernen virtuellen Verfahren eingescannt und anhand von 3D Kronenmodellen kartiert und funktional ausgewertet. Die in der Forschergruppe DFG FOR 771 entwickelte Software „Occlusal Fingerprint Analyser“ (OFA) kam erstmals bei einer großen Stichprobe von Primaten zum Einsatz.
Aus dem ursprünglichen tribosphenischen Molarentyp der frühen eozänen Primaten haben einige Nahrungsspezialisten im Laufe der Evolution Modifikationen entwickelt um ihre Nahrung mechanisch besser aufzubereiten. So sind neue Funktionselemente auf den Molaren entstanden, wie z.B. ein distolingualer Höcker (Hypoconus) auf den Oberkiefermolaren.
Die Auswertung der Parametermessungen, wie die Facettenlage und -größe, der Okklusale Kompass, der Mastikationskompass und die Messungen der Okklusionsreliefs ergaben, dass die basalen Primatenvertreter aus dem Eozän einen flachen Hypoconus als vergrößerte Fläche zum Quetschen der Nahrung genutzt haben. Das weist auf eine frugivore Nahrungspräferenz hin. Der distolinguale Höcker ist unter den rezenten Spezies mit insektivorer Nahrungspräferenz besonders häufig ausgebildet. Es konnte gezeigt werden, dass eine zweite Kauphase, die nach der maximalen Verzahnung mit der Öffnung des Kiefers eintritt, unter den rezenten Strepsirrhini mit Hypoconus nur sehr schwach ausgeprägt ist.
Eine weitere evolutionäre Modifikation sind buccolingual ausgerichtete komplementäre Kantenpaare auf den Molaren, die sogenannte Bilophodontie, die sich in der Familie der Cercopithecidae entwickelt hat. Die Unterfamilie der Colobinae zeigt eine besonders stark reliefgeführte Okklusion und hat deshalb während der Mastikation weniger Bewegungsspielraum als die der Cercopithecinae. Die zweite Kauphase der Cercopithecinae ist gegenüber den folivoren Colobinae zum Teil auffällig verlängert. Da die Colobinae Vormagenverdauer und die Cercopithecinae Monogastrier sind, kann vermutet werden, dass die Zahnmorphologie eng mit der entsprechenden chemischen Verdauungsweise verknüpft ist. Das dryopithecine Höckermuster der Hominoidea hat eine wesentlich flachere Höckermorphologie als die bilophodonten Molaren. Daher war ein höherer Bewegungsspielraum während der Mastikation beobachtbar. Es konnte gezeigt werden, dass steilere Facetten bei den folivoren Nahrungsspezialisten zu finden sind, wie den Colobinae bei den bilophodonten, oder den Gorillas unter dem dryopithecinen Molarentyp. Mit einem flacheren Molarenrelief kann auf ein breiteres Nahrungsspektrum zugegriffen werden.
Mit den OFA-Analysen und den Ergebnissen der Quantifizierung des Kronenreliefs von rezenten und fossilen Primatenzähnen konnte in der vorliegenden Untersuchung eine relevante Vergleichsbasis für ein funktionelles Verständnis der Evolution der vielfältigen Kronenformen bei Primaten erarbeitet werden. Für zukünftige Studien sollte die innerartliche Stichprobe erweitert werden um die Variabilität näher zu untersuchen.
Hintergrund: Die Delegation ärztlicher Leistungen an nichtärztliches medizinisches Fachpersonal wird in Deutschland vor dem Hintergrund eines absehbaren Hausärztemangels bei gleichzeitig wachsendem Bedarf an hausärztlichen Betreuungsleistungen seit einiger Zeit diskutiert. Inzwischen wurden unterschiedliche Qualifikationsmodelle für Medizinische Fachangestellte (MFA) (z.B. die Versorgungs-assistentin in der Hausarztpraxis, VERAH) konzipiert und implementiert, die für eine Delegation von Leistungen qualifizieren. VERAH sind v.a. in Baden-Württemberg in Hausarztpraxen tätig, da deren Einsatz dort im Rahmen der Hausarztzentrierten Versorgung (HzV) seit 2008 finanziell honoriert wird. Dabei ist es den Praxen freigestellt, wie sie das VERAH-Konzept und damit auch die Delegation umsetzen. Auch gesetzliche Vorgaben zur Delegation lassen erheblichen Spielraum bei der Umsetzung. Erschwerend kommt hinzu, dass weiterhin Unklarheit darüber besteht, welche Leistungsübertragung als „Delegation“ und welche eher als „Substitution“ zu verstehen ist.
Zielrichtung der Arbeit: Ziel dieser publikationsbasierten Dissertation ist eine Darstellung der Formen und Graduierungen von Delegation, d.h. der tatsächlichen Umsetzung von Leistungsübertragung in der Hausarztpraxis am Beispiel der VERAH in Baden-Württemberg. Es können Empfehlungen für das Gelingen der Delegation aus der Analyse von Ergebnissen auf Patienten-, Praxis- und Teamebene abgeleitet werden.
Resultate: Diese Dissertation basiert auf sechs Publikationen, die im Rahmen von zwei Projekten zur Evaluation des VERAH-Einsatzes in der HzV in Baden-Württemberg entstanden. Die Evaluationen basieren auf einem Mixed Methods-Design, d.h. auf der Analyse von querschnittlich erhobenen quantitativen Daten sowie qualitativen Daten zu verschiedenen Fragen des VERAH-Einsatzes.
Es existiert ein breites Spektrum an Formen und Graduierungen der Delegation in Hausarztpraxen, die am HzV-Modell teilnehmen. VERAH übernehmen einerseits supplementäre (zusätzliche) ärztliche Tätigkeiten, wie z.B. Geriatrisches Assessment oder Impfberatungen, aber auch komplementäre (ergänzende) Tätigkeiten wie z.B. die Beratung der Angehörigen zu Hilfeleistungen im Gesundheitssystem. Vor allem im Rahmen von Hausbesuchen üben VERAH auch substituierende (ersetzende) Funktionen
aus. Auf Patientenseite sind gerade ältere, multimorbide und pflegebedürftige Patienten Empfänger delegierter Leistungen. Sie erhalten eine umfassende Betreuung und werden beim Erhalt ihrer häuslichen Selbständigkeit unterstützt. Die Patienten sehen in der VERAH eine zusätzliche Vertrauensperson in der Praxis und akzeptieren sie als kompetente Ansprechpartnerin. Die Hausärzte profitieren durch die Delegation von Tätigkeiten an VERAH, indem sie entlastet werden und Zeit für wichtige medizinische Aufgaben gewinnen. Für VERAH stellt die Delegation eine Erweiterung ihrer Tätigkeits- und Kompetenzbereiche dar und kann insofern als ein Schritt zur Professionalisierung des nichtärztlichen Personals einer Hausarztpraxis gelten.
Viele Faktoren, die zum Gelingen einer Umsetzung der Delegation beitragen, können vom hausärztlichen Team selbst beeinflusst werden. Darunter fallen das Engagement der MFA, die Qualifikation, zeitliche Flexibilität, ausreichend Gestaltungsspielraum, Grad der Autonomie, Abgrenzung des Verantwortungsbereiches und auch adäquates Equipment. Entsprechend richten sich die hier formulierten Empfehlungen meist an die Praxis, aber auch an den Gesetzgeber.
Bedeutung für die übergeordnete Fragestellung: Die Ergebnisse dieser Arbeit zeigen, dass mit dem VERAH-Konzept erste Ansätze einer teambasierten Versorgung vorhanden sind, und dass sich die Analyse dieses Konzeptes eignet, um Desiderata für die Zukunft von Delegation (haus-)ärztlicher Leistungen an nichtärztliches Personal formulieren zu können. Teambasierte Ansätze bedürfen, wie auch internationale Beispiele verdeutlichen, einer Weiterentwicklung der bestehenden Delegationskonzepte in deutschen Hausarztpraxen. Idealerweise mündet eine mit Delegation einhergehende Aufgaben- und Rollenneuverteilung in einer Betreuungsform, in der alle Teammitglieder entsprechend ihrer Qualifikation an der Versorgung der Patienten in der Hausarztpraxis beteiligt sind. Daher kommt die Einbindung von Pflegekräften in die hausärztliche Versorgung genauso in Frage, wie auch speziell ausgebildete VERAH/MFA. In jedem Fall sollte über Schritte der Professionalisierung nichtärztlicher Berufsgruppen nachgedacht werden. Ob sich in Deutschland, wie in den USA und in Kanada, aus diesen Delegationskonzepten im Laufe der Zeit Substitution (im Sinne der Verantwortungsübertragung an nichtärztliche Berufsgruppen) entwickelt, bleibt abzuwarten. Die Ergebnisse der Dissertation zeigen, dass es mit der gegenwärtigen Umsetzung der Delegation an VERAH zu einer Erweiterung des Leistungsspektrums in den Hausarztpraxen kommen kann; eine Ausweitung der Delegation sollte jedoch zeitnah vorangetrieben werden.
This thesis addresses the reconstruction of the topographic evolution and the climate dynamics of the Early Cenozoic North American Cordillera through integrated geochronology, sedimentology, stable isotope, and clumped isotope thermometry studies. It encompasses the scientific disciplines of geochemistry, tectonics, and Earth surface processes.
Die eukaryotische RNA-Polymerase II (RNAPII) ist der zentrale Faktor für die Umsetzung des genetischen Codes in funktionelle Proteine. Durch die Transkription wird die statische Information der DNA in ein transient nutzbares RNA-Molekül umgewandelt. Bei diesem fundamentalen Prozess der Genexpression wird ein spezifischer DNA-Abschnitt des Genoms abgelesen und in die komplementäre RNA transkribiert, die entweder direkt regulatorische bzw. funktionelle Aufgaben in der Zelle übernimmt oder als Matrize für die Proteinbiosynthese dient. Zur Erhaltung der Funktionalität eines Organismus und zur schnellen und gezielten Reaktion auf exogene Reize ist eine strikte Regulation der Transkription und der zahlreichen beteiligten Faktoren notwendig. Aufgrund der zentralen Rolle in der Genexpression ist diese Regulation äußerst vielschichtig und erfordert eine feinabgestimmte Maschinerie an Enzymen und Transkriptionsfaktoren, deren genaue Wirkungsweise und Abhängigkeit noch nicht vollständig verstanden sind. Fehler in der Transkriptionsregulation werden mit einer Reihe von schwerwiegenden metabolischen Störungen und der möglichen malignen Transformation der betroffenen Zelle in Verbindung gebracht.
Während einige Regulationsmechanismen der RNAPII bereits seit längerer Zeit beschrieben sind, ist eine besondere Form der RNAPII-abhängigen Regulation erst in den letzten Jahren Gegenstand genauerer Untersuchungen geworden. So erfährt die RNAPII bei einer Vielzahl von Genen unmittelbar nach der Transkriptionsinitiation einen Arrest, der das Enzym nicht weiter über die DNA prozessieren lässt und somit die produktive Elongation des Gens blockiert. Die Aufhebung dieses promotornahen Arrests wird durch den positiven Transkriptions-Elongationsfaktor b (P-TEFb) dominiert, der durch distinkte post-translationale Modifikationen der C-terminalen Domäne der RNAPII und assoziierter Faktoren den Übergang in die produktive Transkriptionselongation ermöglicht. P-TEFb selbst unterliegt dabei einer strengen Regulation durch die Inkorporation in inhibierende Speicherkomplexe (7SK snRNPs), bestehend aus der 7SK snRNA und mehrerer assoziierter Proteine. Abseits des 7SK snRNP wurde P-TEFb als Bestandteil großer Multiproteinkomplexe identifiziert, die einen positiven Einfluss auf die Transkriptionselongation besitzen. Die Transition von P-TEFb aus dem 7SK snRNP in diese sogenannten Superelongationskomplexe (SECs) stellt einen der zentralen Regulationsmechanismen der eukaryotischen Transkription dar, ist jedoch noch nicht ausreichend verstanden.
Ein zentrales Element aller SECs bilden die Mitglieder der AF4/FMR2-Proteinfamilie, darunter das AF4 Protein, dem neben der Erhaltung der strukturellen Integrität mittlerweile auch eine Funktion in der Rekrutierung von P-TEFb zugeschrieben wird. Dabei scheint AF4 jedoch auf die Hilfe bislang noch nicht charakterisierter Faktoren angewiesen zu sein. AF4 ist über diese Rolle hinaus als Bestandteil des Fusionsproteins AF4-MLL eng mit der onkogenen Zelltransformation im Falle einer durch die Translokation t(4;11)(q21;q23) bedingten, akuten lymphoblastischen Leukämie assoziiert.
Das zentrale Thema dieser Arbeit stellen Untersuchungen zum Transfer von P-TEFb aus dem 7SK snRNP zum AF4-Protein dar. Dabei konnte zunächst die DEAD-Box RNA-Helikase DDX6 als Integraler Bestandteil der AF4-SECs identifiziert werden, der bereits eine Funktion in der Kontrolle des microRNA- wie auch des mRNA-Metabolismus zugeschrieben werden konnte. Aus diesem Grund wurde von uns eine mögliche Beteiligung von DDX6 an der Rekrutierung von P-TEFb zum AF4-SEC durch Modulationen der 7SK snRNA postuliert. Des Weiteren konnte eine Bindefähigkeit von DDX6 gegenüber der 7SK snRNA sowie eine direkte Korrelation zwischen des zellulären DDX6-Proteinlevel und der Akkumulation von P-TEFb im AF4-SEC nachgewiesen werden. Sowohl die Überexpression von DDX6 als auch die von AF4 resultierten in einer gesteigerten mRNA-Produktion, wobei die Ergebnisse auf einen kooperativen Mechanismus zwischen den beiden Proteinen in der Aktivierung der Transkription hindeuteten. Außerdem konnte die These einer DDX6-vermittelten Aktivierung von P-TEFb anhand von Expressionsanalysen des bekannten P-TEFb Zielgens HEXIM1, dessen Expression im Zusammenhang eines negativen Rückkopplungsmechanismus gesteigert wird, bestätigt werden. Damit konnte der DEAD-Box RNA-Helikase DDX6 in dieser Arbeit das erste Mal eine entscheidende Funktion in der Rekrutierung von P-TEFb aus dem 7SK snRNP in den AF4-SEC, und somit an der Kontrolle der eukaryotischen Transkription, zugeschrieben werden.
NOSTRIN belongs to the family of F-BAR proteins, which are multi-domain adaptor proteins that have emerged as important regulators of membrane remodeling and actin dynamics in a variety of vital cellular processes. They have been analyzed structurally and biochemically and overexpression studies have revealed their potential in inducing membrane curvature and tubulation. Several studies have begun to decipher the function of individual proteins, but the understanding of F-BAR protein functions in vivo is still quite limited. The F-BAR protein NOSTRIN is mainly expressed in endothelial cells and has originally been described as interaction partner of the endothelial nitric oxide synthase (eNOS), modulating eNOS subcellular localization. The phenotypic characterization of NOSTRIN knockout mice revealed decreased nitric oxide (NO) and cGMP levels, an increase in systolic blood pressure and an impairment of the acetylcholine-induced, NO-dependent relaxation of aortic rings from mice with global as well as endothelial cell-specific knockout of the NOSTRIN gene (ECKO) . These findings implied that NOSTRIN plays a role in regulating NO production in vivo, but the underlying molecular mechanisms were unclear. Therefore, this study was aimed at addressing the mechanism causing the inhibited vasodilation specifically upon stimulation with acetylcholine in NOSTRIN KO and ECKO mice, and at exploring additional roles of NOSTRIN in the signal transduction of endothelial cells.
The major acetylcholine receptor that mediates vessel relaxation upon stimulation with acetylcholine is the muscarinic acetylcholine receptor subtype M3 (M3R). In the present study NOSTRIN was identified as novel interaction partner of the M3R and important factor for the correct spatial distribution and functionality of the M3R. Moreover, it provides the first example of an F-BAR protein regulating a GPCR. Confocal immunofluorescence microscopy analysis of isolated aortae from NOSTRIN KO and WT mice indicated that NOSTRIN was necessary for the proper subcellular localization of the M3R and targeted it to the plasma membrane. A series of pulldown experiments revealed a direct interaction of NOSTRIN with the M3R. The binding required the SH3 domain of NOSTRIN and the third intracellular loop of the M3R, which has a recognized role in receptor regulation. The interaction of NOSTRIN with the M3R was confirmed by co-localization of NOSTRIN and the M3R upon overexpression in mammalian cells. Expression levels of the M3R as well as eNOS were not affected by the loss of NOSTRIN in accordance with the finding, that NOSTRIN impacts on the acetylcholine/eNOS signaling axis through regulation of the subcellular trafficking of its binding partners.
Furthermore, there were first indications for a role of NOSTRIN in facilitating the carbachol-induced calcium response in M3R-expressing cells, suggesting that NOSTRIN might influence M3R activation. in the absence of NOSTRIN, the function of the M3R in mammalian cells overexpressing the M3R was markedly impaired, resulting in abolition of the calcium response to the M3R agonist carbachol. In accordance, the activated eNOS fraction associated with the Golgi complex was markedly reduced in aorta explants from NOSTRIN knockout and ECKO mice. Moreover, NOSTRIN knockout inhibited the carbachol-induced, activating phosphorylation of eNOS in murine aortae as well as primary mouse lung endothelial cells confirming its role as important regulator of eNOS activity in vivo.
Development and implementation of novel optogenetic tools in the nematode Caenorhabditis elegans
(2016)
Optogenetics, though still only a decade old field, has revolutionized research in neurobiology. It comprises of methods that allow control of neural activity by light in a minimally-invasive, spatio-temporally precise and genetically targeted manner. The optogenetic actuators or the genetically encoded light sensitive elements mediate light driven manipulation of membrane potential, intracellular signalling, neuronal network activity and behaviour (Fenno et al. 2011; Dugué et al. 2012). These techniques have been particularly useful for dissecting neural circuits and behaviour in the transparent and genetically amenable nematode model system Caenorhabditis elegans (Husson et al. 2013; Fang-yen et al. 2015).
In fact, C. elegans was the first living organism in which microbial rhodopsin based optogenetic tools (Channelrhodopsin-2 or ChR2, and Halorhodopsin or NpHR) were successfully implemented and bimodal 'remote' control of behaviour was achieved (Nagel et al. 2005; Zhang et al. 2007). Since then it has been a prominent model for the development and application of novel optogenetic tools and techniques, especially in the nervous system which comprises of 302 neurons and is organised in a hierarchical organization. The environmental stimuli are sensed by the sensory neurons, leading to the processing of information by the downstream interneurons, that relay to motor neurons which in-turn synapse onto muscles that drive the movement-based responses.
The microbial rhodopsins like ChR2 and NpHR mediate light driven depolarization and hyperpolarization, respectively and thereby activate or inhibit neural activity. However, they do not allow local control of membrane potential as they are expressed all over the plasma membrane of the cell rather than being restricted to specific domains, for example synaptic sites. Moreover, they completely over-ride the intrinsic activity of the cell, completely bypassing the signal transduction processes inside the cell. Thus, in order to study intracellular signalling and to answer questions pertaining to the endogenous role of receptors and channels in an in-vivo context, the optogenetic tool-kit needs to be expanded.
This thesis aimed at developing and implementing novel optogenetic tools in C. elegans that allow for sub-cellular signalling control as well as endogenous receptor control. These are: two light activated guanylyl cyclases (bPGC and BeCyclOp) to modify cyclic guanosine monophosphate (cGMP) mediated signalling in the sensory neurons, as well as attempts towards rendering endogenous C. elegans receptors - glutamate receptor (GLR-3/-6), acetylcholine receptor (ACR-16), glutamate gated chloride channel (GLC-1) light switchable and to understand their biological function in-vivo.
Organisms respond to sensory cues by activation of a primary receptor followed by relay of information downstream to effector targets by secondary signalling molecules. cGMP is a widely used 2nd messenger in cellular signaling, acting via protein kinase G or cyclic nucleotide gated (CNG) channels. In sensory neurons, cGMP allows for signal modulation and amplification, before depolarization. Chemo-, thermo-, and oxygen-sensation in C. elegans involve sensory neurons that use cGMP as the main 2nd messenger. For example, ASJ is the pheromone sensing neuron regulating larval development, AWC is the chemosensory neuron responding to volatile odours and BAG senses oxygen and carbon dioxide in the environment. In these neurons, cGMP acts downstream of the GPCRs and functions by activating cationic TAX-2/-4 CNG channels, thereby depolarising the sensory neuron. Manipulating cGMP levels is required to access signalling between sensation and sensory neuron depolarization, thereby provide insights into signal encoding. We achieve this by implementing two photo-activatable guanylyl cyclases - 1) a mutated version of Beggiatoa sp. bacterial light-activated adenylyl cyclase, with specificity for GTP (Ryu et al. 2010), termed BlgC or bPGC (Beggiatoa photoactivated guanylyl cyclase) and 2) guanylyl cyclase rhodopsin (Avelar et al. 2014) from Blastocladiella emersonii (BeCyclOp).
bPGC is a BLUF (blue light sensing using flavin) domain containing cyclase which uses FAD as the co-factor and catalyses the synthesis of cGMP from GTP upon activation by blue light. Prior to implementation in sensory neurons, a simpler heterologous system with co-expression of the TAX-2/-4 CNG channel in C. elegans body wall muscle (BWM) was used. The cGMP generated by the light activated cyclases activates the CNG channel leading to the muscle depolarization, thereby causing changes in body length which can be easily scored.
RNA-Aptamere sind kurze einzelsträngige Oligonukleotide, die ein Zielmolekül spezifisch erkennen und über ihre 3D-Struktur binden. Die Identifizierung von Aptameren erfolgt mittels in vitro Selektion nach dem Kriterium einer hohen Bindungsaffinität und/oder -spezifität. Das Tetracyclin-bindende Aptamer gehört zu den Aptameren mit der höchsten bekannten Liganden-Affinität. Darüber hinaus gehört es zu den wenigen RNA-Aptameren, die in vivo als artifizieller Riboswitch zur Modulation der Genexpression eingesetzt werden können. Im Rahmen der vorliegenden Arbeit wurde das Tetracyclin-bindende Aptamer mittels NMR-spektroskopischer und biophysikalischer Methoden im ligandfreien sowie im ligandgebundenen Zustand untersucht, um neben der bereits bekannten Kristallstruktur des RNA-Tetracyclin-Komplexes Aufschlüsse über den dynamischen Ligandenbindungsprozess und die damit verbundene genregulatorische Aktivität des Aptamers zu erhalten. Hierfür wurde der Einfluss von Mg2+-Ionen auf die globale und lokale Strukturausbildung des ligandfreien Aptamers analysiert. Durch die Bindung von Mg2+-Ionen an die RNA wird eine kompakte RNA-Struktur stabilisiert, die neben zahlreichen komplexen Tertiärinteraktionen eine starre Bindungstasche ausbildet, in der der Ligand nach einem „Schlüssel-Schloss-Prinzip“ bindet. Die Ligandbindung zieht nur noch kleinere strukturelle Änderungen nach sich. Mittels der Stopped-Flow-Technik wurden die kinetischen Aspekte der Ligandbindung in Abhängigkeit der Mg2+-Konzentration untersucht. Diese Methode ermöglichte die Analyse der Zusammenhänge zwischen RNA-Faltung und anschließender Komplexbildung in Echtzeit. Die Analyse der Stopped-Flow-Messungen ergab, dass die Geschwindigkeit des Ligandbindungsprozesses wesentlich von der Mg2+-induzierten Strukturausbildung abhängig ist. Die Mg2+-vermittelte globale Organisation der RNA-Struktur ist somit der geschwindigkeitsbestimmende Schritt des Ligandbindungsprozesses. Die RNA-Mg2+-Interaktionen bestimmen also nicht nur die 3D-Struktur des Tetracyclin-bindenden Aptamers, sondern auch die Kinetik des Ligandbindungsprozesses. Der detaillierte Vergleich des Tetracyclin-Aptamers in seiner ligandfreien und ligandgebundenen Form ergab, dass trotz der stark ausgeprägten strukturellen Ähnlichkeit, lediglich die ligandgebundene Form in einer thermisch stabilen Konformation vorliegt. Die signifikante Erhöhung der Thermostabilität durch die Ligandbindung ist die essentielle Voraussetzung für die genregulatorische Funktion des Aptamers. Basierend auf diesen Ergebnissen ist also nicht die Struktur, sondern die strukturelle Stabilität ausschlaggebend für die regulatorische Aktivität des Tetracyclin-bindenden Aptamers.
Ein weiterer Teil dieser Arbeit beschäftigt sich mit der Charakterisierung des Bindungsmodus von GTP an die GTP-bindenden Aptamere 9-4, 10-10, Klasse II und Klasse V. Durch den direkten NMR-spektroskopischen Nachweis von Wasserstoffbrückenbindungen konnte eine intermolekulare G:C-Watson-Crick-Basenpaarung zwischen GTP und den GTP-bindenden Aptameren 9-4, 10-10 und Klasse II gezeigt werden. Basierend auf diesen Ergebnissen konnte durch eine C zu U Mutation die Bindungsspezifität des Aptamers Klasse II von GTP zu 2-Amino-ATP verändert werden.
Weiterhin konnte im Rahmen dieser Arbeit ein intermolekularer G-Quadruplex als Ligandbindungsmodus zwischen GTP und dem GTP-bindenden Aptamer Klasse V beschrieben werden. Hierbei bildet GTP mit sieben Guanin-Basen der RNA eine intermolekulare G-Quadruplexstruktur, bestehend aus zwei übereinanderliegenden Guanin-Tetraden, aus. Durch den Einsatz von 15N-markiertem NH4+ konnte eine spezifische Kaliumbindungsstelle im Zentrum der Quadruplexstruktur lokalisiert werden, die zur Stabilisierung des RNA-Ligand-Komplexes dient. Die beobachteten NOE-Kreuzsignale zwischen den Protonen des gebundenen NH4+ und den Protonen der RNA bestätigten dabei die Ausbildung eines intermolekularen G-Quadruplexes. Zusätzlich ergab die Analyse der NMR-Spektren, dass die G-Quadruplexstruktur erst im Zuge der Ligandbindung ausgebildet wird. Die Bildung eines G-Quadruplexes, in der der Ligand einen integralen Bestandteil der Quadruplexstruktur darstellt, ist ein bislang unbeschriebener Bindungsmechanismus.
Primäre Tumore werden nach ihrem Entstehungsort benannt. Selbst Metastasen zeigen eine gewisse Ähnlichkeit mit ihrem ursprünglichen Gewebe. Somit gehören alle Geschwülste, die ursprünglich der Harnblase entstammen, zu den Harnblasenkarzinomen.
Das Harnblasenkarzinom geht meist (90-95%) von der Schleimhaut der ableitenden Harnwege aus und wird als Urothel bezeichnet. Dementsprechend haben die meisten Patienten mit der Diagnose Blasenkarzinom ein Urothel-Blasenkarzinom. Die restlichen Blasenkarzinome entfallen auf Adenokarzinome, Plattenepithelkarzinome, kleinzellige Karzinome, Sarkome, Paragangliome, Melanome oder Lymphome (Humphrey A. et al. 2016, Moch H. et al 2016).
Die Urothel-Blasenkarzinome können sowohl flach, als auch warzenförmig wachsen. Je nach Diagnostik „oberflächlich“ oder „muskelinvasiv“ lassen sich die Urothel-Blasenkarzinome in zwei Hauptgruppen unterteilen;
Etwa 70% der Erkrankten haben dabei ein oberflächliches Urothel-Blasenkarzinom, das auf die Blasenschleimhaut begrenzt ist und durch eine Basistherapie, sog. Transurethrale Resektion (TUR-B) behandelt wird. Dabei werden die in der Schleimhaut gewachsenen Tumore getrennt reseziert. Therapieergänzend und/oder prophylaktisch wird die Blase danach mit einem Chemotherapeutikum gespült (intravesikale Instillation). Diese Zytostatika-Behandlung soll das Wiederauftreten eines Rezidivs verhindern bzw. eventuell verlangsamen (Iida K. et al. 2016, Celik O. et al. 2016).
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
This thesis primarily covers a systematic assessment of quantum chemical methods to predict accurate 19F NMR shifts for fluoroarenes and magnetic exchange coupling constant (J) in organic spin dimers which are basic building blocks for rational designing of organic magnetic materials.
One of the most important goals in chemistry is to design and synthesize molecules with optimum properties. This thesis is divided into two parts: the first part comprises of a systematic effort to find an inexpensive quantum chemical method to predict accurate 19F NMR chemical shifts (within an accuracy of 2 ppm) for perfluoraromatics. Essentially, these strenuous efforts have been devoted to find best DFT functional and basis set combination to predict accurate 19F shifts. In addition,the influence of geometrical parameters, solvents, chemical environment was also analyzed. Various correction approaches were tested to correct the calculated shifts. The influence of various functionals and basis sets was also analyzed on the correction efficiency of an individual scheme. All the NMR calculation methods already being used and correction approaches were verified to predict shifts of three different fluorine-substituted molecular sets. These structure sets include fluorobenzenes, substituted benzenes and fluorine substituted aromatic fused rings (e.g. fluorine substituted anthracene).
In the second part of this thesis, we investigated the accurate prediction of magnetic exchange couplings (J) for organic spin dimers using quantum chemical methods. We analyzed the performance of various DFT methods and various post-HF methods, such as the CASSCF, CASPT2, MSTDISD, DDCI1, DDCI2, DDCI3, and FCI to predict magnetic exchange couplings (J).
Overview of the Chapters:
Chapter 1, presents a brief theoretical introduction to the Schrödinger equation and its application in quantum mechanical calculations, the Hartree-Fock approximation, basis sets, electron correlation energy, and density functional theory (using pure and hybrid functionals).
In chapters 2 and 3, an introduction is given for quantum chemical approaches used to calculate NMR parameters and magnetic exchange coupling constants. We discuss an effective spin Hamiltonian, the Breit-Pauli Hamiltonian (BPH), chemical shielding tensor and total energy relationship, measuring of the NMR spectra, and different techniques to deal with gauge origin problem. In addition, the theoretical background of magnetic exchange coupling constant calculation for spin dimers, the Heisenberg-Dirac-van-Vleck Hamiltonian (HDVV) and the Noodelman's broken-symmetry approach for calculating J values are briefly discussed.
Chapter 4, presents a benchmark study of various DFT functionals and basis sets to calculate accurate C-F bond lengths and 19F chemical shifts. High-resolution NMR spectral data of complex molecules are often difficult to interpret. Great scientific efforts have been devoted to search for a computational approach to interpret experimental NMR data. Quantum chemical methods such as the CCSD(T) method offer high accuracy in calculation of NMR parameters but being computationally too demanding they cannot be applied to large chemical systems. On the other hand, density functional theory (DFT) is achieving a steady progress among diversity of computational techniques. An accuracy within 2 ppm deviation from the experimental values in 19F chemical shifts can be achieved if the NMR calculation is performed using accurate equilibrium geometries, GIAO is used to tackle gauge origin problem and electron correlation is properly treated by employing a high level of theory (e.g. CCSD (T)/cc-pVQZ). We found that the calculation of 19F shielding tensors with the density-functional theory does not provide any noticeable improvement over the HF method. Post-HF theory demands too much computational resources that makes them impossible to use for large systems [35] .
We found that a quantitative prediction of NMR shifts can be made as the errors introduced by theoretical methods are cancelled out while calculating shifts. Various benchmark studies in this thesis show that 19F chemical shifts calculated for perfluoraromatics with the M06-L, BHandH, BHandHLYP in combination with the 6-311+G (2d,p) basis set are within 4 ppm deviation from the experiments. Furthermore, we noted that NMR calculations on accurate
C-F (e.g. PBE/6-311G (d, p)) bond lengths does not show any improvement if the NMR calculation and optimization are performed at the same level of theory. A significant improvement can be achieved on calculated 19F NMR shifts, if some correction schemes are used.
In chapter 4 we discuss various correction schemes applied to correct the calculated 19F chemical shifts. A multi-standard approach (MSTD) was used to minimize the error that may occur due to the difference in the nature of the reference compound and test molecules [122]. We propose another approach to correct shielding constants which is the reference corrected approach. This approach makes a correction similar to the MSTD. We also tested a Linear Regression Correction Approach and we noted that this is the best approach amongst all. This is found to be less dependent on the theoretical method. We use conformation averaging corrections to correct the calculated shifts[126].
...
For the transport of high-intensity hadron beams in low-energy beam lines of linear accelerators, the compensation of space charge forces by the accumulation of particles of opposite charge is an important effect, reducing the required focusing strength and potentially the emittance growth due to space charge forces. In this thesis, space charge compensation was studied by including the secondary particles in particle-in-cell simulations.
For this purpose, a new electrostatic particle-in-cell code named bender was developed. The software was tested using known self-consistent solutions for an electron plasma confined in an external potential as well as for a KV distributed beam in a periodic focusing lattice. For the simulation of compensation, models for residual gas ionisation by proton and electron impact were implemented.
The compensation process was studied for a 120 keV, 100 mA proton beam transported through a short drift section. Various features in the particle distributions were identified, which can not explained by a uniform reduction in the electric field of the beam. These were tied to the presence of thermal electrons confined within the beam potential. Using the Poisson-Boltzmann equation, their distribution could be reproduced and their influence on the beam for a wider range of parameters studied. However, the observed temperatures show a significant numerical influence. The hypothesis was formed, that stochastical heating present in particle-in-cell simulations is the mechanism leading to the formation of the observed (partial) thermal equilibrium.
For the low-energy beam transport line of the Frankfurt neutron source FRANZ, bender was used to predict the pulse shaping in the novel ExB chopper system. The code was also used for the design and the study of an electron lens for the Integrable Optics Test Accelerator at Fermi National Accelerator Laboratory. Aberrations due to guiding center drifts and the strong electric field of the electron beam as well as the current limits in such a system were investigated.
Im Fokus der vorliegenden Arbeit standen die Landschaftsrekonstruktion und die Abschätzung der Mensch-Umwelt Wechselwirkungen im Umfeld der kupferzeitlichen (ca. 5. Jts. v. Chr.) Siedlung Magura Gorgana im heutigen Süd-Rumänien. Im Zuge der sedimentologischen Untersuchungen wurde deutlich, dass zur Zeit der kupferzeitlichen Besiedlung in der Donauaue ein Paläosee existierte, welcher sich nahezu über den gesamten Auenbereich im Untersuchungsgebiet erstreckte. Mit der Entdeckung des Paläosees ‚Lacul Gorgana‘ ergaben sich, durch die exzellenten Eigenschaften von Seesedimenten als Geoarchiv, neue Möglichkeiten zur Paläomilieurekonstruktion und zur Abschätzung von Mensch-Umwelt-Interaktionen. Bis etwa in das 8. Jt. v. Chr. war die Donau in diesem Gebiet durch ein fluviales System charakterisiert, welches vermutlich aus einer Vielzahl von Gerinnen bestand und einem ‚braided river‘ ähnelte. Während des 8. Jt. v. Chr. begann die Bildung des Paläosees ‚Lacul Gorgana‘. Die Gründe hierfür sind unbekannt, wenngleich ein Zusammenhang zum Anstieg des Schwarzmeerspiegels in diesem Zeitraum naheliegt. Spätestens ab dem 13. Jh. n. Chr. kommt es zur Aggradation- bzw. Verlandung des Paläosees ‚Lacul Gorgana‘. Infolge progradierender Zuflüsse wurde die einstige Seefläche in kleinere Seen fragmentiert. Dies dauerte bis zu den Trockenlegungsmaßnahmen in den 1960er Jahren an. Somit ist die Verlandung zum gegenwärtigen Zeitpunkt, zumindest theoretisch, noch nicht abgeschlossen. Die Ausprägung des rezenten Flussbettes der Donau begann spätestens mit der Verlandung des Paläosees, genaue chronologische Angaben sind jedoch anhand der aktuellen Datenlage nicht möglich. Auf der Grundlage geochemischer Untersuchungen geben die Sedimente des Paläosees ‚Lacul Gorgana‘ Hinweise auf alternierende Bedingungen bezüglich aerober und anaerober Akkumulationsmilieus. Dabei sind die aeroben Abschnitte durch einen höheren Anteil klastischen Materials, einem niedrigeren Anteil organischen Materials und allgemein helleren Sedimenten gegenüber den anaeroben, allgemein dunkleren Abschnitten gekennzeichnet. Die Gesamtheit der sedimentologischen Befunde, und der Vergleich mit Untersuchungen anderer Autoren in benachbarten Einzugsgebieten legen nahe, dass das alternierende Seemilieu in erster Linie durch Variationen der klimatischen Bedingungen im Einzugsgebiet der Donau verursacht wurde. Diese Variationen führten zur Veränderung der Stärke von Erosion und dem Charakter des erodierten Materials. Der hohe, zeitlich begrenzte Eintrag organisch gebundenen Phosphates in Bereichen der unteren Dunklen Lage, welcher weitestgehend zeitgleich zur neolithischen und kupferzeitlichen Besiedlung akkumuliert wurde und mit hoher Wahrscheinlichkeit zu einer Eutrophierung des ‚Lacul Gorganas‘ führte, lässt sich vermutlich durch die menschliche Besiedlung der Uferzone des Sees in diesem Zeitraum erklären. Im Verlauf der Untersuchungen im Einzugsgebiet erwies sich der ‚Regionalisierungsansatz‘ als effektives und unabdingbares Werkzeug bei der Differenzierung der Seegenese. Diese Methode dient der Relativierung bzw. Abschätzung der raumzeitlichen Heterogenität des Akkumulationsmilieus anhand des Vergleiches von Sedimentstratigraphien bzw. Sedimentbohrkernen von unterschiedlichen Standorten innerhalb des Paläosees. So konnten die alternierenden Milieubedingungen innerhalb der Seesedimente deutlich als allgemeine und nicht nur als lokale Eigenschaft einzelner Bereiche des Paläosees Lacul Gorgana identifiziert werden. Daneben zeigte die Regionalisierung, dass die aeroben Bereiche nicht nur durch einen erhöhten klastischen Eintrag gekennzeichnet sind, sondern dass dieser auch in Richtung des nördlichen Litorals zunimmt. Dies spricht für eine Herkunft des Materials aus dieser Richtung und erlaubt eine räumlich differenzierte Betrachtung der Seegenese. Darüber hinaus ermöglicht der ‚Regionalisierungsansatz‘, die räumliche Variabilität bestimmter Parameter, beispielsweise des TOC/TN Anstiegs in Richtung Litoral, zu relativieren. Diese Relativierung trägt zum besseren Verständnis spezifischer Prozessabläufe bei. Während der Untersuchung wurde ebenfalls deutlich, dass das Geoarchiv Seesediment eine Vielzahl verschiedenster Signale unterschiedlichster Genese aus dem Einzugsgebiet und dem Gewässermilieu selbst als Proxy-Information speichert. Die Überlagerung dieser Signale innerhalb der Sedimentstratigraphie erschwert mitunter die Identifikation einzelner Prozesse oder Prozesskaskaden. In diesem Zusammenhang erweist sich der ‚Regionalisierungsansatz‘ erneut als sinnvolles Hilfsmittel, da über diesen eine Signaldifferenzierung erfolgen kann, unter der Annahme, dass es eher unwahrscheinlich ist, dass alle Signale in allen Bereichen des Milieus in gleicher Intensität vorliegen. Gerade für die Untersuchung sowohl allochthoner als auch autochthoner Ereignissedimentation ist jedoch die Differenzierung zur ‚Hintergrundsedimentation‘ unabdingbar für ein umfassendes Prozessverständnis.
Identifizierung des vertebraten-spezifischen Proteins C7orf43 als neue TRAPPII Komplexuntereinheit
(2016)
Bei den transport protein particle (TRAPP) Komplexen handelt es sich um eine Familie von Protein Komplexen, die jeweils aus mehreren Untereinheiten bestehen. In der vorliegenden Arbeit konnte das Protein C7orf43 als neue potenzielle TRAPPII Untereinheit identifiziert werden, die - wie auch die beiden anderen TRAPPII-spezifischen Komponenten TRAPPC9 und TRAPPC10 - sowohl für die Erhaltung von ERGIC, Golgi-Apparat und COPI Vesikel als für den ER zu Golgi Transportweg benötigt wird.
Ziel der Arbeit war es, die Flugzeitmassenspektrometrie als neue Analysemethode für die instrumentelle Analytik halogenierter Spurengase in der Luft zu etablieren. Die grundle-gende Motivation dafür ist, dass anthropogene Emissionen vieler Vertreter dieser Sub-stanzklasse einen negativen Einfluss auf die Umwelt zeigen: in der Atmosphäre agieren die Substanzen bzw. ihre Abbauprodukte als Katalysatoren für den stratosphärischen Ozonab-bau und verstärken den Strahlungsantrieb der Erde durch Absorption elektromagnetischer Strahlung im sogenannten atmosphärischen Fenster. Um diese Effekte und deren Auswir-kung quantifizieren zu können, ist es notwendig, Konzentrationen und Trends der Substan-zen in der Atmosphäre zu überwachen. Nur so können Gegenmaßnahmen wie Produktions-reglementierungen geplant und bewertet werden. In Kombination mit inverser Modellie-rung können zudem Rückschlüsse über tatsächlich emittierten Mengen gezogen werden. Dies stellt den Anspruch an die Analytik, sehr geringe Mengen dieser Gase sehr präzise quantifizieren zu können, um auch schwache Trends zu erkennen. Zudem muss die Analy-semethode die Möglichkeit zu bieten, mit der wachsenden Anzahl bekannter und zu über-wachender Substanzen Schritt zu halten. Besonders für letzteren Aspekt bietet die Flug-zeitmassenspektrometrie einen entscheidenden Vorteil gegenüber der „konventionellen“ Methode, der Quadrupolmassenspektrometrie: sie zeichnet das gesamten Massenspektrum auf ohne dadurch an Empfindlichkeit einzubüßen. Um das atmosphärische Mischungsver-hältnis von Substanzen im Bereich von pmol mol−1 bis fmol mol−1 bestimmen zu können, muss das Quadrupolmassenspektrometer im Single Ion Monitoring Modus betrieben wer-den – so wird zwar eine hohe Sensitivität erreicht, es wird aber auch nur die Intensität eines bestimmten Masse zu Ladungsverhältnisses (kurz: Masse) zu einem Zeitpunkt aufgezeich-net. Ein Flugzeitmassenspektrometer hingegen extrahiert Ionen mit einer Frequenz im Ki-loherzbereich und zeichnet für jede Extraktion das vollständige Flugzeitspektrum und da-mit Massenspektrum auf.
Aufgabe dieser Arbeit war es, ein Flugzeitmassenspektrometer mit vorgeschalteter Pro-benanreicherungseinheit sowie Gaschromatograph zur Trennung des Subtanzgemisches vor der Detektion aufzubauen und Werkzeuge zur Datenauswertung zu entwickeln. Um einen zukünftigen Feldeinsatz vorzubereiten, sollte der Aufbau möglichst kompakt, mobil und vollständig automatisiert sein. Anschließend sollte Empfindlichkeit, Präzision und dynami-scher Messbereich geprüft, optimiert und die Anwendbarkeit zur Analyse halogenierter Spurengase gezeigt werden. Die Ergebnisse aus der in der vorliegenden Arbeit präsentier-ten Geräteentwicklung finden sich in drei Publikationen wieder, welche in thematischer Reihenfolge die Probenanreicherung (Obersteiner et al., 2016b), den Vergleich von Quadrupol- und Flugzeitmassenspektrometrie (Hoker et al., 2015) sowie Eigenschaften und Anwendung des neuen Aufbaus (Obersteiner et al., 2016a) behandeln. Mit den genannten Aufsätzen ist die Arbeitsgruppe Engel weltweit die erste, welche hochpräzise Analytik ha-logenierter Spurengase routinemäßig mittels Flugzeitmassenspektrometrie durchführt. Der nächste Schritt ist der Übergang von der Laboranwendung zur Feldmessung, z.B. in Form von bodenbasierter in situ Analyse troposphärischer Luftmassen am Taunus Observatorium auf dem Kleinen Feldberg. Da es bisher keine Messstation für die hier beschriebene analy-tische Fragestellung in Deutschland gibt, könnte eine deutliche Verbesserung der Überwa-chung halogenierter Treibhausgase und ozonzerstörender Substanzen in Europa erzielt wer-den. Weiterhin wäre eine Flugzeugapplikation in Zukunft denkbar, welche neben der durch das Flugzeitmassenspektrometer abgedeckten Substanzbandbreite auch von dessen hoher möglicher Spektrenrate profitieren könnte. In Kombination mit Hochgeschwindigkeitsgas-chromatographie könnte eine bisher unerreichte Zeitauflösung der Beprobung der Atmo-sphäre mittels Gaschromatographie-Massenspektrometrie erzielt werden.
Die Inauguraldissertation „Strafrechtsdogmatische und strafprozessuale Probleme bei der Einführung und Umsetzung einer Verbandsstrafbarkeit. Untersuchung des Entwurfs eines Ge-setzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unternehmen und sonstigen Verbänden“ verfasst von Frau Franziska Osterloh, LL.M., befasst sich mit der Einführung einer Verbandsstrafbarkeit. Betreut wurde die Arbeit an der Johann Wolfgang von Goethe – Universität, Frankfurt am Main, von Herrn Prof. Dr. Matthias Jahn. Anlass des aktuellen Auflebens der wissenschaftlichen Diskussion und Anknüpfungspunkt dieser Arbeit war der Entwurf eines Gesetzes zur Einführung der strafrechtlichen Verantwortlichkeit von Unter-nehmen und sonstigen Verbänden, der auf Vorschlag des nordrhein-westfälischen Justiz-ministeriums der Justizministerkonferenz der Länder im November 2013 vorgelegt wurde.
Zu Beginn wird anhand einer kurzen historischen Einführung und einer Darstellung der rechtlichen Grundlagen von Verbandstätigkeit außerhalb des (Kern-)Strafrechts aufgezeigt, dass der Verband als Rechtssubjekt weitestgehend anerkannt und verselbstständigt ist. An-schließend werden die kriminalpolitischen Argumente zur Begründung einer Verbandsstraf-barkeit in ihren wesentlichen Zügen wiedergegeben.
In dem folgenden der Arbeit untersucht die Verfasserin die strafrechtsdogmatischen Probleme der Einführung einer Verbandsstrafbarkeit. Dabei konzentrieren sich die Ausführungen auf die „klassischen“ Eckpunkte des wissenschaftlichen Diskurses, die Handlungs-, Schuld- und Straffähigkeit von Verbänden. Hierbei liegt ein Schwerpunkt auf der Auseinandersetzung mit der Frage der möglichen Schuldfähigkeit eines Verbandes. Als Ergebnis dieses Kapitels wird festgehalten, dass die bloße Zurechnung ebenso wie die selbstständige Verbandsschuld, nicht den Anforderungen des Schuldprinzips genügen kann. Der Bezug zu der natürlichen Hand-lung, die nach außen in Erscheinung tritt, ist mit Hilfe einer Zurechnung erforderlich und dann ausreichend, wenn für den Verband die Möglichkeit bestanden hätte, durch Organi-sationsstrukturen die Ausführung der Handlung zu verhindern.
Anhand dieser Ergebnisse werden die materiell-rechtlichen Aspekte des untersuchten Gesetzesentwurfs näher beleuchtet und insbesondere die in § 2 des Entwurfs enthaltenen Tatbestände, die sich stark an §§ 30, 130 OWiG anlehnen, untersucht. Die Verfasserin kommt zu dem Ergebnis, dass die Tatbestände unter Berücksichtigung einer teleologischen Aus-legung und restriktiven Handhabung nicht gegen Verfassungsrecht verstoßen.
Die Untersuchung der strafprozessualen Aspekte des Gesetzesentwurfs bezieht sich zum einen auf die übergeordneten Verfahrensprinzipien und deren im Ergebnis weitgehende An-wendbarkeit auf Verbände und zum anderen auf die konkreten Normierungen des Entwurfs. Ein Schwerpunkt wird hierbei auf die Beschuldigtenrechte gelegt, die nach Ansicht der Verfasserin noch nicht hinreichend klar normiert sind. Abschließend werden einige strafprozessuale Besonderheiten untersucht, die nicht ausdrücklich oder lediglich beiläufig von dem Gesetzesentwurf aufgefasst werden.
Als Gesamtergebnis der Arbeit wird der untersuchte Gesetzesentwurf zwar als begrüßens-werte Präzisierung und Bereicherung der Diskussion um eine Verbandsstrafbarkeit, jedoch nicht als dessen Schlusspunkt eingeordnet.
The baker’s yeast Saccharomyces cerevisiae is a valuable and increasingly important microorganism for industrial applications (Hong and Nielsen, 2012). Its robustness concerning process conditions like low pH, osmotic and mechanical stress as well as toxic compounds is an advantage. Moreover, S. cerevisiae is ‘generally regarded as safe’ (GRAS). The model organism has been studied intensively. The collected data, including genomic, proteomic and metabolic information, can be used to genetically modify and improve its metabolism. Fatty acids and fatty acid derivatives have wide applications as biofuels, biomaterials, and other biochemicals. Several studies have been dealing with the overproduction of fatty acids and derivatives thereof in S. cerevisiae. The fatty acid biosynthesis starting with acetyl-CoA requires two enzymes, the acetyl-CoA carboxylase (Acc1p) and the fatty acid synthase complex (FAS), to produce acyl-CoA esters with predominantly 16 to 18 carbon atoms chain length (Lynen et al., 1980). For the synthesis of monounsaturated fatty acids in S. cerevisiae the ER bound acyl-CoA desaturase, Ole1p is essential (Tamura et al., 1976; Certik and Shimizu, 1999).
Using S. cerevisiae, the first section of this work dealt with the heterologous characterization of potential ω1-desaturases. Due to the fact that unsaturated fatty compounds can be modified further by hydrosilylations, hydrovinylations, oxidations to epoxides, acids, aldehydes, ketones or metathesis reactions, the interest in ω1-fatty acids is tremendous (Behr and Gomes, 2010). With the intention to find enzymes in fungi, that have a terminal desaturase activity a search in different genome databases was performed. The sequences of Pex-Desat3 and Obr-TerDes were used as reference sequences. The analysed proteins from Schizophyllum commune (EFI94599.1), Schizosaccharomyces octosporus (EPX72095.1), Wallemia mellicola (EIM20316.1), Wallemia ichthyophaga (EOR00207.1) and Agaricus bisporus var. bisporus (EKV44635.1), however, finally turned out to be Δ9 desaturases. A fungal desaturase with ω1-activity could not be found. The Δ9 desaturase SCD1 from Mus musculus was crystallized by Bai et al. (2015) and the information for specific amino acids responsible for the substrate specificity or enzyme activity were allocated. In combination with sequence and enzyme activity data form ChDes1 from Calanus hyperboreus, Desat2 from Drosophila melanogaster, Pex-Desat3 from Planotortrix excessana and Obr-TerDes from Operophtera brumata single amino acid exchanges were performed in the Δ9 desaturase Ole1p from S. cerevisiae. For all mutants, only fatty acids (C16 - C18) with a double bond between carbon C9 and C10 could be found. This indicates, that all inserted amino acid exchanges do not affect the substrate specificity or the position of the introduced double bond.
In the second section the focus was in the development of a production system for fatty acids in S. cerevisiae with regard to the previously established procedures by metabolic engineering. The combination of cytosolic malate dehydrogenase (MDH3), cytosolic malate enzyme (MAE1) and a citrate- α-ketoglutarate- carrier (YHM2) should improve the availability of acetyl-CoA in the cytosol, which is an important precursor for the fatty acid biosynthesis. If the major pathway (acetyl-CoA carboxylase and fatty acid synthase) was already optimized by high expression levels than no positive effect on increased fatty acid synthesis was detectable. Only non-optimized strains, with the additional overexpression of ATP-citrate lyase and cytosolic malate dehydrogenase, lead to a 41 % (20 mg/g dcw) improvement of fatty acid synthesis. In order to increase the fatty acid content further, the additional overexpression of DGA1 and TGL3 was performed. Hence, the highest amount of fatty acids could be observed with the strain S. cerevisiae WRY1ΔFAA1ΔFAA4 (2.5 g/L ± 0.8 g/L). The additional elimination of acyl-CoA synthetase Fat1p did not improve the yield.
It was recently reported, that chain length control of the fatty acid synthesis of bacterial FAS can be changed by rational engineering (Gajewski et al., 2017a). The knowledge about bacterial FAS was transferred in this work to S. cerevisiae FAS. Mutating up to five amino acids in the FAS complex enabled S. cerevisiae to produce medium chain fatty acids (C6 - C12). Further improvement was done by metabolic pathway engineering (promoter of alcohol dehydrogenase II from S. cerevisiae (pADH2), deletion of acyl-CoA synthetase FAA2) and optimization of fermentation conditions (YEPD-bacto medium buffered with potassium phosphate). The production of medium chain fatty acids resulted in the highest yield of 464 mg/L (C6 to C12 fatty acids). Furthermore, strains were created specifically overproducing hexanoic acid (158 mg/L) and octanoic acid (301 mg/L). The characterization of transferases, which could be responsible for the de-esterification of CoA-bound fatty acids, was analysed in an additional approach. It could be shown, that the genes EHT1, EEB1 and MGL2 have an influence on the MCFA yield in the supernatant. Generally speaking, the data from the single and double deletion strains suggest that Eeb1p has a selective hydrolytic activity for hexanoic acid-CoA ester, while Eht1p shows selective hydrolytic activity for octanoic acid-CoA ester, which is in line with Saerens et al. (2006).
Identification of disease modulating compounds in juvenile neuronal ceroid lipofuscinosis (JNCL)
(2016)
Mutationen im CLN3 Gen verursachen die neurodegenerative Erkrankung juvenile neuronale Zeroidlipofuszinose (JNCL). Bei dieser Erkrankung sind die Autophagie, der lysosomale pH Wert und der mitochondriale Metabolismus beeinträchtigt. Störungen dieser Prozesse führen zu einer erhöhten Verletzlichkeit neuronaler Zellen gegenüber alters- und umweltbedingten Schäden, einer Anhäufung von Autophagosomen und lysosomalem Speichermaterial, Zelltod und Neurodegeneration. Um die JNCL zu erforschen bedienen wir uns eines Zellmodels aus der Maus, welches die häufigste krankheitsauslösende CLN3 Mutation im Menschen, die Deletion der Exons 7 und 8, nachbildet. Die aus dem Kleinhirn dieser Mäuse stammenden cerebellaren Körnerstammzellen werden als CbCln3Δex7/8/Δex7/8 Zellen, solche aus wild-typ Mäusen als CbCln3+/+ Zellen bezeichnet. Die JNCL ist nicht heilbar und die Entwicklung von Wirkstoffen steht noch am Anfang.
Die vorliegende Arbeit befasst sich mit der Durchführung eines Hochdursatzscreenings um Wirkstoffe zu identifizieren, welche eine Anhäufung von Autophagosomen in CbCln3Δex7/8/Δex7/8 Zellen verhindern können. Unter 1750 verschiedenen untersuchten Wirkstoffen konnten wir 28 aktive „Hits“ identifizieren und stellten fest, dass Kalziumkanalblocker, Östrogene und HMG-CoA-Reduktase Inhibitoren gehäuft vertreten waren. Eine sorgfältige Untersuchung die möglichen Interaktionen der aktiven Wirkstoffe mit zellulären Signalwegen und die Analyse ihrer Dosis-Wirkungskurven unterstützte uns bei der Auswahl von Verapamil, Nicardipin und Fluspirilen zur näheren Untersuchung. Diese Wirkstoffe sind Kalziumkanalblocker und Fluspirilen blockt auch D2 Dopaminrezeptoren.
Außerdem untersuchten und quantifizierten wir mitochondriale Phänotypen in CbCln3Δex7/8/Δex7/8 Zellen. Unsere Untersuchungen ergaben, dass Mitochondrien in CbCln3Δex7/8/Δex7/8 Zellen einer signifikanten Hyperfusion unterliegen und ein schwächeres Membranpotenzial aufweisen. Weiterhin fanden wir eine Verringerung der maximalen der mitochondrialen Elektronentransportkapazität und eine verringerte Aktivität des Enzyms Zitratsynthase, welches die Effizienz des Zitratzyklus bestimmt.
Fluspirilen, Verapamil und, in geringerem Ausmaß, Nicardipin, verbesserten einige krankheitsbedingte lysosomale und mitochondriale Phänotypen. Des Weiteren konnten Verapamil und Nicardipin, nicht aber Fluspirilen, den erhöhten zellulären Kalziumspiegel in CbCln3Δex7/8/Δex7/8 Zellen absenken. Erniedrigungen im Kalziumgehalt können durch die Inhibition der kalziumabhängigen Protease Calpain 1 zu einer Induktion der Autophagie führen. Wir untersuchten, ob eine chemische Inhibition der Calpain 1-Protease die Anzahl der Autophagosomen in CbCln3Δex7/8/Δex7/8 Zellen senkt, und stellten fest, dass dies nicht der Fall ist. Eine Inhibition von Calpain 1 führte lediglich zu einem Anstieg der Zahl zellulärer Autophagosomen. Als Nächstes untersuchten wir die Auswirkung der Wirkstoffbehandlung auf den Autophagiefluss. Verapamil und Nicardipin hatten keinen Einfluss auf den Autophagiefluss in der getesteten Konzentration in CbCln3Δex7/8/Δex7/8 Zellen während Fluspirilen die Autophagie induzierte. Gleichzeitig stellten wir fest, dass hohe Dosen von Nicardipin und Verapamil teilweise vor einem Verlust des lysosomalen pH-Werts durch eine Behandlung mit Bafilomycin A1 schützen konnten. Da Fluspirilen auch ein Dopaminrezeptorblocker ist, untersuchten wir die Auswirkung einer erhöhten Dosis von Dopamin auf die Zahl der Autophagosomen. Wir fanden, dass eine mittlere Dosierung von Dopamin einen Trend zu einer leichten Verringerung von Autophagosomen in CbCln3Δex7/8/Δex7/8 Zellen zur Folge hat.
Wir vermuten, dass die Kalziumkanalblocker Verapamil und Nicardipin und der Dopaminrezeptorblocker Fluspirilen unterschiedliche zelluläre Signalwege benutzen, aber letztendlich um ähnliche Botenstoffe verwenden, um die Funktion der Lysosomen in CbCln3Δex7/8/Δex7/8 Zellen zu verbessern. Die Verringerung des intrazellulären Kalziumgehalts durch Verapamil und Nicardipin führt zu einer Aktivierung von Adenylatzyklasen, welche eine Erhöhung des intrazellulären cAMP Spiegels herbeiführen. Fluspirilen inhibiert Dopaminrezeptoren vom Typ D2 (D2DR), was zu einer selektiven Aktivierung von Dopaminrezeptoren des Typs D5 (D5DR) führen könnte. Im Gegensatz zu D2 führen D5D Rezeptoren zu einer Aktivierung von Adenylatzyklasen und einer Erhöhung des cAMP Spiegels. cAMP aktiviert die Protein Kinase A (PKA), welche durch eine Proteinphosphorylierung von lysosomalen Chloridkanälen und Protonenpumpen die lysosomale Aktivität erhöht. Dies führt zu einer Verbesserung des Abbaus von Autophagosomen und lysosomalem Speichermaterial und zu einer verbesserten Zellgesundheit in CbCln3Δex7/8/Δex7/8 Zellen.
Eine Verbesserung der lysosomalen Funktion in der JNCL kann einen wirksamen Therapieansatz ergeben. Wir hoffen, dass die hier vorgestellten Methoden und Ergebnisse einen ersten Schritt in diese Richtung darstellen.
Clouds and precipitation are essential climate variables. Because of their high spatial and temporal variability, their observation and modeling is difficult. In this thesis multiple observational data sources, including satellite data and station data are globally analyzed to understand the distribution and variability of clouds and precipitation, while a special focus is on the diurnal cycle of both variables. Substantial diurnal cycles of clouds and precipitation are observed in the tropics, with different properties over land and ocean. But also in Europe cloud diurnal cycles are observed in the summer season. Overall the maximum cloud cover and also the maximum precipitation is observed in the afternoon over land, and in the morning over ocean. The analyzed climate model simulations and the model-based reanalysis fail to simulate the observed diurnal cycles. Owing to their limited resolution, models can not fully resolve the processes responsible for the existence of diurnal cycles of clouds and precipitation.
Die Erythropoese wird durch das Hormon Erythropoetin (EPO), welches nach Geburt größtenteils in der Niere gebildet wird, aktiviert. Die Bildung von EPO erfolgt sauerstoffabhängig über eine vermehrte Aktivität des hypoxieinduzierbaren Faktors (HIF-1), welcher die Transkription der EPO Gene reguliert. HIF-1 besteht aus zwei Untereinheiten, der HIF-1α- und der HIF-1β-Untereinheit. Das Vorhandensein von HIF-1 wird über die veränderte Stabilität der HIF-1α-Untereinheit reguliert.
Mycophenolate mofetil (MMF) ist ein Immunsuppressivum, welches eine wichtige Rolle in der Transplantationsmedizin einnimmt. Es ist ein nicht kompetitiver, reversibler Hemmer der Inosinmonophosphatdehydrogenase (IMPDH), welche für die de novo Purinsynthese notwendig ist. Lymphozyten, welche im Gegensatz zu anderen Zellen keine Möglichkeit haben Purine über einen Wiederverwertungsmechanismus bereitzustellen, sind von der IMPDH abhängig. Dieser Mechanismus ermöglicht MMF eine selektive Wirkung auf Lymphozyten ohne andere Zellen zu schädigen. Trotzdem haben einige Multicenter Studien gezeigt, dass unter MMF Therapie nach Nierentransplantation in bis zu 15% der Fälle Anämien auftreten.
Wir haben in früheren Versuchen gezeigt, dass es nach einer Behandlung der HepG2 Zellen mit 5 μM MMF über 24 Stunden zu einer spezifische Minderung der EPO Sekretion kam. Es konnte so ein Zusammenhang zwischen der vermindert EPO Sekretion unter MMF und Anämien unter immunsuppressiver Therapie mit MMF angenommen werden.
Ziel dieser Arbeit war es, mögliche Ansätze für einen Regulationsmechanismus zu untersuchen, der für die reduzierte EPO Sekretion unter MMF verantwortlich ist. Es zeigte sich, mittels PCR und Western Blot Versuchen, eine zeitabhängige Verminderung der EPO mRNA parallel zu einer reduzierten EPO Sekretion, was auf eine Regulation auf RNA Ebene hindeutet. MMF depletiert den intrazellulären Guanosinpool durch Hemmung der IMPDH. Nach Zugabe von exogenem Guanosin zu den HepG2 Zellen war die MMF induzierte Reduktion der EPO mRNA vollständig reversibel. Dies zeigt, dass der beobachtete Effekt IMPDH abhängig und somit spezifisch für die MMF Wirkung ist. Des weiteren konnten wir zeigen, dass die Stabilität des EPOs und der EPO mRNA durch MMF nicht verändert war. Allerdings zeigte sich eine Verminderung der HIF-1α-Untereinheit unter MMF nach 14 und 16 Stunden. Da keine eindeutige Abnahme der HIF-1α mRNA beobachtet werden konnte, gehen wir hier von einer Regulation auf Proteinebene aus.
Im Hinblick auf diese Ergebnisse scheint eine Substitution von EPO eine gute Möglichkeit zur Behandlung von MMF induzierten Anämien. Die Ergebnisse weisen außerdem auf eine Beteiligung des HIF-1 in der Entstehung von MMF induzierten Anämien hin und sollten Grundlage für weitere Forschungsansätze zur Klärung der Mechanismen sein. Hier ist es von Interesse, ob andere Zielgene von HIF-1 (z.B. Transferrin und dessen Rezeptor, VEGF, induzierbare NO-Synthetase und Glukose Transporter 1) ebenfalls eine verminderte Expression unter MMF Stimulation erfahren. Dies würde unsere These unterstützen, dass MMF über HIF-1 die EPO Transkription beeinflusst. Außerdem könnten genauere Untersuchungen bezüglich der Stabilität der HIF-1-alpha Untereinheit unter MMF Einfluss und Forschungen bezüglich der möglichen Beteiligung von anderen Transkriptionsfaktoren (z.B. GATA-2 und NFкB) in Zukunft wegweisend sein, um den Regulationsmechanismus von MMF induzierten Anämien weiter zu erforschen. Hier könnten weitere Erkenntnisse in Zukunft neue Möglichkeiten für medikamentöse Angriffspunkte der MMF induzierten Anämien eröffnen.
Die NADPH-Oxidasen stellen eine wichtige Quelle für reaktive Sauerstoffspezies (Reactive oxygen species; ROS) im Organismus dar. Hierbei dienen die NADPH-Oxidasen nicht nur der Pathogenabwehr, sondern haben einen Einfluss auf eine Vielzahl an oxidativen, physiologischen Prozessen. Unter den NADPH-Oxidasen ist NOX4 einzigartig, da es hauptsächlich im endoplasmatischen Retikulum (ER) lokalisiert ist, konstitutiv aktiv ist und Wasserstoffperoxid (H2O2) produziert. Wir vermuten, dass diese besonderen Eigenschaften eine Konsequenz aus der Interaktion mit bislang unentdeckten NOX4-interagiereden Proteinen ist.
Zweidimensionale blau-native Polyacrylamid-Gelelektrophorese (BN-PAGE) kombiniert mit SDS-PAGE zeigte NOX4 in makromolekularen Komplexen. Interagierende Proteine wurden durch eine quantitative SILAC (stable isotope labeling of amino acids in cell culture)-Co-immunopräzipitation (Co-IP) in NOX4-überexprimierenden HEK293-Zellen gescreent. Hierdurch konnten verschiedene interagierende Proteine identifiziert werden, wobei Calnexin die robusteste Interaktion aufwies. Calnexin konnte zudem in NOX4-haltigen Komplexen durch Complexome Profiling der BN-PAGE oder gleichzeitiger Antikörperfärbung nachgewiesen werden. Die Calnexin-NOX4-Interaktion konnte mittels reverser Co-IP und Proximity ligation assay bestätigt werden, während NOX1, NOX2 und NOX5 nicht mit Calnexin interagierten. Calnexin-Defizienz, untersucht in embryonalen Mausfibroblasten oder durch shRNA gegen Calnexin, reduzierte die NOX4-Proteinexpression und ROS-Bildung, wobei die mRNA-Expression unverändert blieb. Des Weiteren wurde untersucht, ob der bekannte Interaktionspartner von NADPH-Oxidasen, p22phox, wirklich essentiell für die Expression oder Aktivität von NOX4 ist, da es nur in manchen der NOX4-Co-IPs nachgewiesen wurde. Um den Einfluss von p22phox für NOX4 aufzuklären wurde ein CRISPR/Cas9 Knockdown in NOX4-überexprimierenden HEK293 Zellen etabliert. p22phox zeigte keinen Einfluss auf die NOX4-Expression, jedoch war die NOX4-abhängige ROS-Produktion in p22phox-Knockout Zellen verschwunden.
Unsere Ergebnisse deuten darauf hin, dass endogenes NOX4 makromolekulare Komplexe mit Calnexin ausbildet, welches für die korrekte Reifung, Prozessierung und Funktion von NOX4 im ER nötig ist. Darüber hinaus ist p22phox nicht für die Reifung von NOX4, aber für dessen Aktivität nötig. Diese Ergebnisse zeigen eine vielfältige Regulation von NOX4 auf Proteinebene.
The Earth’s surface condition we find today is a result of long exposure to metabolism of life forms. Particularly, molecular oxygen in the atmosphere is a feature which developed over time. The first substantial and lasting rise of atmospheric oxygen level happened ≈ 2.5 Ga ago, but localities are reported where transiently elevated oxygen levels appeared before this time-point. To trace the timing and circumstances of the earliest availability of free oxygen in the atmosphere is important to understand the habitats of early microbial life forms on Earth.
This thesis focuses to obtain information of oxygen levels and the related atmospheric cycling of metals in sediments of the 3.5 to 3.2 Ga Barberton Greenstone Belt. First, as iron was a ubiquitous constituent of Archean seawater, I investigated its isotopic composition in minerals of chemical sediments. Hereby, I tried to resolve the changes within the water basin on small scale sedimentary sequence cycles. Second, I focused on the minor constituents of Archean seawater. The Re-Os geochronologic system and the abundance patterns of the platinum-group elements were chosen to integrate information of oxygen promoted weathering of a large source area. To integrate information of a large time interval, the isotopes of uranium were investigated over a large stratigraphic section.
The two key findings of this thesis are:
• Quantitative oxidation of ferrous iron in surface layers of Paleoarchean seawater occurred during the onset and termination of hydrothermal FeIIaq delivery into shallow waters.
• Paleoarchean sedimentary successions of the Barberton Greenstone Belt lack any evidence of transient basin-scale oxygenation.
The Manzimnyama Iron Formation (IF, Fig Tree Group, Barberton Greenstone Belt, South Africa) has been deciphered to exist of cyclic stacks of lithostratigraphic units with varying amounts of iron oxide and carbonate minerals. In-situ femtosecond-Laser-Ablation ICP-MS iron isotope measurements showed that the majority of siderite (γ56Fe ≈ −0.5 ‰) precipitated directly from seawater of γ56Fe ≈ 0 ‰. Ferric iron from the surface layers is preserved in ≤ 1μ m hematite and in magnetite that has been grown within the consolidated sediment. During FeIIaq events, fine-grained hematite (γ56Fe ≈ 2.2 ‰) and magnetite (γ56Fe 0.5 to 0.8 ‰) indicate oxygen levels in surface waters of lower than 0.0002 μM. Upon onset and termination of iron oxide abundance, magnetite with γ56Fe ≈ 0 ‰ indicates that low concentrations of FeIIaq in surface waters were oxidized quantitatively. These observations demonstrate the existence of iron oxidation in Paleoarchean surface waters independent of FeIIaq concentration. This is the first investigation of Paleoarchean IF showing that lithostratigraphic cyclicity can be traced in iron isotopic composition of oxide minerals.
ID-ICP-MS measurement of Re, Ir, Ru, Pt and Pd, trace element (SF-ICP-MS) and ID-MCICP- MS uranium isotope determination have been applied to carbonaceous shale of the Mapepe Fm. (Fig Tree Group) after inverse Aqua Regia leaching and bulk digestion. The sediments reveal a silicified fraction which exhibits a seawater REE signature and a mixture of detrital and meteoritic PGE. Neither enrichment of the redox-sensitive elements Re or Mo nor fractionated uranium isotopes have been found on a stratigraphic interval of several hundred meters. The non-silica fraction shows no depletion of Re which indicates that the detrital material had no contact to oxidizing fluids. ID-TIMS measurements of Re and Os after the CrO3-SO4 Carius Tube method of two sample intervals showed that the Re-Os isotopic systems of the non-silica fractions are identical to two komatiite occurrences. Weltevreden Fm. and Komati Fm. rocks were uplifted, eroded and transported to the deep part of the sedimentary basin without any change to the Re-Os system. Negative fractionated uranium isotopes (γ238U = −0.41 ± 0.01 ‰) associated with detrital Ba-Cr-U occurrences suggest the existence of distal redox-processes that involve uranium species. This study demonstrates that over the time of exposure and deposition of the Mapepe Fm. sedimentation, free oxygen was not available for weathering in the catchment area.
The elliptic flow of heavy-flavour decay electrons is measured at midrapidity |eta| < 0.8 in three centrality classes (0-10%, 10-20% and 20-40%) of Pb-Pb collisions at sqrt(sNN) = 2.76TeV with ALICE at LHC. The collective motion of the particles inside the medium which is created in the heavy-ion collisions can be analyzed by a Fourier decomposition of the azimuthal anisotropic particle distribution with respect to the event plane. Elliptic flow is the component of the collective motion characterized by the second harmonic moment of this decomposition. It is a direct consequence of the initial geometry of the collision which is translated to a particle number anisotropy due to the strong interactions inside the medium. The amount of elliptic flow of low-momentum heavy quarks is related to their thermalization with the medium, while high-momentum heavy quarks provide a way to assess the path-length dependence of the energy loss induced by the interaction with the medium.
The heavy-quark elliptic flow is measured using a three-step procedure.
First the v2 coefficient of the inclusive electrons is measured using the event-plane and scalar-product methods. The electron background from light flavours and direct photons is then simulated, calculating the decay kinematics of the electron sources which are initialised by their respective measured spectra. The final result of this work emerges by subtracting the background from the inclusive measurement. A significant elliptic flow is observed after this subtraction. Its value is decreasing from low to intermediate pT and from semi-central to central collisions.
The results are described by model calculations with significant elastic interactions of the heavy quarks with the expanding strongly-interacting medium.
In view of the diverse functionalities of RNA, the search for tools suitable for regulating and understanding RNA grows continuously. Dysfunction of RNA controlled processes can lead to diseases, calling for external regulation mechanisms – a difficult task in view of the complexity of biological systems. One of the recently developed methods that aim to systematically control RNA relates to photoregulation. Here, the RNA functions are triggered by photochromic molecules – for example, azobenzene or spiropyran – which are bound either covalently or non-covalently to the target RNA. This is a flexible approach, which can be improved by using suitably substituted chromophores. However, many issues regarding the details of photocontrol are still open. A detailed understanding of the mechanism of photocontrol is therefore of crucial importance.
The present thesis explores theoretical approaches to the photocontrol of RNA, focussing upon azobenzene chromophores covalently bound to RNA. The aim of the thesis is to characterize, at a molecular level, the effect of trans-to-cis isomerization of the azobenzene chromophore on RNA, and thus understand the mechanism of RNA unfolding triggered by azobenzene isomerization. In particular, we attempt to answer the following questions:
How does azobenzene isomerization happen in an RNA environment, i.e., how is
the isomerization influenced by the local RNA environment?
Conversely, how is RNA dynamics, on a longer time scale, affected by azobenzene attachment and photoisomerization?
Further, can regulation be enhanced by substituted azobenzenes? And, does simulation yield a picture that is consistent with experiment?
Due to the very different times scales of azobenzene isomerization (femtoseconds to picoseconds) and the much slower RNA response (nanoseconds to milliseconds), complementary techniques have been chosen: (i) hybrid quantum-classical approaches, i.e., on-the-fly Quantum Mechanics/Molecular Mechanics (QM/MM), to characterize the isomerization and RNA response on an ultrafast time scale, and (ii) molecular dynamics with enhanced sampling techniques, in particular, Replica Exchange MD (REMD), to explore longer time scales where the effect of RNA unfolding becomes manifest. Furthermore, substituent effects on azobenzene were separately investigated, in collaboration with two experimental groups.
The first part of this thesis is focused on the conformational influence of azobenzene on a small RNA hairpin on longer time scales using REMD simulations. In accordance with experiment, it is found that both the trans and cis form of azobenzene destabilize the RNA system. Trans azobenzene stays stacked in the double strand, whereas the cis form flips out of the RNA. These stacking interactions are the main reason why a trans azobenzene-RNA-complex is more stable than a cis-azobenzene-RNA-complex. Furthermore, the loop region of the RNA hairpin is highly destabilized by the intercalation of azobenzene.
In the second part, on-the-fly QM/MM simulations of the same azobenzene substituted hairpin are undertaken. These simulations use a surface hopping (SH) algorithm in conjunction with hybrid QM/MM electronic structure calculations to give a complete picture of the isomerization process on a picosecond time scale. It is shown that, due to the constraints of the RNA environment, the isomerization time of the azobenzene chromophore is significantly increased (from 300 femtoseconds in the gas phase to around 20 picoseconds in the RNA environment), and the isomerization yield is low. To the best of our knowledge, these are the first QM/MM simulations reported for azobenzene in a nucleic acid environment.
In the third and final part of this thesis, the properties of substituted azobenzenes have been explored, in collaboration with two experimental groups at the department. In particular, para- and meta-hydroxy substituted azobenzenes were suggested as improved photoswitches for the photoregulation of RNA, but spectroscopic investigations showed that isomerization was inefficient in some of the investigated species. Therefore, we investigated the photoisomerisation pathway of the keto/enol-form of para- and meta-hydroxy-azobenzenes by Time-Dependent Density Functional Theory (TDDFT) calculations. These calculations show that the competing keto/enol-tautomerism can result in an unstable cis form, making these substituted chromophores unsuitable as photoswitches.
Overall, the present thesis has contributed to obtaining a molecular-level understanding of photocontrol in azobenzene substituted RNAs, showing that theory and simulations can provide useful guidance for new experiments.
The condensation phase transition and the number of solutions in random graph and hypergraph models
(2016)
This PhD thesis deals with two different types of questions on random graph and random hypergraph structures.
One part is about the proof of the existence and the determination of the location of the condensation phase transition. This transition will be investigated for large values of $k$ in the problem of $k$-colouring random graphs and in the problem of 2-colouring random $k$-uniform hypergraphs, where in the latter case we investigate a more general model with finite inverse temperature.
The other part deals with establishing the limiting distribution of the number of solutions in these structures in density regimes below the condensation threshold.
The Hepatitis C virus (HCV) infects more than 170 million individuals worldwide and causes challenging HCV-related diseases. Unfortunately, there is no vaccine available. Therefore, a better understanding of the HCV life cycle is urgently needed to develop more effective and better tolerated therapies.
It has been reported that the secretory pathway plays an essential role for the release of HCV, and the SNARE complexes are a central factor controlling intracellular vesicular trafficking. Recently, our group observed that α-taxilin that binds to free syntaxin 4 prevents the SNARE complex formation and exerts an inhibitory effect on the release of HCV particles. Therefore, it was analyzed whether the t-SNARE protein syntaxin 4 is involved in the HCV life cycle.
An increased intracellular amount of syntaxin 4 was found in HCV-positive cells, while the level of syntaxin 4-specific transcripts was decreased as observed in HCV-positive Huh7.5 cells and in HCV-infected primary human hepatocytes (PHH). Since in HCV-positive cells a significant longer half-life of syntaxin 4 was found, the decreased expression is overcompensated, leading to the elevated amount of syntaxin 4. Overexpression of syntaxin 4 increases the amount of secreted infectious viral particles, while silencing of syntaxin 4 expression decreases the number of released viral particles, which indicates that HCV could use the SNARE-dependent secretory pathway for viral release. Confocal immunofluorescence microscopy and co-immunoprecipitation experiments revealed that syntaxin 4 interacts with HCV core and NS5A. To identify the binding domain, various mutants of syntaxin 4 were generated. Based on these mutants, it was found that the H3 domain of syntaxin 4 interacts with core. These data show that the t-SNARE protein syntaxin 4 is an essential cellular factor for HCV morphogenesis and secretion.
HCV induces autophagy, and in HCV-infected cells a major fraction of the de novo synthesized viral particles is not released but intracellularly degraded. Syntaxin 17 is an autophagosomal SNARE required for the fusion of autophagosomes with lysosomes to form autolysosomes and thereby to deliver the enclosed contents for degradation. Therefore, we aim to investigate whether syntaxin 17 is a relevant factor for the HCV life cycle by regulating the fusion between autophagosomes and lysosomes. It was found that HCV-positive cells possess a decreased amount of syntaxin 17, and HCV reduces the intracellular level of syntaxin 17 by NS5A-mediated interruption of c-Raf signaling, which triggers the syntaxin 17 transcription, and by HCV-dependently induced autophagy. Overexpression of syntaxin 17 decreases the intracellular amount of viral particles and reduces the number of released infectious viral particles by favoring the formation of autolysosomes, in which HCV particles can be degraded. Vice versa, inhibition of syntaxin 17 expression by specific siRNAs results in an elevated amount of intracellular viral particles and increases the number of released viral particles by impaired autophagosome-lysosome fusion. Confocal immunofluorescence microscopy analyses show a fraction of core protein in autophagosomes as stained by lysotracker and the autophagy maker p62. These data identify syntaxin 17 as a novel factor controlling the release of HCV and reveal the autophagosome-autolysosome fusion as an essential step affecting the equilibrium between the release of infectious viral particles and lysosomal degradation of intracellular viral particles.
Taken together, these data identify the t-SNARE proteins syntaxin 4 and syntaxin 17 as essential cellular factors for HCV morphogenesis and secretion.
Functional dynamics of ribonucleic acids : development and application of spectroscopic tools
(2016)
Im Rahmen der vorliegenden Dissertation wird der Aufbau eines zeitaufgelösten Fluorimeters, die photophysikalische Grundcharakterisierung der drei 2-(Pyrenylethinyl)-Adenosine (PyAs) und das Wechselwirkungsgeflecht des tetracyclinbindenden Aptamers (TC-Aptamer) mit seinem Liganden Tetracycyclin (TC) und Mg2+ dargestellt.
Das zeitaufgelöste Fluorimeter basiert auf der experimentellen Technik des zeitkorrelierten Einzelphotonenzählens. Es verfügt über zwei Anregungsquellen: gepulste UV-LEDs und einen frequenzverdoppelten titandotierten Saphirlaser. Diese Quellen Decken einen Wellenlängenbereich von (310 - 550) nm ab. Das Spektrometer kann unter günstigen Umständen eine Zeitauflösung von 50 ps erreichen bei einer zeitlichen Messungenauigkeit von weniger als 0,02 %.
Die Leistungsfähigkeit des Aufbaus wird anhand einer umfangreichen Studie an den drei PyAs demonstriert.
Die drei PyAs 2-(1-Pyrenylethinyl)-Adenosine (1PyA), 2-(2-Pyrenylethinyl)-Adenosine (2PyA) und 2-(4-Pyrenylethinyl)-Adenosine (4PyA) sind eine Gruppe fluoreszierender RNA-Nukleosidanaloga, welche die Gesamtheit aller möglichen Konfigurations-isomere der Grundverbindung PyA umfassen. Ihre zeitabhängigen Fluoreszenzzerfallseigenschaften werden ergänzt von stationären Absorptions- und Fluoreszenzspektren, ultraschneller transienter Absorptionsspektroskopie und quantenchemischen Rechnungen. Die Fluoreszenz von 1PyA und 4PyA gehorchen der Regel von Kasha, wohingegen 2PyA einen triexponentiellen Zerfall mit ausgeprägter Abhängigkeit von der Anregungswellenlänge zeigt. Die transienten Absorptionsspektren aller drei Isomere weisen im gesamten Spektrum dominante, wenig strukturierte Absorptionsbanden des ersten angeregten Zustands auf, welche im nahen UV in unterschiedlichem Maße vom Grundzustandsbleichen und stimulierter Emission überlagert werden. 2PyA zeigt eine deutlich ausgeprägte Signatur für eine interne Umwandlung hin zum S1, wenn es in höhere angeregte Zustände angeregt wird.
Das Fluoreszenzverhalten von 2PyA wird mithilfe eines lokal angeregten (LE) und zweier intramolekularer Ladungstransferzustände, von denen einer der koplanaren Orientierung von Pyren und Adenin (MICT) und der andere einer um 90 ° verdrehten Orientierung (TICT) entspricht. Der LE-Zustand ist hierbei verknüpft mit dem S2 von 2PyA, welcher einer rein pyrenlokalisierten Anregung entspricht. Dieser Zustand existiert so in 1PyA und 4PyA nicht. Der verdrehte TICT-Zustand ist nur in 2PyA bevölkerbar, weil für 2PyA die Barriere zur Bildung von Rotameren am niedrigsten ist und das Molekül nach Anregung daher in diese Geometrie kommen kann und dann durch die stärkere elektrostatische Anziehung stabilisiert wird. 1PyA und 4PyA emittieren hingegen nur aus dem MICT-Zustand.
Die Komplexbildung des TC-Aptamers mit seinem Liganden TC in Lösung wird empfindlich beeinflusst durch die-Konzentration von Magnesiumkationen. Dies wird untersucht durch Bindungs- und Faltungs- und Denaturierungsstudien mit verschiedenen Mg- und Harnstoffkonzentrationen. Als experimentelle Observable dienen hierbei die konformationsabhängige Nukleobasenabsorption und ihr Zirkulardichroismus im fernen UV, die Fluoreszenz des Liganden TC und die freiwerdende Wärme der exothermen Bindungsreaktion des Aptamers mit Mg in An- und Abwesenheit von TC.
Ohne Mg ist eine Interaktion des TC-Aptamers mit TC nicht nachweisbar. Dies liegt daran, dass Mg die notwendige elektrostatische Abschirmung der negativen elektrischen Ladung am RNA-Rückgrat zur Verfügung stellt. Die Abschirmung erlaubt es dem Aptamer kompakte Strukturen mit tertiären Kontakten auszubilden. Wenn die Mg-Konzentration die Faltung des Aptamers vollständig unterstützt (> 1 mM), so befindet sich das Aptamer weitgehend in einer vorgefalteten Konformation, welche der bindungskompetenten stark ähnelt. In diesem Zustand kann das Aptamer seinen Liganden extrem schnell, nämlich annähernd diffusionslimitiert binden. Unter diesen Bedingungen hat TC kaum Einfluss auf die Konformation seines Aptamers.
Bei physiologischen Mg-Konzentrationen (0,2 - 0,8 mM) kann das Aptamer kompakte Konformationen mit tertiären Strukturen einnehmen. Diejenige Konformation, welche der bindenden sehr stark ähnelt, dominiert das konformationelle Gleichgewicht jedoch noch nicht vollständig, es ist lediglich eine Konformation von vielen möglichen. Daher eröffnen physiologische Mg-Konzentrationen dem TC-Aptamer Teile des Konformationsraumes, welche andernfalls nicht zugänglich wären und TC stabilisiert selektiv die native Konformation. Diese konformationelle Verschiebung liefert kann hierbei zur robusten Signalgebung für die Funktion als Riboschalter dienen.
Die vorliegende Arbeit lässt sich in den Bereich Data Science einordnen. Data Science verwendet Verfahren aus dem Bereich Computer Science, Algorithmen aus der Mathematik und Statistik sowie Domänenwissen, um große Datenmengen zu analysieren und neue Erkenntnisse zu gewinnen. In dieser Arbeit werden verschiedene Forschungsbereiche aus diesen verwendet. Diese umfassen die Datenanalyse im Bereich von Big Data (soziale Netzwerke, Kurznachrichten von Twitter), Opinion Mining (Analyse von Meinungen auf Basis eines Lexikons mit meinungstragenden Phrasen) sowie Topic Detection (Themenerkennung)....
Ergebnis 1: Sentiment Phrase List (SePL)
Im Forschungsbereich Opinion Mining spielen Listen meinungstragender Wörter eine wesentliche Rolle bei der Analyse von Meinungsäußerungen. Das im Rahmen dieser Arbeit entwickelte Vorgehen zur automatisierten Generierung einer solchen Liste leistet einen wichtigen Forschungsbeitrag in diesem Gebiet. Der neuartige Ansatz ermöglicht es einerseits, dass auch Phrasen aus mehreren Wörtern (inkl. Negationen, Verstärkungs- und Abschwächungspartikeln) sowie Redewendungen enthalten sind, andererseits werden die Meinungswerte aller Phrasen auf Basis eines entsprechenden Korpus automatisiert berechnet. Die Sentiment Phrase List sowie das Vorgehen wurden veröffentlicht und können von der Forschungsgemeinde genutzt werden [121, 123]. Die Erstellung basiert auf einer textuellen sowie zusätzlich numerischen Bewertung, welche typischerweise in Kundenrezensionen verwendet werden (beispielsweise der Titel und die Sternebewertung bei Amazon Kundenrezensionen). Es können weitere Datenquellen verwendet werden, die eine derartige Bewertung aufweisen. Auf Basis von ca. 1,5 Millionen deutschen Kundenrezensionen wurden verschiedene Versionen der SePL erstellt und veröffentlicht [120].
Ergebnis 2: Algorithmus auf Basis der SePL
Mit Hilfe der SePL und den darin enthaltenen meinungstragenden Phrasen ergeben sich Verbesserungen für lexikonbasierte Verfahren bei der Analyse von Meinungsäußerungen. Phrasen werden im Text häufig durch andere Wörter getrennt, wodurch eine Identifizierung der Phrasen erforderlich ist. Der Algorithmus für eine lexikonbasierte Meinungsanalyse wurde veröffentlicht [176]. Er basiert auf meinungstragenden Phrasen bestehend aus einem oder mehreren Wörtern. Da für einzelne Phrasen unterschiedliche Meinungswerte vorliegen, ist eine genauere Bewertung als mit bisherigen Ansätzen möglich. Dies ermöglicht, dass meinungstragende Phrasen aus dem Text extrahiert und anhand der in der SePL enthaltenen Einträge differenziert bewertet werden können. Bisherige Ansätze nutzen häufig einzelne meinungstragende Wörter. Der Meinungswert für beispielsweise eine Verneinung muss nicht anhand eines generellen Vorgehens erfolgen. In aktuellen Verfahren wird der Wert eines meinungstragenden Wortes bei Vorhandensein einer Verneinung bisher meist invertiert, was häufig falsche Ergebnisse liefert. Die Liste enthält im besten Fall sowohl einen Meinungswert für das einzelne Wort und seine Verneinung (z.B. „schön“ und „nicht schön“).
1.3 übersicht der hauptergebnisse 5
Ergebnis 3: Evaluierung der Anwendung der SePL
Der Algorithmus aus Ergebnis 2 wurde mit Rezensionen der Bewertungsplattform CiaoausdemBereichderAutomobilversicherunge valuiert.Dabei wurden wesentliche Fehlerquellen aufgezeigt [176], die entsprechende Verbesserungen ermöglichen. Weiterhin wurde mit der SePL eine Evaluation anhand eines Maschinenlernverfahrens auf Basis einer Support Vector Machine durchgeführt. Hierbei wurden verschiedene bestehende lexikalische Ressourcen mit der SePL verglichen sowie deren Einsatz in verschiedenen Domänen untersucht. Die Ergebnisse wurden in [115] veröffentlicht.
Ergebnis 4: Forschungsprojekt PoliTwi - Themenerkennung politischer Top-Themen
Mit dem Forschungsprojekt PoliTwi wurden einerseits die erforderlichen Daten von Twitter gesammelt. Andererseits werden der breiten Öffentlichkeit fortlaufend aktuelle politische Top-Themen über verschiedene Kanäle zur Verfügung gestellt. Für die Evaluation der angestrebten Verbesserungen im Bereich der Themenerkennung in Verbindung mit einer Meinungsanalyse liegen die erforderlichen Daten über einen Zeitraum von bisher drei Jahren aus der Domäne Politik vor. Auf Basis dieser Daten konnte die Themenerkennung durchgeführt werden. Die berechneten Themen wurden mit anderen Systemen wie Google Trends oder Tagesschau Meta verglichen (siehe Kapitel 5.3). Es konnte gezeigt werden, dass die Meinungsanalyse die Themenerkennung verbessern kann. Die Ergebnisse des Projekts wurden in [124] veröffentlicht. Der Öffentlichkeit und insbesondere Journalisten und Politikern wird zudem ein Service (u.a. anhand des Twitter-Kanals unter https://twitter.com/politwi) zur Verfügung gestellt, anhand dessen sie über aktuelle Top-Themen informiert werden. Nachrichtenportale wie FOCUS Online nutzten diesen Service bei ihrer Berichterstattung (siehe Kapitel 4.3.6.1). Die Top-Themen werden seit Mitte 2013 ermittelt und können zudem auf der Projektwebseite [119] abgerufen werden.
Ergebnis 5: Erweiterung lexikalischer Ressourcen auf Konzeptebene
Das noch junge Forschungsgebiet des Concept-level Sentiment Analysis versucht bisherige Ansätze der Meinungsanalyse dadurch zu verbessern, dass Meinungsäußerungen auf Konzeptebene analysiert werden. Eine Voraussetzung sind Listen meinungstragender Wörter, welche differenzierte Betrachtungen anhand unterschiedlicher Kontexte ermöglichen. Anhand der Top-Themen und deren Kontext wurde ein Vorgehen entwickelt, welches die Erstellung bzw. Ergänzung dieser Listen ermöglicht. Es wurde gezeigt, wie Meinungen in unterschiedlichen Kontexten differenziert bewertet werden und diese Information in lexikalischen Ressourcen aufgenommen werden können, was im Bereich der Concept-level Sentiment Analysis genutzt werden kann. Das Vorgehen wurde in [124] veröffentlicht.
Die Etablierung der Festphasensynthese innerhalb der letzten Jahrzehnte macht hoch modifizierte Oligonukleotide verfügbar. Damit werden Methoden wie Einzelmolekül-aufgelöstes Tracking möglich, um beispielsweise den Weg einer einzelnen RNA von der Transkriptionsstelle im Nukleus bis zur Proteinbiosynthese im Cytoplasma verfolgen und kritische Stelle verstehen zu können. In den letzten Jahren entwickelten sich auch vermehrt Fragen zur lokalen Proteinsynthese. Dabei nimmt man besonders im Fall von polaren Zellen wie Neuronen an, dass die Proteinbiosynthese nicht global im Cytosol stattfindet, sondern es einen Transport der „ruhenden“ RNA bis zu dem Ort geben muss, an dem das entsprechende Protein lokal benötigt wird. In dieser vorliegenden Arbeit sollen nun in zwei Hauptprojekten molekulare Werkzeuge entwickelt werden, mit deren Hilfe oben genannte Fragestellungen in Zukunft beantwortet werden könnten. Im ersten Hauptprojekt wurde dazu eine neue Generation lichtaktivierbarer Molecular Beacons (von engl.: molekulare Leuchtfeuer) entwickelt. Dabei handelt es sich um Oligonukleotide, die komplementär zu einer intrazellulären RNA-Sequenz (Target-RNA) sind und mit Fluorophor und Fluoreszenz-Quencher modifiziert werden. Bei den lichtaktivierbaren Designs kann Fluoreszenz detektiert werden, wenn der Molecular Beacon an seine Targetsequenz gebunden und zusätzlich zuvor eine Lichtaktivierung stattgefunden hat. Im Gegensatz zu früheren Designs wurde bei diesem hier vorgestellten Molecular Beacon der Fluorophor mit Hilfe eines zweiten photoabspaltbaren Quenchers verbunden. Dadurch kann der Beacon an seine Targetsequenz binden, obwohl noch keine Lichtaktivierung stattgefunden hat. Fluoreszenz kann allerdings erst nach photoinduzierter Abspaltung des zusätzlichen Quenchers detektiert werden. In der vorliegenden Studie konnten dadurch extrem gute Signal-zu-Rausch-Verhältnisse von bis zu 170:1 erreicht werden. Zusätzlicher Vorteil dieses Designs ist die Tatsache, dass eine Vielzahl kommerziell erhältlicher Fluorophor-Quencher-Paare verwendet werden kann. Dabei ist es nicht relevant, ob der entsprechende Farbstoff co-synthetisch während der Festphasensynthese oder post-synthetisch durch die Modifikation funktioneller Gruppen angebracht wird. Nach anfänglichen in vitro Tests wurden die besten Molecular Beacons in vivo in der Zuckmücken-Art Chironomus tentans getestet. Dieser Organismus ist aufgrund seiner Polytänchromosomen, der sog. Balbiani Ringe, interessant. Dabei handelt es sich um ein Chromosom, das viele Chromatiden mit jeweils identischen Gensequenzen enthält. Diese Balbiani Ringe haben eine sehr charakteristische Struktur. Die Molecular Beacons wurden in den Zellkern injiziert und anschließend photoinduziert. Auch in den in vivo Messungen zeigte sich die Überlegenheit des neuen Design mit Signal-zu-Rausch-Verhältnissen von bis zu 80:1. Im zweiten Hauptprojekt war es das Ziel, lokale mikroRNA-Reifung in Neuronen nachzuweisen bzw. sichtbar zu machen. MikroRNA (kurz miRNA) ist einer der wichtigsten zellulären Werkzeuge, um Genregulation auf post-transkriptioneller Ebene zu ermöglichen. Für dieses Projekt wurde eine Sonde entwickelt, die den nativen miRNA-Vorläufer – die sog. prä-miRNA – nachbildet. Der enzymatische Reifungsprozess durch die RNase Dicer sollte durch Fluoreszenz nachweisbar sein. Dies gelang durch Modifikationen der Sequenz um die enzymatische Schnittstelle herum. Durch den Dicer-vermittelten, enzymatischen Verdau wurde ein Fluorophor von einem Quencher getrennt, wobei der fluoreszente Farbstoff an der reifen mikroRNA verblieb. Nach der Etablierung der in vitro Tests und Auswahl des optimalen Fluorophor-Quencher-Paars zeigte sich in einem Kontrollexperiment, dass bei Verwendung von neuronalen Ganglien aus Dicer-Knock-Out Mäusen kein Fluoreszenzanstieg zu beobachten war. Dieses Experiment bewies, dass bisher beobachtete Fluoreszenzanstiege Dicer-spezifisch waren. Im nächsten Schritt wurden in vivo Messungen durchgeführt. Es zeigte sich dabei, dass die sog. Patch Clamp Technik herkömmlichen Transfektionsmethoden überlegen war. Unter normalen Bedingungen zeigte sich sowohl im Soma als auch in den Dendriten ein Fluoreszenzanstieg. Durch Depolarisation des Neurons konnte dieser Effekt noch verstärkt werden, wobei das somatische Signal grundsätzlich als höher einzustufen war. Interessanterweise führte eine Blockade der NMDA-Rezeptoren auch bei gleichzeitiger Depolarisation zu einer verringerten Fluoreszenz. Dies lässt darauf schließen, dass die Reifung der untersuchten prä-miRNA in Dendriten von der Aktivität des NMDA-Rezeptors bzw. einem als Konsequenz ansteigenden Ca2+-Spiegels in der Zelle abhängig ist. In einem weiteren Experiment wurde nach „Beladung“ eines Neurons mit der prä-miRNA-Sonde Dendriten punktuell aktiviert. Dies konnte durch Licht-aktivierbares Glutamat erreicht werden. Im zentralen Nervensystem gilt Glutamat als der wichtigste aktivierende Neurotransmitter. Es konnte beobachtet werden, wie einerseits Fluoreszenz lokal an der aktivierten Stelle anstieg und gleichzeitig sog. dendritische Spines wuchsen. Zum Teil war auch ein Wachstum benachbarter Spines zu beobachten. Dabei handelt es sich um pilzförmige Aussackungen der Dendriten an Stellen, an denen Vernetzungen zu Synapsen anderer Neuronen existieren. Als Ergebnis kann geschlussfolgert werden, dass es eine lokale Reifung der untersuchten prä-miRNA durch Dicer in Dendriten gibt. Dieser Prozess kann sehr spezifisch und lokal durch die Aktivierung einzelner synaptischer Verbindungen initiiert werden.
Ischemic injuries of the cardiovascular system are still the leading cause of death worldwide. They are often accompanied by loss of cardiomyocytes (CM) and their replacement by non-functional heart tissue. Cardiac fibroblasts (CF) play a major role in the recovery after ischemic injury and in the scar formation. In the last few years researchers were able to reprogram fibroblasts into CM in vitro and in murine models of myocardial infarction using various protocols including a cocktail of microRNAs (miRs). These miRs can target hundreds of messenger RNAs and inhibit their translation into proteins, potentially regulating multiple cellular signaling pathways. Because of this, there has been a rising interest in the use of miRs for therapeutic purposes. However, as different miRs have different effects in different cells, there is the danger of causing serious side effects. These could be alleviated by enacting a cell-specific transport of miRs, for example by using aptamers. Aptamers are usually short strands of DNA or RNA, which can fold into a specific three-dimensional confirmation which allows them to bind specifically to target molecules. Aptamers are commonly selected from a large library for their ability to bind to target molecules using a procedure called SELEX. Aptamers have already been used to transport miRs into cancer cells.
In this thesis, we first established the transport of miRs into cells of the cardiovascular system using aptamers. MiR-126 is an important part of the signaling in endothelial cells (EC), protects from atherosclerosis and supports angiogenesis, which is why we chose it as a candidate to transport into the vasculature. We first tested two aptamers for their ability to internalize into EC and fibroblasts. Both the aptamer for the ubiquitously expressed transferrin receptor (TRA) and a general internalizing RNA motif, but not a control construct, could internalize efficiently into all cell types tested. We then designed three chimeras (Ch) using different strategies to connect TRA to miR-126. While all chimeras could internalize efficiently, only Ch3, which connects TRA to Pre-miR-126 using a sticky bridge structure, had functional effects in EC. Ch3 reduced the protein expression of VCAM-1 in EC and increased the VEGF induced sprouting of EC in a spheroid-sprouting assay. Treatment of breast cancer cells with Ch3 emulated the effects of treatment with classical miR-126-3p and miR-126-5p mimics. In the SK-BR3 cell line Ch3 and miR-126-3p reduce the viability of the cells while they reduce recruitment of EC by the MCF7 cell line. miR-126-5p had no apparent effect in the SK-BR3 line, but increased viability of MCF7 cells, as did Ch3. This implies that Ch3 can be processed to both functional miR-126-3p and miR-126-5p in treated cells.
We were unable to achieve a reprogramming of adult murine cardiac fibroblasts into cells resembling CM using the cocktail of 4 miRs. This indicates that the miR-mediated transdifferentiation is only possible in neonatal fibroblasts. The effects in mice after an AMI might possibly be caused by an enhanced plasticity of fibroblasts in and close to the infarcted area.
We also screened to find aptamers specifically binding to cells of the cardiovascular system. We used two oligonucleotide libraries in a cell-SELEX to select candidates which bind to CF, but not EC. We observed that only the library which contains two randomized regions of 26 bases showed an enrichment of species binding to fibroblasts. We then sequenced rounds 5-7 of the SELEX and analyzed the data bioinfomatically to select 10 candidate aptamers. All candidates showed a strong binding not only to CF, but also EC. This indicates that the selection pressure against species binding to EC was not high enough and would have to be increased to find true CF-aptamers. Four promising candidates were also analyzed for their potential to be internalized and we surprisingly found that all of them were internalized by EC and CF more efficiently than TRA. The similar behavior of the candidates implies that they possibly share a ligand, which is expressed both by EC and CF, but more prominently by the latter.
This work demonstrates the possibility of using aptamers to transport miRs into cells of the cardiovascular system. It also shows that it is possible to select aptamers for non-cancerous mammalian cells, which has not been done before. It is reasonable to assume that a refinement of the cell-SELEX will allow selection of cell-specific aptamers. Due to the failure of reprogramming of adult fibroblasts into induced cardiomyocytes we were unable to test whether a miR-mediated reprogramming might be inducible using aptamer transported-miRs. Ultimately, aptamer mediated transport of miRs is a feasible and promising therapeutic option for the treatment of cardiovascular diseases and other disorders like cancer.
The transition from the marine to the terrestrial realm is one of the most fascinating issues in evolutionary biology for it required the appearance, in different organisms, of several novel adaptations to deal with the demands of the new realm. Adaptations include, for instance, modifications in different metabolic pathways, development of body structures to facilitate movement and respiration, or tolerance to new conditions of stress. The transition to the land also gives an extraordinary opportunity to study whether evolution used similar changes at the genomic level to produce parallel adaptations in different taxa. Mollusks are among taxa that were successful in the conquest of the land. For instance, several lineages of the molluscan clade Panpulmonata (Gastropoda, Heterobranchia) invaded the intertidal, freshwater and land zones from the marine realm. In my dissertation, using tools from bioinformatics, phylogenetics, and molecular evolution, I used panpulmonates as a suitable model group to study the independent invasions into the terrestrial realm and the adaptive signatures in genes that may have favored the realm transitions. My work includes two peer-reviewed published papers and one manuscript under review. In Publication 1 (Romero et al., 2016a), I used mitochondrial and nuclear molecular markers to resolve the phylogeny of the Ellobiidae, a family that possesses intertidal and terrestrial species. The phylogeny provided an improved resolution of the relationships within inner clades and a framework to study the tempo and mode of the land transitions. I showed that the terrestrialization events occurred independently, in different lineages (Carychiinae, Pythiinae) and in different geological periods (Mesozoic, Cenozoic). In addition, the diversification in this group may not have been affected by past geological or climate changes as the Cretaceous-Paleogene (K-Pg) event or the sea-level decrease during the Oligocene. In Publication 2 (Romero et al., 2016b), I generated new mitochondrial genomes from terrestrial species and compared them with other panpulmonates. I used the branch-site test of positive selection and detected significant nonsynonymous changes in the terrestrial lineages from Ellobioidea and Stylommatophora. Two genes appeared under positive selection: cob (Cytochrome b) and nad5 (NADH dehydrogenase 5). Surprisingly, I found that the same amino acid positions in the proteins encoded by these genes were also under positive selection in several vertebrate lineages that transitioned between different habitats (whales, bats and subterranean rodents). This result suggested an adaptation pattern that required parallel genetic modifications to cope with novel metabolic demands in the new realms. In Manuscript 1 (Romero et al., under review), I de novo assembled transcriptomes from several panpulmonate specimens resulting in thousands of genes that were clustered in 702 orthologous groups. Again, I applied the branch-site test of positive selection in the terrestrial lineages from Ellobioidea and Stylommatophora and in the freshwater lineages from Hygrophila and Acochlidia. Different sets of genes appeared under positive selection in land and freshwater snails, supporting independent adaptation events. I identified adaptive signatures in genes involved in gas-exchange surface development and energy metabolism in land snails, and genes involved in the response to abiotic stress factors (radiation, desiccation, xenobiotics) in freshwater snails. My work provided evidence that supported multiple land invasions within Panpulmonata and provided new insights towards understanding the genomic basis of the adaptation during sea-to-land transitions. The results of my work are the first reports on the adaptive signatures at the codon level in genes that may have facilitated metabolic and developmental changes during the terrestrialization in the phylum Mollusca. Moreover, they contribute to the current debate on the conquest of land from the marine habitat, a discussion that has been only based in vertebrate taxa. Future comparative genome-wide analyses would increase the number of genes that may have played a key role during the realm transitions.
Fungi are an important component of every ecosystem but hardly considered in biodiversity monitoring projects. This thesis aims at characterizing fungal diversity, with an emphasis on epigeous fungi, encompassing different biogeographic zones and points in time. A main sampling area was established in the Taunus mountain range in Germany, which was sampled monthly over three years.
For testing species richness on spatial scale, the Taunus transect was compared with four other areas, which were assessed with lower sampling effort. One of these areas was Bulau in Germany, in which four excursions were made. Furthermore, two sampling events were performed in Somiedo in Spain and one sampling event in Kleinwalsertal in Austria. Already existing data of a two-year monitoring project in Panama next to the river Majagua were additionally used for comparison.
All these areas were investigated with a standardized sampling protocol focusing on macroscopically evident fungi and vascular plants using a time-restricted transect design. The transects consisted of strips, which were 500 m long and about 20 m broad, and were sampled for 2 hours at each single sampling event....
From an early understanding of organisational theorist (Bartlett & Ghosal, 1989; 1990), the function of global teams in transnational organisations has been conceptualised as the transformation of different embedded cultural practices for the development of a global strategy, products and services. Simultaneously, in the field, from the beginning of the 1990ies to the edge of the new millennium neo-liberal political developments enforced a free flow of capital on a global level (cf. Turner, 2006). In line with the development of respective connectivity via the internet the form of globally distributed team work was spread (Maznevski & Chudoba, 2000). In a study by Biggs (2000), published just after the millennial change, it was shown that 60% of tasks in multinational companies are accomplished by virtual teams. More recent data (Society for Human Resource Management, 2012) showed that the prevalence of such teams stayed more or less constant in the last 10 years. According to the survey 66% of companies are working with distributed global teams.
Globally distributed teams were already described by Bartlett and Ghosal (1989) in their functions of articulation and translation of differing market practices for the integration of requirements and needs on a global level. From a European perspective the importance to further develop innovation capabilities in order to compete in the global market is stressed today (Imp3rove, 2012). In a globalised economy not only the big multinational companies are involved in globally distributed research and development activities (R&D). On the level SMEs, for example, in Switzerland the involvement in global development processes is increasing (Gassmann, 2009). From my own experiences in working with Swiss SMEs, the macro-economic processes in regard to the strong Swiss Franc may accelerate such processes. Thus, the form of globally distributed teams, and their functional task in global development processes, can be viewed as highly relevant, in a globalised economy.
The crucial question for companies at the moment is, if teams can be enabled for innovative project work, which enables the integration of diverging perspectives in a globally distributed setting? Or, if such teams have to be collocated for more innovative, interdependent task work? Requirements for integrating embedded knowledge from different regionally defined clusters into global innovations at least, seems to indicate for the relevance of interdependent globally distributed team work (cf. Li, Eden, Hitt, Ireland, & Garrett, 2012). Bilateral practices of partnering, for example in the Swiss pharmaceutical sector, lead to the integration of selected subsidiaries in the R&D process of the company (Festel et al., 2010). Thus, the form of dispersion for project teams becomes more critical for effective global R&D practices (Boyer O’Leary & Cummings, 2007). So called partially distributed teams integrating balanced subgroups between two sites, hence, become an important subject of inquiry with practical relevance.
The context of partially distributed team work represents by virtue a context involving multiple perspectives influenced by the involvement of actors stemming from different cultural contexts (Dekker, Rutte, & Van den Berg, 2008). It thereby provides the synergetic potential for integrating different perspectives in the resolution of complex problems on a global level (Janssens & Brett, 2006). Simultaneously, cultural diversity engenders challenges for collaboration. Challenges, like different understandings and interpretations regarding tasks, the structuring of communication (Maznevski & Chudoba, 2000) and unexpected events occurring in the collaboration between the actors (Dekker et al., 2008; Oertel & Antoni, 2014) were identified in respective empirical studies.
Opportunities and challenges of partially distributed global teams can be compared with the problematic of face-to-face (f2f) teams with a moderate amount of diversity. Studies have shown (see Thatcher & Patel, 2011 for a meta-analysis) that when the distribution of diversity characteristics is aligned to potentially form culture specific subgroups, so-called diversity faultlines (Lau & Murnighan, 1998), negative subgroup dynamics are reinforced.
To achieve the above mentioned synergetic potentials it seems important to effectively cope with such negative dynamics and allow for a balanced participation in partially distributed teams (Janssens & Brett, 2006). In the research on faultline teams, especially the structuring of task-related interdependences across respective subgroups has been identified as an important impediment for the mentioned subgroup dynamics. Task interdependences, which cross functional roles across respective group faultlines (Bettencourt, Molix, Talley, & Eubanks, 2007; Marcus-Newhall, Miller, Holtz, & Brewer, 1993), are able to unlock the inherent potentials of globally distributed teams on more complex tasks that require the integration of different perspectives. From a work group diversity perspective (van Knippenberg & Schippers, 2007), partially distributed global teams represent a research object for studying the interaction between social categorisation processes involved in the above mentioned subgroup dynamics, and processes of task-related information processing required for innovative team outputs. The exploration of effects of task structures on the interaction between categorisation processes and task-related information processing (van Knippenberg et al., 2004), will be in the main explorative research focus of this thesis. The research thesis represents a heuristic explorative inquiry (Kleining & Witt, 2001) of respective dynamics and structural as well as process-related enablers.
The thesis starts with the theoretical part, in which the historical development of the understanding of teams as open, complex and temporally dynamic systems (Arrow et al., 2005, 2000), will be outlined. A sound definition of partially distributed global teams, including the respective contextual characteristics will be delineated. In a sensitizing framework (Blumer, 1954) which guided the explorative research process, the central boundary condition of task interdependence (Wageman, 2001) and respective episodic theories for explaining global task-related dynamics in teams (Marks et al., 2001), the dynamics of social categorisation (Gaertner, Dovidio, Anastasio, Bachman, & Rust, 1993; Gaertner & Dovidio, 2000), as well as the interaction between social categorisation processes and task-related information processing will be integrated (van Knippenberg et al., 2004). According to the framework, empirical studies on effects of task interdependence on interactions between task-related information processing and social categorisation processes will be addressed (van Knippenberg et al., 2004).
The empirical part of the contribution will be split in two parts. In the first heuristic exploratory study eleven partially distributed global teams are followed up during the time of relevant innovation projects. The approach allowed the study of task interdependence, productive interactions with social categorisation processes and there effects on team innovation. In the second empirical step, the developed hypotheses, were tested in an experimental simulation (Arrow et al., 2005, 2000) in undergraduate courses.
As a conclusion of the two exploratory studies, an episodic team process model will be outlined. The model specifies interdependence dynamics, which allows for team innovation. Furthermore, on a process level, the episodic categorisation-elaboration model (van Knippenberg et al., 2004) proposes three critical team performance episodes. Dynamics in the interplay between task-related information processing and social categorisation processes allow for the development of hypothesis for further research projects. Finally the implications for theory and the practical relevance of the heuristic model will be discussed.
Magnetism is a beautiful example of a macroscopic quantum phenomenon. While known at least since the ancient Greeks, a microscopic theoretical explanation of magnetism could only be achieved with the advent of quantum mechanics at the beginning of the 20th century. Then it was understood that in a certain class of solids the famous Pauli exclusion principle leads to an effective interaction between the microscopic magnetic moments, i.e., the spins, which favors an ordered, and hence macroscopically magnetic, state. Nowadays, magnetic phenomena are used in a host of applications, and are especially relevant for information storage and processing technologies.
Despite the long history of the field, magnetic phenomena are still an active research topic. In particular, in the last decade the fields of spintronics and spin-caloritronics emerged, which manipulate the microscopic spins via charge and heat currents respectively. This opens new avenues to potential applications; including the possibility to use the magnetic spin degrees of freedom instead of charges as carriers of information, which could provide a number of advantages such as reduced losses and further miniaturization.
In this thesis we do not delve any further into the realm of possible applications. Instead we use sophisticated theories to explore the microscopic spin dynamics which is the basis of all such applications. We also focus on a particular compound: Yttrium-iron garnet (YIG), which is a ferrimagnetic insulator. This material has been widely used in experiments on magnetism over the last decades, and is a popular candidate for spintronic devices. Microscopically, the low-energy magnetic properties of YIG can be described by a ferromagnetic Heisenberg model. For spintronics and spin-caloritronics applications, it is however insufficient to only consider the magnetic degrees of freedom; one should also include the coupling of the spins to the elastic lattice vibrations, i.e., the phonons. Besides giving an overview on techniques used throughout the thesis, the introductory Ch. 1 provides a discussion of the microscopic Hamiltonian used to model the coupled spin-phonon system in the subsequent chapters.
The topic of Ch. 2 are the consequences of the magnetoelastic coupling on the low-energy magnon excitations in YIG. Starting from the microscopic spin-phonon Hamiltonian, we rigorously derive the magnon-phonon hybridization and scattering vertices in a controlled spin wave expansion. For the experimentally relevant case of thin YIG films at room temperature, these vertices are then used to compute the magnetoelastic modes as well as the magnon damping. In the course of this work, the damping of magnons in this system was also investigated experimentally using Brillouin light scattering spectroscopy. While comparison to the experimental data shows that the magnetoelastic interactions do not dominate the total magnon relaxation in the experimentally accessible regime, we are able to show that the spin-lattice relaxation time is strongly momentum dependent, thereby providing a microscopic explanation of a recent experiment.
In the final Ch. 3, we investigate a different phenomenon occurring in thin YIG films: Room temperature condensation of magnons. Prior work attributed this condensation process to quantum mechanics, i.e., it was interpreted as Bose-Einstein condensation. However, this is not satisfactory because at room temperature, the magnons in YIG behave as purely classical waves. In particular, the quantum Bose-Einstein distribution reduces to the classical Rayleigh-Jeans distribution in this case. In addition, the effective spin in YIG is very large. Therefore we start from the hypothesis that the room temperature magnon condensation is actually a new example of the kinetic condensation of classical waves, which has so far only been observed by imaging classical light in a photorefractive crystal. To distinguish this classical condensation from the quantum mechanical Bose-Einstein one, we refer to it as Rayleigh-Jeans condensation. To prove our claim, we consider the classical equations of motion of the coupled spin-phonon system. By eliminating the phonon degrees of freedom, we microscopically derive a non-Markovian stochastic Landau-Lifshitz-Gilbert equation (LLG) for the classical spin vectors. We then use this LLG to perform numerical simulations of the magnon dynamics, with all parameters fixed by experiments. These simulations accurately reproduce all stages of the magnon time evolution observed in experiments, including the appearance of the magnon condensate at the bottom of the magnon spectrum. In this way we confirm our initial hypothesis that the magnon condensation is a classical Rayleigh-Jeans condensation, which is unrelated to quantum mechanics.
Given an Abelian semi-group (A, +), an A-valued curvature measure is a valuation with values in A-valued measures. If A = R, complete classifications of Hausdorff-continuous translation-invariant SO(n)-invariant valuations and curvature measures were obtained by Hadwiger and Schneider, respectively. More recently, characterisation results have been achieved for curvature measures with values in A = Sym^p R^n and A = Sym^2 Λ^q R^n for p, q ≥ 1 with varying assumptions as for their invariance properties.
In the present work, we classify all smooth translation-invariant SO(n)-covariant curvature measures with values in any SO(n)-representation in terms of certain differential forms on the sphere bundle S R^n and describe their behaviour under the globalisation map. The latter result also yields a similar classification of all continuous SO(n)-module-valued SO(n)-covariant valuations. Furthermore, a decomposition of the space of smooth translation-
invariant scalar-valued curvature measures as an SO(n)-module is obtained. As a corollary, we construct explicit bases of continuous translation-invariant scalar-valued valuations and smooth translation-invariant scalar-valued curvature measures.
The behaviour of electronic circuits is influenced by ageing effects. Modelling the behaviour of circuits is a standard approach for the design of faster, smaller, more reliable and more robust systems. In this thesis, we propose a formalization of robustness that is derived from a failure model, which is based purely on the behavioural specification of a system. For a given specification, simulation can reveal if a system does not comply with a specification, and thus provide a failure model. Ageing usually works against the specified properties, and ageing models can be incorporated to quantify the impact on specification violations, failures and robustness. We study ageing effects in the context of analogue circuits. Here, models must factor in infinitely many circuit states. Ageing effects have a cause and an impact that require models. On both these ends, the circuit state is highly relevant, an must be factored in. For example, static empirical models for ageing effects are not valid in many cases, because the assumed operating states do not agree with the circuit simulation results. This thesis identifies essential properties of ageing effects and we argue that they need to be taken into account for modelling the interrelation of cause and impact. These properties include frequency dependence, monotonicity, memory and relaxation mechanisms as well as control by arbitrary shaped stress levels. Starting from decay processes, we define a class of ageing models that fits these requirements well while remaining arithmetically accessible by means of a simple structure.
Modeling ageing effects in semiconductor circuits becomes more relevant with higher integration and smaller structure sizes. With respect to miniaturization, digital systems are ahead of analogue systems, and similarly ageing models predominantly focus on digital applications. In the digital domain, the signal levels are either on or off or switching in between. Given an ageing model as a physical effect bound to signal levels, ageing models for components and whole systems can be inferred by means of average operation modes and cycle counts. Functional and faithful ageing effect models for analogue components often require a more fine-grained characterization for physical processes. Here, signal levels can take arbitrary values, to begin with. Such fine-grained, physically inspired ageing models do not scale for larger applications and are hard to simulate in reasonable time. To close the gap between physical processes and system level ageing simulation, we propose a data based modelling strategy, according to which measurement data is turned into ageing models for analogue applications. Ageing data is a set of pairs of stress patterns and the corresponding parameter deviations. Assuming additional properties, such as monotonicity or frequency independence, learning algorithm can find a complete model that is consistent with the data set. These ageing effect models decompose into a controlling stress level, an ageing process, and a parameter that depends on the state of this process. Using this representation, we are able to embed a wide range of ageing effects into behavioural models for circuit components. Based on the developed modelling techniques, we introduce a novel model for the BTI effect, an ageing effect that permits relaxation. In the following, a transistor level ageing model for BTI that targets analogue circuits is proposed. Similarly, we demonstrate how ageing data from analogue transistor level circuit models lift to purely behavioural block models. With this, we are the first to present a data based hierarchical ageing modeling scheme. An ageing simulator for circuits or system level models computes long term transients, solutions of a differential equation. Long term transients are often close to quasi-periodic, in some sense repetitive. If the evaluation of ageing models under quasi-periodic conditions can be done efficiently, long term simulation becomes practical. We describe an adaptive two-time simulation algorithm that basically skips periods during simulation, advancing faster on a second time axis. The bottleneck of two-time simulation is the extrapolation through skipped frames. This involves both the evaluation of the ageing models and the consistency of the boundary conditions. We propose a simulator that computes long term transients exploiting the structure of the proposed ageing models. These models permit extrapolation of the ageing state by means of a locally equivalent stress, a sort of average stress level. This level can be computed efficiently and also gives rise to a dynamic step control mechanism. Ageing simulation has a wide range of applications. This thesis vastly improves the applicability of ageing simulation for analogue circuits in terms of modelling and efficiency. An ageing effect model that is a part of a circuit component model accounts for parametric drift that is directly related to the operation mode. For example asymmetric load on a comparator or power-stage may lead to offset drift, which is not an empiric effect. Monitor circuits can report such effects during operation, when they become significant. Simulating the behaviour of these monitors is important during their development. Ageing effects can be compensated using redundant parts, and annealing can revert broken components to functional. We show that such mechanisms can be simulated in place using our models and algorithms. The aim of automatized circuit synthesis is to create a circuit that implements a specification for a certain use case. Ageing simulation can identify candidates that are more reliable. Efficient ageing simulation allows to factor in various operation modes and helps refining the selection. Using long term ageing simulation, we have analysed the fitness of a set of synthesized operational amplifiers with similar properties concerning various use cases. This procedure enables the selection of the most ageing resilient implementation automatically.
This thesis describes the adaptation of Acinetobacter species to dry environments with the soil bacterium A. baylyi and the opportunistic hospital pathogen A. baumanii in its focus. The adaptation of A. baylyi and A. baumannii to osmotic stress was investigated. Compatible solutes that were uptaken from the environment or synthesized de novo to cope with the loss of water at high salinity were identified. The corresponding transporters and enzymes involved were characzerized. In addition, the desiccation resistance of A. baumannii was analyzed to elucidate its survival in hospital environments. The usage of compatible solutes during desiccation stress was analyzed and proteins that were produced were identified.
The availability of water is essential for bacterial life and if environmental conditions are awkward, bacteria have to cope with high salinitiy to prevent loss of water. In this thesis it was shown that A. baylyi synthesizes glutamate and mannitol de novo as compatible solutes in response to osmotic stress to balance the osmotic potential. The pathway for mannitol biosynthesis from Fructose-6-Phosphate (F-6-P) via Mannitol-1-Phosphate (Mtl-1-P) was elucidated and the isolation and characterization of a novel type of biofunctional enzyme was described. Interestingly, the unique bifunctional enzyme MtlD, acting as dehydrogenase and phosphatase, mediates both steps of the mannitol biosynthesis pathway. This enzyme catalyzes the reduction of F-6-P to Mtl-1-P with NADPH as reducing equivalent. The dehydrogenase activity of MtlD was salt dependent and the phosphatase activity was dependent on Mg2+ as cofactor. Phylogenetic analyses revealed that MtlD is broadly distributed among other Acinetobacter strains but not in other phylogenetic tribes.
In this thesis it is also described that, besides de novo synthesis of compatible solutes, A. baylyi takes up glycine betaine (GB) or its precursor choline by different transport systems and uses this solutes as osmoprotectants. The uptake of GB occurs via a secondary transporter (ACIAD3460) of the BCCT family. Choline is taken up as precursor and oxidized to GB by two dehydrogenases. The uptake and use of choline as GB precursor involves two transporters, whose genes are encoded in the bet cluster (BetT1, BetT2), two dehydrogenases (BetA, BetB) and a regulatory protein (BetI). Both transporters differ from each other in structure and function: BetT1 is osmo-independent and active independently of osmotic stress. BetT2 contains - in contrast to BetT1 - a long C-terminal domain for osmo-sensing and its activity highly increases in the presence of high osmolarity. The oxidation of choline occurs independently of the osmolarity of the medium but in the absence of salt stress, GB is exported. In contrast, in the presence of high salinity, GB is accumulated in the cytoplasm to balance the osmotic potential in order to prevent loss of water. The regulation of both transporters, the uptake of choline independently of the osmolarity and the export of GB under isoosmotic conditions are regulated by the transcriptional regulator BetI.
A. baumannii ATCC 19606 was also shown to cope with high salinity. Analogously to A. baylyi, A. baumannii ATCC19606 synthesizes glutamate and mannitol de novo in response to osmotic stress. The genes for the synthesis of these compatible solutes are identical to those found in A. baylyi. This suggests that the solute biosynthesis pathways of A. baumannii and A. baylyi are identical. A. baumannii was also able to take up GB and choline in response to osmotic stress and growth at high salinity was restored upon addition of GB and its precursor choline. The bet cluster was also present in the genome A. baumannii and also contains the two different choline transporters BetT1 and BetT2.
Our suggestion that choline or GB or the utilization of phosphatidylcholine as carbon source led to an increase in the survival under desiccation stress was not confirmed. However, 2D analysis of proteins produced during desiccation stress in A. baumannii led to elevated amounts of proteins implicated in biofilm formation, regulation, cell morphology and general stress response, such as Hsp60 or superoxide dismutase, both might play a role in general stress protection.
Despite mounting evidence of the anthropogenic influence on the Earth's climate, underlying mechanisms of climate change often remain elusive. The investigation of periods of rapid climate change from geological archives may provide crucial information about magnitude, duration, teleconnections of and regional responses to global and hemispheric scale climate perturbations. Thus, paleoclimate reconstructions may help in mitigating and adapting to the challenges of the coming decades. The '8.2 kyr B.P. climatic event' has previously been proposed as a possible analogue for the future climatic scenario of a reduced Atlantic Meridional Overturning Circulation (AMOC). The catastrophic drainage of the Laurentide meltwater lakes through the Hudson Bay and into the Labrador Sea, that occurred ca. 8.47 kyr B.P., caused the slowdown of the AMOC around 8.2 kyr B.P.. Subsequently, reduced heat transfer towards Europe triggered a substantial decline in (winter) temperature and pronounced changes in atmospheric circulation patterns in many regions of the northern hemisphere, especially the North Atlantic realm and Europe. Among the regions affected by the 8.2 kyr B.P. climatic event, the Eastern Mediterranean region is of particular interest for both past and future climate developments. Traditionally characterized as a region highly sensitive to variations in the climate systems of the high and low latitudes, abrupt climate changes have the potential to strongly alter atmospheric circulation patterns and thus precipitation distribution in the region that may have severe socioeconomical consequences. The analysis of stable hydrogen (δD) and oxygen isotopes (δ18O) in precipitation is an excellent tool to trace changes in atmospheric circulation. Here, we present a comparative study of δD and δ18O in precipitation from the Eastern Mediterranean region both in a present day scenario and during the 8.2 kyr B.P. climatic event. We analyze the influences of topography, air mass trajectory, climate and seasonality among others the stable isotopic compositions of meteoric waters from the Central Anatolian Plateau (CAP), Turkey, in order to create a first-order template which may serve as a reference against which paleoenvironmental proxy data may be more accurately interpreted and tested. Further, we employ a multiproxy approach on the early Holocene peat deposits of the classical site of Tenaghi Philippon (TP), NE Greece, to investigate paleoenvironmental responses to northern hemisphere cooling during the 8.2 kyr B.P. climatic event and aim to determine changes atmospheric circulation from δD of leaf wax n-alkanes (δDwax).
Based on δD and δ18O data from more than 480 surface water samples from the CAP, we characterize moisture sources affecting the net isotopic budget of precipitation, manifesting in a systematic north-south difference in near-sea level moisture compositions. Rainout, induced by the major orographic barriers of the plateau, the Pontic Mountains to the north and the Taurus Mountains to the south, strongly shape the modern patterns of δD and δ18O. Stable isotope data from the semi-arid plateau interior provide clear evidence for an evaporitic regime that drastically affects surface water compositions. Strong evaporative enrichment contrasts rainfall patterns along the plateau margins, in part obfuscating the effects of topography and air mass trajectory.
Consequently, in order to address possible influences of evaporation on δD and δ18O in paleoprecipitation from TP, we analyze n-alkane abundances and distributions along with stable carbon isotope compositions of total organic carbon (δ13CTOC) and palynological data to estimate surface moisture conditions during the early Holocene (ca. 8.7 - 7.5 kyr B.P.) and especially during the 8.2 kyr B.P. climatic event. A period of relatively dry surface conditions from ca. 8.7 to 8.2 kyr B.P., indicated by low values of the 'aquatic index' (Paq ) and by elevated Average Chain Length (ACL) values, in concert with elevated δ13CTOC values, precedes the 8.2 kyr B.P. climatic event. The event itself is characterized by slightly wetter, more humid conditions, as suggested by an increase in Paq values as well as reduced ACL and δ13CTOC values between ca. 8.2 and 7.9 kyr B.P.. In the upper section of the core, a distinct change in paleohydrology becomes. A steep increase in Paq and a decrease in ACL values as well as variations in δ13CTOC from 7.9 kyr B.P. onwards imply considerably elevated surface moisture levels, likely caused by the increased activity of the karstic system of the surrounding mountains. Collectively, the biomarker proxies presented here, reveal a concise picture of changing moisture conditions at TP that is consistent with palynological data and provide detailed paleoenvironmental information for the analysis of δDwax as a paleoprecipitation proxy. The long-term decline in δDwax values characterizes the lower section of the core until ca. 8.2 kyr B.P.. The 8.2 kyr B.P. climatic event itself is connected to two distinct positive hydrogen isotope excursions: a minor shift in δDwax around 8.2 kyr B.P. and a major shift in δDwax between ca. 8.1 and 8.0 kyr B.P.. The upper part of the section shows a progressive trend towards higher δDwax values. With no indication of increased evaporitic conditions at TP during the 8.2 kyr B.P. climatic event, as evident in biomarker proxies and pollen data, we link shifts in δDwax to changes in Mediterranean air mass trajectories supplying precipitation to northeastern Greece, with variations in the relative contributions of northerly derived, D-depleted moisture and southerly-derived, D-enriched moisture. Possible control mechanisms include changes in the influence of the Siberian High and differences in the influence of the African and Asian monsoon circulations on anticyclonic conditions in the Mediterranean region as well as regional inflow of moist air from the Aegean Sea.
Bartonella Adhäsin A (BadA), das zur Gruppe der TAAs gehört, ist ein essentieller Pathogenitätsfaktor von B. henselae und übernimmt während des Infektionsverlaufs wichtige Funktion wie Autoagglutination, Adhärenz an ECM-Proteine und Endothelzellen. BadA weist die für die für die Proteinklasse der TAAs charakteristische modulare Architektur bestehend aus N-terminaler Kopf-Domäne, Stiel-Domäne, Hals-Domäne und C-terminaler Membrananker-Domäne auf. Der modulare Aufbau des Proteins deutet daraufhin, dass bestimmte Domänen mit bestimmten biologischen Funktionen des Proteins verknüpft sind. Zur Untersuchung dieser Hypothese wurden Deletionsmutanten des BadA generiert.
Die Generierung weiterer BadA-Deletionsmutanten wird durch das langsame Wachstum des Erregers und die geringe Auswahl an molekularbiologischen Werkzeugen zur genetischen Manipulation von B. henselae erschwert. Daher sollte in ersten Teil dieser Arbeit ein Expressionsmodell für Deletionsmutanten des BadA etabliert und charakterisiert werden. Dies sollte am Beispiel des trunkierten BadA, BadA HN23, durchgeführt werden. Hierzu sollten drei Hybrid-Varianten des BadA HN23 erstellt werden: (i) Austausch der BadA-Signalsequenz gegen die E. coli OmpA-Signalsequenz, (ii) Austausch der BadA-Membrananker-Domäne gegen die YadA-Membrananker-Domäne sowie (iii) Austausch von sowohl der BadA-Signalsequenz als auch der BadA-Membrananker-Domäne gegen die bereits genannten Elemente. Danach sollten die konstruierten BadA HN23 Hybride und das BadA HN23 in induzierbare Expressionsvektoren kloniert und spezielle E. coli-Expressionsstämme mit diesen Plasmiden transformiert werden. Bei erfolgreicher Expression sollten die optimalen Bedingungen für die Expression (Temperatur, Induktorkonzentration) ermittelt werden und an-schließend die biologische Funktion der heterolog exprimierten BadA HN23 Hybride überprüft werden.
Der erste Abschnitt der hier vorliegenden Arbeit zeigte folgende Ergebnisse:
1) Die beschrieben BadA HN23 Hybrid Konstrukte wurden durch Austausch von: (i) BadA-Signalsequenz gegen E. coli OmpA-Signalsequenz im BadA HN23,
(ii) BadA-Membrananker-Domäne gegen YadA-Membrananker-Domäne im BadA HN23 und
(iii) Austausch von BadA-Signalsequenz und BadA-Membrananker-Domäne gegen E. coli OmpA-Signalsequenz und YadA-Membrananker-Domäne im BadA HN23 generiert.
Die BadA HN23 Hybride und BadA HN23 wurden in Expressionsvektoren kloniert und E. coli Omp2, E. coli Omp8 und E. coli Omp8ΔdegP transformiert.
2) Alle BadA HN23 Hybrid-Konstrukte und BadA HN23 lagen in einer monomeren und trimeren Form vor.
3) Durch IFT und - Durchflusszytometrie-Untersuchungen wurde die Oberflächenexpression der einzelnen Konstrukte quantifiziert. Es zeigte sich, dass es deutliche Unterschiede in der Menge des auf der Zelloberfläche befindlichen jeweiligen BadA HN23 Proteins gab. Dabei wiesen die Konstrukte, die die YadA-Membrananker-Domäne besaßen (BadA HN23 Hybrid 2 und 3), die stärkste Oberflächenexpression auf.
4) Die biologische Funktion des BadA HN23 wurde mittels des E. coli Omp2 BadA HN23 Hybrid 3 charakterisiert. Heterolog exprimiertes BadA HN23 vermittelt Autoagglutination, die Adhärenz des Expressionsstammes an Kollagen G und Endothelzellen.
5) Die Expression des BadA HN23 führt zur signifikant verstärkten in-vivo-Pathogenität im Galleria mellonella-Infektionsmodell.
6) Das E. coli-Expressionsmodell lieferte keine Aussage über eventuelle immunodominate Funktionen des heterolog exprimierten BadA HN23, da auch mit im IFT als anti- B. henselae negativ eingestuften Patientenseren im WB ein BadA HN23 spezifisches Bandensignal detektiert wurde. Dot Blot-Experimente ermöglichten ebenfalls keine Aussage über eventuelle immunodominate Funktion des nativen BadA HN23, da das verwendete anti-B. henselae-positive Patientenserum unspezifische Reaktion gegenüber dem Kontrollstamm zeigte.
Für verschiedene TAAs ist beschrieben worden, dass sie die Serumresistenz der exprimierenden Spezies vermitteln. Daher sollte im zweiten Teil dieser Arbeit der Einfluss von BadA auf eventuelle Serumresistenz zweier B. henselae-Isolate untersucht werden. Dieser Teil lieferte folgende Ergebnisse:
1) B. henselae zeigte Sensitivität gegenüber normalem humanem Serum.
2) Sowohl BadA-positive als auch BadA-negative B. henselae-Isolate können Komplementinhibitoren wie Faktor H binden. Die dabei gebundene Menge ist relativ klein.
Die Expression von Deletionsmutanten des BadA in E. coli ist ein vielversprechendes Modell zur Analyse der Domänen-Funktionsbeziehung des BadA, da die meisten biologischen Funktionen einer homolog exprimierten BadA-Deletionsmutante reproduziert werden konnten und es sich bei E. coli um ein schnell wachsendes Bakterium, das sich leicht genetisch manipulieren lässt, handelt. Allerdings stellt das zytotoxische LPS des E. coli sowie das schnelle Wachstums der Bakterien eine Limitation des Expressionssystems dar, indem es Untersuchungen zum Einfluss der jeweiligen BadA-Deletionsmutante auf die Induktion der proangiogenetischen Wirtszellantwort verhindert oder Untersuchungen zum Einfluss der jeweiligen BadA-Deletionsmutante auf die Adhärenz an Endothelzellen deutlich erschwert. Außerdem kann eine mögliche Interaktion zwischen BadA bzw. BadA-Deletionsmutanten und dem TIVSS und zwischen BadA bzw. BadA-Deletionsmutanten und weiteren Adhäsinen (wie z.B. dem FHA) mit Hilfe dieses Expressionssystems nicht untersucht werden. Dies wäre nur im B. henselae Wildtyp-Stamm möglich.
Soil fungal communities are an essential element in the terrestrial ecosystem, however their response to ongoing anthropogenic climate change is currently poorly understood. Fungi are one of the most abundant groups of microbes in soil, they are mainly responsible for the decomposition of organic matter (Baldrian et al., 2012; Buée et al., 2009). By binding carbon in soil, fungi thus maintain an important role in the global carbon cycle (Bardgett et al., 2008). Future climates are likely to influence the communities of belowground microbial organisms (Castro et al., 2010; Deacon et al., 2006). However, how these communities are affected in their diversity, composition, and function after environmental perturbation is insufficiently known.
Molecular techniques using high-throughput sequencing are presently revolutionizing the analysis of complex communities, such as soil fungi. High-throughput metabarcoding enables the recovery of DNA sequence data directly from environmental samples, and DNA sequences from entire communities present in these samples can be simultaneously recovered through massively parallel sequencing reactions (Bik et al., 2012; Taberlet et al., 2012b). This results in more accurate estimation of diversity and community composition and thus provides unprecedented insight into cryptic communities (Lindahl and Kuske, 2014). Yet, challenges associated with these novel techniques include the bioinformatic processing, and the ecological analyses of the large amount of sequence data generated. Most biologists without explicit training in bioinformatics spend a fair amount of time learning how to filter raw sequence data, and customize bioinformatics pipelines specific to their project. To improve the quality of data treatment, and decrease the time needed for the analyses, it is desirable to have bioinformatics pipelines that are easy to use, well explained to researchers not trained in bioinformatics, and adaptable to individual research needs...
Rhythms, i.e. periodic sequences of events or states, are a ubiquitous feature of physiological systems such as the heart, the lungs or the brain. For the brain in particular, the diversity of rhythms is remarkable, ranging from low frequency rhythms in the slow/delta band (0.5-4 Hz) during sleep to gamma band oscillations (30-120 Hz) rhythms during alert behavior, all expressed in various brain areas and at various spatial scales. To understand whether these rhythms subserve a function for the organism it is important to also understand the underlying mechanisms that generate them. While the generation of some rhythms appear to be well-understood, e.g. sleep spindles, others such as the cortical beta rhythm (13-30 Hz) have remained elusive.
Understanding the generation of a brain rhythm involves multiple spatial scales, from identifying intracellular mechanisms such as the contribution of individual transmembrane currents to studying how specific neuronal populations or areas affect the full physiological rhythm present in the intact, highly interconnected brain. The aim of this work has been to delineate the mechanistic contributions of individual brain areas to the in vivo generation of two particular rhythms present in efferent areas: (1) The first part of this work studies the influence of thalamocortical neurons on cortical slow/delta waves (0.5-4 Hz) of sleep that are sometimes also present in awake animals. (2) The second part is about the contribution of primary visual cortex to the beta rhythm (13-30 Hz) in extrastriate cortex of awake behaving animals.
In this thesis, the production of charged kaons and Φ mesons in Au+Au collisions at sqrt sAuAu = 2.4 GeV is studied. At this energy, all particles carrying open and hidden strangeness are produced below their respective free nucleon-nucleon threshold with the corresponding so-called excess energies: sqrt sK+ exc = -0.15 GeV, sqrt sK- exc = -0.46 GeV, sqrt sΦ exc = -0.49 GeVGeV. As a consequence, the production cross sections are very sensitive to medium effects like momentum distributions, two- or multistep collisions, and modification of the in-medium spectral distribution of the produced states [1]. K+ and K- mesons exhibit different properties in baryon dominated matter, since only K- can be resonantly absorbed by nucleons. Although strangeness exchange reactions have been proposed to be the dominant channel for K- production in the analyzed energy regime, the production yield and kinematic distributions could also be explained in smaller systems based on statistical hadronization model fits to the measured particle yields, including a canonical strangeness suppression radius RC, and taking the Φ feed-down to kaons into account [2, 3]. For the first time in central Au+Au collisions at such low energies, it is possible to reconstruct and do a multi differential analysis of K- and Φ mesons. In principle, this should be the ideal environment for strangeness exchange reactions to occur, as the particles are produced deeply sub-threshold in a large and long-living system. Therefore, it is the ultimate test to differentiate between the different sources for K- production in HIC.
In total 7.3x10exp9 of the 40% most central Au(1.23 GeV per nucleon)+Au collisions are analyzed. The data has been recorded with the High Acceptance DiElectron Spectrometer HADES located at Helmholtzzentrum für Schwerionenforschung GSI in April/May 2012. A substantially improved reconstruction method has been employed to reconstruct the hadrons with high purity in a wide phase space region.
The estimated particle multiplicities follow a clear hierarchy of the excess energy: 41.5 ± 2.1|sys protons at mid-rapidity per unit in rapidity, 11.1 ± 0.6|sys ± 0.4|extrapol π-, (3.01 ± 0.03|stat ± 0.15|sys ± 0.30|extrapól) x10 exp -2 K+, (1.94 ± 0.09|stat ± 0.10|sys ± 0.10|extrapol)x10 exp -4 K- and (0.99 ± 0.24|stat ± 0.10|sys ± 0.05|extrapol)x10 exp -4 Φ per event. The multiplicities of the strange hadrons increase more than linear with the mean number of participating nucleons hAparti, supporting the assumption that the necessary energy to overcome the elementary production threshold is accumulated in multi-particle interactions. Transport models predict such an increase, but are overestimating the measured particle yield and are not able to describe the kinematic distributions of K+ mesons perfectly. However, the best description is given by the IQMD model with a density dependent kaonnucleon potential of 40 MeV at nuclear ground state density.
The K-=K+ multiplicity ratio is constant as a function of centrality and follows with (6.45 ± 0.77)x10 exp -3 the trend of increasing with beam energy indicated from previous experiments [4]. The effective temperature of K- TK+eff = (84 ± 6) MeV is found to be systematically lower than the one of K+ TK+eff = (104 ± 1) MeV, which has also been observed by the other experiments.
The Φ=K- ratio is with a value of 0.52 ± 0.16 higher than the one obtained at higher center-of-mass energies and smaller systems. This behavior is predicted from a tuned version of the UrQMD transport model [5], when including higher mass baryonic resonances which can decay into Φ mesons and from statistical hadronization models when suppressing open strangeness canonically. The found ratio is constant as a function of centrality and results with a branching ratio of 48.9%, that ~ 25% of all measured K- originate from Φ feed-down decays. A two component PLUTO simulation, consisting of a pure thermal and a K- contribution originating from Φ decays, can fully explain the observed lower effective temperature in comparison to K+ and the shape of the measured rapidity distribution of K-. As a result, we find no indication for strangeness exchange reactions being the dominant mechanism for K- production in the SIS18 energy regime, if taking the contribution from Φ feed-down decays into account.
The hadron yields for the 20% most central collisions can be described by a statistical hadronization model fit with the chemical freeze-out temperature of Tchem = (68 ± 2) MeV and baryochemical potential of μB = (883 ± 25) MeV, which is higher than expected from previous parameterizations. The analysis of the transverse mass spectra of protons indicate a kinetic freeze-out temperature of Tkin = (70 ± 4) MeV and radial flow velocity of βr = 0.43 ± 0.01, which is in agreement with the parameters obtained from the linear dependence of the effective temperatures on the particle mass Tkin = (71.5 ± 4.2) MeV and βr = 0.28 ± 0.09.
In this thesis, we study some features of the quantum chromodynamics (QCD) phase diagram at purely imaginary chemical potential using lattice techniques. This is one of the possible methodologies to get insights about the situation at finite density, where the sign problem prevents direct investigations from first principles.
We focus, in particular, on the Roberge-Weiss plane, where the phase structure with two degenerate flavours is studied both in the light and in the heavy quark mass limit. On the lattice, any result is affected by cut-off effects and so are the positions of the two tricritical points m_{tric}^{1,2} separating the second-order intermediate mass region from the first-order triple light and heavy mass regions. Therefore, changing the lattice spacing 'a', the values of m_{tric}^1 and m_{tric}^2 will change. In order to find their position in the continuum limit – i.e. for 'a' going to 0 – they have to be located on finer and finer lattices. Typically, in lattice QCD (LQCD) simulations, the temperature T is tuned through the bare coupling β, on which 'a' depends, while keeping Nt fixed. Hence, it is common to implicitly refer to how fine the lattice is just mentioning its temporal extent.
Using both Wilson and staggered fermions, we simulate Nf=2 QCD on Nt=6 lattices, varying the quark bare mass from the chiral (m_{u,d} going to 0) to the quenched (m_{u,d} going to infinity) limit. For each quark mass, a thorough finite scaling analysis is carried out, taking advantage of two different but consistent methods. In this way we identify the order of the phase transition locating, then, the position of the tricritical points. In order to convert our measurements to physical units we fix the scale measuring the lattice spacing as well as the pion mass corresponding to the quark bare mass used. This allows a comparison between different discretisation, getting a first idea of how serious are cut-off effects.
To be able to make a comparison between two different discretisations, we added an RHMC algorithm with staggered fermions to the CL2QCD software, a GPU code based on OpenCL, which we released in 2014. A considerable part of our work has been invested in ameliorating and optimising CL2QCD, as well as in developing new analysis tools regularly used next to it. Just to mention one, the multiple histogram method has been implemented in a completely general way and we took advantage of it in order to obtain more precise results. Finally, in order to efficiently handle and monitor the hundreds of simulations that are typically concurrently run in finite temperature LQCD, a completely new Bash library of tools has been developed. We plan to release it as a byproduct of CL2QCD in the near future.
Anhand ausgewählter Materialien – insbesondere anhand von Vorträgen, die zwischen 1966/68 und 2001 auf den vom Deutschen Germanistenverband (DGV) veranstalteten sog. Deutschen Germanistentagen gehalten wurden – wird gezeigt, dass sich das Fach in seinem expliziten bzw. impliziten Diskurs über das Verhältnis der Germanistik zur Politik nach – den für den fachhistorischen Diskurs einschneidenden Daten – 1966/68 auf mehreren relevanten Ebenen auf der Suche nach einer neuen Identität befindet.
Zugleich führen Spezialisierungs-, Ausdifferenzierungs- sowie Entdifferenzierungsprozesse der Disziplin als wissenschaftssysteminhärente Prozesse das Fach an seine Grenzen bis hin zur (Selbst-)Auflösung. Diese Auflösung ist systemtheoretisch als Prozess der Szientifizierung und der Entkoppelung von Wissenschaft und Politik zu beschreiben – eine Koppelung, die für die Entstehung des Faches wesentlich war. Gleichzeitig zeigen sich – gegen den sog. Elfenbeinturm gerichtete – Diskurse, diese Abkoppelung zu kompensieren (z.B. Sprachenpolitik).
Die hämatopoetische Stammzelltransplantation (HSZT) stellt für zahlreiche Erkrankungen die einzige Chance auf Heilung dar. Gleichzeitig ist dieses Therapieverfahren mit einer hohen Morbidität und Mortalität verbunden, welche auf diverse akute Nebenwirkungen aber auch langfristige Komplikationen zurückzuführen ist. Unter anderem wurden vielfältige Funktionsbeeinträchtigungen erfasst, welche in einer gravierenden körperlichen Dekonditionierung sowie einem erhöhtem Risiko für kardiovaskuläre Folgeerkrankungen münden können. Sport- und Bewegungstherapie konnte sich in diesem Rahmen als Supportivmaßnahme vor allem bei erwachsenen Krebspatienten etablieren. Die Studienlage für Kinder und Adoleszenten mit Krebs ist nicht gleichsam evident. In der pädiatrischen SZT gibt es bis dato lediglich vier international publizierte Studien. Aufgrund des skizzierten Forschungsdefizits, sollten im Rahmen der vorliegenden randomisiert-kontrollierten Untersuchung, die physischen und psychischen Effekte einer strukturierten Sporttherapie während und nach der HSZT evaluiert werden.
Die erste Studienphase bezieht sich auf die stationäre Behandlung der Patienten und wurde in einem randomisiert-kontrollierten Design durchgeführt. Mit stationärer Aufnahme wurden teilnehmende Probanden in eine von zwei Studiengruppen randomisiert (Interventionsgruppe (IG) oder Kontrollgruppe (KG)). Während die IG ein Ausdauer-, Kraft- und Beweglichkeitstraining erhielt, führte die KG Konzentrations- und Entspannungsübungen durch. Beiden Gruppen wurde das altersentsprechende sowie individualisierte Training täglich zwischen 30–60min angeboten. Mit stationärer Entlassung gingen die Patienten in Phase II, die ambulante Nachbehandlung über. In dieser Pilotstudie sollten neben der Machbarkeit von Sporttherapie, die physischen Effekte bis 6 Monate nach HSZT analysiert werden. Aufgrund der wohnortgestützten ambulanten Weiterbehandlung wurde eine Neu-Stratifizierung der Patienten durchgeführt, wodurch vier Gruppen entstanden: IG–IG, IG–KG, KG–IG und KG–KG. Als MZP dienten die stationäre Aufnahme (T0) und Entlassung (T1) sowie für die Phase II Tag+100 (T2) und Tag+200 (T3). Die Testungen inkludierten motorische Testverfahren (6-Minuten-Walking-Test (6MWT), Spiroergometrie, Handkraft (Hk), Beinkraft (Bk)), psychometrische Testverfahren (Lebensqualität (LQ)) sowie klinische Parameter (z.B. Blutwerte) und die Körperzusammensetzung.
In vier Studienjahren (2011-2014) wurden 70 Patienten mit einem mittleren Alter von 11,0 Jahren (5–18Jahre) eingeschlossen. Stationär kam es zu einer Drop out Rate von 18,6% sowie zu Tag+200 von 54,3%. Die Patientencharakteristika zeigten abgesehen vom BMI bei Aufnahme (p<.05) keine Gruppenunterschiede.
Das stationäre Training wurde von beiden Gruppen mit 3,1 (2–4; IG) bzw. 2,9 (0,3–4; KG) Trainingseinheiten pro Woche ähnlich gut angenommen (je ~51min/Trainingseinheit). Für drei von den vier motorischen Testverfahren zeigte sich anhand der relativen Veränderungen für die IG ein Erhalt der Leistungsfähigkeit (6MWT: 2,4 (-66,1–25,7)%; Hk: -3,6±16,3%; Bk: -1,6 (-52,6–144,4)%). Gleichzeitig reduzierte die KG diese Daten jeweils signifikant (6MWT: -14,6 (-73,2–18,0)%; Hk: -10,9±20,0%; Bk: -13,0 (-57,9–131,7)%; p<.05). Die VO2peak ml/kg/min der Spiroergometrie zeigte innerhalb beider Gruppen eine signifikante Verschlechterung (IG: 15,0±16,7%; KG: -18,7±22,7%; p<.05). Die LQ präsentierte dagegen ein uneinheitliches Bild für beide Studiengruppen. Für die Körperzusammensetzung und klinischen Parameter konnten keine signifikanten Unterschiede berechnet werden.
Im ambulanten Setting demonstrierte die Aufbereitung des Trainings eine generelle Machbarkeit. Das Training wurde in 53,6±10,2% der Ambulanztermine integriert. Die hohe Ausfallrate war primär auf Kontraindikationen (63,3±22,1%) und Sondertermine (14,6±7,0%) zurückzuführen. Die Trainingshäufigkeit belief sich insgesamt auf 0,7 Trainingseinheiten/Woche bei 42,5min pro Trainingseinheit. Die Betrachtung der physischen Effekte zeigte eine generelle Verbesserung der Daten innerhalb aller Gruppen. Gruppen mit sportlicher Intervention (stationär oder ambulant) wiesen partiell (6MWT, Bk) höhere Messwerte und Verbesserungen auf. Signifikanzen lagen keine vor.
Gesamt betrachtet konnte in Studienphase 1 dem therapieassoziiertem körperlichen Abbau durch Bewegungstherapie entgegengewirkt werden. Gleichzeitig zeigte das Assessment, ausgenommen LQ, Körperzusammensetzung sowie die Spiroergometrie eine gute Anwendbarkeit in dem Setting. Für die ambulante Studienphase kann eine generelle Machbarkeit von Sporttherapie nach HSZT postuliert werden. Weitere Erhebungen wären in diesem Setting hinsichtlich der Trainingseffekte noch erforderlich. Zukünftige Studien sollten multizentrisch durchgeführt werden, um mit Hilfe größerer Fallzahlen umfassendere Erkenntnisse zu erlangen.
Juvenile neuronal ceroid-lipofuscinosis (JNCL) is a rare lysosomal storage disease in children with lethal outcome and no therapy. The origin of JNCL has been traced to autosomal recessive mutations in the CLN3 gene, and ~85% of the JNCL patients harbor a 1.02 kb deletion that removes the exons 7 and 8 and the surrounding intronic DNA (CLN3Δex7/8). So far, structure, function and localization of the CLN3 protein remain elusive. However, there is strong evidence that CLN3 modulates a process or condition that is essential in many cellular pathways. Lipid metabolism and antero-/retrograde transport, two mechanisms CLN3 was previously implicated in, fulfill these requirements. Notably, also a bioactive group of glycosphingolipids referred to as gangliosides is tightly interrelated with these functions. Furthermore, a-series gangliosides have been shown to be involved in the development and sustenance of the brain, where they are essential for neurite outgrowth and cell survival. Defects in ganglioside metabolism were shown to play a crucial role in many lysosomal storage disorders. However, the contribution of gangliosides to NCL pathology is largely unknown.
The present study analyzed central enzymes and metabolites of the a-series ganglioside pathway in a JNCL cell model. The core finding was, thereby, the reduced amount of the neuroprotective ganglioside GM1 in homozygous CbCln3Δex7/8 cells. This was caused by the enhanced action of the GM1-degrading multimeric enzyme complex and in particular, by the upregulation of protein levels and increased enzyme activity of β-galactosidase (Glb1).
Improved binding of Glb1 to substrate-carrying membranes was provided by an increase in LBPA levels. In combination with other smaller alterations in the ganglioside pattern, a shift towards less complex gangliosides became present. The resulting loss of neuroprotection may be the reason for the multifocal pathology in homozygous CbCln3Δex7/8 cells.
The second part of the present study investigated the cellular mechanisms behind the altered ganglioside profile with regard to the potential role of CLN3. Here, the anterograde transport of GM1 to the plasma membrane presented a positive correlation with the amount of full-length CLN3. In case of the truncated protein this correlation was missing, resulting in reduced PM staining with CTxB-FITC. However, transfection of full-length CLN3 in these cells restored the CTxB-FITC intensity. Based on the neuroprotective role of GM1, the corresponding increase in GM1 levels may be the cause for the restoration effects observed in previous studies using full-length CLN3. Hence, administration of GM1 was expected to improve cell viability of homozygous CbCln3Δex7/8 cells and beyond that to rescue potentially some disease phenotypes. However, no effect could be observed. The reason for this may be reduced caveolar uptake and the mislocalization of ganglioside GM1 to the trans-Golgi network (TGN) and redirection towards degradative compartments.
Both are in line with the idea of an impaired endocytic flux in CLN3 deficiency. The observed localization of CLN3 in the TGN suggests a potential role for CLN3 in the lipid sorting machinery, subsequently altering membrane composition and its regulatory functions. The resulting imbalance may affect many of the cellular processes impaired in JNCL.
In the adult mammalian brain stem cells within defined neurogenic niches retain the capacity for lifelong de novo generation of neurons. The subventricular zone (SVZ) of the lateral ventricles and the subgranular layer (SGL) of the hippocampal dentate gyrus (DG) have been identified as the two major sites of adult neurogenesis. Moreover, the third ventricle in the hypothalamus is emerging as a new neurogenic niche in the adult brain. Extracellular purine and pyrimidine nucleotides are involved in the control of both embryonic and adult neuro-genesis. These nucleotides act via ionotropic P2X or metabotropic P2Y receptors and studies of the adult SVZ and the DG provide strong evidence that ATP promotes progenitor cell proliferation in this stem cell rich regions. Previous studies have shown that the extracellular nucleotide-hydrolyzing enzyme NTPDase2 is highly expressed by adult neural stem and progenitor cells of the SVZ and the rostral migratory stream (RMS), the hippocampal SGL, and the third ventricle. NTPDase2 preferentially hydrolyzes extracellular nucleoside triphosphates (NTPs) and, to a lower extent, diphosphates, thus modulating their effect on nearby nucleotide receptors. Deletion of the enzyme increases extracellular NTP concentrations, and might indicate roles of purinergic signaling in adult neurogenesis. As shown by enzyme histochemistry, genetic deletion of NTPDase2 essentially eliminates ATPase activity in neurogenic niches but does not affect protein expression levels and activity of other ectonucleotidases. Lack of NTPDase2 leads to expansion of the hippocampal stem cell pool as well as of the inter-mediate progenitor type-2 cells. Cell expansion is lost at around type-3 stage, paralleled by increased labeling for caspase-3, indicating increased apoptosis, and decreased levels in CREB phosphorylation in doublecortin-expressing cells, diminishing survival in this cell population. In line with increased cell death, P2Y12 receptor-expressing microglia is enriched at the hilus orientated side of the granule cell layer. These data strongly suggest that NTPDase2 functions as central homeostatic regulator of nucleotide-mediated neural progenitor cell proliferation and expansion in the adult brain by balancing extracellular nucleotide concentrations and activation of purinergic receptors.
In order to further characterize the role of purinergic signaling in adult neurogenesis, the ADP-sensitive P2Y13 receptor was identified as a potential candidate whose activation might inhibit neurogenesis in the hippocampal dentate gyrus and the newly identified neurogenic niche at the third ventricle. Deletion of P2ry13 increased progenitor cell proliferation and long-term progenitor survival as well as new neuron formation in the hippocampal neurogenic niche. This was further paralleled by increased thickening of the granule cell layer, CREB phosphorylation, and expression of the neuronal activity marker c-Fos. Increased progenitor cell proliferation and progenitor survival persist in aged P2ry13 knockout animals. However, in the ventral dentate gyrus proliferation and expansion levels of progenitor cells did not differ significantly from the wild type. This study strongly supports the notion that extracellular nucleotides significantly contribute to the control of adult neurogenesis in the dentate gyrus in situ. Data in this work suggest that activation of the P2Y13 receptor dampens progenitor cell proliferation, new neuron formation, and neuronal activity. In contrast to several in vitro studies and studies in the SVZ in situ, a contribution of the ATP/ADP-sensitive P2Y1 receptor could not be confirmed in the dentate gyrus in vivo.
To unravel implications of purinergic signaling and P2Y13 receptor action in the control of adult hypothalamic neurogenesis a pilot study was performed. Mice null for P2ry13 revealed increased progenitor cell proliferation at the third ventricle as well as long-term progeny survival and new neuron formation in the hypothalamus. In contrast to results obtained in the dentate gyrus expression of the neuronal activity marker c-Fos was significantly decreased in hypothalamic nuclei, indicating increased inhibition of appetite-regulating neuronal circuits by surplus neurons in knockout animals. These data provide first evidence that extracellular nucleotide signaling contributes to the control of adult hypothalamic neurogenesis in situ. Activation of the P2Y13 receptor inhibits progenitor cell proliferation, long-term survival and neuron formation and therefore controls inhibition of appetite-regulating circuits in the adult rodent hypothalamus.
Für die Optimierung sowie Entwicklung lichtsteuerbarer Systeme für biologische Anwendungen oder neue Materialien ist ein detailliertes Verständnis der zugrunde liegenden komplexen, lichtinduzierten Prozesse eine Voraussetzung. Die Verwendung von Photoschaltern in Makromolekülen ermöglicht eine zeitliche und örtliche Kontrolle über strukturelle Änderungen sowie die entsprechend folgenden (biologischen) Funktionen durch die Verwendung von Licht als externem Auslöser.
Ein wichtiger Bestandteil dieser Arbeit befasst sich mit der Entwicklung eines auf Licht reagierenden Riboschalters, welcher die gezielte Kontrolle über Genexpression ermöglicht. Hierzu wurde eine spektroskopische Charakterisierung von verschiedenen Photoschaltern bezüglich einer Verwendung als biologischer Ligand sowie der Wechselwirkungen zwischen Azobenzolen und RNA, auch hinsichtlich ihrer Bindungsdynamiken durchgeführt. Zunächst wurde die hohe Abhängigkeit der (photo-)chemischen Eigenschaften der Azobenzole von der Wahl der Substituenten untersucht, wobei besonders die Anwendung in wässrigem Milieu betrachtet wurde. In einer detaillierten (zeitaufgelösten) Studie wurde der positionsabhängige Einfluss der Hydroxy-Substitution von Azobenzolen auf die Photoisomerisierung in wässriger Lösung untersucht. Für eine ortho-Substitution ergab sich hierbei ein alternativer Deaktivierungskanal nach Photoanregung, welcher stärker ausgeprägt ist als die Isomerisierung. Hierbei wird ein intramolekularer Protontransfer im angeregten Zustand (ESIPT) beobachtet, welcher mit einer Zeitkonstante von 0.3 ps beschrieben werden kann und in einer Keto-Spezies resultiert. Eine Keto-Enol-Tautomerie konnte für die para-Hydroxy-Substitution schon im Grundzustand beobachtet werden. Somit können beide Spezies gezielt adressiert werden. Durch Acetylierung der Hydroxygruppe verlangsamt sich die thermische Relaxation des cis-Isomer zu dem entsprechenden trans-Isomer signifikant ohne die Isomerisierung zu beeinträchtigen. Dementsprechend ermöglicht eine solche Acetylierung die Verwendung von bekannten Azobenzolderivaten als Photoschalter.
Zudem werden in dieser Arbeit zwei verschiedene Herangehensweisen in der Entwicklung eines Riboschalters beschrieben, welcher sich durch Licht regulieren lässt.
Diese sind durch kovalentes bzw. nicht-kovalentes Einbringen eines Azobenzolderivats in die RNA Struktur charakterisiert. Ein neuer Linker, welcher auf einer Desoxyribose-Struktur beruht, wird für die kovalente Anbindung des Azobenzols an den RNA Strang präsentiert, welcher eine licht-induzierte Dehybridisierung ermöglichen soll. Eine außergewöhnlich hohe Schaltamplitude mit einem cis-Gehalt von etwa 90% konnte für das Azobenzol im RNA Einzelstrang schon bei Raumtemperatur ermittelt werden. Zudem wurde der Einfluss des Photoschalters sowie der benachbarten Nukleotide in der RNA auf die Stabilität der RNA Doppelhelix untersucht. Die zweite Vorgehensweise beruht auf einer nicht-kovalenten Bindung zwischen einem Azobenzolderivat und einem RNA-Aptamer, welche lediglich für eines der Photoisomere ermöglicht wird, wodurch eine örtliche und zeitliche Kontrolle der Ligandenbindung der RNA erfolgt. Im Rahmen dieser Arbeit war es möglich zwei verschiedene photoschaltbare RNA Aptamere zu identifizieren und zu untersuchen, welche eine hohe Spezifität und Affinität aufweisen. Zudem wurde die Photoisomerisierung des Azobenzols innerhalb der RNA-Struktur sowie daraus resultierende lichtinduzierte Konformationsänderungen der RNA mittels zeitaufgelöster Anreg-/Abtastspektroskopie untersucht. Die daraus resultierende Dynamik der photoinduzierten Ligandenbindung sollte eine weitere gezielte Optimierung lichtschaltbarer biologischer Systeme erlauben.
Der zweite Teil dieser Arbeit beschäftigt sich mit der zeitaufgelösten Untersuchung eines photoschaltbaren Foldamers. Speziell wurde der strukturelle Übergang des OmPE-Foldamers 10-5 zwischen einer definierten helikalen und einer ungefalteten Konformation auf Grund der Photoisomerisierung der, in das Rückgrat integrierten, Azobenzole untersucht.
Dabei konnten die frühen (Ent-)Faltungsmechanismen des Foldamers im sub-Nanosekunden-Zeitbereich beobachtet werden, welche durch quantenmechanische Rechnungen unterstützt werden konnten. Darüberhinaus, war es möglich einen Anregungsenergietransfer vom PE-Rückgrat des Foldamers auf die Azobenzole nachzuweisen, welcher die Lebensdauer der angeregten Zustände des Systems signifikant verkürzt.
Diese Arbeit liefert wichtige Informationen zu den Reaktionspfaden, den gezielten Wechselwirkungen zwischen Photoschaltern und größeren organischen Molekülen, sowie den daraus resultierenden lichtinduzierten strukturellen Änderungen durch die Anwendung einer Vielzahl an (zeitaufgelösten) spektroskopischen Methoden. Diese Ergebnisse tragen zum weiteren Verständnis komplexer Prozesse in biologischem sowie nicht-biologischem Zusammenhang und somit zu einer weiterführenden Entwicklung neuer Systeme bei.
Die in den letzten Jahrzehnten erfolgten Entwicklungen im Bereich der Informations- und Kommunikationstechnologien (IKT) haben beinahe alle Teilbereiche der Gesellschaft erreicht (OECD, 2000) und so können Alltag, Beruf, aber auch soziale Interaktionen benannt werden (Autor, Levy, & Murnane, 2003). Das technologiebasierte Problemlösen stellt ein relevantes Kompetenzkonstrukt dar, wobei die empirische Validierung der Testwertinterpretation noch aussteht. „Technologiebasiertes Problemlösen ist die Kompetenz, digitale Technologien, Kommunikationshilfen und Netzwerke erfolgreich für die Suche, Vermittlung und Interpretation von Informationen zu nutzen.“(OECD, 2009; zitiert nach Rammstedt, 2013). Ziel einer Konstruktvalidierung ist es theoretische Annahmen – sowie nomologische Netze – mit empirischen Belegen zu prüfen und somit Aussagen über die Gültigkeit der Testwertinterpretationen treffen zu können (vgl. Messick, 1995). Zu diesem Zweck wurden die folgenden fünf Leithypothesen aufgestellt:
1. Im technologiebasierten Problemlösen können Teilsequenzen durch Routinen im Umgang mit IKT bewältigt werden.
Mit dem Ziel der Analyse von Lösungsprozessen wurden Prozessdaten aus dem Feldtest der PIAAC-Studie genutzt und automatisierbare Teilschritte (beispielsweise Schließen eines Popups) analysiert. Eine schnelle Bearbeitung dieser Teilschritte wurde auch mit einer höheren Lösungswahrscheinlichkeit des Problems assoziiert. Die Testwerte des technologiebasierten Problemlösens spiegeln die bildungsbiographischen Lernerfolge wider, die zu einem routinierten Umgang mit IKT führen.
2. Durch die Entstehungsgeschichte von IKT begründet, bestehen Differenzen im technologiebasierten Problemlösen.
Entstehung moderner IKT legt eine Differenzierung von drei Kohorten nahe (orientiert an lernintensiven Phasen der Kindheit und Jugend):
- Erlebten die Entstehung und Verbreitung von Hardware (geboren 1946-1966)
- Begleiteten die Verbreitung von Computersoftware und dessen Nutzung (geboren 1966-1981)
- Nutzung und Gestaltung digitaler Inhalte des Internets (geboren 1981-1995)
Erwartungsgemäß unterscheiden sich die Kohorten im technologiebasierten Problemlösen – genauer in der Nutzung von Routinen im Lösungsprozess und im erreichten Kompetenzniveau. Ältere Kohorten benötigten im Mittel mehr Zeit für Teilschritte, die durch Routinen bearbeitet werden können und sie erreichten im Mittel niedrigere Kompetenzniveaus. Obwohl Lesekompetenzen eine wesentliche Bedeutung im technologiebasierten Lösen von Problemen haben, können sie die Kohortenunterschiede nicht umfassend aufklären. Weil ältere Personenkohorten während ihrer formellen Ausbildungsphasen IKT – wie sie heute verwendet werden – nicht nutzen konnten, haben informelle Lerngelegenheiten eine wesentliche Bedeutung. So profitieren ältere Personen von einem regelmäßigen, beruflichen oder privaten Umgang mit diesen Technologien. Die Testwerte des technologiebasierten Problemlösens spiegeln entstehungsgeschichtlich begründete Kohortenunterschiede wider, welche durch lebenslange, formelle und informelle Lerngelegenheiten minimiert werden können.
3. Der Umgang mit IKT ist – begründet durch deren Entstehungsgeschichte – eher weniger Teil der formellen und schulischen Bildung.
Technologiebasiertes Problemlösen wird weniger in formellen und schulischen Lerngelegenheiten erworben, als andere Kompetenzen wie beispielsweise mathematische und Lesekompetenzen. Folglich wurden für das technologiebasierte Problemlösen kleinere Differenzen zwischen hohen, mittleren oder niedrigen Bildungsabschlüssen erwartet und konnten empirisch anhand der PIAAC-Daten belegt werden. Vorteile von Personen mit einem hohen Bildungsabschluss konnten durch höhere Lesekompetenzen erklärt werden. Die Testwerte des technologiebasierten Problemlösens bilden entstehungsgeschichtlich begründete Unabhängigkeiten des Kompetenzkonstruktes ab, das zumeist nicht schulisch erworben wurde.
4. Technologiebasiertes Problemlösen ist ein eigenständiges Kompetenzkonstrukt, das Parallelen zu mathematischen und Lesekompetenzen aufweist.
Mathematische und Lesekompetenzen stehen in einem Zusammenhang mit dem Umgang mit IKT und somit auch mit dem technologiebasierten Problemlösen. Die Leseanteile am technologiebasierten Problemlösen werden als größer eingeschätzt, als die der mathematischen Kompetenz und stärkere Effekte durch Lesekompetenz konnten empirisch
nachgewiesen werden. Die Annahme der Eigenständigkeit des technologiebasierten Problemlösens wird im Weiteren dadurch gestützt, dass der alltägliche Umgang mit mathematischen und Leseinhalten weniger stark mit ihm assoziiert ist, als der Umgang mit IKT. Nomologische Netze zwischen technologiebasiertem Problemlösen und mathematischen sowie Lesekompetenzen konnten empirisch gestützt werden und die Annahme der Eigenständigkeit des Kompetenzkonstruktes bestärkt.
5. Die Nutzung von IKT – als Lerngelegenheit verstanden – und andere Lerngelegenheiten sowie Indikatoren erfolgreichen Lernens können zum technologiebasierten Problemlösen beitragen.
Lebenslanges Lernen ist ein Teil der menschlichen Natur und in diesem Rahmen dienen verschiedenste formelle und informelle Lerngelegenheiten dem Erwerb von Wissen und Kompetenzen (Dohmen, 2001). So erreichen Personen im technologiebasierten Problemlösen ein höheres Kompetenzniveau, wenn sie regelmäßig privaten oder beruflichen Umgang mit IKT hatten. Neben diesen informellen Lerngelegenheiten steht auch die Teilnahme an Weiterbildungen in einem positiven Zusammenhang mit der technologiebasierten Bewältigung von Problemen. Des Weiteren hat eine positive Einstellung gegenüber dem Lernen neuer Inhalte einen Einfluss auf die technologiebasierte Problemlösekompetenz. Die Testwerte des technologiebasierten Problemlösens spiegeln die Lernerfolge durch das lebenslange Lernen wider, die durch verschiedene bildungsbiographische Merkmale – insbesondere formelle und informelle Lerngelegenheiten – befördert werden.
Das technologiebasierte Problemlösen in der Operationalisierung der PIAAC-Studie lässt eine konstruktrepräsentative Testwertinterpretation zu und ermöglicht somit eine differenzierte Beschreibung von Kompetenzen im Umgang mit IKT.
Modern mobile devices offer a great variety of data that can be recorded. This broad range of information offers the possibility to tailor applications more to the needs of a user. Several context information can be collected, like e.g. information about position or movement. Besides integrated sensors, a broad range of additional sensors are available which can be connected to a mobile device. These additional sensors offer for example the possibility to measure physiological signals of a user.The human body offers a broad range of different signals. These signals have been used in several examples to conclude on the state of a user. The different signals allow to get a deeper insight into emotional or mental state of a user. Electrodermal activity gives feedback about the current arousal level of a user. Heart rate and heart rate variability can give an estimation about valence and mental load of a user. Several models exist to conclude from information like valence and arousal on different emotional states. Russell defined a two dimensional model, using valence and arousal to define affective states. Yerkes and Dodson developed a curve that expresses the relationship between arousal and performance of a user. Different examples exist, that use physiological signals to determine the user state for tailoring and adapting of applications. At the time of this work most of these examples did not address the usage of physiological signals for user state estimation in mobile applications and in mobile scenarios. Mobile scenarios lead to several challenges that need to be addressed. Influencing factors on physiological signals, like e.g. movement have to be controlled. Furthermore a user might be interrupted and influenced by environmental aspects. The combination of physiological data and context information might improve the interpretation of user state in mobile scenarios. In this work, we present a model that addresses the challenges of usage in mobile scenarios to offer an estimation of user state to mobile applications. To address a broad range of mobile applications, affective and cognitive state are provided as output. As input heart rate and electrodermal activity are used, as well as context information about movement and performance. Electrodermal activity is measured by a simple sensor that can be worn as a wristband. Heart rate is measured by a chest strap as used in sports. The input channels are transformed to affective and cognitive state based on a fuzzy rule based approach. With help of fuzzy logic, uncertainty can be expressed and the data continuously being processed. At the start, input channels are fuzzified by defined functions. After a that, a first fuzzy rule set transforms the input signals into values for valence, arousal and mental load. In a second step, these values and context information are transformed with another fuzzy rule set to values for affective and cognitive state. Affective state is based on the model of Russell, where valence and arousal are used to determine different emotional states. The output of the model are eight different affective states (alarmed, excited, happy, relaxed, tired, bored, sad and frustrated), which can have a high, medium, low or very low value as output. Cognitive state is determined based on mental load and context information about performance and movement. The output value can be very high, high, medium or low. The model was implemented as background service for Android devices. Different applications have been used for evaluation of the model. The model has been integrated in a multiplayer space shooter game, called ”Zone of Impulse”, which mainly benefits from the affective state. Cognitive state is more addressed in applications like a simple vocable trainer, which adapts difficulty based on user state. A study to evaluate different aspects of the model has been conducted. The study was designed to investigate the suitability of the model for mobile scenarios. The game ”zone of impulse” and the vocable trainer have been investigated in different configurations. Versions with integrated model have been compared to version of the applications without model, as well as versions of the model without context information. In total 41 participants took part in the study. A part of the participants had to do the tasks of the study in a mobile scenario, walking around several streets. The remaining participants had to do the tasks in a controlled environment in a sitting position. Different aspects were collected with ratings and questionnaires. Overall, participants rated that they did not feel impaired by the sensors they had to wear. The results showed, that the combination of physiological data and context information had an advantage against versions without context information in part of the ratings. A comparison between versions with and without model showed, that the subjective mental load ratings were significantly better for the version with model. Subjective ratings for aspects like fun, overstrain and support were mixed. When comparing the application versions in indoor and outdoor scenarios, no significant difference could be found, which leads to the assumption that there is no loss of interpretation quality in outdoor scenarios. The results also showed that the model seems to be robust enough to compensate the loss of an input channel, as there was no significant difference between application versions with full integrated model and versions with one channel lost. With the model developed in this work, context information and physiological data were combined to improve user state estimation. Furthermore pitfalls of user state estimation in mobile scenarios are overcome with this combination. However, the model has only been evaluated with a limited amount of applications and situations that mobile scenarios offer.
The phenomenon of magnetism has been known to humankind for at least over 2500 years and many useful applications of magnetism have been developed since then, starting from the compass to modern information storage and processing devices. While technological applications are an important part of the continuing interest in magnetic materials, their fundamental properties are still being studied, leading to new physical insights at the forefront of physics. The magnetism of magnetic materials is a pure quantum effect due to the electrons that carry an intrinsic spin of 1/2. The physics of interacting quantum spins in magnetic insulators is the main subject of this thesis.We focus here on a theoretical description of the antiferromagnetic insulator Cs2CuCl4. This material is highly interesting because it is a nearly ideal realization of the two-dimensional antiferromagnetic spin-1/2 Heisenberg model on an anisotropic triangular lattice, where the Cu(2+) ions carry a spin of 1/2 and the spins interact via exchange couplings. Due to the geometric frustration of the triangular lattice, there exists a spin-liquid phase with fractional excitations (spinons) at finite temperatures in Cs2CuCl4. This spin-liquid phase is characterized by strong short-range spin correlations without long-range order. From an experimental point of view, Cs2CuCl4 is also very interesting because the exchange couplings are relatively weak leading to a saturation field of only B_c=8.5 T. All relevant parts of the phase diagram are therefore experimentally accessible. A recurring theme in this thesis will be the use of bosonic or fermionic representations of the spin operators which each offer in different situations suitable starting points for an approximate treatment of the spin interactions. The methods which we develop in this thesis are not restricted to Cs2CuCl4 but can also be applied to other materials that can be described by the spin-1/2 Heisenberg model on a triangular lattice; one important example is the material class Cs2Cu(Cl{4-x}Br{x}) where chlorine is partially substituted by bromine which changes the strength of the exchange couplings and the degree of frustration.
Our first topic is the finite-temperature spin-liquid phase in Cs2CuCl4. We study this regime by using a Majorana fermion representation of the spin-1/2 operators motivated by theoretical and experimental evidence for fermionic excitations in this spin-liquid phase. Within a mean-field theory for the Majorana fermions, we determine the magnetic field dependence of the critical temperature for the crossover from spin-liquid to paramagnetic behavior and we calculate the specific heat and magnetic susceptibility in zero magnetic field. We find that the Majorana fermions can only propagate in one dimension along the direction of the strongest exchange coupling; this reduction of the effective dimensionality of excitations is known as dimensional reduction.
The second topic is the behavior of ultrasound propagation and attenuation in the spin-liquid phase of Cs2CuCl4, where we consider longitudinal sound waves along the direction of the strongest exchange coupling. Due to the dimensional reduction of the excitations in the spin-liquid phase, we expect that we can describe the ultrasound physics by a one-dimensional Heisenberg model coupled to the lattice degrees of freedom via the exchange-striction mechanism. For this one-dimensional problem we use the Jordan-Wigner transformation to map the spin-1/2 operators to spinless fermions. We treat the fermions within the self-consistent Hartree-Fock approximation and we calculate the change of the sound velocity and attenuation as a function of magnetic field using a perturbative expansion in the spin-phonon couplings. We compare our theoretical results with experimental data from ultrasound experiments, where we find good agreement between theory and experiment.
Our final topic is the behavior of Cs2CuCl4 in high magnetic fields larger than the saturation field B_c=8.5 T. At zero temperature, Cs2CuCl4 is then fully magnetized and the ground state is therefore a ferromagnet where the excitations have an energy gap. The elementary excitations of this ferromagnetic state are spin-flips (magnons) which behave as hard-core bosons. At finite temperatures there will be thermally excited magnons that interact via the hard-core interaction and via additional exchange interactions. We describe the thermodynamic properties of Cs2CuCl4 at finite temperatures and calculate experimentally observable quantities, e.g., magnetic susceptibility and specific heat. Our approach is based on a mapping of the spin-1/2 operators to hard-core bosons, where we treat the hard-core interaction by the self-consistent ladder approximation and the exchange interactions by the self-consistent Hartree-Fock approximation. We find that our theoretical results for the specific heat are in good agreement with the available experimental data.
Ziel:
Vergleich der Veränderung der mütterlichen Einstellung zur Geburt anhand von Hebammen geführten Geburtsvorbereitungskursen oder hypnoreflexogenem Training zur Geburtsvorbereitung.
Methode:
Zu Beginn und nach Beendigung der Kurse wurde die mütterliche Einstellung zur Geburt unter Zuhilfenahme des Osgood-Ertel-Eindrucksdifferenzials gemessen. Der Gießen-Test zur Persönlichkeitsbeurteilung wurde einmalig angewendet.
Ergebnisse:
213 Frauen waren in die Studie eingeschlossen. 155 davon nahmen an, von Hebammen geführten, Geburtsvorbereitungskursen teil. 58 Frauen absolvierten ein hypnoreflexogenes Training. Es waren zu Beginn der Kurse keine statistisch signifikanten Unterschiede feststellbar in Bezug auf die Charakteristiken der Teilnehmerinnen sowie im Gießen-Test und in den Ergebnissen des Osgood-Ertel-Eindrucksdifferenzials. Nach der von Hebammen geführten Geburtsvorbereitung wurde die Geburt negativer wahrgenommen(Freudlosigkeit und Trübung in der Valenz-Dimension [p < 0,05]), während die Geburt nach dem Hypnosetraining emotional positiver bewertet wurde (Freude
und Harmonie in der Valenz-Dimension [p < 0,01] sowie Helligkeit [p < 0,05]).
Zusammenfassung:
Hypnoreflexogenes Selbsthypnosetraining zur Geburtsvorbereitung scheint stärkere und positivere mütterliche emotionale Veränderungen in Bezug auf die
Einstellung zur Geburt auszulösen als konventionelle, von Hebammen geführte Geburtsvorbereitungskurse. Weitere retrospektive randomisierte Studien sind nötig, um diese Ergebnisse zu überprüfen.
Positive Effekte körperliche Aktivität als komplementäre Therapie in der Onkologie wurden in den letzten Jahren in zahlreichen Studien aufgezeigt. Hierbei zeigte sich ein Anstieg der körperlichen Fitness und Muskelmasse, eine Steigerung der Lebensqualität, eine Reduktion des Fatigue-Syndroms, aber auch eine verbesserte Therapieverträglichkeit sowie einer Rezidiv-Prophylaxe (Backman et al., 2014; Meyerhardt et al., 2006; Segal et al., 2001). Daraufhin wurden Empfehlungen für körperliche Aktivität im Rahmen der onkologischen Therapie ausgesprochen, welche 150 Minuten moderate körperliche Aktivität pro Woche umfassen. Diese Empfehlungen basieren auf entitätsunspezifische Studienkollektive mit meist Tumorstadium I und II. Eine Vielzahl an Studien verdeutlichen, dass gerade Patienten in fortgeschrittenen Tumorstadien mit zahlreichen therapie- sowie tumorbedingten Nebenwirkungen zu kämpfen haben und dadurch ein stärkerer Abbau der körperlichen Fitness, der Muskulatur, aber auch der funktionellen Eigenschaften vorzufinden ist. Hierbei stellen Patienten mit fortgeschrittenen gastrointestinalen Tumoren (GIT) ein stark belastetes Kollektiv dar, da 80 Prozent dieser Patienten eine Tumorkachexie erleiden. Zusätzliche wurde in einer Querschnittsuntersuchung aufgezeigt, dass Patienten mit fortgeschrittenen GIT bereits vor Therapiestart einen deutlich verminderten körperlichen und funktionellen Status im Vergleich zu Mammakarzinom-Patientinnen und Gesunden aufweisen (Stuecher et al., 2016). In der vorliegenden randomisiert kontrollierten Untersuchung wurde erstmals ein heimbasiertes Training ohne Supervision zur Steigerung der körperlichen Aktivität bei Patienten mit fortgeschrittenen GIT durchgeführt und dieses mit einer leitliniengetreuen onkologischen Therapie ohne komplementäre Bewegungstherapie verglichen. Dabei wurden der körperliche und funktionelle Status sowie die Aktivitäten des täglichen Lebens verglichen.
Zweiundvierzig Patienten mit fortgeschrittenen GIT (UICC ≥ III, 67,1 ± 6,8 Jahre, 45,2 % weiblich) wurden vor ihrer geplanten first-line Chemotherapie (CT) in die zweiarmige randomisiert kontrollierte Studie eingeschlossen. Eine der Gruppen (I) erhielt, entsprechend der ACSM-Guidelines für onkologische Patienten, die Vorgabe ein wöchentliches Laufprogramm mit einem Umfang von 150 Minuten moderater Intensität pro Woche. Die zweite Gruppe diente als Kontrollgruppe (K) und erhielt am Ende der Studiendauer entsprechende Empfehlungen. Die Interventionsdurchführung wurde mittels Trainingstagebuch und Pedometer begleitet. Vor Beginn (T0), nach zwei CT-zyklen (T1) sowie nach zwölf Wochen (T2) wurde der funktionelle und körperliche Status sowie die Alltagsbewältigung der Patienten erfasst.
Bei einer Dropoutrate von 36 Prozent konnten 28 (K: 15; I; 13) Patienten die Studie komplett durchlaufen. Die mittlere Adhärenzrate lag bei 81,3 Prozent. Im Untersuchungszeitraum konnten die folgenden sign. Veränderungen (p< 0,05) der einzelnen Parameter gezeigt werden. Die posturale Stabilität (COPLänge) konnte sowohl ein Gruppeneffekt, als auch ein Zeiteffekt nachgewiesen werden. Die Interventionsgruppe verbesserte sich im Zeitraum T0-T1 (-71,47mm) sowie im Gesamtzeitraum T0-T2 (-74,13 mm), wohingegen die Kontrollgruppe sich im Gesamtzeitraum T0-T2 (+72,83) verschlechterte. Die Gruppen unterschieden sich daher sowohl in den Zeiträumen T0-T1 ((K)+38,61; (I)-71,47 mm) sowie T0-T2 ((K)+72,83; (I) -74,13mm). Bezüglich des körperlichen Status konnte sich die Interventionsgruppe von T1-T2 (+4,03 kg) sowie von T0-T2 (+4,04 kg) verbessern, sodass sich die Gruppen zwischen den Zeitpunkten T1-T2 ((K) -0,49; (I)+4,03 kg) und T0-T2 ((K) 0,19; 4,04 kg) unterschieden. Der iADL-Fragebogen erbrachte eine Verbesserung der Interventionsgruppe im Gesamtmesszeitraum T0-T2 (+0,12), daraus resultierte ein zusätzlicher Gruppenunterschied in diesem Zeitraum ((K) -0,89; (I) +0,12). Der Ernährungszustand zeigte auch einen unterschiedlichen Verlauf der beiden Gruppen. Zwischen T1-T2 ((K) -0,59; + 1,74) sowie T0-T2 ((K) -0,55; (I) +2,39) unterschieden sich die Gruppen.
Obgleich es für einige Patienten schwierig war die Laufintervention gemäß den Empfehlungen durchzuführen, weisen die Teilnehmer der Interventionsgruppe sowohl in den Parametern des körperlichen, als auch des funktionellen Status Verbesserungen auf. Demnach scheint ein durchschnittlicher Umfang von zwei Stunden moderater körperlicher Aktivität während einer Tumortherapie ausreichend zu sein. Es veranschaulicht, dass eine komplementäre Bewegungstherapie in der onkologischen Therapie bei Patienten mit fortgeschrittenen GIT sinnvoll ist und sowohl einen Benefit in der Körperzusammensetzung, als auch der funktionellen Eigenschaften mitsichbringt. Dies hat wiederum einen positiven Einfluss auf die Alltagsbewältigung. Da einige Barrieren das Laufprogramm der Patienten einschränkten oder gar zum Laufabbruch führten, sollte versucht werden diese zu mindern. Hierbei sind vor allem klima- und wetterbedingte Barrieren ein möglicher Ansatzpunkt, da Nebenwirkungen kaum vermeidbar sind. Dennoch sollten die Patienten auch nach nebenwirkungsbedingten Laufpausen motiviert werden das Programm weiterzuführen. Diese Studie gibt zudem erste Hinweise, dass durch eine komplementäre Bewegungstherapie mit moderater körperlicher Aktivität die Toxizität der CT bei Patienten mit fortgeschrittenen GIT vermindert werden kann. Da der klinische Benefit, welcher in einigen Studien anderer Tumorentitäten postuliert wurde, in dieser Untersuchung nicht objektiv erfasst wurde, wäre dies ein möglicher Ansatzpunkt für Folgestudien.
Im Rahmen dieser Arbeit wurden Anaylsenmethoden zur Quantifizierung von Ceramiden und Prostanoiden in verschiedenen biologischen Matrices unter Verwendung von Nano-LC gekoppelt mit Tandemmassenspektrometrie entwickelt und bei diversen biologischen Fragestellungen angewendet.
Die analytische Methode zu Quantifizierung der Ceramide ermöglichte deren Bestimmung in einem Probenvolumen von 2 μL CSF. Diese neu entwickelte Methode ist die erste publizierte Nano-LC-MS/MS-Methode zur Quantifizierung der Ceramide in biologischen Proben, gleichzeitig ist es auch diejenige analytische Methode mit der höchsten Empfindlichkeit [171]. Die beschriebene Methode umfasste die Substanzen C8:0, C16:0, C18:1, C18:0, C20:0, C24:1 und C24:0 Ceramid, als interner Standard wurde C17:0 Ce-ramid verwendet. Die Probenaufarbeitung bestand in einer einfachen Proteinfällung und Verdünnung mit Methanol, die chromatografische Trennung der Analyten erfolgte mit einer RP-C8 Säule unter Verwendung eines Gradientenprogramms. Die Methode wurde anhand von FDA-Richtlinien bezüglich Linearität, Bestimmungsgrenze, Präzision, Richtigkeit und Autosampler-Stabilität validiert. Die erreichten Bestimmungsgrenzen betrugen 0,225 pg auf der Säule (2,25 pg/μL CSF) für alle Ceramide außer C24:0 Ceramid, für das der Wert von 0,75 pg auf der Säule (7,5 pg/μL CSF) ermittelt wurde. Mit der durchgeführten Validierung wurde die Zuverlässigkeit der Methode für die Quantifizierung der Ceramide in CSF gezeigt. Mit einem Standardadditionsexperiment konnte belegt werden, dass PBS als Ersatzmatrix für CSF geeignet ist und somit die Ergebnisse der Validierung mit dotierten PBS-Proben auf CSF-Proben übertragbar sind. Das entwickelte Verfahren wurde für die Quantifizierung der Analyten in murinen CSF-Proben im Rahmen eines Projekts zur Erforschung der Rolle der Ceramide bei Multipler Sklerose angewendet. Anhand der Ergebnisse wurde die Hypothese bestätigt, dass die Konzentration von C16:0 Ceramid in CSF von EAE-Mäusen erhöht ist.
Die zweite entwickelte Nano-LC-MS/MS-Methode ermöglichte die Quantifizierung der Prostanoide PGE2, PGD2, 6-keto PGF1α, PGF2α und TXB2 in einer geringen Anzahl Immunzellen. Für eine erfolgreiche Bestimmung der Analyt-Konzentrationen waren nur 5.000 T-Zellen oder 40.000 Mastzellen erforderlich. Damit ist die beschriebene Methode geeignet für die Quantifizierung in Zellen, die durch Isolation aus tierischen Geweben oder Organen erhalten werden, ohne dass das Vereinigen mehrerer Proben erforderlich ist. Durch die Messung dieser bestimmten Zellpopulationen kann, im Unterschied zur Vermessung des gesamten Organs, eine differenziertere Analyse der Lokalisation der gemessenen Analyten erfolgen. Mittels der entwickelten Methode konnten die Prostanoide PGE2, PGD2, 6-keto PGF1α, PGF2α und TXB2 quantifiziert werden. Als interner Standard stand für jedes dieser Prostanoide ein vierfach deuteriertes Strukturanalogon zur Verfügung. Die Aufarbeitung der Immunzell-Proben erfolgte durch Flüssig-Flüssig-Extraktion mit Ethylacetat, die Chromatografie wurde mit einer RP-C8-Säule und einem Gradientenprogramm durchgeführt. Eine Validierung erfolgte für die Quantifizierung in T-Lymphozyten und Mastzellen für die Parameter Linearität, Bestimmungsgrenze, Präzision, Richtigkeit, Wiederfindung, Selektivität und Stabilität. Auch ein Standardadditionsexperiment mit beiden Matrices wurde durchgeführt. Die Bestimmungsgrenzen betrugen 75 fg auf der Säule für PGE2 und PGD2 sowie 112,5 fg für 6-keto PGF1α, PGF2α und TXB2, damit zeichnet sich die Methode durch höchste Empfindlichkeit aus. Die Me-thode wurde zur Messung der Prostanoid-Konzentration in T-Zellen, die im Rahmen eines Kontaktallergie-Modells aus dem Blut von unterschiedlich behandelten Mäusen isoliert worden waren, angewendet. Es konnte kein Unterschied in den Prostanoid-Konzentrationen in den T-Zellen sensibilisierter und nicht-sensibilisierter bzw. provozierter und nicht-provozierter Mäuse festgestellt werden. Bei einer zweiten Anwendung wurden die Prostanoide in murinen Mastzellen, die nach Zymosan-Injektion in die Hinterpfote zu verschiedenen Zeitpunkten nach dem Auslösen der Entzündung aus dem entstandenen Ödem isoliert worden waren, gemessen. Zusätzlich für diese Anwendung wurden einige Leukotriene in die Methode integriert. Es wurde festgestellt, dass die Konzentrationen von PGE2, PGD2 und PGF2α in Mastzellen nach der Injektion von Zymosan-Injektion ansteigen, wobei die gemessenen Konzentrationen für PGE2 48 Stunden nach der Injektion verglichen mit denen nach 24 Stunden, bezogen auf die anderen beiden Prostaglandine, am stärksten ansteigen. Außerdem wurde mittels der für die Immunzellen entwickelten Methode die Prostanoide in murinem Urin, humanem Plasma und humaner Tränenflüssigkeit quantifiziert.
Zusammenfassend ermöglichen die entwickelten Methoden die Analyse geringer Ana-lytkonzentrationen in sehr kleinen Probenmengen und damit eine Reduktion von Versuchstierzahlen und Kosten.
Die vorliegende Dissertation untersucht wie Hegel nicht nur den Begriff der Freiheit, aber auch das Subjekt der Freiheit verstanden hat. Sie versucht diese Idee Hegels durch die gegenwärtige Philosophie, insbesondere die analytische Philosophie, und auch die Soziologie, insbesondere die Soziologie von Talcott Parsons, umzudenken.
Im ersten Kapitel wird die Idee der Freiheit als private Sphäre analysiert, die durch eine ganze Gruppe von subjektiven Rechten gesichert oder sogar geschaffen ist, die ohne Hilfe anderer Struktur existierte und von den meisten Naturrechttheoretiker verteidigt wurden, den alten sowie den neuen. Hegel nannte diese Ideen abstraktes Recht. Er wirft diese Vorstellung als noch funktional unvollständig oder metaphysisch inkohärent vor.
Im zweiten Kapitel wird das andere große Modell der Freiheit in der Moderne, nämlich, die Freiheit als Autonomie analysiert. Hegel untersucht diese Idee durch die Konzepte der Verantwortlichkeit und Handelns, die sich in der Praxis des Strafrechts befinden. Nach Hegel ist Verantwortlichkeit das Ergebnis einer gesamten sozialen Beziehung der Anerkennung. Daher ist ein Verbrechen, erstens, die Verletzung einer Norm und diese Normverletzung ist zugleich Anerkennungsverletzung. Zweitens, ein Verbrechen ist die Negation des objektiven Rechts, die dem Akteur zurechnen werden kann, und das ist, warum ein Verbrechen eine Anerkennungsverletzung ist. Ein zentraler Begriff für die Verantwortlichkeit ist der Vorsatz. In dem Konzept von Vorsatz finden wir sowohl die Absicht wie das Wissen, d. i. wenn jemand vorsätzlich handelt, nicht nur wünscht er etwas, sondern er denkt auch, wie er handeln sollte, um zu erreichen, was sie will. Man findet im Vorsatz auch die Idee des Grundes. Dies öffnet wiederum die Idee der moralischen Standards und auch die Möglichkeit eines moralischen Gewissens. Hegel sieht Kant als der größte Befürworter dieser Theorie. Hegel kritisiert Kant, dass er eine Art solipsistischer Methode hat. Die Gewissheit des Guten in die eigene Handlung könnte das Böse verbreiten. Hegel argumentiert, dass ohne eine soziale Basis dafür, die Sittlichkeit, solche moralischen Standards und moralisches Gewissen nicht möglich sind.
Im letzten Kapitel wird analysiert, wie jemand in der hegelschen Lehre frei sein könnte. Nach Hegel gibt es mindestens drei Bedingungen, sodass jemand tatsächlich als frei betrachtet werden könnte: eine metaphysische Bedingung, eine psychologische Bedingung, und eine soziale Bedingung. Diese drei Bedingungen entsprechen den Hauptkritiken gegen die Möglichkeit des freien Willens. Die erste der Kritik besagt, dass es in einer durch mechanische Gesetze geregelten Welt keinen Raum für die Freiheit gibt. Nach Hegel sei die Möglichkeit der teleologischen Erklärung zugleich die Möglichkeit für die Freiheit. In der psychologischen Bedingung argumentiert Hegel, dass das hedonistische oder Wunsch-Überzeugung-Handlung Modell in der Tat fast eine mechanische Erklärung wäre. In einem systemischen Selbstbewusstsein Vorstellung der individuellen Persönlichkeit, in dem alle Teile des Akteurs systemisch artikuliert sind, könnte das Individuum wirklich frei handeln, da das Individuum nicht mehr in seinen Wünschen oder anderen Trieben verschwunden wäre. Am Ende argumentiert noch Hegel, dass die Gary Strawson‘ Kritik an der Idee des freien Willens, dass wir nicht den ersten Umstand unseres Lebens, unsere Sozialisierung und Erziehung ändern könnten, nicht korrekt wäre. Freiheit bedeutet nicht, jeden Aspekt unseres Lebens zu bestimmen, sondern uns selbst und unser Handeln zu bestimmen. Hegel zufolge können wir in der Tat unseren Anfang ändern, indem wir uns selbst neu interpretieren. Diese Art der Selbstbestimmung setzt die Teilnahme an der Gesellschaft voraus. Wenn wir die semantische in unserer Kultur ändern, ändern wir uns selbst und solches aktive Engagement mit unserer Gesellschaft wäre auch eine Bedingung, um ein freies Leben zu führen.
Nanomaterials, i.e., materials that are manufactured at a very small spatial scale, can possess unique physical and chemical properties and exhibit novel characteristics as compared to the same material without nanoscale features. The reduction of size down to the nanometer scale leads to the abundance of potential applications in different fields of technology. For instance, tailoring the physicochemical properties of nanomaterials for modification of their interaction with a biological environment has been reflected in a number of biomedical applications.
Strategies to choose the size and the composition of nanoscale systems are often hindered by a limited understanding of interactions that are difficult to study experimentally. However, this goal can be achieved by means of advanced computer simulations. This thesis explores, from a theoretical and a computational viewpoints, stability, electronic and thermo-mechanical properties of nanoscale systems and materials which are related to biomedical applications.
We examine the ability of existing classical interatomic potentials to reproduce stability and thermo-mechanical properties of metal systems, assuming that these potentials have been fitted to describe ground-state properties of the perfect bulk materials.
It is found that existing classical interatomic potentials poorly describe highly-excited vibrational states when the system is far from the potential energy minimum. On the other hand, construction of a reliable computational model is essential for further development of nanomaterials for applications. A new interatomic potential that is able to correctly reproduce both the melting temperature and the ground-state properties of different metals, such as gold, platinum, titanium, and magnesium, by means of classical molecular dynamics simulations is proposed in this work. The suggested modification of a many-body potential has a general nature and can be utilized for similar numerical exploration of thermo-mechanical properties of a broad range of molecular and solid state systems experiencing phase transitions.
The applicability of the classical interatomic potentials to the description of nanoscale systems, consisting of several tens-hundreds of atoms, is also explored in this study. This issue is important, for instance, in the case of nanostructured materials, where grains or nanocrystals have a typical size of about a few nanometers. We validate classical potentials through the comparison with density-functional theory calculations of small
atomic clusters made of titanium and nickel. By this analysis, we demonstrate that the classical potentials fitted to describe ground-state properties of a bulk material can describe the energetics of nanoscale systems with a reasonable accuracy.
In this work, we also analyze electronic properties of nanometer-size nanoparticles made of gold, platinum, silver, and gadolinium; nanoparticles composed of these materials are of current interest for radiation therapy applications. We focus on the production of low-energy electrons, having the kinetic energy from a few electronvolts to several tens of electronvolts. It is currently established that the low-energy secondary electrons of such energies play an important role in the nanoscale mechanisms of biological damage resulting from ionizing radiation. We provide a methodology for analyzing the dynamic response of nanoparticles of the experimentally relevant sizes, namely of about several nanometers, exposed to ionizing radiation. Because of a large number of constituent atoms (about 1000 −10000 atoms) and consequently high computational costs, the electronic properties of such systems can hardly be described by means of ab initio methods based on a quantum-mechanical treatment of electrons, and this analysis should rely on model approaches. By comparing the response of smaller systems (of about 1 nm size) calculated within the ab initio- and the model framework, we validate this methodology and make predictions for the electron production in larger systems.
We have revealed that a significant increase in the number of the low-energy electrons emitted from nanometer-size noble metal nanoparticles arises from collective electron excitations formed in the systems. It is demonstrated that the dominating mechanisms of electron yield enhancement are related to the formation of plasmons excited in a whole system and of atomic giant resonances formed due to excitation of valence d electrons in individual atoms of a nanoparticle. Being embedded in a biological medium, the noble metal nanoparticles thus represent an important source of low-energy electrons, able to produce a significant irrepairable damage in biological systems.
A general methodology for studying electronic properties of nanosystems is used to make quantitative predictions for electron production by non-metal nanoparticles. The analysis illustrates that due to a prominent collective response to an external electric field, carbon nanoparticles embedded in a biological medium also enhance the production of low-energy electrons. The number of low-energy electrons emitted from carbon nanoparticles is demonstrated to be several times higher as compared to the case of liquid water.
Bewegung und sportliche Aktivität fördern die Gesundheit des Organismus und senken das Risiko chronischer Krankheiten. Sie bewirken dabei eine Vielzahl von physiologischen und biochemischen Veränderungen in der Skelettmuskulatur, insbesondere Muskelfasertyp-Transformation, Änderungen des Muskelmetabolismus und der Angiogenese. Unter basalen Bedingungen spielen reactive oxygen species (ROS) eine essentielle Rolle für die normale Muskelfunktion. Die Sport-induzierte Produktion von ROS erweist sich als wichtige physiologische Funktion für die Regulierung der Muskelkraft und der Anpassungsreaktion der Muskelfasern auf das Training. Eine der wichtigsten Quellen von ROS im kardiovaskulären System sowie in der Skelettmuskulatur ist die Familie der NADPH-Oxidasen (Nox). Im Unterschied zu anderen NADPHOxidasen ist Nox4 konstitutiv aktiv und produziert Wasserstoffperoxid (H2O2), welches in diversen zellulären Signalkaskaden involviert ist. Gleichzeitig gibt es zahlreiche Hinweise, dass Nox4 über die ROS-Produktion an Sport-induzierten Anpassungsprozessen in Skelettmuskeln beteiligt ist. Vor diesem Hintergrund wurde die Hypothese aufgestellt, dass Nox4 die Sport-induzierte Transformation von langsam- zu schnellkontrahierenden Muskelfasern, die Änderungen des Muskelstoffwechsels sowie die Sport-induzierte und die retinale Angiogenese beeinflusst. Die Untersuchung der Sportinduzierten Fasertyptransformation zeigte, dass die relative Zusammensetzung der Muskelfasern in Nox4-Knockout- und Wildtyp-Mäusen sehr ähnlich und somit von Nox4 unabhängig war. Obwohl das Training die Expression von PGC1α und GLUT4 sowie die AMPK-Aktivierung steigerte, hatte Nox4 nur eine geringe, nicht konstitutive Auswirkung auf den Muskelmetabolismus. Außerdem zeigte die vorliegende Studie, dass Nox4 die Sport-induzierte Angiogenese fördert. Nox4 führte zu einer erhöhten Stretch- und Hypoxie-induzierten Expression von VEGF in Myoblasten, die aus C2C12-Zellen und Satellitenzellen differenziert wurden. Als Folge des Nox4-Knockouts wurde nicht nur eine Reduktion der VEGF-Expression, sondern auch eine Steigerung der Expression von Angiopoietin 1 (Ang1) nachgewiesen, welches die Sport-induzierte Angiogenese hemmte. Das Fehlen von Nox4 schützte außerdem vor der retinalen Neoangiogenese und trug zu einer schnelleren Heilung nach der Oxygen-inducedretinopathy (OIR) bei, indem das Netzwerk neuer Gefäße mittels Ang1 stabilisiert wurde. Somit führt Nox4 zur Sport- und Hypoxie-induzierten Angiogenese durch einen Doppelmechanismus der Induktion und Aufrechterhaltung der VEGF Expression und der Hemmung von Ang1.
In dieser Arbeit wurde YM155 anhand eines Neuroblastom-Zellmodells bezüglich seiner antitumoralen Wirkung, sowie möglicher Resistenzmechanismen untersucht. Mit Hilfe eines Viabilitäts-‚Screenings‘ wurde eine Auswahl von 113 chemosensitiven und chemoresistenten Neuroblastomzellen auf mögliche Kreuzresistenzen gegen YM155 untersucht. Hinsichtlich der IC50 Werte gegen YM155, lagen insgesamt 74 % der untersuchten Zelllinien im therapeutisch erreichbaren Bereich von unter 50 nM. Zusätzlich wurden Neuroblastom-, Mammakarzinom- und Prostatakarzinomzellen an eine klinisch relevante YM155 Konzentration adaptiert. Diese zeigten wiederum, dass durch die Adaptierung hervorgerufene Expressionsänderung des ABC-Transporters ABCB1 und des ‚solute carrier‘ Protein SLC35F2 eine bedeutsame Rolle hinsichtlich des Resistenzmechanismus gegen YM155 spielen. Durch den Einsatz von spezifischen ABCB1-Inhibitoren, als auch durch siRNA-vermittelte Reduzierung von ABCB1 konnte eine Abhängigkeit für die Wirksamkeit YM155 von ABCB1 in Neuroblastomzellen bestätigt werden. Des Weiteren wurde in den untersuchten Zelllinien ein Zusammenhang zwischen der Wirkung von YM155 und der Expression des ‚solute carrier‘ Proteins SLC35F2 hergestellt. Dazu wurden Zellen mit verminderter SLC35F2 Expression verwendet, welche durch Transduktion mit einem für eine SLC35F2 spezifische shRNA kodierenden Vektor etabliert wurden. Dabei führte eine verminderte SLC35F2 Expression zu einer starken Minderung der Sensitivität gegen YM155. Das Zusammenspiel dieser beiden Transporter und der damit verbundene Resistenzmechanismus gegen YM155, konnte in fast allen etablierten YM155-resistenten Zelllinien (UKF-NB-3rYM15520, 22RV1rYM155300, PC-3rYM15520, HCC-1806rYM15520 und MDA-MB-231rYM15520) gezeigt werden. Wobei diese Zellen unabhängig von der Tumorentität als Resistenzmechanismus gegen YM155 entweder eine signifikant induzierte ABCB1 Expression (verstärkter YM155 Efflux) und/oder eine verminderte SLC35F2 Expression (verringerter YM155 Influx) entwickelten. Außerdem konnte mit Hilfe der p53-depletierten Zelllinie UKF-NB-3pc-p53 eine Abhängigkeit der YM155 Wirkung vom Tumorsuppressor p53 nachgewiesen werden, wobei es durch die Depletierung von p53 zu einer verminderten Sensitivität der Zellen gegen YM155 kam. Zudem kam es durch die Nutlin-3 hervorgerufene p53 Aktivierung und Akkumulierung zu einer Verstärkung der YM155 Wirkung in den untersuchten Zellen. Diese Ergebnisse deuten darauf hin, dass der p53 Status von Zellen einen Einfluss auf deren YM155 Resistenz haben kann. Da in der Behandlung von Neuroblastomen neben der Chemotherapie auch Bestrahlung eingesetzt wird, wurde zusätzlich untersucht ob eine Adaptierung von Neuroblastomzellen an YM155 zu einer verminderten Sensitivität gegen Bestrahlung führen kann. Da die im Rahmen dieser Arbeit untersuchten UKF-NB-3 Zelllinien (UKF-NB-3 und UKF-NB-3rYM15520) eine ähnliche Sensitivität gegenüber der Bestrahlung aufwiesen, konnte kein Zusammenhang zwischen einer Adaptierung an YM155 und der Ausbildung einer Bestrahlungsresistenz gezeigt werden.
Ein weiterer wichtiger Teil dieser Arbeit war es, den primären Wirkmechanismus von YM155 in Neuroblastomzellen zu untersuchen. In vorangegangenen Studien wurde die vom Hersteller beschriebene Wirkung von YM155 als Survivin-Inhibitor in Frage gestellt. Stattdessen soll der primäre Apoptose-induzierende Effekt in erster Linie durch DNA-Schäden hervorgerufen werden, während die Survivin Inhibierung lediglich darauf folgen soll. In einer zeitlichen und konzentrationsabhängigen Kinetik der YM155 Behandlung konnte in UKF-NB-3 Zellen der genaue Zeitpunkt der Survivin-Inhibierung und der Induktion der DNA-Schadensantwort ermittelt werden. Dabei konnte in der vorliegenden Arbeit gezeigt werden, dass in Neuroblastomzellen als Antwort auf die YM155 Behandlung zuerst eine Survivin-Inhibierung erfolgt, und die DNA-Schadensantwort als Folge dieser induziert wird. Darüber hinaus belegte die siRNA-vermittelte Survivin-Inhibierung in UKF-NB-3 und UKF-NB-6, dass eine fehlende Survivin Expression die DNA-Schadensantwort induziert.
Zusammenfassend konnte in dieser Arbeit erstmals in YM155 adaptierten Neuroblastomzellen der Resistenzmechanismus gegen YM155 näher untersucht werden und darüber hinaus wurde demonstriert, dass die Wirkung von YM155 in Neuroblastomzellen nicht auf die Induktion der DNA-Schadensantwort beruht, sondern primär auf die Survivin-Inhibierung zurückzuführen ist.
Photoinduzierte Energietransferprozesse und -reaktionen spielen in vielen Gebieten von Chemie, Physik und Biologie eine wichtige Rolle. Zu den prominentesten Beispielen zählen der Lichtsammelprozess in der Photosynthese und der Anregungsenergietransfer in funktionellen Materialien. Der Fokus dieser Arbeit liegt auf letzterem Bereich, genauer auf organischer Elektronik und flexiblen Donor-Akzeptor-Bausteinen und Schaltern. Im Besonderen werden hier zwei verschiedene Typen von funktionellen organischen Systemen betrachtet: zum einen oligomere Fragmente organischer halbleitender Polymere wie Oligo-p-Phenylen-Vinylen (OPV) und Oligo-Thiophen (OT), welche als Bausteine für neuartige organische Solarzellen dienen, und zum anderen kleine funktionelle Donor-Akzeptor-Einheiten wie Dithienylethen-Bordipyrromethen (DTE-BODIPY). Letzteres wurde in Kooperation mit den experimentellen Gruppen von K. Rück-Braun (TU Berlin) und J. Wachtveitl (Goethe Universität) untersucht. Um die relevanten Energietransfermechanismen genauer zu verstehen, wurden an diesen Systemen elektronische Strukturrechnungen und quantendynamische Untersuchungen durchgeführt. Hierzu wurden mittels ab initio-Methoden Modell-Hamiltonians parametrisiert und mit hochdimensionalen quantendynamischen oder semiklassischen Methoden kombiniert. Während die Parametrisierung für kleinere Fragmente durchgeführt wurde, lässt sich der so parametrisierte Hamiltonian ohne Weiteres auf größere Systeme erweitern. Die dynamischen Studien der betreffenden Systeme wurden mittels der Multikonfigurationellen Zeitabhängigen Hartree (MCTDH) Methode durchgeführt, welche eine vollständige quantendynamische Beschreibung des Systems zulässt. Für größere Systeme wurde die semiklassische Ehrenfest Methode in Verbindung mit dem Langevin-Ansatz zur Beschreibung von Umgebungseffekten genutzt. Hierzu wurde ein eigens für diese Methode und Systeme geschriebenes Programm eingesetzt. Im Falle der OT- und OPV-Oligomere wurde die Dynamik bei Vorliegen eines strukturellen Defekts untersucht. Ziel war es hierbei, die dynamischen Phänomene, welche durch die Photoanregung induziert werden, zu untersuchen. Des Weiteren wurde untersucht, ob das Konzept von „spektroskopischen Einheiten“, welche die Lokalisierung der Anregung durch strukturelle Defekte beschreibt, in diesen Systemen zutrifft. Hierzu wurden die Systeme in einer Frenkel-Basis definiert, welche ein auf einem Monomer lokalisiertes Elektron-Loch-Paar beschreibt. Delokalisierte elektronische Anregungen können somit als Superposition solcher Frenkel-Zustände beschrieben werden. Neben der Frenkel-Basis wurde aber auch eine verallgemeinerte Elektron-Loch-Basis verwendet, welche über zusätzliche Ladungstransferzustände eine räumliche Separation von Elektronen und Löchern erlaubt.Die Parametrisierung des OPV- und OT-Hamiltonians erfolgte mittels der Algebraischen Diagrammatischen Konstruktions (ADC(2))-Methode, welche in Kombination mit einer Übergangs-Dichte-Matrix-Analyse eine sehr akkurate Beschreibung der Frenkel- und Ladungstransferzustände basierend auf den supermolekularen Zuständen erlaubt. Um vibronische Effekte auf die Dynamik miteinzubeziehen,wurden nieder- und hochfrequente Torsions- und alternierende Bindungslängenmoden des Systems im Hamiltonian berücksichtigt. Hierzu wurden eindimensionale Schnitte der Potentialflächen entlang dieser Koordinaten berechnet und mittels einer Transformation in diabatische Potentialflächen überführt. Mit diesem Setup wurden die quantendynamischen und semiklassischen Simulationen für ein OPV/OT-Hexamer und ein 20-mer durchgeführt. Die Ergebnisse dieser Simulationen zeigen, dass der Energietransfer auf einer Subpikosekunden-Zeitskala stattfindet und eine starke Abhängigkeit vom Vorliegen eines strukturellen Defekts aufweist. Des Weiteren konnte auf einer Zeitskala von 100 Femtosekunden eine Lokalisierung des Exzitons beobachtet werden. Fluktuationseffekte werden zudem über Quantenfluktuationen im Falle von MCTDH bzw. über thermische Fluktuationen im Falle des Ehrenfest-/Langevin-Ansatzes berücksichtigt. Letzterer ist jedoch nicht in der Lage, die kohärente Charakteristik der mit den Schwingungsmoden gekoppelten Exziton- und Lokalisierungsdynamik wiederzugeben. Dagegen kann dieser Ansatz erfolgreich genutzt werden, um eine fluktuationsgetriebene „Hopping“-Dynamik des quasi- stationären Zustandes auf einer längeren Zeitskala in Abhängigkeit von der Temperatur zu beschreiben. Die Beschreibung der Photodynamik der DTE-BODIPY-Dyade zielt darauf ab, experimentell beobachtete vibrationelle Schwingungen des BODIPY-Fragments zu erklären, die ohne eine direkte Anregung dieses Fragments zustande kommen. Diese wurden nach einer selektiven Anregung des DTE-Fragments in zeitaufgelösten UV/Vis Anreg-Abtast-Experimenten beobachtet. Der Fokus der Untersuchung liegt daher auf der Beschreibung der photoinduzierten intramolekulare Energieumverteilung (IVR) auf einer Subpikosekunden-Zeitskala. Die DTE-BODIPY Dyade wurde mittels eines Hamiltonians, welcher durch TDDFT Rechnungen parametrisiert wurde, dargestellt. Basierend auf den Normalmoden des Systems, wurden lokale DTE- und BODIPY-Moden konstruiert, wobei einige dieser Moden miteinander gekoppelt sind und die Photoanregung des DTE auf das BODIPY-Fragment übertragen. Hierbei zeigte sich, dass die Zeitskala und die charakteristischen Frequenzen des Experiments mittels der hochdimensionalen MCTDH-Methode gut reproduziert wurden. Aus den Simulationen ergab sich zudem, dass der beobachtete Energietransfer stark von einem Reservoir von vibrationell angeregten lokalen DTE-Moden beeinflusst wird. Der untersuchte IVR- Prozess zeigt zudem eine ausgeprägte Abhängigkeit von lokalen Kopplungen und der Kopplung an eine Umgebung.
Erkrankungs- und transplantationsassoziierte Nebenwirkungen (z.B. Mukositis, Neutropenie) und Komplikationen (z.B. Infektionen, Abstoßung) führen zu einem radikalen Rückgang der körperlichen Leistungsfähigkeit während der Hämatopoetischen Stammzelltransplantation (HSZT). Ein Großteil der Patienten leidet vor Beginn der Transplantation bereits an ausgeprägten muskulären sowie kardiopulmonalen Defiziten. Randomisiert-kontrollierte Interventionsstudien mit Erwachsenen weisen auf positive multidimensionale Effekte einer Bewegungstherapie vor, während und nach der Transplantation hin. Wiskemann et al. [2013] identifizierten zudem das Fitnesslevel zu Transplantationsbeginn als relevanten Prädiktor für trainingsinduzierte Adaptionen. Im klinischen Sektor der pädiatrischen HSZT wird der wissenschaftliche Forschungsstand im als unzureichend eingestuft. Neben der Evaluation der Wirksamkeit pädiatrischer Bewegungsprogramme besteht dringender Bedarf zur Identifikation geeigneter Trainingsmethoden. Auf Basis dessen evaluierte die vorliegende Arbeit als Primärziel den Einfluss der körperlichen Leistungsfähigkeit zu Transplantationsbeginn auf die Effekte einer Sporttherapie während pädiatrischer HSZT. Darüber hinaus erfolgte eine Überprüfung der Machbarkeit des Interventionskonzeptes und eine explorative Analyse der sportlichen Belastbarkeit während der stationären Behandlung.
In dieser Subanalyse der BISON-Studie (RCT, n=70) wurden 53 hämato-onkologisch erkrankte Kinder und Jugendliche (35 m 18 w, 10.9±3.5 Jahre) mit Indikation zur HSZT computergestützt in eine Interventions- (IG) oder bewegungsarme Kontrollgruppe (KG) randomisiert. Im Rahmen der Transplantation führte die IG eine Sporttherapie, bestehend aus einem täglichen Ausdauer-, Kraft- und Beweglichkeitstraining (täglich, 30–60min), die KG ein Konzentrations- und Entspannungstraining von gleichem Umfang durch. Die individualisierten Trainingseinheiten fanden supervidiert statt und wurden von den behandelnden Sporttherapeuten dokumentiert. Zur Evaluation der Therapieeffekte erfasste ein 6-Minuten Gehtest (6MWT) die Ausdauerleistungsfähigkeit im Eingangs- und Retest (T1 Aufnahme, T2 Entlassung). Im Sinne der primären Zielsetzung erfolgte für die Auswertung eine retrospektive Dichotomisierung beider Studiengruppen anhand der referenzwertbezogenen Baslinewerte (cut off: 80 % 6MWDREFT1). Gruppenunterschiede (IGUNFIT n=14, IGFIT n=12, KGUNFIT n=16, KGFIT n=11) der relativen Veränderung im pre-post Design wurden mittels Kruskal-Wallis mit post-hoc-Test analysiert. Die Machbarkeit des sporttherapeutischen Interventionskonzeptes wurde anhand von neun Outcomeparametern (Bedarf, Akzeptanz, Durchführbarkeit, Adhärenz, Toleranz, Verträglichkeit, Sicherheit, Medizinische Barrieren, Non-Compliance) bewertet.
Vor Transplantation legten die Kinder und Jugendlichen im 6MWT ohne Auftreten unerwünschter Ereignisse durchschnittlich 470.9±79.1 m bzw. referenzwertbezogen 76±12% zurück. Die nichtparametrische Testung ergab für das Gesamtkollektiv bereits vor Beginn der Behandlung signifikante Einbußen der Gehstrecke im Vergleich zu den Normwerten gesunder Gleichaltriger (p<.001).
Insgesamt 25 Kinder und Jugendliche der IG (74%) trainierten über den stationären Verlauf kontinuierlich 2–4x pro Woche (50.3±6.3 min/TE) mit einem subjektiven Anstrengungsempfinden (RPE) von 11 bis 16. Die Adhärenzrate lag in der Untersuchung bei 94 (64–100)%. Das Training beinhaltete ein Ausdauertraining auf dem Fahrradergometer, als Aerobic-Einheit oder in spielerischer Form (2.5±0.9x/wk, 20.9±5.1 min/TE, 70.7±6.5% der HFmax), ein kleingerätegestütztes Krafttraining (2.4±0.6x/wk, 3.7±0.7 Übungen, 1.9±0.3 Serien, 10.4±1.1 Wiederholungen) und Stretchingübungen (2.3 ±0.7x/wk, 75% aktiv, 25% passiv). In insgesamt 13 von 410 Therapieeinheiten musste aufgrund von Gegenanzeigen abgebrochen werden.
Beim Vergleich der Trainingseffekte zeigte sich, dass die IGFIT ihre Ausdauerleistung im Rahmen der Transplantation um +0.7% steigerte, während die IGUNFIT eine Verbesserung um +7.7% aufwies (p>.05). In Bezug auf die relative Veränderung konnten ausschließlich signifikante Unterschiede zwischen der IGUNFIT und der KGUNFIT (-13.7%, p<.05) bzw. KGFIT (-15.9%, p>.05) erhoben werden. Bei Entlassung absolvierte die Gruppe IGFIT weiterhin 85.5±10.3% der referenzwertbezogenen Gehstrecke und differierte diesbezüglich bei Entlassung signifikant zu den beiden initial leistungsreduzierten Gruppen (KGUNFIT p<.001, IGUNFIT p<.01).
Negative Auswirkungen der Grunderkrankung und hämato-onkologischer Vorbehandlungen führen auch bei der Mehrheit betroffener Kinder und Jugendlicher bereits vor der Transplantation zu einer defizitären Leistungsfähigkeit im Vergleich zu Gesunden. Vor dem Hintergrund einer progressiven transplantationsinduzierten Dekonditionierung zeigt sich eine supportive Sporttherapie während pädiatrischer HSZT von moderater und hoher Intensität als sicher, machbar sowie effizient. Das konstante Training sowie die hohe Compliance erfordern ein tägliches, flexibles und kreatives Angebot unter fachtherapeutischer Anleitung und Betreuung. Alle Patienten können über den gesamten Verlauf der Transplantation ca. 3x pro Woche zwischen 40–60 min trainieren. Wie bei Gesunden könnten insbesondere initial leistungslimitierte Kinder und Jugendliche sowie Patienten mit schweren Nebenwirkungen von einer supportiven Bewegungsförderung profitieren. Unter Berücksichtigung der Ergebnisse lässt sich außerdem ableiten, dass ein optimaler Versorgungsansatz für die pädiatrische HSZT zusätzlich ein bewegungstherapeutisches Aufbautraining vor Transplantation vorsieht.
Eine spezifische Immuntherapie der Allergie, wie sie für die Pollen- und Bienengiftallergie angewandt wird, ist für Nahrungsmittelallergien wegen des hohen Risikos lebensbedrohlicher Nebenwirkungen und fehlender Wirksamkeit nicht etabliert. Somit bleibt vielen Nahrungsmittelallergikern nur die Vermeidung der allergieauslösenden Lebensmittel zur Prävention allergischer Reaktionen.
Neuartige Ansätze zur Immuntherapie von Allergien beschreiben unter anderem die Verwendung sogenannter hypoallergener Proteine. Diese sind meist Allergene, deren Struktur dahingehend verändert wurde, dass sie trotz intakter Immunogenität eine reduzierte IgE-Bindungseigenschaft und damit eine verminderte Allergenität aufweisen. Studien am Hauptallergen der Birke haben gezeigt, dass sowohl die Mutation von IgE relevanten Epitopen, als auch Multimerisierungen der Birkenpollenallergene zu solchen Hypoallergenen führen.
Mit dieser Arbeit sollte untersucht werden, inwieweit sich solche gezielten Mutationen und Oligomerisierungen auf die Hauptallergene von Sellerie und Karotte übertragen lassen. Ein weiterer Punkt der Studie lag darin, zu untersuchen, ob Oligomerisierung allein oder in Kombination mit Mutationen einen größeren Einfluss auf die immunogenen Eigenschaften bewirkt.
Wichtig für die Konzeption hypoallergener Proteine ist das Wissen, um wichtige IgE bindende Epitope auf Allergenen. Für das Hauptallergen aus Birke (Bet v 1) ist die exponierte P-Loop-Region als wichtiges Epitop beschrieben. Die Sellerieallergie ist in Mitteleuropa oft auf eine IgE-Kreuzreaktivität mit Bet v 1 zurückzuführen, weshalb auch das Hauptallergen aus Sellerie (Api g 1), von welchem zwei Isoformen beschrieben sind, näher im Bereich der P-Loop-Region untersucht wurde. Die in dieser Arbeit als stärker IgE bindende bestätigte Isoform Api g 1.01 zeigt allerdings genau in dieser Region eine wichtige Abweichung von Bet v 1, weshalb eine Mutante hergestellt wurde, welche in diesem Bereich dem Bet v 1 angepasst wurde. Mit Hilfe von IgE-Bindungsstudien konnte gezeigt werden, dass diese Veränderung zu einer Verstärkung der Bindung von IgE aus Seren von Birkenpollenallergikern führte, während Seren von Sellerieallergikern, die ausschließlich auf die Isoform Api g 1.01 sensibilisiert waren, eher eine unveränderte IgE-Bindung an diese Mutante zeigten. Seren von Patienten, die auf beide Isoformen sensibilisiert waren, zeigten wie die Birkenpollenallergiker eine erhöhte Reaktivität auf diese Mutante. Da die zweite Isoform, Api g 1.02, allerdings nur eine geringe Relevanz bei der Sellerieallergie spielt, kann durch die Ergebnisse mit dieser Mutante gefolgert werden, dass die P-Loop-Region für die birkenpollenassoziierte Sellerieallergie ein weniger wichtiges IgE-Epitop ist, als für das homologe Birkenpollenallergen. Die gerichtete Mutation der P-Loop-Region kann somit bei Api g 1.01 nicht als Strategie zur Herstellung hypoallergener Derivate in Betracht gezogen werden. Weiterführende Studien bezüglich der relevanten IgE-Epitope des Hauptallergens aus Sellerie sind demnach nötig.
Ein weiterer wichtiger Ansatz zur Herstellung hypoallergener Mutanten ist die Zerstörung der dreidimensionalen Struktur von allergenen Proteinen, so dass keine Konformationsepitope mehr vorhanden sind, welche hauptsächlich für die IgE-Bindung verantwortlich sind. In der Regel sind solche Proteine nicht mehr in der Lage IgE im Patientenserum zu binden, können aber in vivo eine zelluläre Immunogenität auslösen.
Dazu wurden neben den jeweiligen Isoformen der Hauptallergene von Sellerie (Api g 1) und Karotte (Dau c 1) auch 111P-Mutanten dieser Proteine rekombinant hergestellt, welche eine zerstörte Sekundärstruktur aufwiesen. Sowohl für Sellerie als auch für Karotte, waren die mutierten Proteine nicht mehr in der Lage, die jeweiligen spezifischen IgE-Antikörper in Patientenserum zu erkennen. Sie wiesen somit eine reduzierte Allergenität auf, was sie zu möglichen geeigneten Kandidaten für eine Immuntherapie machen. Wichtig für einen Mechanismus zur effektiven Immuntherapie ist aber auch die Induktion von blockierenden IgG-Antikörpern, welche unter anderem das Allergen binden und somit verhindern, dass es zu einer Kreuzvernetzung von IgE kommt, welches über den FceRI-Rezeptor auf der Oberfläche von Mastzellen gebunden ist. In dieser Studie konnte mittels eines Mausmodells in vivo gezeigt werden, dass die beiden Isoformen Dau c 1.01 und Dau c 1.02 des Hauptallergens aus Karotte, welche keine intakten IgE-Epitope mehr aufwiesen trotzdem noch in der Lage waren solche blockierenden Antikörper zu induzieren. Die Funktionalität dieser Antikörper mit IgE um das Allergen zu konkurrieren, wurde mittels Inhibition der Bindung von humanem IgE an das entsprechende Allergen durch Zugabe der entsprechenden Mausseren, welche die gebildeten IgG Antikörper enthielten, nachgewiesen und war vergleichbar mit der Inhibitionswirkung von Seren der Mäuse, die mit den Wildtyp-Allergenen immunisiert wurden. Wurden Proteine eingesetzt, die nicht nur eine zerstörte Struktur aufwiesen, sondern auch noch als Dimer der beiden Dau c 1 Isoformen mit zerstörter Struktur vorlagen (Dau c 1FP111P), so konnte eine verstärkte Induktion von blockierenden Antikörpern mit erhöhter IgE-Inhibitionswirkung beobachtet werden. Somit ist die Multimerisierung von Allergenen bei gleichzeitiger Zerstörung der Struktur ein geeigneter Ansatz zur Herstellung von hypoallergenen Proteinen.
Da Immuntherapeutika möglichst nicht in der Lage sein sollten allergische Reaktionen auszulösen, indem sie mit bestehenden IgE-Antikörpern kreuzreagieren, wurden die hier untersuchten hypoallergenen Proteine auch in Kreuzreaktivitätsstudien eingesetzt. Diese haben gezeigt, dass nur hohe Immunisierungsdosen zur Induktion von IgE führten, welches mit den Wildtyp-Allergenen kreuzreaktiv war. Da aber zur Induktion von blockierenden IgG-Antikörpern bereits eine geringe Dosis an verändertem Allergen ausreichend war, ist dies zu vernachlässigen.
Mittels Untersuchungen von IgE-bindenden-Epitopen und gezielter Veränderung von Allergenen, konnte in dieser Studie gezeigt werden, dass nicht nur die Zerstörung der Struktur oder die Oligomerisierung von Allergenen, sondern die Kombination der beiden Methoden eine geeignete Strategie zur Entwicklung neuer Reagenzien für die klassische spezifische Immuntherapie der Lebensmittelallergie darstellen kann.
Individuelle sprachliche Repertoires und gesellschaftliche Mehrsprachigkeit in der Republik Moldova
(2016)
Die sprachlichen Verhältnisse in der Republik Moldau befinden sich seit der Unabhängigkeit von der Sowjetunion in Veränderung. Maßgeblich hierfür sind eine neue offizielle Sprache, die Förderung der Minderheitensprachen und die Arbeitsmigration. Die Autorin untersucht die Frage, wie Sprecher*innen mit unterschiedlichen sprachlichen Repertoires mit diesen Veränderungen umge-hen. Sie zeigt dies am Beispiel ausgewählter Sprach- und Berufsbiographien in zwei exemplarischen Fallstudien: einem russisch-ukrainisches Lyzeum und einem italienischsprachigen Call-Center.Mit den Begriffen Erreichbarkeit und Reichweite leistet das Buch einen theo-retischen Beitrag zur Diskussion um sprachliche Repertoires und sprachlichen Ausbau, indem sie den Zusammenhang zwischen gesellschaftlichen Verände-rungen und den individuellen Aneignungsprozessen von Sprecher*innen zu begreifen helfen.
Die vorliegende Studie vermittelt einen epidemiologischen Überblick über das mit Haut- und Nagelläsionen assoziierte Pilzspektrum im Westen Panamas. Hierzu wurden Proben von vermutlich durch Pilzinfektionen verursachten Haut- sowie Nagelläsionen gesammelt und zum Anlegen von Kulturen verwendet. Die isolierten Pilze wurden basierend auf dem D-H-S System (Rieth), anhand morphologischer Merkmale, rDNA Sequenzdaten sowie phylogenetischen Analysen klassifiziert und mit Hilfe von Literaturdaten sowie physiologischen Eigenschaften als saprotrophe, opportunistische oder pathogene Organismen beurteilt. In Panama wurden 52 Proben von 51 Personen gesammelt, wobei das Material von 42 Haut- und Nagelläsionen der Füße, vier Läsionen der Fingernägel, zwei Chromomykosen, einer Tinea nigra und drei sonstigen Hautläsionen stammt. Bei 75 Prozent (n = 39) der Proben konnten Pilze kultiviert und insgesamt 201 Pilzstämme isoliert und subkultiviert werden. Hiervon wurden 50 Isolate (24,9 %) als Dermatophyten, 24 Stämme (11,9 %) als Hefen und 127 Isolate (63,2 %) als Schimmelpilze klassifiziert. Bei 19 Probanden (48,7 %) konnten Dermatophyten isoliert werden, wobei aus dem Probenmaterial von 12 Personen (63,2 %) ebenfalls andere Pilzarten nachgewiesen wurden. Von zwei Läsionen (5,1 %) wurden nur Hefen isoliert, wobei einmal eine Schwarze Hefe kultiviert wurde. In dem Material acht weiterer Proben (20,5 %) wurden Schimmelpilze und Hefestämme nachgewiesen und bei zehn Probanden (25,6 %) konnten aus dem Probenmaterial nur Schimmelpilze kultiviert werden. 172 Isolate wurden taxonomisch klassifiziert und 44 Arten aus 25 Gattungen, 17 Familien, 15 Ordnungen, sechs Klassen sowie den Abteilungen Ascomycota oder Basidiomycota zugeordnet. Die Ascomyceten stellen mit 164 Stämmen 40 verschiedener Arten aus 23 Gattungen, 15 Familien, 11 Ordnungen und vier Klassen die am häufigsten isolierte und vielfältigste Gruppe dar, während die Basidiomycota nur mit acht Isolaten vier verschiedener Arten zwei unterschiedlicher Gattungen, Familien, Ordnungen und Klassen nachgewiesen wurden. Im Rahmen dieser Arbeit wurden in Panama die anthropophilen Dermatophyten Trichophyton rubrum und T. interdigitale dokumentiert, wobei T. rubrum die am häufigsten isolierte Art darstellt. Kultivierte Hefen waren Candida albicans, C. duobushaemulonii, C. tropicalis, Hortaea werneckii, Sporobolomyces sp., Trichosporon asahii, T. japonicum und T. montevideense. Die Schimmelpilze stellen die größte und ökologisch diverseste Organismengruppe der kultivierten Pilze dar. So wurden von den untersuchten Läsionen sowohl humanpathogene Erreger, als auch opportunistische Arten und rein saprotrophe Pilze sowie mehrere Vertreter wahrscheinlich bisher nicht wissenschaftlich beschriebener Arten bzw. Gattungen nachgewiesen. Aus dem Probenmaterial wurden die Pilze Acremonium collariferum, Aspergillus awamori, A. clavatus, A. flavus, A. giganteus, A. heteromorphus, A. niger, A. ochraceus, A. sclerotiorum, A. versicolor, Chaetomium globosum, Chrysosporium tuberculatum, Cladosporium sphaerospermum, C. tenuissimum, Curvularia geniculata, C. lunata, Fonsecaea pedrosoi, Fusarium oxysporum, F. solani, Lophotrichus bartlettii, Microascus cinereus, Neoscytalidium dimidiatum, Penicillium commune, Scolecobasidium sp., Scopulariopsis carbonaria, S. croci, Verticillium cf. epiphytum und Wardomycopsis litoralis isoliert. Zudem wurden vier Isolate von zwei vermutlich neuen Arten der Gattung Acremonium (Bionectriaceae, Hypocreales), zwei Stämme mit einer genetischen Affinität zu der Gattung Cryptendoxyla (Cephalothecaceae, Sordariales) und jeweils ein mit den Gattungen Fusicladium (Venturiaceae, Venturiales), Knufia (Trichomeriaceae, Chaetothyriales) bzw. Rhexothecium (Eremomycetaceae, Dothideomycetidae) assoziierter Stamm kultiviert. Im Rahmen dieser Studie wurden A. giganteus, C. tenuissimum, L. bartlettii, S. carbonaria, S. croci, V. epiphytum und W. litoralis erstmalig von Mykosen des Menschen dokumentiert und die in der Literatur als Verursacher sowie Besiedler von Haut- und Nagelläsionen beschriebenen Organismen A. clavatus, A. flavus, A. niger, A. ochraceus, C. tropicalis, C. globosum, C. sphaerospermum, C. lunata, F. oxysporum, M. cinereus, P. commune, T. asahii, T. japonicum und T. montevideense wurden das erste Mal in klinischem Probenmaterial aus Panama nachgewiesen. Die Arten A. awamori, A. heteromorphus, C. globosum, C. tenuissimum, L. bartlettii, M. cinereus, P. commune, S. croci, T. asahii, T. japonicum, T. montevideense, V. epiphytum, W. litoralis und die Gattung Scolecobasidium wurden zudem erstmalig für Panama dokumentiert. Die Isolation von W. litoralis ist ebenfalls der erste Nachweis dieses Pilzes außerhalb von Spanien und auf dem amerikanischen Kontinent. Die große Anzahl im Rahmen dieser Arbeit beschriebener, bisher für die Wissenschaft unbekannter bzw. nicht in Panama dokumentierter Pilzarten lässt auf eine große mykologische Biodiversität in Panama schließen und zeigt den Bedarf weiterer Forschung.
Embryonale Stammzellen (ESCs) sind ein wichtiges Werkzeug zur Untersuchung der frühen embryonalen Entwicklung. ESCs können mit Hilfe neuer Technologien zur Modifikation von Genen (z.B. mit dem CRISPR/Cas9 System) genetisch manipuliert werden. Daraus resultierende „knockout“ ES Zelllinien können helfen, die physiologische Rolle von Proteinen während der Differenzierung zu verstehen.
Transkriptionsfaktoren, die schnell und spezifisch Signalwege regulieren, spielen während der Embryonalentwicklung und während der Differenzierung von ESCs in vielen verschiedenen Zelltypen eine essentielle Rolle. Der Transkriptionsregulator „Far Upstream Binding Protein 1“ (FUBP1) ist ein Protein, welches eine ganz bestimmte einzelsträngige DNA Sequenz, das „Far Upstream Sequenz Element“, erkennt, bindet, und dadurch Gene wie z.B c-myc oder p21 reguliert. Mit der Entwicklung zweier Fubp1 Genfallen Mausstämme (Fubp1 GT) sollte die Frage nach der physiologischen Funktion von FUBP1 beantwortet werden. Die homozygoten FUBP1-defizienten GT Embryonen sterben im Mutterleib ungefähr am Tag E15.5 der Embryonalentwicklung. Sie sind kleiner als Wildtypembryonen und zeigen ein anämisches Aussehen. Daher wurden diese Mausmodelle hinsichtlich der Hämatopoese untersucht, die zu diesem Zeitpunkt vor allem in der Leber stattfindet. Es konnte eine signifikante Reduktion der hämatopoetischen Stammzellen (HSCs) festgestellt werden und zusätzlich war die langfristige Repopulation der FUBP1-/--Stammzellen im Knochenmark in Transplantationsexperimenten reduziert.
In der vorliegenden Arbeit wurde die Rolle von FUBP1 in einem weiteren Stammzellsystem analysiert und gleichzeitig seine Bedeutung in anderen Zelltypen der frühen Embryonalentwicklung untersucht.
Die Quantifizierung der FUBP1 Expression in den ESCs und während der Differenzierung zu sogenannten `embryoid bodies` (EBs) zeigten eine starke Expression auf mRNA- und auf Proteinebene. Nach der erfolgreichen Optimierung der Differenzierung von murinen ESCs wurden Fubp1 „knockout“ (KO) ESC Klone mit Hilfe der CRISPR/Cas9 Technologie etabliert. Die molekularbiologische Analyse der ESCs zeigte eine signifikante Erhöhung der Oct4 mRNA-Expression, während Nanog und die Differenzierungsmarker Brachyury, Nestin und Sox17 unverändert und in vergleichbarer Menge zu den Kontrollen vorhanden waren. Während der Differenzierung der Fubp1 KO Klone zu EBs zeigte sich eine signifikante Reduktion mesodermaler Marker wie Flk-1, SnaiI, Snai2, Bmp4 und FgfR2. Mit Hilfe durchflusszytometrischer Analysen bestätigte sich die verzögerte Bildung mesodermaler Zellen (Brachyury- und Flk-1-exprimierender Zellen) in den Fubp1 KO Klonen der EBs an den Tagen 3, 4 und 5 nach Beginn der Differenzierung.
Die Anwendung einer Ko-Kultivierung auf OP9 Zellen zur Differenzierung der ESCs in hämatopoetische Linien sollte zeigen, ob der Fubp1 KO ESCs ein Defekt in der frühen Entwicklung hämatopoetischer Stammzellen zu beobachten ist. Erneut konnte am Tag 5 der ESC-Differenzierung in der OP9 Ko-Kultur eine signifikante Reduktion der mesodermalen (Flk-1+) Zellen festgestellt werden. Die weitere Differenzierung zu hämatopoetischen CD45+ Zellen zeigte jedoch keinen Unterschied im prozentualen Anteil CD45+ Zellen am Tag 12 der Differenzierung. Auch die gezielte Differenzierung zu erythroiden Zellen durch Zugabe des Zytokins EPO zum Medium zeigte keinen signifikanten Unterschied im Differenzierungsgrad der erythroiden Zellen zwischen Kontroll- und Fubp1 KO Klonen.
In weiteren Experimenten habe ich in dieser Arbeit die Expression von FUBP1 in WT Embryos an den Tagen E9.5 und E13.5 der Embryonalentwicklung untersucht. Hierbei zeigte sich in beiden Entwicklungsstadien eine immunhistochemische Anfärbung von FUBP1 in den meisten Zellen des Embryos. Die Annahme, dass die Abwesenheit von FUBP1 in der Embryonalentwicklung zu verstärkten apoptotischen Vorgängen führen könnte und gleichzeitig die massive Expansion von Zellen gestört sein könnte wurde mit Hilfe immunhistochemischer Färbung von „cleaved Caspase 3“ (Apoptosemarker) und „Ki-67“ (Proliferationsmarker) in den homozygoten Fubp1 GT Embryos an den Tagen E9.5 und E13.5 nicht bestätigt.
Die Ergebnisse dieser Arbeit lassen darauf schließen, dass die Regulation von Apoptose und Proliferation durch FUBP1 während der Embryonalentwicklung nicht die Hauptrolle von FUBP1 darstellt. Es zeigte sich jedoch, dass FUBP1 als Transkriptionsregulator wichtig für die mesodermale Differenzierung von ESCs ist. Zu beobachten war, dass es in den FUBP1-defizienten ESCs zu einer Verzögerung der mesodermalen Differenzierung kommt. Es konnte bereits gezeigt werden, dass FUBP1 essenziell für die Selbsterneuerung von HSCs ist. Dies macht deutlich, dass FUBP1 neben der Proliferation und Apoptose ein breiteres Spektrum an Signalwegen reguliert, die für Stammzellen und deren Differenzierung von Bedeutung sind.
This PhD thesis has been carried out within an interdisciplinary cooperational project between the Deutsches Bergbau-Museum Bochum and the Goethe-Universität Frankfurt, which is dedicated to ancient Pb-Ag mining and metal production in the hinterland of the municipium Ulpiana in central Kosovo. Geochemical analysis (OM, XRD, EMP, MC-ICP-MS) of ores, metallurgical (by-) products and metal artefacts allowed to reconstruct the local chaîne opératoire and to decipher significant chronological differences between presumably Roman/late antique and medieval/early modern metallurgical processing. Pb isotope provenance studies documented the relevance of local metal production within the Roman Empire and confirmed the actual existence of a Metalla Dardanica district, which until now solely has been suspected on basis of epigraphy.
The predominant abundance of the by-products matte (Cu, Pb, Fe and Zn sulphides) and speiss (ferrous speiss: Fe-As compounds; base metal speiss: ~(Cu,Ni,Fe,Ag )x(Sb,Sn,As )y ) at smelting sites with a preliminary Roman/late antique dating points to treatment of complex polymetallic ore. Pb isotope analysis demonstrated that the mining district of Shashkoc-Janjevo (partially) supplied six of the ten investigated metallurgical sites. In this mineralisation, parageneses with elevated Cu, As and Sb abundances comprise significant proportions of particularly tennantite-tetrahedrite minerals, chalcopyrite, arsenopyrite and were generated during the early and main stages of ore formation. Later precipitated ore in contrast is marked by a significantly less versatile mineralogy and consists almost exclusively of galena, sphalerite and pyrite/marcasite. Besides increased Cu, As and Sb contents, ore from the main formation stage also exhibits generally higher Ag abundances, which are mainly hosted by fahlore and locally abundant secondary Cu sulphides (chalcocite, digenite and covellite) and oxidised phases (e.g. malachite, azurite). The higher precious metal grades of this ore type, whose geochemical signature (i.e. higher proportions of Cu, As and Sb) is mirrored by the abundance of the metallurgical by-products matte and speiss (almost exclusively found at potentially Roman/late antique smelting sites; see above), presumably were a pivotal factor leading to its preferential exploitation in earlier times. Matte and base metal-rich speiss contain notable amounts of Ag, which are mainly present in Cu-(Fe) sulphides and particularly antimonides ((Cu,Ni)2Sb, Ag3Sb), respectively. While the speiss compounds due to their close association with Pb bullion presumably were cupelled automatically, the metallurgical treatment of matte could not have been proven unambiguously, but overall certainly is highly likely.
The beneficiated ore (i.e. crushed and sorted, potentially also treated by more lavish techniques such as grinding, sieving or wet-mechanical methods) possibly was partially roasted and subsequently together with fluxes and charcoal submitted to the furnaces. The working temperatures approximately ranged between 1100 and 1400 °C. Slags from all presumably Roman/late antique dated and few of their potentially medieval/early modern analogues were produced from smelting of (partially roasted) ore with charcoal and added siliceous material, thus resulting in fayalite-dominant phase assemblages or rarely observed glassy parageneses. Even though several subtypes of fayalite slags have been established on basis of the abundance of Fe-rich oxide phases (i.e. spinel ss and wüstite), late clinopyroxene and the general solidification sequence of the slags, the process conditions (i.e. temperature, fO2, added fluxing agents) must have been widely similar; chemical variations could be explained by varying degrees of interaction of the slag melt with charcoal ash and furnace material. The other investigated metallurgical remains indicate employment of a calcareous flux, which led to formation of Ca-rich olivine-, olivine+clinopyroxene-, clinopyroxene- or melilite-type slags. These types as well as glassy slags were generated at more oxidising conditions outside the fayalite stability field (FMQ buffer equilibrium, cf. Lindsley, 1976) than their olivine-dominant analogues. Conclusions on the furnace construction could be drawn on basis of the typology of the slags, which mostly were tapped into a basin located outside the furnace, but partially (at two presumably medieval/early modern sites) also accumulated in a reservoir within the smelter.
Lead artefacts excavated in Ulpiana could be isotopically related to ores from mineralisations in its vicinity and demonstrate that the resources were at least utilised for local metal production. However, also ship wreck cargo from Israel - including several lead ingots with the inscription 'MET DARD' (Raban, 1999) - and late antique lead-glazed pottery from Serbia and Romania (Walton & Tite, 2010) could be related to a possible Kosovarian/Serbian provenance of the raw material and thus indicate flourishing trade of metal from the Metalla Dardanica district within the Roman Empire.
References:
Lindsley, D. H. (1976). Experimental studies of oxide minerals. In D. Rumble, III (Hrsg.), Oxide minerals (61-88). Reviews in Mineralogy, Volume 3. Washington, DC: Mineralogical Society of America.
Raban, A. (1999). The lead ingots from the wreck site (area K8). Journal of Roman Archaeology, Supplementary Series, 35, 179-188.
Walton, M. S., & Tite, M. S. (2010). Production technology of Roman lead-glazed pottery and its continuance into late antiquity. Archaeometry, 52(5), 733-759.
In dieser Arbeit wurden die Strukturen von drei Membranproteinen mittels Einzelpartikel-Kryo‑Elektronenmikroskopie (Kryo‑EM) gelöst. Bei den Membranproteinen handelt es sich um den humanen TRP-Kanal Polycystin‑2, den sekundär-aktiven Transporter BetP aus Corynebacterium glutamicum und den Rotor-Ring der N‑Typ ATPase aus Burkholderia pseudomallei.
Kanäle sind Membranproteine, die Ionen durch eine Pore über die Membran diffundieren lassen. Durch einen präzisen, kanalabhängigen Regulationsmechanismus wird die Pore nur bei Bedarf geöffnet. TRP (transient receptor potential) Kanäle sind anhand von DNA-Sequenzvergleichen identifiziert worden und kommen ausschließlich in Eukaryonten vor. In dieser Arbeit lag der Fokus auf der Strukturbestimmung des humanen TRP Kanals Polycystin‑2 (PC‑2). PC‑2 wurde in einer Studie entdeckt, in der Patienten mit der autosomal dominanten Erbkrankheit „polyzystische Nierenerkrankung“ untersucht wurden. Patienten mit dieser Krankheit tragen eine Mutation in einem der beiden Gene PKD1 oder PKD2, welche für die Proteine Polycystin‑1 und ‑2 kodieren. In dieser Arbeit wurden verschiedene Deletionsmutanten von PC‑2 hergestellt und in das Genom menschlicher HEK293 GnTI‑ Zellen inseriert. Die Zellen, die PC‑2 bzw. die Deletionskonstrukte am stärksten synthetisierten, wurden isoliert und für die rekombinante Proteinherstellung verwendet. Die Expression von PC‑2 führte zu der Entstehung von kristalloidem endoplasmatischem Retikulum. Mutationsstudien in dieser Arbeit zeigen, dass diese morphologische Veränderung durch die Akkumulation von Membranproteinen, die mit sich selbst interagieren, begünstigt wird. Weiter ist es in dieser Arbeit gelungen, PC‑2 zu reinigen und die Struktur des Proteins mit Hilfe von Einzelpartikel Kryo-EM mit einer Auflösung von 4.6 Å zu bestimmen. Die Membrandomäne von PC‑2 ist sehr ähnlich zu den bekannten TRP Kanal Strukturen. Ein Vergleich der PC‑2 Struktur mit dem offenen und geschlossenen TRPV1 Kanal legt nahe, dass PC‑2 in seiner offenen Konformation gelöst wurde.
Der sekundär aktive Transporter BetP von C. glutamicum gehört zu der Familie der BCC- (betaine-carnitine-choline) Transporter und wird durch osmotischen Schock aktiviert. Nach seiner Aktivierung importiert BetP zwei Natriumionen und ein Glycinbetain Molekül. Durch die Akkumulierung von Glycinbetain in der Zelle steigt das osmotische Potential des Zytoplasmas, was den Wasserausstrom aus der Zelle stoppt. Viele Strukturen, die BetP in unterschiedlichen Stadien des Transportprozesses zeigen, konnten bereits mittels Röntgenkristallographie gelöst werden. Allerdings ist die N‑terminale Domäne für die Kristallisation entfernt worden und die C‑terminale Domäne, die komplett aufgelöst ist, ist an einem wichtigen Kristallkontakt beteiligt. Um strukturelle Informationen über die N‑ und C‑terminale Domäne ohne Kristallisationsartefakte zu erhalten, wurde in dieser Arbeit die Struktur von BetP mittels Einzelpartikel Kryo‑EM bestimmt. Die Struktur mit einer Auflösung von 6.8 Å zeigt BetP in einem zum Zytoplasma geöffneten Zustand. Der größte Unterschied zu allen Kristallstrukturen ist die Position der C‑terminalen α‑Helix, die um ~30° rotiert ist und dadurch deutlich enger am Protein zu liegen kommt. Da BetP in Abwesenheit von aktivierenden Stoffen analysiert wurde, wird vermutet, dass es sich bei der gelösten Struktur um den inaktiven Zustand von BetP handelt.
Rotierende ATPasen sind membrangebunden Enzymkomplexe, die bei der zellulären Energieumwandlung eine entscheidende Rolle einnehmen. Sie bestehen aus einem löslichen und einem membrangebundenen Teil. Während in dem löslichen Teil der zelluläre Energieträger Adenosintriphosphat (ATP) entweder synthetisiert oder hydrolysiert wird, baut der membrangebundene Teil entweder einen Ionengradienten auf oder nutzt die Energie eines existierenden Gradienten für die ATP Synthese. Ein wesentlicher Bestandteil des membrangebundenen Teils einer rotierenden ATPase ist der Rotor-Ring. Dieser transportiert Ionen über die Membran und rotiert dabei um seine eigene Achse. In dieser Arbeit wurde eine Studie fortgesetzt, die den Rotor-Ring der N‑Typ ATPase von B. pseudomallei mittels Kryo‑EM untersuchte und zeigte, dass der Rotor-Ring aus 17 identischen Untereinheiten aufgebaut ist. Damit hat die N‑Typ ATPase das größte Ionen-zu-ATP-Verhältnis aller bisher charakterisierten ATPasen. In dieser Arbeit wurde die c17 Stöchiometrie des N‑Typ ATPase Rotor-Rings bestätigt und die Struktur mittels Kryo‑EM bestimmt. Im besonderen Fokus lag dabei der Einfluss von Detergenzien auf die Strukturbestimmung. Es konnte gezeigt werden, dass die beiden Parameter Dichte und Mizellengröße der verwendeten Detergenzien ausschlaggebend für den Erfolg der Strukturbestimmung dieses sehr kleinen Membranproteins sind.
Im Rahmen dieser Arbeit wurde die humane Leukotrien A4-Hydrolase untersucht.
Die hLTA4H ist ein bifunktionelles Enzym, welches neben der Hydrolaseaktivität, welche für die Umwandlung des instabilen LTA4 zu LTB4 verantwortlich ist, auch eine Peptidaseaktivität aufweist. Beide Enzymaktivitäten spielen bei Entzündungsprozessen eine wichtige Rolle, weshalb die LTA4H ein interessantes pharmakologisches Target darstellt. Aufgrund der gegensätzlichen Eigenschaften der beiden Aktivitäten der LTA4H (Produktion des proinflammatorischen LTB4 durch die Hydrolase-Aktivität, sowie der Abbau des PGP-Tripeptids durch die Peptidase-Aktivität) wird deutlich, dass die Entwicklung selektiver Hydrolase-Inhibitoren von Vorteil ist.
Das Protein der humanen LTA4H konnte erfolgreich kloniert werden und in E. coli-Zellen exprimiert werden. Zur Gewinnung des reinen rekombinanten Proteins konnte ein Aufreinigungsprotokoll mittels Nickel-Affinitätschromatographie sowie anschließender Größenausschlusschromatographie etabliert werden. Durch die Testung unterschiedlicher Lysemethoden konnte die Ausbeute deutlich erhöht werden.
Um herauszufinden, ob es durch den potentiellen Inhibitor zu einer Hemmung der Enzymaktivität kommt, muss diese detektiert werden können. Hierfür wurde ein geeignetes fluoreszenzbasiertes Testsystem zur Detektion der Enzymaktivität der hLTA4H entwickelt. Dies lässt auch die Quantifizierung der Wirksamkeit der möglichen Inhibitoren zu. Mit Hilfe eines pharmakophorbasierten Ansatzes wurden 22 Testsubstanzen für die in vitro Testung ausgewählt. Nach der Evaluierung dieser Substanzen wurden weitere 14 Derivate der besten Verbindung ausgewählt und ihre inhibitorischen Eigenschaften an rekombinanter LTA4H getestet. Die Ergebnisse wurden mittels Differential Scanning Fluorimetrie validiert, wofür ein einfaches Protokoll etabliert werden konnte.
Im Rahmen dieser Arbeit wurden weiterhin 5 bereits bekannte Inhibitoren der LTA4H ausgewählt, um sie hinsichtlich ihres thermodynamischen Profils zu untersuchen. Hierzu wurden die ausgewählten Inhibitoren mittels Isothermer Titrationskalorimetrie vermessen. Die Dissoziationskonstanten der untersuchten Inhibitoren wurden ebenfalls mittels Differential Scanning Fluorimetrie bestimmt, wobei sich zeigte, dass diese Methode nicht zur präzisen Messung von Protein/Ligand Interaktionen herangezogen werden kann. Mittels eines in silico Ansatzes zur Vorhersage von stabilisierten und destabilisierten Wassermolekülen in der Bindetasche konnten die thermodynamischen Daten im strukturellen Kontext interpretiert werden. Durch diese Kombination konnten neue Erkenntnisse zum Design neuer Inhibitoren der LTA4H gewonnen werden.
Light scalar mesons can be understood as dynamically generated resonances. They arise as 'companion poles' in the propagators of quark-antiquark seed states when accounting for hadronic loop contributions to the self-energies of the latter. Such a mechanism may explain the overpopulation in the scalar sector - there exist more resonances with total spin J=0 than can be described within a quark model.
Along this line, we study an effective Lagrangian approach where the isovector state a_{0}(1450) couples via both non-derivative and derivative interactions to pseudoscalar mesons. It is demonstrated that the propagator has two poles: a companion pole corresponding to a_{0}(980) and a pole of the seed state a_{0}(1450). The positions of these poles are in quantitative agreement with experimental data. Besides that, we investigate similar models for the isodoublet state K_{0}^{*}(1430) by performing a fit to pion-kaon phase shift data in the I=1/2, J=0 channel. We show that, in order to fit the data accurately, a companion pole for the K_{0}^{*}(800), that is, the light kappa resonance, is required. A large-N_{c} study confirms that both resonances below 1 GeV are predominantly four-quark states, while the heavy states are quarkonia.
Water is scarce in semi-arid and arid regions. Using alternative water sources (i.e. non-conventional water sources), such as municipal reuse water and harvested rain, contributes to using existing water resources more efficiently and productively. The aim of this study is to evaluate the two alternative water sources reuse water and harvested rain for the irrigation of small-holder agriculture from a system perspective. This helps decision and policy makers to have proper information about which system and technology to adopt under local conditions. For this, the evaluation included ecologic, societal, economic, institutional and political as well as technical aspects. For the evaluation, the study area in central-northern Namibia was chosen in the frame of the research and development project CuveWaters. The main methods used include a mathematical material flow analysis, the computation and modelling of crop requirements, a multi-criteria decision analysis using the Analytical Hierarchy Process (AHP) method and a financial cost-benefit analysis. From a systemic perspective, the proposed novel systems were compared to the exciting conventional infrastructure. The results showed that both water reuse and rainwater harvesting systems for the irrigation of small-holder horticulture offer numerous technological, ecologic, economic, societal, institutional and political benefits. Rainwater harvesting based gardens have a positive benefit-cost ratio under favorable conditions. Government programs could fund the infrastructure investment costs, while the micro-entrepreneur can assume a micro-credit to finance operation and maintenance costs. Installing sanitation in informal settlements and reusing municipal water for irrigation reduces the overall water demand of households and agriculture by 39%, compared to improving sanitation facilities in informal settlements without reusing the water for agriculture. Given that water is the limiting factor for crop fertigation, the generated nutrient-rich reuse water is sufficient to annually irrigate about 10 m2 to 13 m2 per sanitation user. Compared to crop nutrient requirements, there are too many nutrients in the reuse water. Thus when using nutrient-rich reuse water, no use of fertilizers and a careful salt management is necessary. When comparing this novel system with improved sanitation, advanced wastewater treatment and nutrient-rich water reuse to the conventional and to two adapted systems, results showed that the novel CuveWaters system is the best option for the given context in a semi-arid developing country. Therefore, the results of this study suggest a further roll-out of the novel CuveWaters system. The methodology developed and the results of this study demonstrated that taking sanitation users into consideration plays a major role for the planning of an integrated water reuse infrastructure because they are the determinant factor for the amount of available nutrient-rich reuse water. In addition, it could be shown that water reuse and rainwater harvesting systems for the irrigation of small-scale gardens provide a wide range of benefits and can be key to using scarce water resources more efficiently and to contributing to the Sustainable Development Goals.
Das Hauptziel dieser Dissertation lag in der Verbesserung einzelner Schritte im Prozess der automatischen Proteinstrukturbestimmung mittels Kernmagnetischer Resonanz (NMR). Dieser Prozess besteht aus einer Reihe von sequenziellen Schritten, welche zum Teil bereits erfolgreich automatisiert wurden. CYANA ist ein Programmpaket, welches routinemäßig zur automatischen Zuordnung der chemischen Verschiebungen, der Nuclear Overhauser Enhancement (NOE) Signalen und der Strukturrechnung von Proteinen verwendet wird. Einer der Schritte, der noch nicht erfolgreich automatisiert wurde, stellt die Signalidentifizierung von NMR Spektren dar. Dieser Schritt ist besonders wichtig, da Listen von NMR-Signalen Grundlage aller Folgeschritte sind. Fehler in den Signallisten pflanzen sich in allen Folgeschritten der Datenauswertung fort und können am Ende in falschen Strukturen resultieren. Daher war ein Ziel dieser Arbeit, einen robusten und verlässlichen Algorithmus zur Signalidentifizierung von NMR Spektren in CYANA zu implementieren. Dieser Algorithmus sollte mit dem in FLYA implementierten Ansatz zur automatischen Resonanzzuordnung, der automatischen NOE-Zuordnung und der Strukturrechnung mit CYANA kombiniert werden. Der in CYANA implementierte CYPICK Algorithmus ahmt den von Hand durchgeführten Ansatz nach. Bei der manuellen Methode schaut sich der Wissenschaftler zweidimensionale Konturliniendarstellungen der NMR Spektren an und entscheidet anhand verschiedener Geomtrie- und Ähnlichkeitskriterien, ob es sich um ein Signal des Proteins oder um einen Artefakt handelt. Proteinsignale sind ähnlich zu konzentrischen Ellipsen und erfüllen bestimmte geometrische Kriterien, wie zum Beispiel ungefähr kreisförmiges Aussehen nach entsprechender Skalierung der spektralen Achsen und gänzlich konvexe Formen, die Artefakte nicht aufzeigen. CYPICK bewertet die Konturlinien lokaler Extrema nach diesen Bedingungen und entscheidet anhand dieser, ob es sich um ein echtes Signal handelt oder nicht. Das zweite Ziel dieser Arbeit war es ein Maß zur Quantifizierung der Information von strukturellen NMR Distanzeinschränkungen zu entwickeln. Der sogenannte Informationsgehalt (I) ist vergleichbar mit der Auflösung in der Röntgenkristallographie. Ein weiteres Projekt dieser Dissertation beschäftigte sich mit der strukturbasierten Medikamentenentwicklung (SBDD). SBDD wird meist von der Röntgenkristallographie durchgeführt. NMR hat jedoch einige Vorteile gegenüber der Röntgenkristallographie, welche interessant für SBDD sind. Daher wurden Strategien entwickelt, die NMR für SBDD zugänglicher machen sollen.